Domina el Big Data en AWS - eLearning
450,00 EUR
- 25 hours
Domina el poder del Big Data en AWS y aprende a diseñar, construir y gestionar sistemas escalables de procesamiento de datos en la nube. Este curso integral está diseñado para ayudarte a entender cómo los servicios de AWS trabajan juntos para procesar grandes volúmenes de datos de forma eficiente y segura. Adquirirás experiencia práctica con herramientas clave de big data como Amazon EMR, Amazon Kinesis, AWS Glue, Amazon Redshift y Amazon Athena. La formación se centra en la creación de canalizaciones de big data de extremo a extremo utilizando ecosistemas Hadoop, análisis basados en Spark y arquitecturas de transmisión de datos en tiempo real.
Características clave
Idioma
Curso y material en inglés
Nivel
Nivel principiante-intermedio
Acceso
1 año de acceso a la plataforma de aprendizaje
14 horas de videos a pedido
con más de 25 horas de estudio recomendadas
18 ejercicios y 6 evaluaciones
4 tareas y 1 proyecto
Certificación
Certificación de finalización del programa incluida

Resultados de aprendizaje
Al final de este curso, serás capaz de:
Entender
Comprender los conceptos de big data y la arquitectura de big data de AWS
Desplegar
Implementar y configurar clústeres de Amazon EMR para procesamiento distribuido
Hadoop
Trabajar con herramientas del ecosistema Hadoop como Hive, Pig y Spark
Kinesis
Procesa datos en tiempo real con Amazon Kinesis
ETL
Usa AWS Glue para la integración de datos y flujos de trabajo ETL
Analizar
Consulta y analiza datos con Amazon Athena y Redshift
Almacenamiento
Implementar estrategias de almacenamiento para sistemas de big data escalables
Diseño
Diseña soluciones de big data seguras y rentables en AWS
Aplicar
Aplica análisis en memoria para un procesamiento de datos más rápido
Canalización
Crea canalizaciones de big data en la nube de extremo a extremo

Cronograma del curso
Introducción al Big Data en AWS
Lección 01
- Fundamentos de Big Data
- Comprender la pila de servicios de AWS para el análisis de macrodatos
- Creación rápida de un lago de datos con Lake Formation
Recopilación, catalogación y preparación de datos
Lección 02
- Patrones de ingesta de datos en AWS
- Migración de datos con AWS DMS y SCT
- Carga de datos por lotes con S3 Load y Transfer Family
- Rastreo de bases de datos con AWS Glue Crawlers
- Transmisión de datos en tiempo real con Kinesis
- Uso de una cola Kafka gestionada para manejar datos de múltiples velocidades
- Incorporación de datos de terceros con AWS AppFlow
Almacenamiento de datos grandes
Lección 03
- Identificación de los requisitos de almacenamiento de datos
- Gestiona tus macrodatos con AWS Glue Catalog
- Realiza consultas interactivas de Big Data con Amazon Athena
- Creación de un almacén de datos con Amazon Redshift
- Incorporación de datos externos para análisis con Redshift Spectrum
- Almacenamiento de datos NoSQL en DynamoDB
Transmisión de datos en tiempo real
Lección 04
- Introducción a los datos en streaming
- Amazon Kinesis Data Streams
- Kinesis Data Firehose y Analytics
- Procesamiento de flujos de datos en tiempo real
Soluciones de almacenamiento de datos en AWS
Lección 05
- Servicios de almacenamiento de AWS para big data
- Elegir el modelo de almacenamiento de datos adecuado
- S3 como lago de datos
- Gestión del ciclo de vida de los datos
Procesamiento de sus datos en AWS
Lección 06
- Introducción a Apache Hadoop y Amazon EMR
- Trabajar con Spark en EMR
- Creación y consulta de tablas con Spark y Spark SQL en Amazon EMR
- Trabajar con AWS Glue
- Creación de orquestación ETL de Big Data con Amazon MWAA
- Visualizar datos con Amazon QuickSight
Tema avanzado sobre Big Data
Lección 07
- Creación de un lago de datos con AWS Lake Formation
- Estrategias de gestión de costos para optimizar clústeres de EMR
- Protección de aplicaciones de Big Data en AWS
- Creación de modelos de ML en un Data Lake con SageMaker

¿Quién debería inscribirse en este programa?
Ingenieros de datos e ingenieros de nube
Arquitectos de soluciones que trabajan con AWS
Analistas de datos y científicos de datos
Profesionales de big data en transición a la nube
Ingenieros de DevOps e ingenieros de soporte
Profesionales de TI que se preparan para certificaciones de datos de AWS
Requisitos previos
- Conocimientos básicos de conceptos de big data (Hadoop, SQL, NoSQL)
- Se recomienda estar familiarizado con los servicios principales de AWS
- Conocimientos de almacenamiento de datos y fundamentos de bases de datos
- Es útil tener experiencia previa con conceptos de computación en la nube
- Comprensión básica de los flujos de trabajo de procesamiento de datos
Declaraciones
Licencias y acreditación
Este curso se ofrece de acuerdo con el Acuerdo del Programa de Socios y cumple con los requisitos del Acuerdo de Licencia
Política de Equidad
Se anima a los candidatos a ponerse en contacto con AVC para recibir orientación y apoyo durante todo el proceso de adaptación.
Preguntas frecuentes

¿Necesita soluciones corporativas o integración LMS?
¿No encontraste el curso o programa que encajaría para tu empresa? ¿Necesitas integración con un LMS? ¡Escríbenos! ¡Resolveremos todo!
