Domina el Big Data en AWS - eLearning

450,00 EUR

  • 25 hours
eLearning

Domina el poder del Big Data en AWS y aprende a diseñar, construir y gestionar sistemas escalables de procesamiento de datos en la nube. Este curso integral está diseñado para ayudarte a entender cómo los servicios de AWS trabajan juntos para procesar grandes volúmenes de datos de forma eficiente y segura. Adquirirás experiencia práctica con herramientas clave de big data como Amazon EMR, Amazon Kinesis, AWS Glue, Amazon Redshift y Amazon Athena. La formación se centra en la creación de canalizaciones de big data de extremo a extremo utilizando ecosistemas Hadoop, análisis basados en Spark y arquitecturas de transmisión de datos en tiempo real.

Características clave

Idioma

Curso y material en inglés

Nivel

Nivel principiante-intermedio

Acceso

1 año de acceso a la plataforma de aprendizaje

14 horas de videos a pedido

con más de 25 horas de estudio recomendadas

18 ejercicios y 6 evaluaciones

4 tareas y 1 proyecto

Certificación

Certificación de finalización del programa incluida

Hero

Resultados de aprendizaje

Al final de este curso, serás capaz de:

Entender

Comprender los conceptos de big data y la arquitectura de big data de AWS

Desplegar

Implementar y configurar clústeres de Amazon EMR para procesamiento distribuido

Hadoop

Trabajar con herramientas del ecosistema Hadoop como Hive, Pig y Spark

Kinesis

Procesa datos en tiempo real con Amazon Kinesis

ETL

Usa AWS Glue para la integración de datos y flujos de trabajo ETL

Analizar

Consulta y analiza datos con Amazon Athena y Redshift

Almacenamiento

Implementar estrategias de almacenamiento para sistemas de big data escalables

Diseño

Diseña soluciones de big data seguras y rentables en AWS

Aplicar

Aplica análisis en memoria para un procesamiento de datos más rápido

Canalización

Crea canalizaciones de big data en la nube de extremo a extremo

Hero

Cronograma del curso

  1. Introducción al Big Data en AWS

    Lección 01

    • Fundamentos de Big Data
    • Comprender la pila de servicios de AWS para el análisis de macrodatos
    • Creación rápida de un lago de datos con Lake Formation
  2. Recopilación, catalogación y preparación de datos

    Lección 02

    • Patrones de ingesta de datos en AWS
    • Migración de datos con AWS DMS y SCT
    • Carga de datos por lotes con S3 Load y Transfer Family
    • Rastreo de bases de datos con AWS Glue Crawlers
    • Transmisión de datos en tiempo real con Kinesis
    • Uso de una cola Kafka gestionada para manejar datos de múltiples velocidades
    • Incorporación de datos de terceros con AWS AppFlow
  3. Almacenamiento de datos grandes

    Lección 03

    • Identificación de los requisitos de almacenamiento de datos
    • Gestiona tus macrodatos con AWS Glue Catalog
    • Realiza consultas interactivas de Big Data con Amazon Athena
    • Creación de un almacén de datos con Amazon Redshift
    • Incorporación de datos externos para análisis con Redshift Spectrum
    • Almacenamiento de datos NoSQL en DynamoDB
  4. Transmisión de datos en tiempo real

    Lección 04

    • Introducción a los datos en streaming
    • Amazon Kinesis Data Streams
    • Kinesis Data Firehose y Analytics
    • Procesamiento de flujos de datos en tiempo real
  5. Soluciones de almacenamiento de datos en AWS

    Lección 05

    • Servicios de almacenamiento de AWS para big data
    • Elegir el modelo de almacenamiento de datos adecuado
    • S3 como lago de datos
    • Gestión del ciclo de vida de los datos
  6. Procesamiento de sus datos en AWS

    Lección 06

    • Introducción a Apache Hadoop y Amazon EMR
    • Trabajar con Spark en EMR
    • Creación y consulta de tablas con Spark y Spark SQL en Amazon EMR
    • Trabajar con AWS Glue
    • Creación de orquestación ETL de Big Data con Amazon MWAA
    • Visualizar datos con Amazon QuickSight
  7. Tema avanzado sobre Big Data

    Lección 07

    • Creación de un lago de datos con AWS Lake Formation
    • Estrategias de gestión de costos para optimizar clústeres de EMR
    • Protección de aplicaciones de Big Data en AWS
    • Creación de modelos de ML en un Data Lake con SageMaker
Domina el Big Data en AWS

¿Quién debería inscribirse en este programa?

Ingenieros de datos e ingenieros de nube

Arquitectos de soluciones que trabajan con AWS

Analistas de datos y científicos de datos

Profesionales de big data en transición a la nube

Ingenieros de DevOps e ingenieros de soporte

Profesionales de TI que se preparan para certificaciones de datos de AWS

Comenzar curso ahora

Requisitos previos

  • Conocimientos básicos de conceptos de big data (Hadoop, SQL, NoSQL)
  • Se recomienda estar familiarizado con los servicios principales de AWS
  • Conocimientos de almacenamiento de datos y fundamentos de bases de datos
  • Es útil tener experiencia previa con conceptos de computación en la nube
  • Comprensión básica de los flujos de trabajo de procesamiento de datos

Declaraciones

Licencias y acreditación

Este curso se ofrece de acuerdo con el Acuerdo del Programa de Socios y cumple con los requisitos del Acuerdo de Licencia

Política de Equidad

Se anima a los candidatos a ponerse en contacto con AVC para recibir orientación y apoyo durante todo el proceso de adaptación.


Preguntas frecuentes

Contact background

¿Necesita soluciones corporativas o integración LMS?

¿No encontraste el curso o programa que encajaría para tu empresa? ¿Necesitas integración con un LMS? ¡Escríbenos! ¡Resolveremos todo!