Curso de Apache Spark y Scala - Presencial
1.995,00 EUR
- 24 hours
Libera todo el potencial del big data dominando Apache Spark con Scala, una de las combinaciones más potentes en la ingeniería de datos moderna. Este curso práctico está diseñado para ayudarte a procesar, analizar y extraer información de conjuntos de datos masivos utilizando las capacidades de computación en memoria y alta velocidad de Spark. Aprenderás a crear canalizaciones de datos escalables, realizar análisis en tiempo real e implementar modelos de aprendizaje automático, todo mientras desarrollas sólidas habilidades de programación en Scala.
Características clave
Idioma
Material del curso en inglés
Nivel
Nivel principiante - intermedio
24 horas de formación práctica dirigida por un instructor
Más de 50 horas de estudio recomendadas
3 proyectos reales para aplicación práctica
Más de 70 horas de cuestionarios, tareas y material de práctica
Laboratorios prácticos con conjuntos de datos del mundo real
Cobertura de herramientas del ecosistema de Spark como Spark SQL, MLlib y Streaming
Experiencia práctica con programación en Scala
Mentoría y orientación expertas durante todo el curso
¡Pide confirmación de la fecha!
Certificación de finalización del programa incluida

Resultados de aprendizaje
Al final de este programa, podrás:
Fundamentos de Big Data
Desarrolla una comprensión sólida de los conceptos de big data, sus componentes clave y los principales frameworks, incluida la arquitectura de Hadoop y sus modos de funcionamiento.
Introducción a Scala
Aprende los fundamentos de la programación en Scala, incluida su sintaxis básica y los conceptos necesarios para trabajar con Apache Spark.
Introducción a Spark
Comprender los principios fundamentales de Apache Spark y cómo crear y ejecutar aplicaciones Spark.
Framework y despliegue de Spark
Explora en profundidad el framework Spark, incluida su arquitectura y los distintos enfoques de implementación.
Estructuras de datos de Spark
Trabaja con las estructuras de datos internas de Spark, como los RDD, y utiliza APIs y funciones de Scala para crear y transformar datos.
Ecosistema de Spark
Adquiere experiencia práctica con los componentes clave del ecosistema de Spark, incluidos Spark SQL, Streaming, MLlib, GraphX y más.

Cronograma del curso
Introducción a Big Data, Hadoop y Spark
Lección 1
- Conceptos de big data y casos de uso en el mundo real
- Ecosistema de Hadoop y HDFS
- Arquitectura de clúster y YARN
- Procesamiento por lotes vs procesamiento en tiempo real
- Introducción a Spark y sus ventajas
Introducción a Scala
Lección 2
- Conceptos básicos de Scala y REPL
- Variables, estructuras de control y funciones
- Colecciones (Array, Map, Listas, Tuplas)
- Scala en ecosistemas de big data
Programación orientada a objetos y funcional en Scala
Lección 3
- Clases, objetos y paquetes
- Rasgos y herencia
- Conceptos de programación funcional
- Funciones de orden superior y manejo de errores
APIs de colecciones de Scala
Lección 4
- Tipos de colecciones y jerarquías
- Características de rendimiento
- Interoperabilidad con Java
- Uso de implicits en Scala
Introducción a Spark y los RDD
Lección 5
- Arquitectura y configuración de Spark
- Aplicaciones de Spark y la consola de Spark
- RDD (Conjuntos de Datos Distribuidos Resilientes)
- Transformaciones y acciones de datos
- Almacenamiento en caché y persistencia
- Cargar y guardar datos
Spark SQL y procesamiento de datos
Lección 6
- Arquitectura de Spark SQL
- DataFrames y Datasets
- Trabajar con JSON y Parquet
- Funciones definidas por el usuario (UDF)
- Integración con Hive
Aprendizaje automático con Spark MLlib
Lección 7
- Introducción a los conceptos de aprendizaje automático
- Funciones y herramientas de MLlib
- Algoritmos supervisados y no supervisados
- Regresión lineal, árboles de decisión, bosques aleatorios
- Técnicas de agrupamiento
Transmisión con Kafka y Flume
Lección 8
- Conceptos de procesamiento de datos en tiempo real
- Arquitectura de Kafka y configuración del clúster
- Canalizaciones de ingesta y transmisión de datos

¿Quién debería inscribirse en este programa?
Requisitos previos
- Conocimientos básicos de SQL y bases de datos
- Familiaridad con la programación (se recomienda Python, Java o Scala)
- Conocimientos básicos de Linux/Unix (útiles pero no obligatorios)
- La experiencia con conceptos de Hadoop es beneficiosa, pero no es obligatoria
Científicos de Datos e Ingenieros de Datos
Analistas de Datos y Profesionales de BI
Desarrolladores y arquitectos de software
Profesionales de investigación que trabajan con datos
Declaraciones
Licencias y acreditación
El curso se ofrece de acuerdo con el Acuerdo del Programa de Socios y cumple con los requisitos del Acuerdo de Licencia.
Política de equidad
Se anima a los candidatos a ponerse en contacto con AVC para recibir orientación y apoyo durante todo el proceso de adaptación.
Preguntas frecuentes

¿Necesita soluciones corporativas o integración LMS?
¿No encontraste el curso o programa que encajaría para tu empresa? ¿Necesitas integración con un LMS? ¡Escríbenos! ¡Resolveremos todo!
