Curso de Apache Spark y Scala - Presencial

1.995,00 EUR

  • 24 hours
Aula Virtual en Vivo
En la Empresa
Próxima cohorte:May 11, 2026
+ 14 días restantes

Libera todo el potencial del big data dominando Apache Spark con Scala, una de las combinaciones más potentes en la ingeniería de datos moderna. Este curso práctico está diseñado para ayudarte a procesar, analizar y extraer información de conjuntos de datos masivos utilizando las capacidades de computación en memoria y alta velocidad de Spark. Aprenderás a crear canalizaciones de datos escalables, realizar análisis en tiempo real e implementar modelos de aprendizaje automático, todo mientras desarrollas sólidas habilidades de programación en Scala.

Características clave

Idioma

Material del curso en inglés

Nivel

Nivel principiante - intermedio

24 horas de formación práctica dirigida por un instructor

Más de 50 horas de estudio recomendadas

3 proyectos reales para aplicación práctica

Más de 70 horas de cuestionarios, tareas y material de práctica

Laboratorios prácticos con conjuntos de datos del mundo real

Cobertura de herramientas del ecosistema de Spark como Spark SQL, MLlib y Streaming

Experiencia práctica con programación en Scala

Mentoría y orientación expertas durante todo el curso

¡Pide confirmación de la fecha!

Certificación de finalización del programa incluida

Hero

Resultados de aprendizaje

Al final de este programa, podrás:

Fundamentos de Big Data

Desarrolla una comprensión sólida de los conceptos de big data, sus componentes clave y los principales frameworks, incluida la arquitectura de Hadoop y sus modos de funcionamiento.

Introducción a Scala

Aprende los fundamentos de la programación en Scala, incluida su sintaxis básica y los conceptos necesarios para trabajar con Apache Spark.

Introducción a Spark

Comprender los principios fundamentales de Apache Spark y cómo crear y ejecutar aplicaciones Spark.

Framework y despliegue de Spark

Explora en profundidad el framework Spark, incluida su arquitectura y los distintos enfoques de implementación.

Estructuras de datos de Spark

Trabaja con las estructuras de datos internas de Spark, como los RDD, y utiliza APIs y funciones de Scala para crear y transformar datos.

Ecosistema de Spark

Adquiere experiencia práctica con los componentes clave del ecosistema de Spark, incluidos Spark SQL, Streaming, MLlib, GraphX y más.

Hero

Cronograma del curso

  1. Introducción a Big Data, Hadoop y Spark

    Lección 1

    • Conceptos de big data y casos de uso en el mundo real
    • Ecosistema de Hadoop y HDFS
    • Arquitectura de clúster y YARN
    • Procesamiento por lotes vs procesamiento en tiempo real
    • Introducción a Spark y sus ventajas
  2. Introducción a Scala

    Lección 2

    • Conceptos básicos de Scala y REPL
    • Variables, estructuras de control y funciones
    • Colecciones (Array, Map, Listas, Tuplas)
    • Scala en ecosistemas de big data
  3. Programación orientada a objetos y funcional en Scala

    Lección 3

    • Clases, objetos y paquetes
    • Rasgos y herencia
    • Conceptos de programación funcional
    • Funciones de orden superior y manejo de errores
  4. APIs de colecciones de Scala

    Lección 4

    • Tipos de colecciones y jerarquías
    • Características de rendimiento
    • Interoperabilidad con Java
    • Uso de implicits en Scala
  5. Introducción a Spark y los RDD

    Lección 5

    • Arquitectura y configuración de Spark
    • Aplicaciones de Spark y la consola de Spark
    • RDD (Conjuntos de Datos Distribuidos Resilientes)
    • Transformaciones y acciones de datos
    • Almacenamiento en caché y persistencia
    • Cargar y guardar datos
  6. Spark SQL y procesamiento de datos

    Lección 6

    • Arquitectura de Spark SQL
    • DataFrames y Datasets
    • Trabajar con JSON y Parquet
    • Funciones definidas por el usuario (UDF)
    • Integración con Hive
  7. Aprendizaje automático con Spark MLlib

    Lección 7

    • Introducción a los conceptos de aprendizaje automático
    • Funciones y herramientas de MLlib
    • Algoritmos supervisados y no supervisados
    • Regresión lineal, árboles de decisión, bosques aleatorios
    • Técnicas de agrupamiento
  8. Transmisión con Kafka y Flume

    Lección 8

    • Conceptos de procesamiento de datos en tiempo real
    • Arquitectura de Kafka y configuración del clúster
    • Canalizaciones de ingesta y transmisión de datos
Curso de Apache Spark y Scala

¿Quién debería inscribirse en este programa?

Requisitos previos

  • Conocimientos básicos de SQL y bases de datos
  • Familiaridad con la programación (se recomienda Python, Java o Scala)
  • Conocimientos básicos de Linux/Unix (útiles pero no obligatorios)
  • La experiencia con conceptos de Hadoop es beneficiosa, pero no es obligatoria



Científicos de Datos e Ingenieros de Datos

Analistas de Datos y Profesionales de BI

Desarrolladores y arquitectos de software

Profesionales de investigación que trabajan con datos

Comenzar curso ahora

Declaraciones

Licencias y acreditación

El curso se ofrece de acuerdo con el Acuerdo del Programa de Socios y cumple con los requisitos del Acuerdo de Licencia.

Política de equidad

Se anima a los candidatos a ponerse en contacto con AVC para recibir orientación y apoyo durante todo el proceso de adaptación.

Preguntas frecuentes

Contact background

¿Necesita soluciones corporativas o integración LMS?

¿No encontraste el curso o programa que encajaría para tu empresa? ¿Necesitas integración con un LMS? ¡Escríbenos! ¡Resolveremos todo!