Adquisición y dominio de conceptos básicos y de conocimientos sobre los avances en Big Data:
- Cómo evoluciona el BI tradicional al Big Data (navegación web, geolocalización, audiencias TV,…).
- El Big Data como solución al tratamiento masivo de datos: definición e historia desde su invención.
- Hadoop como revolución para el tratamiento paralelo de datos masivo.
- Características del Big Data (4 V's y más): volumetría, velocidad, variedad (estructurados/noestructurados), veracidad (calidad del dato), valor del dato, …
- Nuevos paradigmas del Big Data: Procesos en Real Time y Cloud Computing.
• Conocimiento de nociones básicas sobre arquitectura Big Data y principales tecnologías:
- El ecosistema Hadoop: HDFS y MapReduce.- Principales lenguajes de programación utilizados: Java, Scala, SQL y Python.
- Procesos ETL (extracción, transformación y carga): Flume, Sqoop y HIVE.
- Procesos Real Time y bases de datos de alta disponibilidad: Kafka, HBASE y Redis.
- Procesamiento y analítica avanzada con Spark.
- Seguridad y gobierno del dato.
• Comprensión de los principales conceptos sobre La “Ciencia de datos” e IA:
- Introducción a la “Ciencia de datos” y la Inteligencia Artificial.
- Principales lenguajes de programación utilizados: R y Python.
- Algoritmos supervisados: ¿Qué son? Algunos Ejemplos.
- Algoritmos no-supervisados: ¿Qué son? Algunos Ejemplos.
- Introducción al Deep Learning y el Aprendizaje por Refuerzo.
- Procesamiento de información no estructurada: Imágenes y Textos.
- Visualización de datos: Visualizaciones interactivas y Dashboards.
• Adquisición de una visión trasversal sobre el futuro del BigData y cómo se aplica actualmente endiferentes áreas:
- Ejemplos en las instituciones públicas: OpenData.
- Ejemplos en el mundo empresarial: ejemplos de aplicabilidad del Big Data a la eficiencia de lasoperaciones de una compañía.
- “Data for Good”: Big Data para el bien social.- Reflexiones finales sobre el impacto del Big Data en los años venideros.