Teleformación
No existen requisitos específicos para la participación en esta acción formativa, salvo que se deberá aportar la documentación necesaria. Se reserva un porcentaje máximo de plazas destinadas para desempleados.
Nivel de cualificación profesional: 3
Objetivo general:
Conocer las principales características del procesamiento masivo de datos en su relación con aplicaciones y algoritmos de Inteligencia Artificial, así como facilitar una aproximación a la planificación y desarrollo de programas de inteligencia artificial y Big Data en el entorno empresarial.
Relación de módulos de formación:
Módulo 1: Introducción al big data e inteligencia artificial (40 horas)
– Adquisición y dominio de conceptos básicos y de conocimientos sobre los avances en Big Data:
– Cómo evoluciona el BI tradicional al Big Data (navegación web, geolocalización, audiencias TV,…)
– El Big Data como solución al tratamiento masivo de datos: definición e historia desde su invención.
– Hadoop como revolución para el tratamiento paralelo de datos masivo.
– Características del Big Data (4 V’s y más): volumetría, velocidad, variedad (estructurados/no estructurados), veracidad (calidad del dato), valor del dato, …
– Nuevos paradigmas del Big Data: Procesos en Real Time y Cloud Computing.
– Conocimiento de nociones básicas sobre arquitectura Big Data y principales tecnologías:
– El ecosistema Hadoop: HDFS y MapReduce.
– Principales lenguajes de programación utilizados: Java, Scala, SQL y Python.
– Procesos ETL (extracción, transformación y carga): Flume, Sqoop y HIVE.
– Procesos Real Time y bases de datos de alta disponibilidad: Kafka, HBASE y Redis.
– Procesamiento y analítica avanzada con Spark.
– Seguridad y gobierno del dato.
– Comprensión de los principales conceptos sobre La “Ciencia de datos” e IA:
– Introducción a la “Ciencia de datos” y la Inteligencia Artificial.
– Principales lenguajes de programación utilizados: R y Python.
– Algoritmos supervisados: ¿Qué son? Algunos Ejemplos.
– Algoritmos no-supervisados: ¿Qué son? Algunos Ejemplos.
– Introducción al Deep Learning y el Aprendizaje por Refuerzo.
– Procesamiento de información no estructurada: Imágenes y Textos.
– Visualización de datos: Visualizaciones interactivas y Dashboards.
– Adquisición de una visión trasversal sobre el futuro del BigData y cómo se aplica actualmente en diferentes áreas:
– Ejemplos en las instituciones públicas: OpenData.
– Ejemplos en el mundo empresarial: ejemplos de aplicabilidad del Big Data a la eficiencia de las operaciones de una compañía.
– “Data for Good”: Big Data para el bien social.
– Reflexiones finales sobre el impacto del Big Data en los años venideros.