Master Big Data Processing
Grupo AtriumConsulta precio y condiciones sin compromiso
Programa
LasOposiciones.net ha seleccionado de entre 68 Masters Big Data ,este Master para ti. El Master Big Data Analytics and Processing Foundations se imparte en modalidad presencial en Madrid.SALIDAS LABORALES
Estas son algunas de las salidas laborales a las que optarás:
-Arquitecto de soluciones Big Data
-Administrador y/o desarrollador de sistemas Big Data
.Chief Data Officer (CDO).
.Machine Learning Engineer.
.Business Analyst.
.Big Data Consultant.
-Analista de datos (Data Analyst)
.Big Data Developer.
.Big Data Engineer.
.Data Scientist.
.Data Analyst.
.NLP Consultant.
METODOLOGIA
Formación Presencial
Segmentación Madrid
Prácticas en empresas especializadas (opcionales)
Disponemos de una red de colaboradores para que puedas cursar prácticas.
Profesores Expertos. Todo nuestro claustro docente se distingue por ser expertos en la materia y trabajadores en activo del mundo digital.
Acceso a Bolsa de Empleo.
Requisitos
NingunoTemario
MÓDULO 1: INTRODUCCION SISTEMAS DE INFORMACIÓN Introducción. BI y DWH
Sistemas operativos (LINUX, introducción a DOS y PowerShell)
-Conceptos generales de Linux
-Comandos, variables de entorno y scripts
-Control y planificación de procesos
-Sistemas de almacenamiento y sistemas de ficheros
-Administración Básica de Linux
-Introducción DOS y Powershell
Técnicas Data Warehousing y SQL
-Conceptos generales Data Warehouse
-Gestor de base de datos.
-Lenguaje de manipulación de datos (DML), sentencias Select, insert, update, delete, merge
-Lenguaje de definición de datos (DDL), sentencias Create, Alter, Drop
-Operadores aritméticos, lógicos, de relación
-Funciones de fila simple, de grupo. Subselects, joins
ETL, Extracción, Transformación y Carga de datos
-Introduction
-Database Vs Data Warehouse
-Preparacíon de entornos e instalacion
-Principales algoritmos en integracion de datos
-Principales ETL del mercado: (Pentaho, Talend, Qulick..)
.Lectura y escritura de ficheros planos y base de datos
.Uso de las principales funciones (agregación, join, uniones, sorters,..)
.Carga de un modelo de datos
MÓDULO 2: BASES DE DATOS NOSQL
Introducción a las bases de datos NoSQL
- ¿Qué son?
-Tipos de BBDD NoSQL
-Ventajas y desventajas
Introducción a BBDD NOSQL orientada a documentos (MongoDB)
-CRUD (Create, Read, Update and Delete) y el shell de Mongo DB
-Uso de cursores en MongoDB
-Sharding: distribución de la información en múltiples servidores
-Motores de almacenamiento en MongDb e índices
Introducción a BBDD NOSQL orientada a grafos (Neo4j)
-Introducción.
-Operaciones y análisis de grafos
-Cypher Query Languaje
MÓDULO 3: VISUALIZACIÓN
La Visualización de Datos
Cómo desarrollar visualizaciones efectivas
Recogida de datos y análisis
Principales herramientas del mercado: Tableau, Qlick Sense, Power BI..
MÓDULO 4: PYTHON PARA ANÁLISIS DE DATOS
Introducción
Tipos: cadenas, listas, diccionarios, tuplas, etc
Iteración: Loops e ifs
Lectura y escritura de ficheros
Librerías: numpy, matplotlib, pandas, etc
Introducción a modelos predictivos
MÓDULO 5: HADOOP Y SU ECOSISTEMA
Apache Hadoop: Introducción
El sistema de almacenamiento de ficheros HDFS y MapReduce
Ecosistema Hadoop: hive, sqoop, hue, ...
Arquitectura de un cluster
Arquitectura Yarn
Tipos de despliegue Hadoop
Streaming
Seguridad
MÓDULO 6: SPARK
Introducción a Apache Spark
Módulos Spark:
-Spark Sql
-Spark Streaming
-Spark MLlib
-GraphX
Creación y manejo de RDDs
Pair RDDs
Spark vs MapReduce
HDFS y Spark
Spark en cluster
Programación en Spark:
-Spark Java API (Javadoc)
-Spark R API (Roxygen2)
-Scala API
-PySpark Python API
.Introducción a la programación en Scala y PySpark
.Estructuras de control básicas
.Tipos de datos
.Colecciones
.Funciones principales
Objetivos
-Uso y gestión de los sistemas BI Y Big Data y de las tecnologías asociadas, adquisición de competencias básicas de la explotación de datos.-Conocer funcionamiento y adquirir competencias básicas en el uso de BBDD NOSQL orientadas a documentos (MongoDB) y orientadas a grafos Neo4J.
-Adquisición de conocimientos y competencias prácticas básicas en técnicas de visualización , aprender a diseñar y construir visualizaciones interactivas.
-Adquirir las bases necesarias del lenguaje Phyton, para su posterior aplicación en el desarrollo de programas, y pruebas unitarias, combinadas con la utilización de patrones y buenas prácticas de programación.
-Conocer las formas de procesamiento/almacenamiento de datos a gran escala. Ecosistema Hadoop.
-Conocer la arquitectura Spak y su impacto en el mundo Big Data. Módulos de Spark. Procesamiento a gran escala con Spark. Programación con Scala y PySpark.