Master Big Data Processing

Grupo Atrium
Consulta precio y condiciones sin compromiso

Programa

LasOposiciones.net ha seleccionado de entre 68 Masters Big Data ,este Master para ti. El Master Big Data Analytics and Processing Foundations se imparte en modalidad presencial en Madrid.

SALIDAS LABORALES
Estas son algunas de las salidas laborales a las que optarás:
-Arquitecto de soluciones Big Data

-Administrador y/o desarrollador de sistemas Big Data
.Chief Data Officer (CDO).
.Machine Learning Engineer.
.Business Analyst.
.Big Data Consultant.

-Analista de datos (Data Analyst)
.Big Data Developer.
.Big Data Engineer.
.Data Scientist.
.Data Analyst.
.NLP Consultant.

METODOLOGIA
Formación Presencial
Segmentación Madrid

Prácticas en empresas especializadas (opcionales)
Disponemos de una red de colaboradores para que puedas cursar prácticas.
Profesores Expertos. Todo nuestro claustro docente se distingue por ser expertos en la materia y trabajadores en activo del mundo digital.

Acceso a Bolsa de Empleo.

Requisitos

Ninguno

Temario

MÓDULO 1: INTRODUCCION SISTEMAS DE INFORMACIÓN
• Introducción. BI y DWH

• Sistemas operativos (LINUX, introducción a DOS y PowerShell)
-Conceptos generales de Linux
-Comandos, variables de entorno y scripts
-Control y planificación de procesos
-Sistemas de almacenamiento y sistemas de ficheros
-Administración Básica de Linux
-Introducción DOS y Powershell

• Técnicas Data Warehousing y SQL
-Conceptos generales Data Warehouse
-Gestor de base de datos.
-Lenguaje de manipulación de datos (DML), sentencias Select, insert, update, delete, merge
-Lenguaje de definición de datos (DDL), sentencias Create, Alter, Drop
-Operadores aritméticos, lógicos, de relación
-Funciones de fila simple, de grupo. Subselects, joins
 
• ETL, Extracción, Transformación y Carga de datos
-Introduction
-Database Vs Data Warehouse
-Preparacíon de entornos e instalacion
-Principales algoritmos en integracion de datos
-Principales ETL del mercado: (Pentaho, Talend, Qulick..)
.Lectura y escritura de ficheros planos y  base de datos 
.Uso de las principales funciones (agregación, join, uniones, sorters,..)
.Carga de un modelo de datos

MÓDULO 2: BASES DE DATOS NOSQL                       
• Introducción a las bases de datos NoSQL
- ¿Qué son?
-Tipos de BBDD NoSQL
-Ventajas y desventajas

• Introducción a BBDD NOSQL orientada a documentos (MongoDB)
-CRUD (Create, Read, Update and Delete) y el shell de Mongo DB
-Uso de cursores en MongoDB
-Sharding: distribución de la información en múltiples servidores
-Motores de almacenamiento en MongDb e índices

• Introducción a BBDD NOSQL orientada a grafos (Neo4j)
-Introducción.
-Operaciones y análisis de grafos
-Cypher Query Languaje

MÓDULO 3: VISUALIZACIÓN                                                       
• La Visualización de Datos
• Cómo desarrollar visualizaciones efectivas
• Recogida de datos y análisis
• Principales herramientas del mercado: Tableau, Qlick Sense, Power BI..

MÓDULO 4: PYTHON PARA ANÁLISIS DE DATOS                        
• Introducción
• Tipos: cadenas, listas, diccionarios, tuplas, etc
• Iteración: Loops e ifs
• Lectura y escritura de ficheros
• Librerías: numpy, matplotlib, pandas, etc
• Introducción a modelos predictivos

MÓDULO 5: HADOOP Y SU ECOSISTEMA   
                                  
• Apache Hadoop: Introducción
• El sistema de almacenamiento de ficheros HDFS y MapReduce
• Ecosistema Hadoop: hive, sqoop, hue, ...
• Arquitectura de un cluster
• Arquitectura Yarn
• Tipos de despliegue Hadoop
• Streaming
• Seguridad

MÓDULO 6: SPARK   
                                                                
• Introducción a Apache Spark
• Módulos Spark:
-Spark Sql
-Spark Streaming
-Spark MLlib
-GraphX
• Creación y manejo de RDDs
• Pair RDDs
• Spark vs MapReduce
• HDFS y Spark
• Spark en cluster
• Programación en Spark:
-Spark Java API (Javadoc)
-Spark R API (Roxygen2)
-Scala API
-PySpark Python API
.Introducción a la programación en Scala y PySpark
.Estructuras de control básicas
.Tipos de datos
.Colecciones
.Funciones principales

Objetivos

-Uso y gestión de los sistemas BI Y Big Data y de las tecnologías asociadas, adquisición de competencias básicas de la explotación de datos.

-Conocer funcionamiento y adquirir competencias básicas en el uso de BBDD NOSQL orientadas a documentos (MongoDB) y orientadas a grafos Neo4J.

-Adquisición de conocimientos y competencias prácticas básicas en técnicas de visualización , aprender a diseñar y construir visualizaciones interactivas.

-Adquirir las bases necesarias del lenguaje Phyton, para su posterior aplicación en el desarrollo de programas, y pruebas unitarias, combinadas con la utilización de patrones y buenas prácticas de programación.

-Conocer las formas de procesamiento/almacenamiento de datos a gran escala. Ecosistema Hadoop.

-Conocer la arquitectura Spak y su impacto en el mundo Big Data. Módulos de Spark. Procesamiento a gran escala con Spark. Programación con Scala y PySpark.

Duración


Precio

2975 €

Solicita información GRATIS sobre este curso

Seleccionar esta opción significa que aceptas la política de privacidad y las condiciones de uso de topformacion.com