Presentación

Estás ante una oportunidad académica única de orientar tu carrera hacia un sector en auge como es el Big Data a través de una maestría oficial 100% online”

##IMAGE##

El desarrollo de las nuevas tecnologías digitales y de la comunicación ha revolucionado la sociedad, influyendo en la cultura, así como en los hábitos relacionales, de consumo, de comportamiento, etc. Esto ha generado un altísimo nivel de conectividad y, por lo tanto, la generación de información constante y en cantidades incalculables. Las empresas han aprovechado este hecho, estudiando el mercado y orientando su actividad hacia la demanda de su público objetivo. Sin embargo, llegar a esta conclusión requiere de un conocimiento especializado y arduo de la gestión de datos, de ahí que los profesionales de este sector estén considerados en tan alta estima.

Por ello, y teniendo en cuenta la demanda del mercado laboral actual, TECH ha considerado necesario el desarrollo de una titulación que recoja, precisamente, los recursos necesarios para alcanzar este altísimo nivel de especialización. Así surge TECH Universidad Tecnológica en Análisis Visual y Macrodatos, un programa innovador y completo que aportará al egresado los conocimientos necesarios para dominar este campo a través de una experiencia académica 100% online. Y es que recoge el contenido más novedoso relacionado con la interpretación y la gestión de información, las técnicas de análisis más efectivas y las claves para dominar las principales herramientas de gestión de Big Data que existen actualmente.

Todo ello a través de una titulación con RVOE, diseñada por los mejores profesionales y orientada a aportar a la carrera del alumno un plus distintivo considerable. En ella encontrará contenido diverso y multidisciplinar, alojado en un Campus Virtual de última generación al cual podrá acceder desde cualquier dispositivo con conexión a internet. De esta manera, TECH ofrece a sus egresados la oportunidad de invertir en su futuro a través de un programa que se adapta a sus necesidades, así como a las exigencias del mercado laboral actual, con un horario totalmente flexible, con los mejores recursos pedagógicos y con el apoyo de un claustro del máximo nivel dentro del ámbito del Análisis Visual y Macrodatos.

TECH brinda la oportunidad de obtener la maestría oficial en Análisis Visual y Macrodatos en un formato 100% en línea, con titulación directa y un programa diseñado para aprovechar cada tarea en la adquisición de competencias para desempeñar un papel relevante en la empresa. Pero, además, con este programa, el estudiante tendrá acceso al estudio de idiomas extranjeros y formación continuada de modo que pueda potenciar su etapa de estudio y logre una ventaja competitiva con los egresados de otras universidades menos orientadas al mercado laboral.

Un camino creado para conseguir un cambio positivo a nivel profesional, relacionándose con los mejores y formando parte de la nueva generación de futuros informáticos especializados capaces de desarrollar su labor en cualquier lugar del mundo.

##IMAGE##

El curso de esta maestría oficial potenciará tus habilidades en la gestión de dificultades para el manejo de grandes cantidades de información, una habilidad muy valorada en el mercado laboral” 

Plan de estudios

El equipo de TECH invierte cientos de horas en la elaboración de cada Plan de estudios, revisando minuciosamente el contexto en el que se va a centrar el programa y sintetizando la información para aportar, precisamente, lo que el mercado laboral exige. Así, titulaciones como esta maestría oficial en Análisis Visual y Macrodatos son una oportunidad idónea para acceder al mejor contenido, gracias al cual desarrollará aptitudes profesionales de liderazgo, dirección y gestión que impulsarán su carrera.

En el Campus Virtual encontrarás horas de material audiovisual para ampliar cada apartado de manera dinámica y efectiva” 

Plan de estudios

TECH ofrece una experiencia académica 100% online, de tal forma que el egresado pueda organizar su calendario de estudio en base a su propia disponibilidad, sin horarios ni clases presenciales. De esta manera, tendrá la posibilidad de asumir su propio ritmo, sin agobios, decidiendo en todo momento cuánto tiempo invertir, algo que se traduce en un progreso más cómodo y flexible y, por lo tanto, más efectivo.

Concretamente esta maestría oficial en Análisis Visual y Macrodatos está dividida en 10 módulos, todos ellos diseñados por profesionales del máximo nivel dentro de este ámbito. Además, cada uno incluye cientos de horas de contenido multidisciplinar, teórico, práctico y multimedia, permitiendo al alumno ampliar cada apartado de manera personalizada y en función a sus intereses. Así, se adapta a sus exigencias, convirtiendo el curso de la titulación en una experiencia completa y beneficiosa para su desarrollo profesional.

Módulo 1. Análisis Visual en el contexto social y tecnológico
Módulo 2. Análisis e interpretación de datos  
Módulo 3. Técnicas de análisis de datos (EIA)  
Módulo 4. Herramientas de Análisis de Datos 
Módulo 5. Sistemas de gestión de Bases de Datos y paralelización de datos  
Módulo 6. Habilidades blandas dirigidas por datos en la dirección estratégica en Análisis Visual  
Módulo 7. Dirección estratégica de proyectos de Análisis Visual y Macrodatos  
Módulo 8. Análisis del cliente aplicando la inteligencia de los datos a la Mercadotecnia
Módulo 9. Visualización interactiva de los datos  
Módulo 10. Herramientas de visualización

##IMAGE##

Dónde, cuándo y cómo se imparte

Esta maestría oficial se ofrece 100% en línea, por lo que alumno podrá cursarla desde cualquier sitio, haciendo uso de una computadora, una tableta o simplemente mediante su smartphone.

Además, podrá acceder a los contenidos tanto online como offline. Para hacerlo offline bastará con descargarse los contenidos de los temas elegidos, en el dispositivo y abordarlos sin necesidad de estar conectado a internet.

El alumno podrá cursar la maestría oficial a través de sus 10 módulos, de forma autodirigida y asincrónica. Adaptamos el formato y la metodología para aprovechar al máximo el tiempo y lograr un aprendizaje a medida de las necesidades del alumno.

¿Te gustaría distinguirte por tu altísimo nivel en el manejo de la paralelización de datos complejos? Si la respuesta es afirmativa, esta titulación es para ti”

Módulo 1. Análisis Visual en el contexto social y tecnológico

1.1. Las Olas Tecnológicas en las diferentes sociedades. Hacia una sociedad de los datos

1.1.1. Olas tecnológicas

1.1.1.1. Primera ola
1.1.1.2. Segunda ola
1.1.1.3. Tercera ola

1.1.2. La sociedad de los datos

1.1.2.1. Cuarta ola

1.2. La Globalización. Contexto Mundial Geopolítico y Social

1.2.1. Concepto de globalización
1.2.2. El ascenso de las cadenas globales de valor
1.2.3. Factores que han impulsado la globalización
1.2.4. Tipos de globalización

1.2.4.1. Globalización económica
1.2.4.2. Globalización cultural
1.2.4.3. Globalización social y política
1.2.4.4. Globalización tecnológica

1.2.5. La tecnología: un elemento clave en la globalización
1.2.6. Ventajas de la globalización tecnológica
1.2.7. La digitalización impulsa la globalización
1.2.8. La globalización: una realidad imparable
1.2.9. ¿Cómo globalizar su empresa?

1.3. Entorno VUCA. Viviendo siempre en el pasado

1.3.1. Entorno de volatilidad, incertidumbre, complejidad y ambigüedad (VUCA)
1.3.2. Líderes VUCA
1.3.3. Palabras clave a considerar en un entorno VUCA
1.3.4. ¿Cuál debe ser el valor diferencial?
1.3.5. Nuevas generaciones digitales
1.3.6. ¿Cómo adaptarse a un entorno VUCA y beneficiarse de él?
1.3.7. Un ejemplo de gestión VUCA: el circo del Sol
1.3.8. Incertidumbre, complejidad y ambigüedad e hiperconectividad (VUCA+H)

1.4. Conociendo las nuevas tecnologías: internet de las cosas (IoT) y 5G

1.4.1. Características de la tecnología 5G
1.4.2. Corte de red
1.4.3. Internet de las cosas (IoT)
1.4.4. Coche conectado

1.5. Conociendo las nuevas tecnologías: computación en la nube y computación en la frontera

1.5.1. Computación en la nube
1.5.2. Ventajas y limitaciones de computación en la nube
1.5.3. Casos de computación en la nube
1.5.4. Computación en la frontera

1.6. Pensamiento crítico en análisis visual

1.6.1. Pensamiento crítico: definiendo el concepto

1.6.1.1. ¿Para qué sirve el pensamiento crítico?

1.6.2. Pensamiento crítico y no desiderativo
1.6.3. ¿Qué habilidades implica tener pensamiento crítico?
1.6.4. Métodos para potenciar el pensamiento crítico
1.6.5. El pensamiento crítico aplicado al análisis de información

1.7. Los nómadas del conocimiento. Nómadas entre datos

1.7.1. ¿Qué es un nómada del conocimiento?
1.7.2. El nómada del conocimiento
1.7.3. Nómadas del conocimiento, los trabajadores del futuro
1.7.4. Mentalidad de nómadas del conocimiento
1.7.5. Las 7 características de un nómada del conocimiento
1.7.6. Los nómadas del conocimiento en las empresas
1.7.7. Cómo convertirse en un nómada del conocimiento

1.8. Aprendiendo a emprender en visual

1.8.1. ¿Qué es el análisis visual?
1.8.2. Proceso de análisis visual
1.8.3. Herramientas de visualización

1.9. Teorías de anticipación aplicadas al análisis visual

1.9.1. Teorías de anticipación y predicción, qué es y para qué sirve
1.9.2. Análisis predictivo
1.9.3. Tipos de análisis predictivo
1.9.4. Técnicas de análisis predictivo

1.9.4.1. Otras técnicas

1.9.5. Casos analítica predictiva

1.10. El nuevo entorno empresarial. La transformación digital

1.10.1. Situación actual
1.10.2. ¿Qué es la transformación digital?
1.10.3. Tecnologías clave
1.10.4. Importancia de la transformación digital en un mundo de datos

1.10.4.1. Transformación digital vs. Procesos
1.10.4.2. Replantear viejos supuestos
1.10.4.3. Velocidad de habilitación de datos

1.10.5. ¿Cómo pueden los datos impulsar la transformación digital?

1.10.5.1. Los datos optimizan los canales de venta
1.10.5.2. Los datos impulsan la innovación y los ingresos
1.10.5.3. Los datos mejoran la eficiencia

1.10.6. Análisis de datos como acelerador de la transformación digital

1.10.6.1. Los análisis están impulsando el futuro

1.10.7. Claves de la transformación digital

1.10.7.1. Abandonar la zona de confort
1.10.7.2. Fomentar las competencias digitales en los empleados y directivos
1.10.7.3. Diseñar estrategias digitales

Módulo 2. Análisis e interpretación de datos

2.1. Introducción a la Estadística

2.1.1. Representación de datos

2.1.1.1. Tablas
2.1.1.2. Gráficos
2.1.1.3. Histogramas

2.1.2. Variable aleatoria 

2.2. Medidas aplicables al tratamiento de información

2.2.1. Medidas de tendencia central

2.2.1.1. Media
2.2.1.2. Mediana
2.2.1.3. Moda

2.2.2. Medidas de dispersión

2.2.2.1. Varianza
2.2.2.2. Coeficiente de variación de Pearson

2.2.3. Medidas de posición
2.2.4. Momentos de una distribución
2.2.5. Medidas de forma

2.2.5.1. Medida de asimetría
2.2.5.2. Medida de apuntamiento

2.3. Correlación estadística

2.3.1. Distribución bidimensional

2.3.1.1. Distribución conjunta
2.3.1.2. Distribución marginal
2.3.1.3. Distribución condicionada
2.3.1.4. Ejemplo de distribución bidimensional

2.3.2. Independencia de variables
2.3.3. Momentos de una distribución bidimensional
2.3.4. Correlación lineal entre variables

2.3.4.1. Recta de regresión

2.4. Teoría de la Probabilidad Condicional

2.4.1. Probabilidad clásica
2.4.2. Probabilidad axiomática
2.4.3. Probabilidad condicionada
2.4.4. Teorema de Bayes

2.5. Variables aleatorias y distribuciones de probabilidad

2.5.1. Variable aleatoria

2.5.1.1. Tipos de variable aleatoria

2.5.2. Distribuciones de probabilidad

2.5.2.1. Distribución normal estándar

2.6. Inferencia Bayesiana

2.6.1. Inferencia bayesiana
2.6.2. Estimación puntual y por intervalo
2.6.3. Teoría de la decisión

2.6.3.1. Criterios de decisión
2.6.3.2. Estimación bayesiana mediante la teoría de la decisión

2.7. Teoría de muestras

2.7.1. Introducción a la inferencia estadística

2.7.1.1. Inferencia estadística
2.7.1.2. Muestra aleatoria simple

2.7.2. Estimación paramétrica
2.7.3. Distribución de muestreo
2.7.4. Estimación
2.7.5. Estimadores
2.7.6. Distribuciones t-Student y Chi-cuadrado

2.8. Intervalos de confianza

2.8.1. Características de un estimador

2.8.1.1. Estimador media muestral
2.8.1.2. Estimador varianza muestral
2.8.1.3. Estimador proporción muestral

2.8.2. Estimación por intervalo de confianza

2.8.2.1. Intervalo de confianza de la media poblacional
2.8.2.2. Intervalo de confianza de la varianza poblacional
2.8.2.3. Intervalo de confianza de la proporción poblacional
2.8.2.4. Comentarios

2.9. Contrastes de hipótesis

2.9.1. Contraste de hipótesis
2.9.2. Región crítica de un contraste

2.9.2.1. Contraste unilateral por la derecha
2.9.2.2. Contraste unilateral por la izquierda
2.9.2.3. Contraste bilateral
2.9.2.4. Tipos de error

2.9.3. Valor-p de una muestra

2.10. Análisis de la regresión

2.10.1. Ajuste de curvas
2.10.2. Análisis de regresión

2.10.2.1. Estimación de los parámetros
2.10.2.2. Varianza residual
2.10.2.3. Propiedad de los estimadores

2.10.3. Predicción
2.10.4. Análisis de la varianza

2.10.4.1. Tabla ANOVA

2.10.5. Coeficiente de correlación

Módulo 3. Técnicas de análisis de datos (EIA)

3.1. Analítica predictiva

3.1.1. Analítica predictiva: introducción al análisis de datos e inteligencia artificial

3.2. Técnicas de evaluación y selección de modelos

3.2.1. Técnicas de evaluación y selección de modelos

3.2.1.1. Método científico y modelos en ciencia
3.2.1.2. ¿Qué son los modelos?
3.2.1.3. Tipos de modelos
3.2.1.4. Población y muestra
3.2.1.5. Técnicas de evaluación de modelos

3.3. Técnicas de optimización lineal

3.3.1. Modelo de programación línea
3.3.2. Algoritmo SIMPLEX
3.3.3. Teoría de la dualidad

3.3.3.1. El problema dual

3.3.4. Múltiples aplicaciones de la optimización lineal

3.4. Simulaciones de MonteCarlo

3.4.1. Ley débil de los grandes números
3.4.2. Generación de distribuciones de probabilidad
3.4.3. Reducción de la incertidumbre
3.4.4. Aplicaciones del método 

3.5. Análisis de Escenarios

3.5.1. Análisis de escenarios: modelos de ontologías
3.5.2. Método de escenarios
3.5.3. Teoría de juegos
3.5.4. Contexto y ontologías
3.5.5. Inteligencia artificial (IA) y computación cuántica en el análisis de escenarios

3.6. Técnicas de aprendizaje automático

3.6.1. Aprendizaje y aprendizaje automático
3.6.2. Modelos de aprendizaje

3.6.2.1. Aprendizaje inductivo
3.6.2.2. Aprendizaje por analogía
3.6.2.3. Aprendizaje basado en explicaciones (deductivo)
3.6.2.4. Conexionismo
3.6.2.5. Aprendizaje por refuerzo
3.6.2.6. Algoritmos genéticos
3.6.2.7. Aprendizaje basado en casos

3.6.3. Aprendizaje e Inteligencia Artificial

3.7. Analítica Web

3.7.1. Robots semánticos: crawlers
3.7.2. Web semántica
3.7.3. Motores de inferencia y crecimiento acelerado

3.8. Técnicas de minería de datos

3.8.1. Minería de datos en web
3.8.2. Aplicaciones de minería de datos en Inteligencia Artificial

3.8.2.1. Chatbots o bot de conversación y asistentes inteligentes
3.8.2.2. Incrustaciones
3.8.2.3. Reconocimiento de entidades
3.8.2.4. Detección de intenciones
3.8.2.5. Análisis de sentimientos
3.8.2.6. Procesamiento de acciones

3.8.3. Minería de datos y el encuadre

3.9. Métodos en Procesamiento Lenguaje Natural (PNL)

3.9.1. Métodos en procesamiento lenguaje natural (PLN)
3.9.2. Lenguaje, habla y comunicación

3.9.2.1. Sobre la adquisición del lenguaje
3.9.2.2. Pensamiento y lenguaje
3.9.2.3. Lenguaje y comunicación

3.9.3. Procesamiento computacional del lenguaje natural

3.9.3.1. Importancia del procesamiento del lenguaje natural
3.9.3.2. PCL como materia prima de la IA

3.10. Análisis de Redes Sociales

3.10.1. Inteligencia colectiva

3.10.1.1. ¿Cuáles son las características de la inteligencia colectiva aumentada?

3.10.2. Redes sociales

Módulo 4. Herramientas de Análisis de Datos

4.1. Entorno R de Ciencia de datos

4.1.1. Generalidades
4.1.2. Profundizando en funciones y operadores
4.1.3. Iterando en R
4.1.4. Observando cómo funcionan los objetos
4.1.5. Clasificación de estadísticas populares paquetes de análisis
4.1.6. Examinar paquetes para visualizar, mapeo y graficación en R

4.1.6.1. Visualización de estadísticas de R con ggplot2
4.1.6.2. Analizando redes con statnet e igraph
4.1.6.3. Mapeo y análisis espacial patrones de puntos con spatstat

4.2. Entorno Python de Ciencia de datos

4.2.1. Clasificación de los tipos de datos de Python

4.2.1.1. Números en Python
4.2.1.2. Cadenas en Python
4.2.1.3. Listas en Python
4.2.1.4. Tuplas en Python
4.2.1.5. Diccionarios en Python
4.2.1.6. Bucles en Python

4.2.2. Funciones
4.2.3. Clases en Phyton
4.2.4. Bibliotecas de Python

4.2.4.1. Biblioteca NumPy
4.2.4.2. Biblioteca SciPy
4.2.4.3. Biblioteca Pandas
4.2.4.4. Biblioteca MatPlotLib para visualización de datos
4.2.4.5. Biblioteca Scikit-learn

4.3. Gráficos estáticos y estadísticos

4.3.1. Gráfico de línea
4.3.2. Gráfico de barras
4.3.3. Gráfico de histograma
4.3.4. Gráfico circular
4.3.5. Gráfico de dispersión
4.3.6. Gráfico de áreas
4.3.7. Gráfico de áreas apiladas
4.3.8. Gráfico de fluctuaciones
4.3.9. Gráfico araña
4.3.10. Gráfico de barras agrupadas
4.3.11. Gráfico de pirámide
4.3.12. Polígono de frecuencia
4.3.13. Cartogramas
4.3.14. Gráfico de caja y bigotes

4.4. Tratamiento de datos en diferentes formatos y diferentes fuentes

4.4.1. Introducción

4.4.1.1. Beneficios de los procesos de extracción, transformación y carga (ETL)

4.4.2. Proceso ETL: un sistema efectivo, pero con retos y cuestiones por resolver

4.4.2.1. Los distintos pasos del proceso de extracción
4.4.2.2. Modos de extracción
4.4.2.3. Claves del proceso extracción
4.4.2.4. El proceso de transformación
4.4.2.5. Acciones de transformación
4.4.2.6. ¿Quién se encarga de realizar estas transformaciones?
4.4.2.7. El proceso de carga
4.4.2.8. Tipos de sistemas de carga
4.4.2.9. Principales diferencias entre añadir y cargar
4.4.2.10. Claves para asegurarse de que la carga se realiza de forma correcta
4.4.2.11. La elección del tipo de carga ideal depende de cada caso

4.4.3. Procesos ETL con paralelismo: funcionamiento y tipos

4.4.3.1. Tipos de paralelismos

4.4.4. La integración de datos
4.4.5. Más usos de los procesos ETL
4.4.6. Hacer una herramienta propia o adquirir una

4.4.6.1. Desventajas de las herramientas automáticas ETL
4.4.6.2. ¿Cómo tomar la decisión?

4.4.7. Desafíos de los procesos ETL
4.4.8. Elegir la herramienta para procesos ETL más adecuada

4.4.8.1. Pautas para elegir una herramienta ETL
4.4.8.2. Ventajas de los procesos ETL

4.5. Limpieza y preparación de datos

4.5.1. Generalidades
4.5.2. Diferencia entre la limpieza de datos y la transformación de datos
4.5.3. Diferencia entre limpieza de datos y ETL
4.5.4. La limpieza de datos: una etapa separada pero muy Importante
4.5.5. Técnicas de limpieza de datos en inteligencia artificial
4.5.6. Gerenciamiento de procesos ETL: minimizar los fallos
4.5.7. Entorno de pruebas o Staging
4.5.8. ¿Cómo encontrar el software de limpieza de datos correcto?

4.6. Estudios exploratorios

4.6.1. Estudio Exploratorio de Datos (EED)

4.6.1.1. Etapas EED
4.6.1.2. Preparación de los datos
4.6.1.3. Estadística descriptiva e inferencial
4.6.1.4. Variables y sus medidas
4.6.1.5. Datos atípicos (outliers)

4.6.1.5.1. ¿Cómo solucionar el problema de los datos atípicos?
4.6.1.5.2. Alternativas a la media

4.6.2. La correlación

4.6.2.1. Cómo se interpreta la correlación
4.6.2.2. Tamaño del efecto
4.6.2.3. Cómo se mide la correlación
4.6.2.4. Para qué sirve: ejemplos prácticos de correlación
4.6.2.5. Valores ausentes

4.6.3. Escalas de medición
4.6.4. Análisis estadístico unidimensional
4.6.5. Variables cualitativas
4.6.6. Variables cuantitativas

4.7. Árboles de Decisión

4.7.1. Generalidades
4.7.2. Árboles de regresión
4.7.3. Árboles de clasificación
4.7.4. Árbol de decisión

4.7.4.1. Terminologías empleadas
4.7.4.2. Algunas técnicas de árbol de decisión
4.7.4.3. ¿Cómo funciona el algoritmo del árbol de decisión?

4.7.5. Medidas de selección de atributos

4.7.5.1. Ganancia de información
4.7.5.2. Impureza de Gini

4.7.6. Optimizando el rendimiento del árbol de decisiones
4.7.7. Sobre ajuste y desajuste
4.7.8. Poda de árboles

4.7.8.1. Detención anticipada o prepoda

4.8. Reglas de Clasificación y de Asociación

4.8.1. Generalidades

4.8.1.1. Algoritmos
4.8.1.2. Procesamiento del Lenguaje Natural (NLP)

4.8.2. Reglas de clasificación

4.8.2.1. Método C4.5
4.8.2.2. Algoritmo de las K más cercanas (KNN)
4.8.2.3. Perceptrón multicapa
4.8.2.4. Ingenuo Bayes o Naive Bayes

4.8.3. Reglas de asociación

4.8.3.1. Método a priori
4.8.3.2. Método Eclat
4.8.3.3. Método de crecimiento de patrón frecuente
4.8.3.4. Método Close
4.8.3.5. Lenguaje Charm
4.8.3.6. Método Top-K Rules

4.8.4. La integración de reglas de asociación y clasificación

4.8.4.1. El algoritmo de asociación basada en clasificación CBA
4.8.4.2. El algoritmo de clasificación basada en múltiples reglas de asociación CMAR
4.8.4.3. El algoritmo de clasificación basada en predicción asociativa CPAR
4.8.4.4. El algoritmo de Clasificación Asociativa con Múltiples clases y Múltiples etiquetas MMAC
4.8.4.5. El algoritmo Clasificación Basada en Asociación con Múltiples clases MCAR

4.9. Redes Neuronales

4.9.1. La neurona artificial (unidad procesadora)
4.9.2. La Red Neuronal Artificial (RNA)

4.9.2.1. Red neuronal simple y red neuronal profunda

4.9.3. Características de la Red Neuronal Artifical (RNA)
4.9.4. Valores de salida y pesos de las redes neuronales
4.9.5. Procesado de información de una neurona artificial
4.9.6. Funciones de activación

4.9.6.1. Función escalón (threshold)
4.9.6.2. Función sigmoide
4.9.6.3. Función rectificadora (ReLU)
4.9.6.4. Función tangente hiperbólica

4.9.7. Aprendizaje

4.9.7.1. Métodos de aprendizaje
4.9.7.2. Algoritmos de aprendizaje

4.9.8. Configuración de la red neuronal
4.9.9. Perceptrón

4.9.9.1. Perceptrón simple
4.9.9.2. Perceptrón múltiple

4.10. Aprendizaje profundo

4.10.1. Desarrollo

4.10.1.1. Aprendizaje profundo
4.10.1.2. Tipos de redes en aprendizaje profundo

Módulo 5. Sistemas de gestión de Bases de Datos y paralelización de datos

5.1. Bases de datos convencionales

5.1.1. Lenguaje de Consulta Estructurado (SQL)

5.1.1.1. Fundamentos de SQL
5.1.1.2. Lenguaje de Definición de Datos (DDL)
5.1.1.3. Lenguaje de Manipulación de Datos (DML)
5.1.1.4. Lenguaje de Control de Datos (DCL)
5.1.1.5. Lenguaje de Consulta de Datos (DQL)
5.1.1.6. Lenguaje de Control de la Transacción (TCL)

5.1.2. Sistemas de gestión de bases de datos más conocidos
5.1.3. Características del modelo de datos relacional
5.1.4. Modelo de datos sistema de gestión de bases de datos (SGBD)
5.1.5. Reglas de Codd

5.2. Bases de datos no convencionales

5.2.1. Generalidades
5.2.2. Bases de datos no convencionales (NoSQL)

5.2.2.1. Ventajas de los sistemas NoSQL
5.2.2.2. Arquitecturas bases datos NoSQL

5.2.3. Ejemplos bases de datos NoSQL
5.2.4. Diferencias con la base de datos SQL

5.3. Computación en la nube: gestión distribuida de datos

5.3.1. Computación en la nube
5.3.2. Servicios en la nube Software como servicio, SaaS, infraestructura como servicio Iaas, plataforma como servicio Paas, función como servicio Faas, plataforma de integración como servicio iPaaS, identidad como servicio iDaaS
5.3.3. Los diferentes modelos de despliegue
5.3.4. El Big data y la computación en la nube
5.3.5. Beneficios y riesgos de las plataformas en la nube
5.3.6. Seguridad y privacidad de la nube
5.3.7. Plataformas computación en la nube
5.3.8. Virtualización

5.4. Herramientas de ingesta de grandes volúmenes de datos

5.4.1. Ingesta de datos: flujos y niveles
5.4.2. ¿Qué es la ingesta de datos?
5.4.3. Parámetros
5.4.4. Mejores prácticas
5.4.5. Herramientas
5.4.6. Desafíos5
5.4.7. Razones para automatizar

5.5. Tipos de Paralelismos

5.5.1. Conceptos clave

5.5.1.1. Evaluadores del rendimiento
5.5.1.2. Ganancia de velocidad
5.5.1.3. Ampliabilidad

5.5.2. Factores que afectan el paralelismo
5.5.3. Arquitecturas paralelas
5.5.4. Paralelismo de E/S

5.5.4.1. Técnicas de división
5.5.4.2. Tipos de acceso
5.5.4.3. Tratamiento del sesgo

5.5.5. Paralelismo entre consultas
5.5.6. Paralelismo en consultas
5.5.7. Paralelismo en operaciones
5.5.8. Coste de la evaluación paralela de las operaciones
5.5.9. Paralelismo entre operaciones
5.5.10. Diseño de sistemas paralelos
5.5.11. Paralelización de datos–entorno Hadoop
5.5.12. Paralelización de datos–entorno Spark

5.6. Procesamiento de datos por transmisión por secuencia y tiempo real

5.6.1. Introducción

5.6.1.1. Ejemplos de los datos de streaming

5.6.2. Arquitectura Lambda y Arquitectura Kappa

5.6.2.1. Arquitectura Lambda
5.6.2.2. Arquitectura Kappa

5.6.3. Macrodatos
5.6.4. Estudio de herramientas de macrodatos
5.6.5. Paradigma batch o en lotes

5.6.5.1. Hadoop
5.6.5.2. Spark

5.6.6. Paradigma en tiempo real

5.6.6.1. Spark Streaming
5.6.6.2. Apache Flink
5.6.6.3. Apache Samza
5.6.6.4. Apache Storm
5.6.6.5. Apache Kafka

5.6.7. Arquitectura genérica

5.6.7.1. Arquitectura con productos específicos Apache Storm

5.7. Procesamiento paralelo: Hadoop

5.7.1. Desarrollo

5.7.1.1. Hadoop, su interior
5.7.1.2. Sistema de ficheros distribuido de Hadoop (HDFS)
5.7.1.3. Paradigma MapReduce
5.7.1.4. ¿Cómo funciona y distribuye el procesamiento MapReduce?
5.7.1.5. Versiones de Hadoop, entorno YARN
5.7.1.6. Ecosistema Hadoop, funcionalidades adicionales 

5.8. Procesamiento paralelo: Spark

5.8.1. Desarrollo
5.8.2. Componentes de Spark
5.8.3. Arquitectura de un clúster Apache Spark
5.8.4. Interfaz de aplicación de aplicaciones (API) de Spark
5.8.5. Tipos de transformaciones de un conjunto distribuido de datos flexibles (RDD)

5.8.5.1. Transformaciones de un RDD

5.9. Apache Kafka

5.9.1. Introducción

5.9.1.1. Qué ocurre al utilizar cualquier aplicación?

5.9.2. Patrón de mensaje publicar/subscribirse

5.9.2.1. Detalles
5.9.2.2. Consideraciones

5.9.3. Apache Kafka
5.9.4. Apache Kafka Streaming

5.9.4.1. Características
5.9.4.2. Desventajas

5.9.5. Casos de uso o aplicaciones
5.9.6. Conceptos básicos

5.10. Cloudera Impala

5.10.1. Dependencia de Hive para Impala
5.10.2. Dependencia de Java para Impala
5.10.3. Dependencia del hardware
5.10.4. Requisitos de red
5.10.5. Componentes principales de Impala

5.10.5.1. Demonio de Impala
5.10.5.2. Impala StateStore
5.10.5.3. Metadatos y metastore de Impala

5.10.6. La interfaz de programación de Impala
5.10.7. Arquitectura de ejecución de Impala
5.10.8. Trabajar con Apache Hive

5.10.8.1. Apache Impala vs. Hive

5.10.9. Trabajar con Sistema de ficheros distribuido de Hadoop (HDFS)
5.10.10. Trabajar con base de datos Hadoop (Hbase)
5.10.11. Principales diferencias entre Impala y Hive
5.10.12. Impala y extracción, transformación y carga (ETL)
5.10.13. ¿Por qué Impala es más rápido que Hive en el procesamiento de consultas?
5.10.14. Tecnología detrás de Impala y la integración con aplicaciones de terceros

5.10.14.1. Tableau e Impala
5.10.14.2. Microsoft Excel e Impala
5.10.14.3. Microstrategy e Impala
5.10.14.4. Zoomdata e Impala

Módulo 6. Habilidades blandas dirigidas por datos en la dirección estratégica en Análisis Visual

6.1. Perfil de los empleados para organizaciones dirigidas por datos (Data-Driven)

6.1.1. El perfil de los empleados en organizaciones data-driven
6.1.2. La matriz de talento
6.1.3. El potencial en estas organizaciones
6.1.4. El desempeño en estas organizaciones

6.2. Habilidades Gerenciales Avanzadas en organizaciones dirigidas por datos

6.2.1. Habilidades gerenciales clásicas actualizadas a la realidad

6.2.1.1. El liderazgo
6.2.1.2. La comunicación
6.2.1.3. Gestión del cambio

6.2.2. Dos nuevas habilidades: antifrágil y caórdico

6.2.2.1. Antifrágil
6.2.2.2. Caórdico

6.2.3. La gestión de conflictos

6.3. Usando los datos para mejorar el desempeño de la comunicación estratégica

6.3.1. Las seis dimensiones en la comunicación estratégica
6.3.2. El embudo de la comunicación
6.3.3. Saber recibir realimentación

6.4. Inteligencia emocional aplicada a la dirección en Análisis visual

6.4.1. Autoconocimiento o autoconciencia emocionales
6.4.2. Autocontrol emocional o autorregulación
6.4.3. Automotivación
6.4.4. Reconocimiento de las emociones de los demás o empatía
6.4.5. Relaciones interpersonales o habilidades sociales
6.4.6. Autoestima

6.5. Presentaciones Eficaces

6.5.1. Desarrollo del tema
6.5.2. ¿Es tan importante el inicio?
6.5.3. Del miedo al placer escénico
6.5.4. Antes de la presentación
6.5.5. Preparar la presentación
6.5.6. ‘Caer bien’, vulnerabilidad y humildad
6.5.7. Conceptos importantes
6.5.8. Gestión de la participación
6.5.9. Gestión de preguntas
6.5.10. Cerrar

6.6. Mejorando el desempeño mediante la gestión motivacional

6.6.1. La gestión motivacional mediante la gestión de tareas
6.6.2. Teorías clásicas aplicadas a las organizaciones actuales: Herzberg
6.6.3. El elemento
6.6.4. Motivación intrínseca, extrínseca y trascendente
6.6.5. La entrevista de motivación

6.6.5.1. Contextos y tareas
6.6.5.2. Las necesidades
6.6.5.3. Fuentes de la motivación
6.6.5.4. Factores motivadores y desmotivadores
6.6.5.5. Balance de insumos y salidas
6.6.5.6. El elemento
6.6.5.7. Fortalezas
6.6.5.8. Procrastinar 

6.7. Liderazgo en organizaciones dirigidas por datos

6.7.1. Modelos de gobernanza

6.7.1.1. El propósito
6.7.1.2. Holocracia
6.7.1.3. Organizaciones TEAL

6.7.2. El líder en estas organizaciones

6.8. Talento digital en organizaciones dirigidas por datos

6.8.1. ¿Qué es la transformación digital?
6.8.2. La carrera del talento digital

6.8.2.1. Competencias digitales
6.8.2.2. Profesiones digitales

6.8.3. Cuidar del talento digital

6.9. Dirección por datos en organizaciones ágiles I

6.9.1. Introducción a las metodologías agile: manifiesto y principios agile
6.9.2. Triángulo de hierro: coste, tiempo, alcance
6.9.3. Cono de incertidumbre
6.9.4. Enfoque iterativo e incremental
6.9.5. Innovación digital: cubrir nuevas necesidades

6.10. Dirección por datos en organizaciones ágiles II

6.10.1. Artefactos de SCR6.UM
6.10.2. Pila de producto o product backlog
6.10.3. Historia del usuario
6.10.4. Roles

6.10.4.1. Scrum Master
6.10.4.2. Dueño del producto o product owner
6.10.4.3. Equipo de desarrollo

6.10.5. Organización

6.10.5.1. Sprint
6.10.5.2. Reuniones

6.10.6. Kanban

6.10.6.1. Practicas Kanban

Módulo 7. Dirección estratégica de proyectos de Análisis Visual y Macrodatos

7.1. Introducción a la dirección estratégica de proyectos

7.1.1. Proyectos y operaciones
7.1.2. Macrodatos

7.1.2.1. Macrodatos e inteligencia artificial

7.1.3. Macrodatos y Análisis Visual

7.1.3.1. Humanizar los datos
7.1.3.2. Análisis visual

7.1.4. Macrodatos en la dirección de proyectos

7.1.4.1. Proyectos de macrodatos
7.1.4.2. Establecer objetivos
7.1.4.3. Identificación de las fuentes
7.1.4.4. ¿Por qué es necesaria una estrategia de análisis y visualización de datos?
7.1.4.5. Beneficios de macrodatos en la dirección de proyectos

7.1.5. El candidato en macrodatos

7.2. Mejores prácticas en la descripción de Procesos de macrodatos (PMI)

7.2.1. Introducción

7.2.1.1. ¿Qué es el PMI?
7.2.1.2. La guía del Cuerpo de Conocimiento de Gestión de Proyectos (PMBOK)

7.2.2. ¿Qué son las buenas prácticas del PMI?

7.2.2.1. Los cinco procesos generales del PMI

7.2.3. Las fases del ciclo de vida de los macrodatos

7.2.3.1. Análisis interno
7.2.3.2. Recogida y filtrado de datos
7.2.3.3. Extracción de información
7.2.3.4. Validación y limpieza de los datos
7.2.3.5. Análisis de los datos

7.3. Metodología Kimball

7.3.1. Introducción

7.3.1.1. Datawarehouse o almacén de datos
7.3.1.2. ¿Quién fue Ralph Kimball?
7.3.1.3. ¿Qué es el modelado dimensional?

7.3.2. Metodología Kimball

7.3.2.1. Planificación del Proyecto
7.3.2.2. Definición de requerimientos del negocio
7.3.2.3. Modelado dimensional
7.3.2.4. Diseño Físico
7.3.2.5. Diseño e implementación del subsistema de Extracción, Transformación y Carga (ETL)
7.3.2.6. Implementación

7.3.3. Mantenimiento y crecimiento del data warehouse

7.3.3.1. Especificación de aplicaciones de inteligencia de negocios
7.3.3.2. Diseño de la arquitectura técnica

7.4. Metodología fuentes, calidad de datos, preguntas imposibles y descubriendo SQuID

7.4.1. Introducción
7.4.2. Fase I. Fuentes–tipos y acceso
7.4.3. Fase II. Calidad de datos: verdad única
7.4.4. Fase III. Cuestiones imposibles
7.4.5. Fase IV. Descubriendo

7.5. Aspectos legales del mundo de los datos

7.5.1. La era de los datos

7.5.1.1. El petróleo del siglo XXI

7.5.2. Datos frente a Individuos

7.5.2.1. Detrás de cada dato hay una persona
7.5.2.2. A la caza de los datos
7.5.2.3. El usuario como unidad analizable

7.5.3. Privacidad

7.5.3.1. Datos personales
7.5.3.2. Tipos de datos personales

7.5.4. Derecho de protección de datos personales

7.5.4.1. Legislación
7.5.4.2. El usuario frente a sus derechos

7.5.5. Algunos mecanismos para la protección de datos 

7.6. Privacidad en Macrodatos

7.6.1. ¿Qué es un dato de carácter personal?

7.6.1.1. “Cualquier información”
7.6.1.2. “Personas físicas identificadas o identificables”

7.6.2. ¿Cuál es el marco jurídico en el que se encuentra la protección de datos?
7.6.3. Protección de datos en el marco internacional
7.6.4. ¿Cómo se encuentran los macrodatos dentro de estas legislaciones?

7.7. Ciberseguridad en macrodatos

7.7.1. ¿Qué es la ciberseguridad?
7.7.2. Tipos de amenazas en la seguridad informática
7.7.3. Ciberseguridad y macrodatos o Big Data

7.7.3.1. ¿Qué es el Big Data y cómo afecta a la ciberseguridad?

7.7.4. Análisis predictivo

7.7.4.1. Estrategias de análisis predictivos

7.7.5. La importancia del Big Data en la ciberseguridad
7.7.6. ¿Cómo detectar un ataque de ciberseguridad?
7.7.7. Buenas prácticas en la gestión de crisis por amenazas de seguridad
7.7.8. El comité de crisis

7.8. La identificación y de identificación con grandes volúmenes de Datos

7.8.1. ¿Qué es el volumen de datos?
7.8.2. Desidentificación de grandes volúmenes de datos
7.8.3. Identificación de grandes volúmenes de datos
7.8.4. Anonimización de datos
7.8.5. Evaluación de riesgos
7.8.6. Herramientas Big Data
7.8.7. Beneficios del uso del Big data

7.9. Ética de los Datos I

7.9.1. ¿Qué es la ética?
7.9.2. Introducción a la ética de datos
7.9.3. ¿Qué es la ética de los datos?
7.9.4. Los peligros del análisis de datos para la privacidad
7.9.5. ¿La culpa es de la tecnología?
7.9.6. Ética aplicada a cada etapa de vida del dato
7.9.7. Las empresas, los datos y la sociedad
7.9.8. Ética en el campo de la inteligencia artificial

7.10. Ética de los Datos II

7.10.1. Riesgos para la privacidad
7.10.2. ¿Cómo hacemos buenas a las máquinas?
7.10.3. Discriminación algorítmica
7.10.4. Opacidad
7.10.5. Principales marcos de referencia y buenas prácticas en la gestión ética de los datos

Módulo 8. Análisis del cliente aplicando la inteligencia de los datos a la Mercadotecnia

8.1. Conceptos de mercadotecnia. Mercadotecnia estratégica

8.1.1. Introducción

8.1.1.1. Definición de mercadotecnia

8.1.2. ¿Qué es la mercadotecnia estratégica?
8.1.3. Mercadotecnia operativa

8.1.3.1. Adaptación

8.1.4. Beneficios de la mercadotecnia estratégica
8.1.5. Pasos para elaborar un plan de mercadotecnia estratégica

8.1.5.1. Planificación inicial
8.1.5.2. Planificación táctica
8.1.5.3. Planificación operativa
8.1.5.4. Planificación final

8.1.6. Prioridades/jerarquía en las tareas
8.1.7. Ejemplos de estrategias de mercadotecnia

8.2. Mercadotecnia relacional

8.2.1. Mercadotecnia relacional vs. Mercadotecnia tradicional o transaccional

8.2.1.1. Principales diferencias

8.2.2. Objetivos de la mercadotecnia relacional

8.2.2.1. Fidelización de los clientes
8.2.2.2. Diferenciación

8.2.3. El cliente como centro

8.2.3.1. Llegar al cliente
8.2.3.2. Definir el perfil del cliente ideal

8.2.4. Fases en el proceso de la compra

8.2.4.1. Alimentación de contactos: convertir visitantes en clientes
8.2.4.2. Medir y puntuar al cliente: medición de contactos

8.2.5. Extender el ciclo de vida del cliente y la lealtad
8.2.6. Buenas prácticas de mercadotecnia relacional

8.2.6.1. Comunicación personalizada
8.2.6.2. Mercadotecnia por correo electrónico
8.2.6.3. Presencia de la marca en redes sociales
8.2.6.4. Embudo de conversión

8.3. La Gestión de las relaciones con el cliente (CRM) como centro de la organización para el análisis del cliente

8.3.1. CRM como software
8.3.2. CRM como estrategia empresarial

8.3.2.1. Analizar y corregir
8.3.2.2. CRM en todos los departamentos

8.3.3. CRM como herramienta de mercadotecnia
8.3.4. Beneficios del CRM para la empresa

8.3.4.1. El CRM mejora la segmentación
8.3.4.2. El CRM como dinamizador de ventas: eficiencia y control

8.3.5. ¿Por qué usar CRM en una agencia de Mercadotecnia?
8.3.6. Tipos de CRM

8.3.6.1. CRM operativo
8.3.6.2. CRM analítico
8.3.6.3. CRM colaborativo

8.4. Tecnologías de la web

8.4.1. Arquitectura básica de las aplicaciones web
8.4.2. Tecnologías del lado del cliente o del lado del servidor
8.4.3. Arquitecturas web de contenido estático o dinámico
8.4.4. Tecnologías estándar del lado cliente
8.4.5. Tecnologías no estándar para desarrollo web
8.4.6. Tecnologías de servidor
8.4.7. Bases de datos
8.4.8. Sistemas gestores de contenidos

8.5. Fuentes de datos web

8.5.1. Introducción

8.5.1.1. Definición: ¿qué es una fuente de datos?

8.5.2. Bases de datos
8.5.3. Internet de las cosas (IoT)
8.5.4. Sistema de gestión de contenidos CMS
8.5.5. Planificación de recursos empresariales ERP
8.5.6. Gestión relaciones con el cliente CRM
8.5.7. interfaz de programación de aplicaciones (APIs) de datos
8.5.8. Redes sociales

8.5.8.1. ¿Son fiables las fuentes?

8.6. Adquisición de datos Web

8.6.1. ¿En qué consiste la extracción de datos o web scraping?
8.6.2. Finalidad y usos de la extracción de datos
8.6.3. Consideraciones legales sobre la extracción de datos

8.6.3.1. Bots legítimos y bots ilegítimos

8.6.4. Conocimientos esenciales para llevar a cabo la extracción de datos
8.6.5. Uso de los datos obtenidos mediante la extracción de datos
8.6.6. Cómo protegerse frente a la extracción de datos ilegítima por parte de terceros
8.6.7. El futuro de la extracción de datos

8.7. Herramientas para la extracción de datos de la web

8.7.1. Métodos para la extracción de datos

8.7.1.1. Servicios de extracción de datos
8.7.1.2. Soluciones de escritorio para extracción de datos local
8.7.1.3. Programar el algoritmo de extracción de datos

8.7.2. Herramientas de extracción de datos
8.7.3. ¿Es legal la extracción de datos? 

8.8. Web semántica

8.8.1. ¿Qué es la web semántica?
8.8.2. ¿Cómo solucionará la web semántica los problemas actuales?
8.8.3. A nivel técnico, ¿cómo funcionará la web semántica?
8.8.4. ¿Cuáles son las principales ventajas y los inconvenientes de la web semántica?
8.8.5. El gran reto que supone la web semántica
8.8.6. Proyectos relacionados con el desarrollo de la web semántica
8.8.7. En el buen camino: los buscadores semánticos

8.9. OSINT: inteligencia de fuente abierta

8.9.1. ¿Qué es una fuente abierta?
8.9.2. Profundizando en el concepto de OSINT

8.9.2.1. ¿Para qué sirve la OSINT?

8.9.3. Fuentes de información OSINT
8.9.4. ¿Qué métodos emplear a la hora de realizar una investigación OSINT?
8.9.5. ¿Cuáles son las principales ventajas y los retos del OSINT?
8.9.6. Herramientas de OSINT más recomendables

8.10. MasterLead o como mejorar la conversión a ventas usando macrodatos

8.10.1. Introducción: ‘datos y concepto lead o cliente8. potencial’
8.10.2. Fuentes, tipos y acceso
8.10.3. La Suite MasterLead

8.10.3.1. Factores clave
8.10.3.2. Beneficios
8.10.3.3. Componentes

Módulo 9. Visualización interactiva de los datos

9.1. Introducción al arte de hacer visible los datos

9.1.1. ¿Qué se entiende por visualización interactiva de datos?
9.1.2. ¿Cuándo y cómo surge la visualización de los datos?
9.1.3. La gran importancia de la visualización interactiva
9.1.4. Tipos de visualización de datos

9.1.4.1. Elementos básicos de representación de datos
9.1.4.2. Cuadros de mando
9.1.4.3. Infografías 

9.1.5. Herramientas para el análisis visual de datos
9.1.6. Visualización de datos y datos abiertos
9.1.7. Tendencias futuras

9.2. Cómo hacer una narración de datos

9.2.1. Las ventajas de la narración de datos
9.2.2. Relación entre visualización de datos y narración de datos
9.2.3. ¿Cómo realizar una buena narración de datos?

9.2.3.1. Determinar la audiencia
9.2.3.2. Comprender el contexto comunicativo
9.2.3.3. Hallar el relato adecuado
9.2.3.4. Escribir en estilo periodístico
9.2.3.5. Emplear un lenguaje claro, conciso y sencillo
9.2.3.6. Resaltar las necesidades reales o insights
9.2.3.7. Hacer que la narración de datos sea compartible

9.2.4. Ejemplos inspiradores de narración de datos

9.2.4.1. El caso de Mapas de Google
9.2.4.2. El caso de Spotify

9.3. Representaciones de Datos

9.3.1. Saber cómo representar los datos es necesario en cualquier empleo
9.3.2. ¿Cómo aprender a representar adecuadamente los datos?
9.3.3. ¿Qué tipos de representación de datos se pueden encontrar?

9.3.3.1. Diagrama de barras
9.3.3.2. Histograma
9.3.3.3. Diagrama de sectores
9.3.3.4. Pictograma
9.3.3.5. Perfil ortogonal
9.3.3.6. Cartogramas
9.3.3.7. Perfil radial
9.3.3.8. Pirámides de población
9.3.3.9. Diagrama de caja y bigotes
9.3.3.10. Diagrama de arco
9.3.3.11. Gráfico de dispersión
9.3.3.12. Diagrama de flujo
9.3.3.13. Diagrama de Sankey
9.3.3.14. Gráfico de áreas apiladas
9.3.3.15. Tabla de conteo
9.3.3.16. Línea de tiempo
9.3.3.17. Nube de palabras

9.4. Escalabilidad de representaciones visuales

9.4.1. ¿Qué es la escalabilidad?
9.4.2. ¿Cómo cuantificar la escalabilidad visual?
9.4.3. ¿Qué factores afectan a la escalabilidad?
9.4.4. ¿Cómo superar las limitaciones?

9.4.4.1. Mejorar las metáforas visuales
9.4.4.2. Explotar la interactividad
9.4.4.3. Perspectivas y patrones de diseño visual
9.4.4.4. Bases de datos multidimensionales
9.4.4.5. Escalabilidad a través de la agregación

9.5. Análisis visual frente a visualización de la información. Entendiendo que no es lo mismo

9.5.1. Visualización de la información y analítica visual: diferencias

9.5.1.1. Visualización de la información (Information Visualization)
9.5.1.2. Analítica visual (Visual Analytics)

9.5.2. Tipos de visualización de la información
9.5.3. Tipos de analítica visual
9.5.4. Visualización de datos+analítica visual: tomando decisiones más inteligentes
9.5.5. Ámbitos de aplicación
9.5.6. Casos concretos de aplicación de la analítica visual y las técnicas de visualización

9.6. Proceso de Análisis Visual (Keim)

9.6.1. Características de un proceso eficaz para explotar la información
9.6.2. La complejidad que se esconde tras los procesos de análisis visual
9.6.3. Pasos para llevar a cabo el proceso de análisis visual
9.6.4. El esquema iterativo de Van Wijk: aplicación a grandes y complejos conjuntos de datos
9.6.5. Ejemplo práctico de aplicación del proceso de análisis visual

9.7. Reportes estratégicos, operativos y de dirección

9.7.1. ¿Qué es un cuadro de mando empresarial?
9.7.2. Tipos de cuadros de mando y elección del más adecuado en cada caso
9.7.3. ¿Qué es un cuadro de mando estratégico?
9.7.4. ¿Qué es un cuadro de mando operativo?
9.7.5. ¿Qué es un cuadro de mando analítico?
9.7.6. ¿Qué es un cuadro de mando táctico?
9.7.7. Beneficios de una implementación exitosa del cuadro de mando

9.8. Tipos de gráficos y su función

9.8.1. Tipos de visualizaciones

9.8.1.1. Visualizaciones de carácter temporal
9.8.1.2. Visualizaciones de carácter jerárquico
9.8.1.3. Visualizaciones de red
9.8.1.4. Visualizaciones multidimensionales
9.8.1.5. Visualizaciones geoespaciales

9.8.2. Los gráficos más comunes. Diferencias y usos

9.8.2.1. El gráfico de barras
9.8.2.2. El gráfico de líneas
9.8.2.3. El diagrama de dispersión
9.8.2.4. El minigráfico
9.8.2.5. El gráfico circular
9.8.2.6. El calibre
9.8.2.7. El gráfico de cascada
9.8.2.8. El gráfico de embudo
9.8.2.9. El mapa de calor

9.9. Interpretación de reportes y gráficos. Jugando el rol del receptor

9.9.1. Tres teorías que explican cómo aprender a interpretar gráficos

9.9.1.1. La perspectiva de Curcio
9.9.1.2. La perspectiva de Watson
9.9.1.3. El sentido crítico en la interpretación de gráficos

9.9.2. Competencias que se deben desarrollar para la interpretación de gráficos
9.9.3. Pautas para interpretar correctamente un gráfico
9.9.4. Elementos estructurales en un gráfico

9.9.4.1. Competencias relacionadas con el lenguaje de los gráficos

9.9.5. Errores en la lectura y construcción de gráficos

9.10. Evaluación de sistemas de análisis visual

9.10.1. Herramientas de terceros
9.10.2. Interfaz de aplicación de aplicaciones API y tecnologías de código abierto

Módulo 10. Herramientas de visualización

10.1. Introducción a las herramientas de visualización de datos

10.1.1. Visualización de datos (Many Eyes-IBM)
10.1.2. Gráficos de Google
10.1.3. Librería jQuery
10.1.4. Documentos controlados por datos (D3js)
10.1.5. Plataforma Matlab
10.1.6. Plataforma Tableau
10.1.7. Sistemas de análisis estadístico SAS Análisis visual
10.1.8. Paquete Microsoft Power BI (inteligencia de negocios)

10.2. Visualización de datos Many Eyes

10.2.1. Un poco de historia
10.2.2. Funcionamiento
10.2.3. Ventajas, desventajas y evolución
10.2.4. Servicios de Watson Analytics

10.2.4.1. Usos
10.2.4.2. Presente

10.3. Gráficos de Google

10.3.1. Características
10.3.2. ¿Cómo funciona Google Charts?
10.3.3. Uso avanzado 

10.4. Librería jQuery

10.4.1. Ventajas
10.4.2. Instalación de complementos de visualización de datos
10.4.3. Complementos de visualización de datos

10.4.3.1. Complemento FusionCharts
10.4.3.2. Complemento Chart.JS
10.4.3.3. Complemento Flot
10.4.3.4. Complemento HighCharts
10.4.3.5. Otros complementos

10.5. Documentos controlados por datos (D3js) I

10.5.1. Características
10.5.2. Funcionalidades
10.5.3. ¿Cómo se trabaja D3js?

10.5.3.1. Data Joins

10.5.4. Entrada y salida de elementos

10.6. Documentos controlados por datos (D3js) II

10.6.1. Repaso del tema anterior
10.6.2. Elementos SVG

10.6.2.1. Ejemplo práctico: gráfico de barra

10.6.3. Otros módulos de D3 interesantes
10.6.4. Casos de uso
10.6.5. Observable

10.7. Plataforma Matlab

10.7.1. Características
10.7.2. Componentes
10.7.3. Cajas de herramientas
10.7.4. Usos concretos
10.7.5. Análisis y visualización de datos
10.7.6. Beneficios y desventajas

10.8. Plataforma Tableau

10.8.1. Características de la Suite de Tableau
10.8.2. Elementos de la Suite de Tableau

10.8.2.1. Tableau Desktop
10.8.2.2. Tableau Server
10.8.2.3. Tableau Online
10.8.2.4. Tableau Prep
10.8.2.5. Tableau Reader
10.8.2.6. Tableau Public
10.8.2.7. Tableau Mobile
10.8.2.8. Tableau CRM
10.8.2.9. Tableau Data Management
10.8.2.10. Tableau Server Management

10.8.3. Otras funcionalidades

10.9. Sistemas de análisis estadístico SAS Análisis visual

10.9.1. Ventajas
10.9.2. Capacidades
10.9.3. Módulos

10.9.3.1. Preparación de datos
10.9.3.2. Análisis avanzado
10.9.3.3. Diseñador
10.9.3.4. Explorador
10.9.3.5. Web y Aplicaciones móviles
10.9.3.6. Administración
10.9.3.7. Arquitectura técnica

10.9.4. Otras características relacionadas

10.10. Paquete Microsoft Power BI (inteligencia de negocios)

10.10.1. Ventajas
10.10.2. Usos
10.10.3. Capacidades y áreas de trabajo
10.10.4. Licencias
10.10.5. Componentes (versiones de Power BI)
10.10.6. Herramientas del ecosistema

##IMAGE##

Trabajarás en las mejores técnicas para dominar las herramientas de visualización más efectivas actualmente como Tableu o Librería jQuery”

Máster Universitario en Análisis Visual y Macrodatos

El Máster Universitario en Análisis Visual y Macrodatos de TECH, es uno de los programas académicos más relevantes en la actualidad. En un mundo en el que la información juega un papel crucial para las organizaciones, contar con profesionales capaces de analizar y visualizar los datos de manera efectiva se ha convertido en una necesidad. En primer lugar, cabe destacar la importancia del análisis visual de los datos. En un entorno empresarial cada vez más competitivo, las organizaciones necesitan obtener información valiosa a partir de los datos para poder tomar decisiones acertadas. Sin embargo, analizar grandes volúmenes de datos de forma tradicional puede resultar complicado y poco eficiente. Es aquí donde entra en juego el análisis visual, una metodología que permite presentar los datos de manera gráfica y comprensible, facilitando su interpretación y toma de decisiones. Por otro lado, el análisis de macrodatos se ha convertido en una disciplina imprescindible para cualquier organización. El crecimiento exponencial de la información disponible ha generado la necesidad de contar con profesionales capaces de gestionar y analizar grandes volúmenes de datos de forma eficiente.

Capacítate desde cualquier lugar del mundo

En TECH Universidad Tecnológica entendemos las múltiples ocupaciones de tu día a día, por eso todas nuestras clases son impartidas en modalidad remota, para que te conectes desde cualquier lugar. Somos considerada por Forbes como una de las mejores universidades digitales del mundo lo que nos acredita para brindar la mejor experiencia a nuestros estudiantes. Si quieres complementar tu experiencia de estudio puedes acceder a nuestras píldoras multimedia, biblioteca virtual y a las lecturas complementarias que la universidad ha dispuesto para ti. Asimismo, el máster cuenta con un cuerpo docente altamente cualificado y especializado en el campo del análisis visual y macrodatos. Los profesores son profesionales en activo que cuentan con experiencia tanto en el ámbito académico como en el empresarial, lo que garantiza una capacitación sólida y actualizada. ¡No lo pienses más y únete a la mejor universidad digital del mundo!