Descripción

La visión artificial es la tecnología del presente y del futuro. Especialízate con este programa y alcanza el progreso profesional que buscas” 

master vision artificial

Desde hace unos años la inteligencia artificial ha producido una gran revolución en el mundo tecnológico. Permite desarrollar software y máquinas capaces de aprender, generar nuevos conocimientos y actuar en función de la mejor solución disponible en cada caso. Así, sus aplicaciones van desde las ciencias computacionales, pasando por la investigación en ámbitos como el sanitario, hasta el desarrollo de herramientas como vehículos, robots o videojuegos. 

Así, se trata de un ámbito en continua expansión y que ya es fundamental en la mayoría de compañías informáticas y tecnológicas. Sin embargo, precisamente debido a su gran importancia e impulso en los últimos años, han ido surgiendo especialidades que se centran en uno de sus aspectos específicos. La visión artificial es una de las más importantes. Esta se centra en cómo las máquinas procesan la información visual recibida y cómo esa información se puede emplear, ya sea para mejorar la relación de la propia máquina con su propio entorno, al hacer más precisas sus operaciones, o para recoger datos de forma eficaz. 

Por esa razón, es un campo fundamental y está en estrecha relación con el machine learning, por lo que cada vez más compañías buscan informáticos especializados en este ámbito que puedan aportar las mejores soluciones tecnológicas en el desarrollo de proyectos de visión artificial. Este Máster título propio ofrece una profundización en este ámbito, acercándole los conocimientos y herramientas más innovadoras para que, al completar la titulación, pueda lograr progresar profesionalmente de forma inmediata gracias a sus nuevas competencias. 

Y todo ello se conseguirá siguiendo la metodología 100% online de TECH, especialmente diseñada para que informáticos e ingenieros en activo puedan compaginar este programa con sus trabajos, puesto que se adapta a sus circunstancias personales. Además, durante todo el proceso de aprendizaje estarán acompañados por un cuadro docente experto en esta materia, y disfrutarán de los mejores recursos de enseñanza multimedia como casos prácticos, vídeos técnicos, clases magistrales o resúmenes interactivos, entre muchos otros. 

El futuro ya está aquí. No pierdas la oportunidad y conviértete en un gran experto en visión artificial gracias a este Máster título propio” 

Este Máster título propio en Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son: 

  • El desarrollo de casos prácticos presentados por expertos en informática y visión artificial 
  • Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que está concebido recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional 
  • Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje 
  • Su especial hincapié en metodologías innovadoras  
  • Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual 
  • La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet 

No esperes más y especialízate en un ámbito clave de la tecnología del futuro que te hará avanzar profesionalmente de forma inmediata” 

El programa incluye, en su cuadro docente, a profesionales del sector que vierten en esta capacitación la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.  

Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará una capacitación inmersiva programada para entrenarse ante situaciones reales.  

El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el profesional deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos. 

Profundiza en la inteligencia artificial y el deep learning y sé una referencia en el ámbito de la Visión Artificial"

maestria vision artificial

Matricúlate ya y comienza a desarrollar prometedores proyectos de visión artificial con lo que aprenderás en este programa"

Temario

Los contenidos de este Máster título propio en Visión Artificial han sido diseñados por grandes expertos internacionales en la materia, por lo que el informático podrá acceder a conocimientos altamente especializados que le colocarán como una referencia de la materia. Así, en este programa podrá profundizar en aspectos como la visión artificial para el estudio del espacio y para análisis de contenido, en la búsqueda de patrones y códigos, en librerías de procesamiento de imágenes 3D o en los autocodificadores. 

mejor maestria vision artificial

El temario más completo sobre visión artificial te espera. Completa este programa y accede al futuro de la profesión”

Módulo 1. Visión artificial 

1.1. Percepción humana 

1.1.1. Sistema visual humano 
1.1.2. El color 
1.1.3. Frecuencias visibles y no visibles 

1.2. Crónica de la Visión Artificial 

1.2.1. Principios 
1.2.2. Evolución 
1.2.3. La importancia de la visión artificial 

1.3. Composición de imágenes digitales 

1.3.1. La Imagen digital 
1.3.2. Tipos de imágenes 
1.3.3. Espacios de color 
1.3.4. RGB 
1.3.5. HSV y HSL 
1.3.6. CMY-CMYK 
1.3.7. YCbCr 
1.3.8. Imagen indexada 

1.4. Sistemas de captación de imágenes 

1.4.1. Funcionamiento de una cámara digital 
1.4.2. La correcta exposición para cada situación 
1.4.3. Profundidad de campo 
1.4.4. Resolución 
1.4.5. Formatos de imagen 
1.4.6. Modo HDR 
1.4.7. Cámaras de alta resolución 
1.4.8. Cámaras de alta velocidad 

1.5. Sistemas Ópticos 

1.5.1. Principios ópticos 
1.5.2. Objetivos convencionales 
1.5.3. Objetivos telecéntricos 
1.5.4. Tipos de autoenfoque 
1.5.5. Distancia focal 
1.5.6. Profundidad de campo 
1.5.7. Distorsión óptica 
1.5.8. Calibración de una imagen 

1.6. Sistemas de iluminación 

1.6.1. Importancia de la iluminación 
1.6.2. Respuesta frecuencial 
1.6.3. Iluminación Led 
1.6.4. Iluminación en exteriores 
1.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos 

1.7. Sistemas Captación 3D 

1.7.1. Estéreo Visión 
1.7.2. Triangulación 
1.7.3. Luz estructurada 
1.7.4. Time of Flight 
1.7.5. Lidar 

1.8. Multiespectro 

1.8.1. Cámaras Multiespectrales 
1.8.2. Cámaras Hiperespectrales 

1.9. Espectro cercano No visible 

1.9.1. Cámaras IR 
1.9.2. Cámaras UV 
1.9.3. Convertir de No visible a Visible gracias a la iluminación 

1.10. Otras bandas del espectro 

1.10.1. Rayos X 
1.10.2. Teraherzios 

Módulo 2. Aplicaciones y estado del arte 

2.1. Aplicaciones industriales 

2.1.1. Librerías de visión industrial 
2.1.2. Cámaras compactas 
2.1.3. Sistemas basados en PC 
2.1.4. Robótica industrial 
2.1.5. Pick and place 2D 
2.1.6. Bin picking 
2.1.7. Control de calidad 
2.1.8. Presencia ausencia de componentes 
2.1.9. Control dimensional 
2.1.10. Control etiquetaje 
2.1.11. Trazabilidad 

2.2. Vehículos autónomos 

2.2.1. Asistencia al conductor 
2.2.2. Conducción autónoma 

2.3. Visión Artificial para Análisis de Contenidos 

2.3.1. Filtro por contenido 
2.3.2. Moderación de contenido visual 
2.3.3. Sistemas de seguimiento 
2.3.4. Identificación de marcas y logos 
2.3.5. Etiquetación y clasificación de videos 
2.3.6. Detección de cambios de escena 
2.3.7. Extracción de textos o créditos 

2.4. Aplicaciones médicas 

2.4.1. Detección y localización de enfermedades 
2.4.2. Cáncer y Análisis de radiografías 
2.4.3. Avances en visión artificial dada la Covid19 
2.4.4. Asistencia en el quirófano 

2.5. Aplicaciones espaciales 

2.5.1. Análisis de imagen por satélite 
2.5.2. Visión artificial para el estudio del espacio 
2.5.3. Misión a Marte 

2.6. Aplicaciones comerciales 

2.6.1. Control stock 
2.6.2. Videovigilancia, seguridad en casa 
2.6.3. Cámaras aparcamiento 
2.6.4. Cámaras control población 
2.6.5. Cámaras velocidad 

2.7. Visión Aplicada a la Robótica 

2.7.1. Drones 
2.7.2. AGV 
2.7.3. Visión en robots colaborativos 
2.7.4. Los ojos de los robots 

2.8. Realidad Aumentada 

2.8.1. Funcionamiento 
2.8.2. Dispositivos 
2.8.3. Aplicaciones en la industria 
2.8.4. Aplicaciones comerciales 

2.9. Cloud computing 

2.9.1. Plataformas de Cloud Computing 
2.9.2. Del Cloud Computing a la producción 

2.10. Investigación y Estado del Arte 

2.10.1. La comunidad científica 
2.10.2. Qué se está cociendo 
2.10.3. El futuro de la visión artificial 

Módulo 3. Procesado digital de imágenes 

3.1. Entorno de desarrollo en Visión por Computador 

3.1.1. Librerías de Visión por Computador 
3.1.2. Entorno de programación 
3.1.3. Herramientas de visualización 

3.2. Procesamiento digital de imágenes 

3.2.1. Relaciones entre pixeles 
3.2.2. Operaciones con imágenes 
3.2.3. Transformaciones geométricas 

3.3. Operaciones de pixeles 

3.3.1. Histograma 
3.3.2. Transformaciones a partir de histograma 
3.3.3. Operaciones en imágenes en color 

3.4. Operaciones lógicas y aritméticas 

3.4.1. Suma y resta 
3.4.2. Producto y División 
3.4.3. And / Nand 
3.4.4. Or / Nor 
3.4.5. Xor / Xnor 

3.5. Filtros 

3.5.1. Máscaras y Convolución 
3.5.2. Filtrado lineal 
3.5.3. Filtrado no lineal 
3.5.4. Análisis de Fourier 

3.6. Operaciones morfológicas 

3.6.1. Erode and Dilating 
3.6.2. Closing and Open 
3.6.3. Top_hat y Black hat 
3.6.4. Detección de contornos 
3.6.5. Esqueleto 
3.6.6. Relleno de agujeros 
3.6.7. Convex hull 

3.7. Herramientas de análisis de imágenes 

3.7.1. Detección de bordes 
3.7.2. Detección de blobs 
3.7.3. Control dimensional 
3.7.4. Inspección de color 

3.8. Segmentación de objetos 

3.8.1. Segmentación de imágenes 
3.8.2. Técnicas de segmentación clásicas 
3.8.3. Aplicaciones reales 

3.9. Calibración de imágenes 

3.9.1. Calibración de imagen 
3.9.2. Métodos de calibración 
3.9.3. Proceso de calibración en un sistema cámara 2D/robot 

3.10. Procesado de imágenes en entorno real 

3.10.1. Análisis de la problemática 
3.10.2. Tratamiento de la imagen 
3.10.3. Extracción de características 
3.10.4. Resultados finales 

Módulo 4. Procesado digital de imágenes avanzado 

4.1. Reconocimiento óptico de caracteres (OCR) 

4.1.1. Preprocesado de la imagen 
4.1.2. Detección de texto 
4.1.3. Reconocimiento de texto 

4.2. Lectura de códigos 

4.2.1. Códigos 1D 
4.2.2. Códigos 2D 
4.2.3. Aplicaciones 

4.3. Búsqueda de patrones 

4.3.1. Búsqueda de patrones 
4.3.2. Patrones basados en nivel de gris 
4.3.3. Patrones basados en contornos 
4.3.4. Patrones basados en formas geométricas 
4.3.5. Otras técnicas 

4.4. Seguimiento de objetos con visión convencional 

4.4.1. Extracción de fondo 
4.4.2. Meanshift 
4.4.3. Camshift 
4.4.4. Optical flow 

4.5. Reconocimiento facial 

4.5.1. Facial Landmark detection 
4.5.2. Aplicaciones 
4.5.3. Reconocimiento facial 
4.5.4. Reconocimiento de emociones 

4.6. Panorámica y alineaciones 

4.6.1. Stitching 
4.6.2. Composición de imágenes 
4.6.3. Fotomontaje 

4.7. High Dinamic Range (HDR) and Photometric Stereo 

4.7.1. Incremento del rango dinámico 
4.7.2. Composición de imágenes para mejorar contornos 
4.7.3. Técnicas para el uso de aplicaciones en dinámico 

4.8. Compresión de imágenes 

4.8.1. La compresión de imágenes 
4.8.2. Tipos de compresores 
4.8.3. Técnicas de compresión de imágenes 

4.9. Procesado de video 

4.9.1. Secuencias de imágenes 
4.9.2. Formatos y códecs de video 
4.9.3. Lectura de un video. 
4.9.4. Procesado del fotograma 

4.10. Aplicación real de Procesado de Imágenes 

4.10.1. Análisis de la problemática 
4.10.2. Tratamiento de la imagen 
4.10.3. Extracción de características 
4.10.4. Resultados finales 

Módulo 5. Procesado de imágenes 3D 

5.1. Imagen 3D 

5.1.1. Imagen 3D 
5.1.2. Software de procesado de imágenes 3d y Visualizaciones 
5.1.3. Software de Metrología 

5.2. Open3D 

5.2.1. Librería para Proceso de Datos 3D 
5.2.2. Características 
5.2.3. Instalación y Uso 

5.3. Los datos 

5.3.1. Mapas de profundidad en imagen 2D 
5.3.2. Pointclouds 
5.3.3. Normales 
5.3.4. Superficies 

5.4. Visualización 

5.4.1. Visualización de Datos 
5.4.2. Controles 
5.4.3. Visualización Web 

5.5. Filtros 

5.5.1. Distancia entre puntos, eliminar Outliers 
5.5.2. Filtro paso alto 
5.5.3. Downsampling 

5.6. Geometría y extracción de características 

5.6.1. Extracción de un perfil 
5.6.2. Medición de profundidad 
5.6.3. Volumen 
5.6.4. Formas geométricas 3D 
5.6.5. Planos 
5.6.6. Proyección de un punto 
5.6.7. Distancias geométricas 
5.6.8. Kd Tree 
5.6.9. Features 3D 

5.7. Registro y Meshing 

5.7.1. Concatenación 
5.7.2. ICP 
5.7.3. Ransac 3D 

5.8. Reconocimiento de objetos 3D 

5.8.1. Búsqueda de un objeto en la escena 3d 
5.8.2. Segmentación 
5.8.3. Bin picking 

5.9. Análisis de superficies 

5.9.1. Smoothing 
5.9.2. Superficies orientables 
5.9.3. Octree 

5.10. Triangulación 

5.10.1. De Mesh a Point Cloud 
5.10.2. Triangulación de mapas de profundidad 
5.10.3. Triangulación de PointClouds no ordenados 

Módulo 6. Deep learning    

6.1. Inteligencia artificial 

6.1.1. Machine Learning 
6.1.2. Deep Learning 
6.1.3. La explosión del Deep Learning. Por qué ahora 

6.2. Redes neuronales 

6.2.1. La red neuronal 
6.2.2. Usos de las redes neuronales 
6.2.3. Regresión lineal y Perceptron 
6.2.4. Forward propagation 
6.2.5. Backpropagation 
6.2.6. Feature vectors 

6.3. Loss Functions 

6.3.1. Loss function 
6.3.2. Tipos de loss functions 
6.3.3. Elección de la loss function 

6.4. Funciones de activación 

6.4.1. Función de activación 
6.4.2. Funciones lineales 
6.4.3. Funciones no lineales 
6.4.4. Output vs Hidden layer activation functions 

6.5. Regularización y Normalización 

6.5.1. Regularización y Normalización 
6.5.2. Overfitting and Data Augmentation 
6.5.3. Regularization methods: L1, L2 and dropout 
6.5.4. Normalization methods: Batch, Weight, Layer 

6.6. Optimización 

6.6.1. Gradient Descent 
6.6.2. Stochastic Gradient Descent 
6.6.3. Mini Batch Gradient Descent 
6.6.4. Momentum 
6.6.5. Adam 

6.7. Hyperparameter Tuning y Pesos 

6.7.1. Los hiperparámetros 
6.7.2. Batch Size vs Learning Rate vs Step Decay 
6.7.3. Pesos 

6.8. Métricas de evaluación de una red neuronal 

6.8.1. Accuracy 
6.8.2. Dice coefficient 
6.8.3. Sensitivity vs Specificity / Recall vs precision 
6.8.4. Curva ROC (AUC) 
6.8.5. F1-score 
6.8.6. Confusion matrix 
6.8.7. Cross-validation 

6.9. Frameworks y Hardware 

6.9.1. Tensor Flow 
6.9.2. Pytorch 
6.9.3. Caffe 
6.9.4. Keras 
6.9.5. Hardware para la Fase de Entrenamiento 

6.10. Creación de una Red Neuronal – Entrenamiento y Validación 

6.10.1. Dataset 
6.10.2. Construcción de la red 
6.10.3. Entrenamiento 
6.10.4. Visualización de resultados 

Módulo 7. Redes Convolucionales y Clasificación de Imágenes 

7.1. Redes neuronales convolucionales 

7.1.1. Introducciónn 
7.1.2. La convolución
7.1.3. CNN Building Blocks 

7.2. Tipos de capas CNN 

7.2.1. Convolutional 
7.2.2. Activation 
7.2.3. Batch normalization 
7.2.4. Polling 
7.2.5. Fully connected 

7.3. Métricas 

7.3.1. Confusion Matrix 
7.3.2. Accuracy 
7.3.3. Precision 
7.3.4. Recall 
7.3.5. F1 Score 
7.3.6. ROC Curve 
7.3.7. AUC 

7.4. Principales Arquitecturas 

7.4.1.    AlexNet 
7.4.2. VGG 
7.4.3. Resnet 
7.4.4. GoogleLeNet 

7.5. Clasificación de Imágenes

 7.5.1. Introducción 
7.5.2. Análisis de los datos 
7.5.3. Preparación de los datos 
7.5.4. Entrenamiento del modelo 
7.5.5. Validación del modelo 

7.6. Consideraciones prácticas para el entrenamiento de CNN 

7.6.1.    Selección de optimizador 
7.6.2. Learning Rate Scheduler 
7.6.3. Comprobar pipeline de entrenamiento 
7.6.4. Entrenamiento con regularización

 7.7. Buenas prácticas en Deep Learning

 7.7.1. Transfer learning 
7.7.2. Fine Tuning 
7.7.3. Data Augmentation

 7.8. Evaluación estadística de datos

 7.8.1. Número de datasets 
7.8.1.1. Número de etiquetas 
7.8.1.2. Número de imágenes 
7.8.1.3. Balanceo de datos

 7.9. Deployment 

7.9.1. Guardando y cargando modelos 
7.9.2. Onnx 
7.9.3. Inferencia 

7.10. Caso Práctico: Clasificación de Imágenes

7.10.1. Análisis y preparación de los datos 
7.10.2. Testeo del pipeline de entrenamiento 
7.10.3. Entrenamiento del modelo 
7.10.4. Validación del modelo 

Módulo 8. Detección de objetos 

8.1. Detección y Seguimiento de Objetos 

8.1.1. Detección de Objetos 
8.1.2. Casos de uso 
8.1.3. Seguimiento de objetos 
8.1.4. Casos de uso 
8.1.5. Oclusiones, Rigid and No Rigid Poses 

8.2. Métricas de Evaluación 

8.2.1. IOU - Intersection Over Union 
8.2.2. Confidence Score 
8.2.3. Recall 
8.2.4. Precisión 
8.2.5. Recall – Precisión Curve 
8.2.6. Mean Average Precision (mAP) 

8.3. Métodos tradicionales 

8.3.1. Sliding window 
8.3.2. Viola detector 
8.3.3. HOG 
8.3.4. Non Maximal Supresion (NMS) 

8.4. Datasets 

8.4.1. Pascal VC 
8.4.2. MS Coco 
8.4.3. ImageNet (2014) 
8.4.4. MOTA Challenge 

8.5. Two Shot Object Detector 

8.5.1. R-CNN 
8.5.2. Fast R-CNN 
8.5.3. Faster R-CNN 
8.5.4. Mask R-CNN 

8.6. Single Shot Object Detector 

8.6.1. SSD 
8.6.2. YOLO 
8.6.3. RetinaNet 
8.6.4. CenterNet 
8.6.5. EfficientDet 

8.7. Backbones 

8.7.1. VGG 
8.7.2. ResNet 
8.7.3. Mobilenet 
8.7.4. Shufflenet 
8.7.5. Darknet 

8.8. Object Tracking 

8.8.1. Enfoques clásicos 
8.8.2. Filtros de partículas 
8.8.3. Kalman 
8.8.4. Sort tracker 
8.8.5. Deep Sort 

8.9. Despliegue 

8.9.1. Plataforma de Computación 
8.9.2. Elección del Backbone 
8.9.3. Elección del Framework 
8.9.4. Optimización de Modelos 
8.9.5. Versionado de Modelos 

8.10. Estudio: Detección y Seguimiento de Personas 

8.10.1. Detección de personas 
8.10.2. Seguimiento de personas 
8.10.3. Reidentificación 
8.10.4. Conteo de personas en multitudes 

Módulo 9. Segmentación de Imágenes con deep learning 

9.1. Detección de Objetos y Segmentación 

9.1.1. Segmentación semántica 

9.1.1.1. Casos de uso de segmentación semántica 

9.1.2. Segmentación Instanciada 

9.1.2.1. Casos de uso segmentación instanciada 

9.2. Métricas de evaluación 

9.2.1. Similitudes con otros métodos 
9.2.2. Pixel Accuracy 
9.2.3. Dice Coefficient (F1 Score) 

9.3. Funciones de coste 

9.3.1. Dice Loss 
9.3.2. Focal Loss 
9.3.3. Tversky Loss 
9.3.4. Otras funciones 

9.4. Métodos tradicionales de Segmentación 

9.4.1. Aplicación de umbral con Otsu y Riddlen 
9.4.2. Mapas auto organizados 
9.4.3. GMM-EM algorithm 

9.5. Segmentación Semántica aplicando Deep Learning: FCN 

9.5.1. FCN 
9.5.2. Arquitectura 
9.5.3. Aplicaciones de FCN 

9.6. Segmentación semántica aplicando Deep Learning : U-NET 

9.6.1. U-NET 
9.6.2. Arquitectura 
9.6.3. Aplicación U-NET 

9.7. Segmentación semántica aplicando Deep Learning: Deep Lab 

9.7.1. Deep Lab 
9.7.2. Arquitectura 
9.7.3. Aplicación de Deep Lab 

9.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN 

9.8.1. Mask RCNN 
9.8.2. Arquitectura 
9.8.3. Aplicación de un Mas RCNN 

9.9. Segmentación en videos 

9.9.1. STFCN 
9.9.2. Semantic Video CNNs 
9.9.3. Clockwork Convnets 
9.9.4. Low-Latency 

9.10. Segmentación en nubes de puntos 

9.10.1. La nube de puntos 
9.10.2. PointNet 
9.10.3. A-CNN 

Módulo 10. Segmentación de Imágenes Avanzada y Técnicas Avanzadas de Visión por Computador 

10.1. Base de datos para problemas de Segmentación General 

10.1.1. Pascal Context 
10.1.2. CelebAMask-HQ 
10.1.3. Cityscapes Dataset 
10.1.4. CCP Dataset 

10.2. Segmentación Semántica en la Medicina 

10.2.1. Segmentación Semántica en la Medicina 
10.2.2. Datasets para problemas médicos 
10.2.3. Aplicación práctica 

10.3. Herramientas de anotación 

10.3.1. Computer Vision Annotation Tool 
10.3.2. LabelMe 
10.3.3. Otras herramientas 

10.4. Herramientas de Segmentación usando diferentes frameworks 

10.4.1. Keras 
10.4.2. Tensorflow v2 
10.4.3. Pytorch 
10.4.4. Otros 

10.5. Proyecto Segmentación semántica. Los datos, Fase 1 

10.5.1 Análisis del problema 
10.5.2. Fuente de entrada para datos 
10.5.3. Análisis de datos 
10.5.4. Preparación de datos 

10.6. Proyecto Segmentación semántica. Entrenamiento, Fase 2 

10.6.1. Selección del algoritmo 
10.6.2. Entrenamiento 
10.6.3. Evaluación 

10.7. Proyecto Segmentación semántica. Resultados, Fase 3 

10.7.1. Ajuste fino 
10.7.2. Presentación de la solución 
10.7.3. Conclusiones 

10.8. Autocodificadores 

10.8.1. Autocodificadores 
10.8.2. Arquitectura de un Autocodificador 
10.8.3. Autocodificadores de Eliminación de Ruido 
10.8.4. Autocodificador de Coloración Automática 

10.9. Las Redes Generativas Adversariales (GAN) 

10.9.1. Redes Generativas Adversariales (GAN) 
10.9.2. Arquitectura DCGAN 
10.9.3. Arquitectura GAN Condicionada 

10.10. Redes Generativas Adversariales Mejoradas 

10.10.1. Visión general del problema 
10.10.2. WGAN 
10.10.3. LSGAN 
10.10.4. ACGAN

estudiar vision artificial

Este Máster título propio dispone de los contenidos más profundos y actualizados en visión artificial. No pierdas la oportunidad y matricúlate ya”