Titolo universitario
Accreditamento/Affiliazione
La più grande facoltà di informatica del mondo"
Presentazioni
Posizionati in un settore in pieno boom, con il miglior programma del panorama universitario che solo TECH offre"
La Realtà Virtuale ci trasporta in mondi immersivi, permettendo esperienze che vanno dalla simulazione di interventi chirurgici complessi alla progettazione architettonica in tempo reale. L'impatto di questa disciplina va oltre il campo tecnologico, poiché sta plasmando il modo in cui viviamo, lavoriamo e impariamo. La sua costante evoluzione richiede non solo professionisti in grado di implementare questi strumenti, ma anche visionari in grado di espandere le loro applicazioni verso nuovi orizzonti.
La Visione Artificiale, da parte sua, conferisce alle macchine la capacità di interpretare e analizzare immagini e video, consentendo lo sviluppo di tecnologie avanzate. Tra queste, i veicoli autonomi che stanno rivoluzionando il trasporto e le piattaforme di diagnostica medica che migliorano la precisione e l'efficienza dell’assistenza sanitaria. Inoltre, i recenti progressi in questo campo, come i modelli multitasking e le tecnologie generative, stanno aprendo nuove possibilità nella creazione di soluzioni innovative. L'integrazione con l'edge computing ha anche facilitato l'elaborazione dei dati in tempo reale, ampliando ulteriormente le applicazioni di Visione Artificiale. Per tutto questo, essere un professionista qualificato in queste discipline non solo dà accesso ad un settore tecnologico in costante crescita, ma permette anche di far parte di progetti che hanno un impatto reale sulla vita quotidiana. Contribuiamo allo sviluppo di tecnologie che continuano a trasformare il modo in cui interagiamo con il mondo e migliorano la nostra qualità della vita.
Il piano di studi di TECH , insieme alla sua metodologia 100% online e all'approccio di apprendimento Relearning, consente allo studente di concentrarsi pienamente sulle materie chiave per specializzarsi in queste aree tecnologiche. Inoltre, avrà il supporto del personale docente più specializzato e le ricerche più aggiornate dell'ambiente universitario. Tutto questo senza orari e da qualsiasi parte del mondo, che permette allo studente di adattare i suoi studi
al proprio ritmo, senza interferire con i suoi impegni personali o lavorativi.
La combinazione di creatività e tecnologia ti sta aspettando per iniziare a sviluppare grandi soluzioni con un impatto globale"
Questo Master specialistico in Realtà Virtuale e Visione Artificiale possiede il programma educativo più completo e aggiornato del mercato. Le sue caratteristiche principali sono:
- Sviluppo di casi di studio pratici presentati da esperti in informatica
- Contenuti grafici, schematici ed eminentemente pratici che forniscono informazioni scientifiche e pratiche sulle discipline essenziali per l’esercizio della professione
- Esercizi pratici che offrono un processo di autovalutazione per migliorare l'apprendimento
- Particolare enfasi sulle metodologie innovative in Realtà Virtuale e Visione Artificiale
- Lezioni teoriche, domande all'esperto, forum di discussione su argomenti controversi e lavoro di riflessione individuale
- Disponibilità di accesso ai contenuti da qualsiasi dispositivo fisso o portatile dotato di connessione a Internet
Diventa il migliore nella Realtà Virtuale e nella Visione Artificiale, al tuo ritmo, senza orari e da qualsiasi parte del mondo"
Il personale docente del programma comprende rinomati specialisti del settore e altre aree correlate, che forniscono agli studenti le competenze necessarie a intraprendere un percorso di studio eccellente.
I contenuti multimediali, sviluppati in base alle ultime tecnologie educative, forniranno al professionista un apprendimento coinvolgente e localizzato, ovvero inserito in un contesto reale.
La creazione di questo programma è incentrata sull’Apprendimento Basato su Problemi, mediante il quale lo specialista deve cercare di risolvere le diverse situazioni che gli si presentano durante il corso. Lo studente potrà usufruire di un innovativo sistema di video interattivi creati da esperti di rinomata fama.
Padroneggia queste tecnologie con gli strumenti didattici offerti da TECH e inizia a cambiare vite"
Sviluppa applicazioni e affronta le sfide più entusiasmanti nella più grande università digitale del mondo"
Piano di studi
Il piano di studi del Master specialistico in Realtà Virtuale e Visione Artificiale è progettato come un'opportunità accademica completa e avanzata in queste due discipline chiave. Inizia con una solida base nei fondamenti di programmazione, matematica applicata ed elaborazione delle immagini. Durante il corso, gli studenti approfondiranno lo sviluppo di ambienti virtuali utilizzando strumenti all'avanguardia. Inoltre, esploreranno tecniche avanzate di simulazione e interazione in ambienti immersivi.
Unisciti a TECH e inizierai a trasformare l'intrattenimento con esperienze immersive nella Visione Artificiale"
Modulo 1. Visione artificiale
1.1. Percezione umana
1.1.1. Sistema visivo umano
1.1.2. Il colore
1.1.3. Frequenze visibili e non visibili
1.2. Cronaca della visione artificiale
1.2.1. Principi
1.2.2. Evoluzione
1.2.3. L’importanza della visione artificiale
1.3. Composizione delle immagini digitali
1.3.1. L'immagine digitale
1.3.2. Tipi di immagini
1.3.3. Spazi di colore
1.3.4. RGB
1.3.5. HSV e HSL
1.3.6. CMY-CMYK
1.3.7. YCbCr
1.3.8. Immagine indicizzata
1.4. Sistemi di acquisizione di immagini
1.4.1. Funzionamento di una fotocamera digitale
1.4.2. L'esposizione giusta per ogni situazione
1.4.3. Profondità di campo
1.4.4. Risoluzione
1.4.5. Formati di immagine
1.4.6. Modalità HDR
1.4.7. Fotocamere ad alta risoluzione
1.4.8. Fotocamere ad alta velocità
1.5. Sistemi Ottici
1.5.1. Principi ottici
1.5.2. Obiettivi convenzionali
1.5.3. Obiettivi telecentrici
1.5.4. Tipi di autofocus
1.5.5. Lunghezza focale
1.5.6. Profondità di campo
1.5.7. Distorsione ottica
1.5.8. Calibrazione dell'immagine
1.6. Sistemi di illuminazione
1.6.1. Importanza dell’illuminazione
1.6.2. Risposta in frequenza
1.6.3. Illuminazione a LED
1.6.4. Illuminazione esterna
1.6.5. Tipi di illuminazione per applicazioni industriali. Effetti
1.7. Sistemi di Acquisizione 3D
1.7.1. Visione Stereo
1.7.2. Triangolazione
1.7.3. Luce strutturata
1.7.4. Time of Flight
1.7.5. Lidar
1.8. Multispettro
1.8.1. Telecamere Multispettrali
1.8.2. Telecamere Iperspettrali
1.9. Spettro vicino non Visibile
1.9.1. Fotocamere IR
1.9.2. Fotocamere UV
1.9.3. Convertire il non visibile in visibile grazie all'illuminazione
1.10. Altre bande di spettro
1.10.1. Raggi X
1.10.2. Terahertz
Modulo 2. Applicazioni e stato dell'arte
2.1. Applicazioni industriali
2.1.1. Librerie di visione artificiale
2.1.2. Fotocamere compatte
2.1.3. Sistemi basati sulla PC
2.1.4. Robotica industriale
2.1.5. Pick and place 2D
2.1.6. Bin picking
2.1.7. Controllo della qualità
2.1.8. Presenza assenza di componenti
2.1.9. Controllo dimensionale
2.1.10. Controllo dell'etichettatura
2.1.11. Tracciabilità
2.2. Il veicolo autonomo
2.2.1. Assistenza al conducente
2.2.2. Guida autonoma
2.3. Visione Artificiale per l'Analisi dei Contenuti
2.3.1. Filtro per contenuto
2.3.2. Moderazione dei contenuti visivi
2.3.3. Sistemi di monitoraggio
2.3.4. Identificazione di marchi e loghi
2.3.5. Etichettatura e classificazione dei video
2.3.6. Rilevamento del cambiamento di scena
2.3.7. Estrazione di testi o crediti
2.4. Applicazioni mediche
2.4.1. Individuazione e localizzazione delle malattie
2.4.2. Cancro e Analisi di radiografie
2.4.3. Progressi della visione artificiale a Covid19
2.4.4. Assistenza in sala operatoria
2.5. Applicazioni spaziali
2.5.1. Analisi delle immagini satellitari
2.5.2. La visione artificiale per lo studio dello spazio
2.5.3. Missione su Marte
2.6. Applicazioni commerciali
2.6.1. Control stock
2.6.2. Videosorveglianza, sicurezza domestica
2.6.3. Telecamere di parcheggio
2.6.4. Telecamere per il controllo della popolazione
2.6.5. Autovelox
2.7. Visione Applicata alla Robotica
2.7.1. Droni
2.7.2. AGV
2.7.3. Visione nei robot collaborativi
2.7.4. Gli occhi dei robot
2.8. Realtà Aumentata
2.8.1. Funzionamento
2.8.2. Dispositivi
2.8.3. Applicazioni nell’industria
2.8.4. Applicazioni commerciali
2.9. Cloud Computing
2.9.1. Piattaforme di Cloud Computing
2.9.2. Dal Cloud Computing alla produzione
2.10. Ricerca e Stato dell'arte
2.10.1. La comunità scientifica
2.10.2. Cosa bolle in pentola
2.10.3. Il futuro della visione artificiale
Modulo 3. Elaborazione delle immagini digitali
3.1. Ambiente di sviluppo per la Visione per Computer
3.1.1. Librerie di Visione per Computer
3.1.2. Ambiente di programmazione
3.1.3. Strumenti di visualizzazione
3.2. Elaborazione digitale delle immagini
3.2.1. Relazioni tra pixel
3.2.2. Operazioni con immagini
3.2.3. Trasformazioni geometriche
3.3. Operazioni con i pixel
3.3.1. Istogramma
3.3.2. Trasformazioni a partire da istogrammi
3.3.3. Operazioni su immagini a colori
3.4. Operazioni logiche e aritmetiche
3.4.1. Addizione e sottrazione
3.4.2. Prodotto e divisione
3.4.3. And/Nand
3.4.4. Or/Nor
3.4.5. Xor/Xnor
3.5. Filtri
3.5.1. Maschere e convoluzione
3.5.2. Filtraggio lineare
3.5.3. Filtraggio non lineare
3.5.4. Analisi di Fourier
3.6. Operazioni morfologiche
3.6.1. Erode and Dilating
3.6.2. Closing and Open
3.6.3. Top_hat e Black hat
3.6.4. Rilevamento dei contorni
3.6.5. Scheletro
3.6.6. Riempimento dei fori
3.6.7. Convex hull
3.7. Strumenti di analisi di immagini
3.7.1. Rilevamento dei bordi
3.7.2. Rilevamento di blobs
3.7.3. Controllo dimensionale
3.7.4. Ispezione del colore
3.8. Segmentazione degli oggetti
3.8.1. Segmentazione delle immagini
3.8.2. Tecniche di segmentazione classica
3.8.3. Applicazioni reali
3.9. Calibrazione di immagini
3.9.1. Calibrazione dell'immagine
3.9.2. Metodi di calibrazione
3.9.3. Processo di calibrazione in un sistema telecamera/robot 2D
3.10. Elaborazione di immagini in ambiente reale
3.10.1. Analisi dei problemi
3.10.2. Elaborazione delle immagini
3.10.3. Estrazione delle caratteristiche
3.10.4. Risultati finali
Modulo 4. Elaborazione avanzata delle immagini digitali
4.1. Riconoscimento ottico dei caratteri (OCR)
4.1.1. Pre-elaborazione dell'immagine
4.1.2. Rilevamento del testo
4.1.3. Riconoscimento di testo
4.2. Lettura di codici
4.2.1. Codice 1D
4.2.2. Codice 2D
4.2.3. Applicazioni
4.3. Ricerca di modelli
4.3.1. Ricerca di modelli
4.3.2. Modelli basati sul livello di grigio
4.3.3. Modelli basati sui contorni
4.3.4. Modelli basati su forme geometriche
4.3.5. Altre tecniche
4.4. Tracciamento di oggetti con la visione convenzionale
4.4.1. Estrazione di sfondo
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow
4.5. Riconoscimento facciale
4.5.1. Facial Landmark detection
4.5.2. Applicazioni
4.5.3. Riconoscimento facciale
4.5.4. Riconoscimento delle emozioni
4.6. Panoramica e allineamenti
4.6.1. Stitching
4.6.2. Composizione di immagini
4.6.3. Fotomontaggio
4.7. High Dinamic Range (HDR) and Photometric Stereo
4.7.1. Aumento della gamma dinamica
4.7.2. Composizione di immagini per il miglioramento dei contorni
4.7.3. Tecniche per l'utilizzo di applicazioni dinamiche
4.8. Compressione dell'immagine
4.8.1. La compressione delle immagini
4.8.2. Tipi di compressori
4.8.3. Tecniche di compressione delle immagini
4.9. Elaborazione di video
4.9.1. Sequenze di immagini
4.9.2. Formati e codec video
4.9.3. Lettura di un video
4.9.4. Elaborazione del fotogramma
4.10. Applicazione reale dell'elaborazione delle immagini
4.10.1. Analisi dei problemi
4.10.2. Elaborazione delle immagini
4.10.3. Estrazione delle caratteristiche
4.10.4. Risultati finali
Modulo 5. Elaborazione delle immagini 3D
5.1. Immagine 3D
5.1.1. Immagine 3D
5.1.2. Software di elaborazione e visualizzazione di immagini 3D
5.1.3. Software di Metrologia
5.2. Open3D
5.2.1. Libreria per l'Elaborazione dei Dati 3D
5.2.2. Caratteristiche
5.2.3. Installazione ed Uso
5.3. I dati
5.3.1. Mappe di profondità dell'immagine 2D
5.3.2. Pointclouds
5.3.3. Normali
5.3.4. Superfici
5.4. Visualizzazione
5.4.1. Visualizzazione dei Dati
5.4.2. Controlli
5.4.3. Visualizzazione web
5.5. Filtri
5.5.1. Distanza tra i punti, eliminare Outliers
5.5.2. Filtro passa-alto
5.5.3. Downsampling
5.6. Geometria ed estrazione delle caratteristiche
5.6.1. Estrazione di un profilo
5.6.2. Misurazione della profondità
5.6.3. Volume
5.6.4. Forme geometriche 3D
5.6.5. Piani
5.6.6. Proiezione di un punto
5.6.7. Distanze geometriche
5.6.8. Kd Tree
5.6.9. Features 3D
5.7. Registro e Meshing
5.7.1. Concatenazione
5.7.2. ICP
5.7.3. Ransac 3D
5.8. Riconoscimento di oggetti 3D
5.8.1. Ricerca di un oggetto nella scena 3d
5.8.2. Segmentazione
5.8.3. Bin picking
5.9. Analisi di superfici
5.9.1. Smoothing
5.9.2. Superfici regolabili
5.9.3. Octree
5.10. Triangolazione
5.10.1. Da Mesh a Point Cloud
5.10.2. Triangolazione delle mappe di profondità
5.10.3. Triangolazione di Point Cloud non ordinato
Modulo 6. Deep Learning
6.1. Intelligenza artificiale
6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. L’esplosione del Deep Learning: Perché ora
6.2. Reti neuronali
6.2.1. La rete neurale
6.2.2. Uso delle reti neurali
6.2.3. Regressione lineare e Perceptron
6.2.4. Forward Propagation
6.2.5. Backpropagation
6.2.6. Feature vectors
6.3. Loss Functions
6.3.1. Loss function
6.3.2. Tipi di Loss Functions
6.3.3. Scelta di Loss Function
6.4. Funzioni di attivazione
6.4.1. Funzioni di attivazione
6.4.2. Funzioni lineari
6.4.3. Funzioni non lineari
6.4.4. Output vs Hidden layer activation functions
6.5. Regolarizzazione e Standardizzazione
6.5.1. Regolarizzazione e Standardizzazione
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization Methods: L1, L2 and dropout
6.5.4. Normalization Methods: Batch, Weight, Layer
6.6. Ottimizzazione
6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam
6.7. Hyperparameter Tuning e Pesi
6.7.1. Iperparametri
6.7.2. Batch Size vs. Learning Rate vs Step Decay
6.7.3. Pesi
6.8. Metriche di valutazione delle reti neurali
6.8.1. Accuracy
6.8.2. Dice coefficient
6.8.3. Sensitivity vs. Specificity/Recall vs. Precisione
6.8.4. Curva ROC (AUC)
6.8.5. F1-score
6.8.6. Confusione Matrix
6.8.7. Cross-validation
6.9. Framework e Hardware
6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware per la fase di preparazione
6.10. Creazione di reti Neurali - Preparazione e Validazione
6.10.1. Dataset
6.10.2. Costruzione della rete
6.10.3. Allenamento
6.10.4. Visualizzazione dei risultati
Modulo 7. Reti convoluzionali e classificazione delle immagini
7.1. Reti neurali convoluzionali
7.1.1. Introduzione
7.1.2. La convoluzione
7.1.3. CNN Building Blocks
7.2. Tipi di strati CNN
7.2.1. Convolutional
7.2.2. Activation
7.2.3. Batch normalization
7.2.4. Polling
7.2.5. Fully connected
7.3. Metriche
7.3.1. Confusione Matrix
7.3.2. Accuracy
7.3.3. Precisione
7.3.4. Recall
7.3.5. F1 Score
7.3.6. ROC Curve
7.3.7. AUC
7.4. Principali architetture
7.4.1. AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet
7.5. Classificazione di immagini
7.5.1. Introduzione
7.5.2. Analisi dei dati
7.5.3. Preparazione dei dati
7.5.4. Addestramento del modello
7.5.5. Convalida del modello
7.6. Considerazioni pratiche per la preparazione CNN
7.6.1. Selezione dell'ottimizzatore
7.6.2. Learning Rate Scheduler
7.6.3. Controllo pipeline di preparazione
7.6.4. Preparazione con regolarizzazione
7.7. Buone pratiche in Deep Learning
7.7.1. Transfer learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation
7.8. Valutazione statistica di dati
7.8.1. Numero di dataset
7.8.2. Numero di etichette
7.8.3. Numero di immagini
7.8.4. Bilanciamento dei dati
7.9. Deployment
7.9.1. Salvataggio e caricamento dei modelli
7.9.2. Onnx
7.9.3. Inferenza
7.10. Caso Pratico: Classificazione di Immagini
7.10.1. Analisi e preparazione dei dati
7.10.2. Verifica della pipeline di formazione
7.10.3. Addestramento del modello
7.10.4. Convalida del modello
Modulo 8. Rilevamento di oggetti
8.1. Rilevamento e tracciamento di oggetti
8.1.1. Rilevamento di oggetti
8.1.2. Casi d'uso
8.1.3. Tracciamento di oggetti
8.1.4. Casi d'uso
8.1.5. Occlusioni, Rigid and No Rigid Poses
8.2. Metriche di Valutazione
8.2.1. IOU - Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Precisione
8.2.5. Recall - Curva di Precisione
8.2.6. Mean Average Precision (MAP)
8.3. Metodi tradizionali
8.3.1. Sliding window
8.3.2. Viola detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)
8.4. Datasets
8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge
8.5. Two Shot Object Detector
8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN
8.6. Single Shot Object Detector
8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet
8.7. Backbone
8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet
8.8. Object Tracking
8.8.1. Approcci classici
8.8.2. Filtri di particelle
8.8.3. Kalman
8.8.4. Sort tracker
8.8.5. Deep Sort
8.9. Implementazione
8.9.1. Piattaforma informatica
8.9.2. Scelta del Backbone
8.9.3. Scelta del Framework
8.9.4. Ottimizzazione di modelli
8.9.5. Versione dei modelli
8.10. Studio: Rilevamento e monitoraggio di persone
8.10.1. Rilevamento di persone
8.10.2. Tracciamento delle persone
8.10.3. Re-identificazione
8.10.4. Conteggio delle persone in massa
Modulo 9. Segmentazione delle Immagini con Deep Learning
9.1. Rilevamento di oggetti e segmentazione
9.1.1. Segmentazione semantica
9.1.1.1. Casi d'uso della segmentazione semantica
9.1.2. Segmentazione delle istanze
9.1.2.1. Casi d'uso della segmentazione delle istanze
9.2. Metriche di valutazione
9.2.1. Similitudini con altri metodi
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)
9.3. Funzioni di costo
9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Altre funzioni
9.4. Metodi tradizionali di segmentazione
9.4.1. Applicazione della soglia con Otsu e Riddlen
9.4.2. Mappe auto-organizzate
9.4.3. GMM-EM algorithm
9.5. Segmentazione Semantica con il Deep Learning: FCN
9.5.1. FCN
9.5.2. Architettura
9.5.3. Applicazioni di FCN
9.6. Segmentazione Semantica con il Deep Learning: U-NET
9.6.1. U-NET
9.6.2. Architettura
9.6.3. Applicazione U-NET
9.7. Segmentazione Semantica con il Deep Learning: Deep Lab
9.7.1. Deep Lab
9.7.2. Architettura
9.7.3. Applicazione di Deep Lab
9.8. Segmentazione istanziata con il Deep Learning: Mask RCNN
9.8.1. Mask RCNN
9.8.2. Architettura
9.8.3. Implementazione di una Mask RCNN
9.9. Segmentazione in video
9.9.1. STFCN
9.9.2. Semantic Video CNN
9.9.3. Clockwork Convnets
9.9.4. Low-Latency
9.10. Segmentazione cloud di punti
9.10.1. Cloud di punti
9.10.2. PointNet
9.10.3. A-CNN
Modulo 10. Segmentazione Avanzata delle Immagini e Tecniche Avanzate di Visione Artificiale
10.1. Database per problemi Generali di Segmentazione
10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset
10.2. Segmentazione Semantica in Medicina
10.2.1. Segmentazione Semantica in Medicina
10.2.2. Dataset per problemi medici
10.2.3. Applicazione pratica
10.3. Strumenti di annotazione
10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Altri strumenti
10.4. Strumenti di Segmentazione che utilizzano diversi framework
10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Altri
10.5. Progetto di Segmentazione semantica: I dati, fase 1
10.5.1. Analisi del problema
10.5.2. Fonte di input per i dati
10.5.3. Analisi dei dati
10.5.4. Preparazione dei dati
10.6. Progetto di Segmentazione semantica: Allenamento, fase 2
10.6.1. Selezione dell'algoritmo
10.6.2. Allenamento
10.6.3. Valutazione
10.7. Progetto di Segmentazione semantica: Risultati, fase 3
10.7.1. Regolazione fine
10.7.2. Presentazione della soluzione
10.7.3. Conclusioni
10.8. Autocodificatori
10.8.1. Autocodificatori
10.8.2. Architettura di un Autocodificatore
10.8.3. Autocodificatori a Cancellazione di Rumore
10.8.4. Autocodificatore di Colorazione Automatica
10.9. Reti Generative Avversarie (GAN)
10.9.1. Reti Generative Avversarie (GAN)
10.9.2. Architettura DCGAN
10.9.3. Architettura GAN Condizionata
10.10. Reti Generative Avversarie Migliorate
10.10.1. Visione d'insieme del problema
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN
Modulo 11. L’industria del 3D
11.1. Industria 3D nell'animazione e nei videogiochi
11.1.1. Animazione in 3D
11.1.2. Industria 3D nell'animazione e nei videogiochi
11.1.3. Animazione in 3D: Futuro
11.2. Il 3D nei Videogiochi
11.2.1. I Videogiochi: Limiti
11.2.2. Sviluppo di un videogioco in 3D: Difficoltà
11.2.3. Soluzioni a problematiche nello sviluppo di un videogioco
11.3. Software per il 3D nei videogiochi
11.3.1. Maya: Pro e contro
11.3.2. 3Ds Max: Pro e contro
11.3.3. Blender: Pro e contro
11.4. Pipeline nella creazione di Assets 3D per Videogiochi
11.4.1. Idea e montaggio a partire da un Modelsheet
11.4.2. Modellazione con geometria ridotta e dettagli avanzati
11.4.3. Proiezione di dettagli tramite texture
11.5. Stili artistici chiave in 3D per i videogiochi
11.5.1. Stile Cartoon
11.5.2. Stile realista
11.5.3. Cel Shading
11.5.4. Motion capture
11.6. Integrazione del 3D
11.6.1. Integrazione 3D nel mondo digitale
11.6.2. Integrazione 3D nel mondo digitale
11.6.3. Integrazione nel mondo reale (AR, MR/XR)
11.7. Fattori chiave del 3D per diverse industrie
11.7.1. 3D nel cinema e nelle serie
11.7.2. 3D nei videogiochi
11.7.3. 3D nella pubblicità
11.8. Render: Rendering in tempo reale e pre-rendering
11.8.1. Illuminazione
11.8.2. Definizione di ombre
11.8.3. Qualità vs. Velocità
11.9. Generazione di Asset 3D in 3D Max
11.9.1. Software 3D Max
11.9.2. Interfaccia, menù, barra degli strumenti
11.9.3. Controlli
11.9.4. Scena
11.9.5. Viewport
11.9.6. Basic shape
11.9.7. Generazione, modifica e trasformazione di oggetti
11.9.8. Creazione di una scena 3D
11.9.9. Modellazione 3D di Asset professionali per videogiochi
11.9.10. Redattori di materiali
11.9.10.1. Creazione e modifica del materiale
11.9.10.2. Applicazione della luce ai materiali
11.9.10.3. Modificatore della mappa UVW: Coordinate di mappatura
11.9.10.4. Creazione di texture
11.10. Organizzazione dello spazio di lavoro e prassi ottimali
11.10.1. Creazione di un progetto
11.10.2. Struttura di un progetto
11.10.3. Funzionalità personalizzata
Modulo 12. Arte e 3D nell’industria dei videogiochi
12.1. Progetti 3D in VR
12.1.1. Software di creazione di mesh 3D
12.1.2. Software di modifica delle immagini
12.1.3. Realtà Virtuale
12.2. Problemi tipici, soluzioni ed esigenze di progetto
12.2.1. Esigenze del progetto
12.2.2. Possibili problematiche
12.2.3. Soluzioni
12.3. Studio di linea estetica per la creazione dello stile artistico nei videogiochi: Dalla progettazione del gioco alla generazione di arte 3D
12.3.1. Scegliere il pubblico di riferimento del videogioco: Chi vogliamo raggiungere
12.3.2. Possibilità artistiche dello sviluppatore
12.3.3. Definizione finale della linea estetica
12.4. Ricerca di referenze e analisi dei concorrenti a livello estetico
12.4.1. Pinterest e siti simili
12.4.2. Creazione di un Modelsheet
12.4.3. Ricerca di concorrenti
12.5. Creazione della Bibbia e Briefing
12.5.1. Creazione della Bibbia
12.5.2. Sviluppo di una Bibbia
12.5.3. Sviluppo di un Briefing
12.6. Scenari e Asset
12.6.1. Pianificazione di produzione degli Asset nei livelli
12.6.2. Progettazione degli scenari
12.6.3. Progettazione degli Asset
12.7. Integrazione degli Asset nei livelli e nelle prove
12.7.1. Processo di integrazione dei livelli
12.7.2. Texture
12.7.3. Ritocchi finali
12.8. Personaggi
12.8.1. Pianificazione di produzione dei personaggi
12.8.2. Progettazione dei personaggi
12.8.3. Design degli Asset dei personaggi
12.9. Integrazione dei personaggi negli scenari e prove
12.9.1. Processo di integrazione dei personaggi nei livelli
12.9.2. Esigenze del progetto
12.9.3. Animazioni
12.10. Audio nei videogiochi 3D
12.10.1. Interpretazione del dossier di progetto per la generazione dell'identità sonora del videogioco
12.10.2. Processi di composizione e produzione
12.10.3. Progetto della banda sonora
12.10.4. Progetto degli effetti del suono
12.10.5. Progetto delle voci
Modulo 13. 3D Avanzato
13.1. Tecniche avanzate di modellazione 3D
13.1.1. Configurazione dell’interfaccia
13.1.2. Osservazione per la modellazione
13.1.3. Modellazione in scarico
13.1.4. Modellazione organica per videogiochi
13.1.5. Mappatura avanzata per oggetti in 3D
13.2. Texturing 3D avanzato
13.2.1. Interfaccia di Substance Painter
13.2.2. Materiali, Alphas e uso di pennelli
13.2.3. Uso di particelle
13.3. Esportazione per il software 3D e Unreal Engine
13.3.1. Integrazione di Unreal Engine nei progetti
13.3.2. Integrazione di modelli 3D
13.3.3. Applicazione di texture in Unreal Engine
13.4. Scultura digitale
13.4.1. Scultura digitale con ZBrush
13.4.2. Primi passi con ZBrush
13.4.3. Interfaccia, menu e navigazione
13.4.4. Immagini di riferimento
13.4.5. Modellazione 3D completa di un oggetto in ZBrush
13.4.6. Utilizzo delle mesh di base
13.4.7. Modellazione a compartimenti stagni
13.4.8. Esportazione di modelli 3D in ZBrush
13.5. L’uso di Polypaint
13.5.1. Spazzole avanzate
13.5.2. Texture
13.5.3. Materiali predefiniti
13.6. Retopology
13.6.1. Retopology: Uso nell'industria dei videogiochi
13.6.2. Creazione di mesh Low-Poly
13.6.3. Utilizzo del software per la retopology
13.7. Posizioni del modello 3D
13.7.1. Visualizzare di immagini di riferimento
13.7.2. Uso di Transpose
13.7.3. Uso del Transpose per modelli composti da pezzi diversi
13.8. Esportazione di modelli 3D
13.8.1. Esportazione di modelli 3D
13.8.2. Creazione di texture per l’esportazione
13.8.3. Configurazione del modello 3d con diversi materiali e texture
13.8.4. Anteprima del 3D
13.9. Tecniche di lavoro avanzate
13.9.1. Flusso di lavoro nella modellazione 3D
13.9.2. Organizzazione dei processi di lavoro nella modellazione 3D
13.9.3. Stime degli sforzi di produzione
13.10. Completamento del modello ed esportazione per altri programmi
13.10.1. Flusso di lavoro per completare il modello
13.10.2. Esportazione con Zpluging
13.10.3. File possibili: Vantaggi e svantaggi
Modulo 14. Animazione in 3D
14.1. Gestione del software
14.1.1. Gestione delle informazioni e metodologia di lavoro
14.1.2. L’animazione
14.1.3. Timing e peso
14.1.4. Animazione con oggetti di base
14.1.5. Cinematica diretta e inversa
14.1.6. Cinematica inversa
14.1.7. Catena cinematica
14.2. Anatomia: Bipede vs. Quadrupede
14.2.1. Bipede
14.2.2. Quadrupede
14.2.3. Ciclo della camminata
14.2.4. Ciclo della corsa
14.3. Rig facciale e Morpher
14.3.1. Linguaggio facciale: Lip-sync, occhi e focus dell’attenzione
14.3.2. Montaggio della sequenza
14.3.3. La fonetica: Importanza
14.4. Animazione applicata
14.4.1. Animazione 3D per cinema e televisione
14.4.2. Animazione per i videogiochi
14.4.3. Animazione per altre applicazioni
14.5. Cattura del movimento con Kinect
14.5.1. Cattura del movimento per l’animazione
14.5.2. Sequenza dei movimenti
14.5.3. Integrazione in Blender
14.6. Scheletro, skinning e setup
14.6.1. Interazione tra scheletro e geometria
14.6.2. Interpolazione delle mesh
14.6.3. pesi dell’animazione
14.7. Recitazione
14.7.1. Linguaggio del corpo
14.7.2. Le pose
14.7.3. Montaggio della sequenza
14.8. Telecamere e piani
14.8.1. Telecamera e ambiente
14.8.2. Composizione del piano e dei personaggi
14.8.3. Rifiniture
14.9. Effetti visivi e spaziali
14.9.1. Effetti visivi e animazione
14.9.2. Tipi di effetti ottici
14.9.3. 3D VFX L
14.10. L'animatore come attore
14.10.1. Espressioni
14.10.2. Riferimenti degli attori
14.10.3. Dalla videocamera al programma
Modulo 15. Padronanza di Unity 3D e dell'Intelligenza Artificiale
15.1. Il Videogioco: Unity 3D
15.1.1. Il videogioco
15.1.2. Il Videogioco: Errori e successi
15.1.3. Applicazioni dei videogiochi in altri settori e industrie
15.2. Sviluppo dei videogiochi: Unity 3D
15.2.1. Piano di produzione e fasi di sviluppo
15.2.2. Metodologia di sviluppo
15.2.3. Patch e contenuti aggiuntivi
15.3. Unity 3D
15.3.1. Unity 3D: Applicazioni
15.3.2. Scripting in Unity 3D
15.3.3. Asset Store e plugin di terzi
15.4. Fisici, Input
15.4.1. InputSystem
15.4.2. Fisici in Unity 3D
15.4.3. Animazione e animatore
15.5. Prototipo in Unity
15.5.1. Blocking e colliders
15.5.2. Prefabbricati
15.5.3. Scriptable Objects
15.6. Tecniche di programmazione specifiche
15.6.1. Modello Singleton
15.6.2. Caricamento delle risorse nell'esecuzione di giochi Windows
15.6.3. Prestazione e Profiler
15.7. Videogiochi per dispositivi mobili
15.7.1. Giochi per dispositivi Android
15.7.2. Giochi per dispositivi IOS
15.7.3. Sviluppi multipiattaforma
15.8. Realtà Aumentata
15.8.1. Tipologie di giochi di realtà aumentata
15.8.2. ARkit e ARcore
15.8.3. Sviluppo di Vuforia
15.9. Programmazione di intelligenza artificiale
15.9.1. Algoritmi di intelligenza artificiale
15.9.2. Macchinari a stati finiti
15.9.3. Reti neuronali
15.10. Distribuzione e Marketing
15.10.1. L’arte di pubblicare e promuovere videogiochi
15.10.2. Il responsabile del successo
15.10.3. Strategie
Modulo 16. Sviluppo di videogiochi in 2D e 3D
16.1. Risorse grafiche raster
16.1.1. Sprites
16.1.2. Atlas
16.1.3. Texture
16.2. Sviluppo di interfacce e menù
16.2.1. GUI di Unity
16.2.2. UI di Unity
16.2.3. UI Toolkit
16.3. Sistema di animazione
16.3.1. Curve e codici di animazione
16.3.2. Eventi di animazione applicati
16.3.3. Modificatori
16.4. Materiali e Shaders
16.4.1. Componenti di un materiale
16.4.2. Tipologie di RenderPass
16.4.3. Shaders
16.5. Particelle
16.5.1. Sistema di particelle
16.5.2. Emettitori e sub-emettitori
16.5.3. Scripting
16.5.4. Illuminazione
16.6. Modalità di illuminazione
16.6.1. Impianto di illuminazione
16.6.2. Light probes
16.7. Mecanim
16.7.1. State Machines, SubState Machines e transizione tra le animazioni
16.7.2. Miscela di alberi
16.7.3. Livelli di Animazione e IK
16.8. Finitura cinematica
16.8.1. Timeline
16.8.2. Effetti di post-elaborazione
16.8.3. Universal Render Pipeline e High Definition Render Pipeline
16.9. VFX avanzato
16.9.1. VFX Graph
16.9.2. Shader Graph
16.9.3. Pipeline tools
16.10. Componenti audio
16.10.1. Audio Source y Audio Listener
16.10.2. Mixer Audio
16.10.3. Audio Spaziale
Modulo 17. Programmazione, generazione di meccaniche e tecniche di prototipazione per videogiochi
17.1. Processo tecnico
17.1.1. Modelli lowpoly e highpoly in Unity
17.1.2. Configurazione del materiale
17.1.3. Pipeline di rendering ad alta definizione
17.2. Progettazione di personaggi
17.2.1. Movimento
17.2.2. Progettazione colliders
17.2.3. Creazione e comportamento
17.3. Importazione di Skeletal Meshes in Unity
17.3.1. Esportazione Skeletal Meshes dal software 3D
17.3.2. Skeletal Meshes in Unity
17.3.3. Punti di fissaggio per gli accessori
17.4. Importazione di animazioni
17.4.1. Preparazione dell’animazione
17.4.2. Importazione di animazioni
17.4.3. Animatore e transizione
17.5. Editor di animazioni
17.5.1. Creazione del Blend Spaces
17.5.2. Creazione del Montaggio di Animazione
17.5.3. Modifica delle animazioni Read-Only
17.6. Creazione e simulazione di un Ragdoll
17.6.1. Configurazione di un Ragdoll
17.6.2. Ragdoll con un grafico di animazione
17.6.3. Simulazione di un Ragdoll
17.7. Risorse per la creazione di un personaggio
17.7.1. Librerie
17.7.2. Importazione ed esportazione di materiali di biblioteca
17.7.3. Manipolazione dei materiali
17.8. Squadre di lavoro
17.8.1. Gerarchia e ruoli di lavoro
17.8.2. Sistemi di controllo delle versioni
17.8.3. Risoluzione di conflitti
17.9. Requisiti per uno sviluppo di successo
17.9.1. Produzione per il successo
17.9.2. Sviluppo ottimale
17.9.3. Requisiti imprescindibili
17.10. Imballaggio per la pubblicazione
17.10.1. Player Settings
17.10.2. Realizzazione
17.10.3. Creazione un programma di installazione
Modulo 18. Sviluppo dei Videogiochi Immersivi in VR
18.1. Singolarità della VR
18.1.1. Videogiochi tradizionali e in VR: Differenze
18.1.2. Motion sickness: fluidità vs. effetti
18.1.3. Interazioni VR uniche
18.2. Interazione
18.2.1. Eventi
18.2.2. Trigger fisici
18.2.3. Mondo virtuale vs. mondo reale
18.3. Locomozione immersiva
18.3.1. Teletrasporto
18.3.2. Arm swinging
18.3.3. Movimento in avanti con e senza Facing
18.4. Fisici nella VR
18.4.1. Oggetti afferrabili e lanciabili
18.4.2. Peso e massa nella VR
18.4.3. Gravità nella VR
18.5. UI nella VR
18.5.1. Posizionamento e curvatura degli elementi dell’UI
18.5.2. Modalità di interazione con i menù nella VR
18.5.3. Le migliori pratiche per un'esperienza confortevole
18.6. Animazione in VR
18.6.1. Integrazione di modelli animati in VR
18.6.2. Oggetti e personaggi animati vs. Oggetti fisici
18.6.3. Transizioni animate vs Procedurali
18.7. L’Avatar
18.7.1. Rappresentazione dell'avatar dai propri occhi
18.7.2. Rappresentazione esterna dell'avatar stesso
18.7.3. Cinematica inversa e animazione procedurale applicata all'avatar
18.8. Audio
18.8.1. Configurazione di Audio Sources e Audio Listeners per la VR
18.8.2. Effetti disponibili per un'esperienza più coinvolgente
18.8.3. Audio Spatializer VR
18.9. Ottimizzazione nei progetti VR e AR
18.9.1. Occlusion Culling
18.9.2. Static Batching
18.9.3. Configurazione di qualità e tipologie di Render Pass
18.10. Pratica: Escape Room VR
18.10.1. Progettazione dell'esperienza
18.10.2. Layout dello scenario
18.10.3. Sviluppo delle meccaniche
Modulo 19. Audio professionale per i videogiochi 3D in VR
19.1. Audio nei videogiochi professionali 3D
19.1.1. Audio nei videogiochi
19.1.2. Tipi di stili audio nei videogiochi attuali
19.1.3. Modelli audio spaziali
19.2. Studio preliminare del materiale
19.2.1. Studio della documentazione di progettazione del gioco
19.2.2. Studio della documentazione di progettazione dei livelli
19.2.3. Valutazione della complessità e della tipologia di progetto per la creazione dell’audio
19.3. Studio dei riferimenti sonori
19.3.1. Elenco dei principali riferimenti per affinità con il progetto
19.3.2. Riferimenti audio da altri media per dare al videogioco la sua identità
19.3.3. Studio dei riferimenti e stesura delle conclusioni
19.4. Progettazione dell'identità sonora completa del videogioco
19.4.1. Fattori principali che influenzano in progetto
19.4.2. Aspetti rilevanti nella composizione dell'audio: strumentazione, tempo, ecc.
19.4.3. Definizione delle voci
19.5. Creazione della banda sonora
19.5.1. Elenco degli scenari e degli audio
19.5.2. Definizione della motivazione, tematica e strumentalizzazione
19.5.3. Composizione e test audio di prototipi funzionali
19.6. Creazione degli effetti del suono (FX)
19.6.1. Effetti sonori: tipi di FX ed elenco completo in base alle esigenze del progetto
19.6.2. Definizione della motivazione, tematica e creazione
19.6.3. Valutazione dell'FX sonoro e test su prototipi funzionali
19.7. creazione delle voci
19.7.1. Tipi di voce ed elenchi di frasi
19.7.2. Ricerca e valutazione di attori e attrici di doppiaggio
19.7.3. Valutazione delle registrazioni e test delle voci su prototipi funzionali
19.8. Valutazione della qualità dell’audio
19.8.1. Elaborazione di sessioni di ascolto con il team di sviluppo
19.8.2. Integrazione di tutti gli audio in un prototipo funzionante
19.8.3. Test e valutazione dei risultati ottenuti
19.9. Esportazione, formattazione e importazione dell'audio nel progetto
19.9.1. Formati audio e compressione nei videogiochi
19.9.2. Esportazione audio
19.9.3. Importazione dell’audio nel progetto
19.10. Preparazioni di librerie audio per la commercializzazione
19.10.1. Progettazione di librerie sonore versatili per i professionisti dei videogiochi
19.10.2. Selezione dell'audio per tipo: colonna sonora, FX e voci
19.10.3. Commercializzazione di librerie di asset di audio
Modulo 20. Produzione e finanziamento di videogiochi
20.1. La produzione nei videogiochi
20.1.1. Metodologie a cascata
20.1.2. Casistica della mancanza di gestione del progetto e dell'assenza di un piano di lavoro
20.1.3. Conseguenze della mancanza di un reparto di produzione nell'industria dei videogiochi
20.2. Team di sviluppo
20.2.1. Dipartimenti chiave nello sviluppo dei progetti
20.2.2. Profili chiave della microgestione: LEAD e SENIOR
20.2.3. Problema della mancanza di esperienza nei profili JUNIOR
20.2.4. Definizione di un piano didattico per i profili a bassa esperienza
20.3. Metodologie agili nello sviluppo di videogiochi
20.3.1. SCRUM
20.3.2. AGILE
20.3.3. Metodologie ibride
20.4. Stime di sforzi, tempi e costi
20.4.1. Il prezzo dello sviluppo di un videogioco: i principali concetti di costo
20.4.2. Pianificazione dei compiti: punti critici, chiavi e aspetti da tenere in considerazione
20.4.3. Stime basate su punti sforzo VS calcolo in ore
20.5. Priorità nella pianificazione dei prototipi
20.5.1. Definizione degli obiettivi generali del progetto
20.5.2. Priorità alle funzionalità e ai contenuti chiave: ordine e necessità per dipartimento
20.5.3. Raggruppamento delle funzionalità e dei contenuti in produzione per costituire i deliverable (prototipi funzionali)
20.6. Pratica corretta per la produzione di videogiochi
20.6.1. Riunioni, daylies, weekly meeting, riunioni di fine Sprint, riunioni per verificare i risultati nelle fasi ALFA, BETA e RELEASE
20.6.2. Misurazione della velocità di Sprint
20.6.3. Individuazione della mancanza di motivazione e della scarsa produttività e anticipazione di possibili problemi di produzione
20.7. Analisi nella produzione
20.7.1. Analisi preliminari I: esame della situazione di mercato
20.7.2. Analisi preliminari 2: definizione dei principali benchmark di progetto (concorrenti diretti)
20.7.3. Conclusioni delle analisi preliminari
20.8. Calcolo dei costi di sviluppo
20.8.1. Risorse Umane
20.8.2. Tecnologia e licenze
20.8.3. Costi di sviluppo esterni
20.9. Ricerca di investimenti
20.9.1. Tipi di investitori
20.9.2. Sommario esecutivo
20.9.3. Pitch Deck
20.9.4. Publisher
20.9.5. Autofinanziamento
20.10. Elaborazione Post Mortem del progetto
20.10.1. Processo di elaborazione del Post Mortem nell’azienda
20.10.2. Analisi dei punti positivi del progetto
20.10.3. Studio dei punti negativi del progetto
20.10.4. Proposta di miglioramento dei punti negativi del progetto e conclusioni
Con il piano di studi, TECH ti aiuta a comprendere e analizzare il mondo attraverso gli occhi della tecnologia"
Master Specialistico in Realtà Virtuale e Visione Artificiale
Sebbene la creazione di ambienti artificiali immersivi sembrassero scenari lontani nel tempo, l'evoluzione accelerata della tecnologia informatica non solo ha reso possibile l'accesso a questi strumenti da parte degli utenti, ma ha anche consentito di integrarli con successo in ambiti diversi, come ad esempio videogiochi, istruzione e architettura. Mentre il futuro di questa tecnologia mostra un futuro promettente, in TECH Global University abbiamo sviluppato il Master Specialistico in Realtà Virtuale e Visione Artificiale, un programma che ti fornirà le ultime conoscenze disponibili in questo campo in modo che tu possa specializzarti nelle discipline più importanti sviluppi prodotti, la padronanza di strumenti all'avanguardia come Unreal Engine e le tecniche più avanzate di elaborazione digitale delle immagini 3D, tra gli altri aspetti. Potrai così unirti ai progetti più ambiziosi di aziende consolidate e diventare un esperto di riferimento nel settore.
Specializzati in Realtà Virtuale e Visione Artificiale
Se i tuoi obiettivi includono il raggiungimento di un livello più elevato di conoscenza nello studio della tecnologia informatica, questo programma fa per te. In TECH Global University riceverai una formazione completa e di alta qualità, poiché disponiamo dei contenuti più completi sul mercato educativo, metodi di apprendimento innovativi per l'istruzione online e il supporto di esperti che guideranno il tuo processo. Avrai così accesso a tecniche, strategie, programmi e risorse che favoriranno lo svolgimento del tuo lavoro nella modellazione e simulazione di ambienti sensoriali, tridimensionali e artificiali. Questo Master Specialistico è un'opportunità nuova ed efficace per garantire la tua crescita professionale.