Presentazioni

Posizionati in un settore in pieno boom, con il miglior programma del panorama universitario che solo TECH offre" 

##IMAGE##

La Realtà Virtuale ci trasporta in mondi immersivi, permettendo esperienze che vanno dalla simulazione di interventi chirurgici complessi alla progettazione architettonica in tempo reale. L'impatto di questa disciplina va oltre il campo tecnologico, poiché sta plasmando il modo in cui viviamo, lavoriamo e impariamo. La sua costante evoluzione richiede non solo professionisti in grado di implementare questi strumenti, ma anche visionari in grado di espandere le loro applicazioni verso nuovi orizzonti. 

La Visione Artificiale, da parte sua, conferisce alle macchine la capacità di interpretare e analizzare immagini e video, consentendo lo sviluppo di tecnologie avanzate. Tra queste, i veicoli autonomi che stanno rivoluzionando il trasporto e le piattaforme di diagnostica medica che migliorano la precisione e l'efficienza dell’assistenza sanitaria. Inoltre, i recenti progressi in questo campo, come i modelli multitasking e le tecnologie generative, stanno aprendo nuove possibilità nella creazione di soluzioni innovative. L'integrazione con l'edge computing ha anche facilitato l'elaborazione dei dati in tempo reale, ampliando ulteriormente le applicazioni di Visione Artificiale. Per tutto questo, essere un professionista qualificato in queste discipline non solo dà accesso ad un settore tecnologico in costante crescita, ma permette anche di far parte di progetti che hanno un impatto reale sulla vita quotidiana. Contribuiamo allo sviluppo di tecnologie che continuano a trasformare il modo in cui interagiamo con il mondo e migliorano la nostra qualità della vita. 

Il piano di studi di TECH , insieme alla sua metodologia 100% online e all'approccio di apprendimento Relearning, consente allo studente di concentrarsi pienamente sulle materie chiave per specializzarsi in queste aree tecnologiche. Inoltre, avrà il supporto del personale docente più specializzato e le ricerche più aggiornate dell'ambiente universitario. Tutto questo senza orari e da qualsiasi parte del mondo, che permette allo studente di adattare i suoi studi 
al proprio ritmo, senza interferire con i suoi impegni personali o lavorativi. 

La combinazione di creatività e tecnologia ti sta aspettando per iniziare a sviluppare grandi soluzioni con un impatto globale" 

Questo Master specialistico in Realtà Virtuale e Visione Artificiale possiede il programma educativo più completo e aggiornato del mercato. Le sue caratteristiche principali sono:

  • Sviluppo di casi di studio pratici presentati da esperti in informatica 
  • Contenuti grafici, schematici ed eminentemente pratici che forniscono informazioni scientifiche e pratiche sulle discipline essenziali per l’esercizio della professione 
  • Esercizi pratici che offrono un processo di autovalutazione per migliorare l'apprendimento 
  • Particolare enfasi sulle metodologie innovative in Realtà Virtuale e Visione Artificiale   
  • Lezioni teoriche, domande all'esperto, forum di discussione su argomenti controversi e lavoro di riflessione individuale 
  • Disponibilità di accesso ai contenuti da qualsiasi dispositivo fisso o portatile dotato di connessione a Internet 

Diventa il migliore nella Realtà Virtuale e nella Visione Artificiale, al tuo ritmo, senza orari e da qualsiasi parte del mondo"

Il personale docente del programma comprende rinomati specialisti del settore e altre aree correlate, che forniscono agli studenti le competenze necessarie a intraprendere un percorso di studio eccellente.  

I contenuti multimediali, sviluppati in base alle ultime tecnologie educative, forniranno al professionista un apprendimento coinvolgente e localizzato, ovvero inserito in un contesto reale. 

La creazione di questo programma è incentrata sull’Apprendimento Basato su Problemi, mediante il quale lo specialista deve cercare di risolvere le diverse situazioni che gli si presentano durante il corso. Lo studente potrà usufruire di un innovativo sistema di video interattivi creati da esperti di rinomata fama.  

Padroneggia queste tecnologie con gli strumenti didattici offerti da TECH e inizia a cambiare vite"

##IMAGE##

Sviluppa applicazioni e affronta le sfide più entusiasmanti nella più grande università digitale del mondo"

Piano di studi

Il piano di studi del Master specialistico in Realtà Virtuale e Visione Artificiale è progettato come un'opportunità accademica completa e avanzata in queste due discipline chiave. Inizia con una solida base nei fondamenti di programmazione, matematica applicata ed elaborazione delle immagini. Durante il corso, gli studenti approfondiranno lo sviluppo di ambienti virtuali utilizzando strumenti all'avanguardia. Inoltre, esploreranno tecniche avanzate di simulazione e interazione in ambienti immersivi.  

##IMAGE##

Unisciti a TECH e inizierai a trasformare l'intrattenimento con esperienze immersive nella Visione Artificiale"   

Modulo 1. Visione artificiale

1.1. Percezione umana 

1.1.1. Sistema visivo umano 
1.1.2. Il colore 
1.1.3. Frequenze visibili e non visibili 

1.2. Cronaca della visione artificiale 

1.2.1. Principi 
1.2.2. Evoluzione 
1.2.3. L’importanza della visione artificiale 

1.3. Composizione delle immagini digitali 

1.3.1. L'immagine digitale 
1.3.2. Tipi di immagini 
1.3.3. Spazi di colore 
1.3.4. RGB 
1.3.5. HSV e HSL 
1.3.6. CMY-CMYK 
1.3.7. YCbCr 
1.3.8. Immagine indicizzata 

1.4. Sistemi di acquisizione di immagini 

1.4.1. Funzionamento di una fotocamera digitale 
1.4.2. L'esposizione giusta per ogni situazione 
1.4.3. Profondità di campo 
1.4.4. Risoluzione 
1.4.5. Formati di immagine 
1.4.6. Modalità HDR 
1.4.7. Fotocamere ad alta risoluzione 
1.4.8. Fotocamere ad alta velocità 

1.5. Sistemi Ottici 

1.5.1. Principi ottici 
1.5.2. Obiettivi convenzionali 
1.5.3. Obiettivi telecentrici 
1.5.4. Tipi di autofocus 
1.5.5. Lunghezza focale 
1.5.6. Profondità di campo 
1.5.7. Distorsione ottica 
1.5.8. Calibrazione dell'immagine 

1.6. Sistemi di illuminazione 

1.6.1. Importanza dell’illuminazione 
1.6.2. Risposta in frequenza 
1.6.3. Illuminazione a LED 
1.6.4. Illuminazione esterna 
1.6.5. Tipi di illuminazione per applicazioni industriali. Effetti 

1.7. Sistemi di Acquisizione 3D 

1.7.1. Visione Stereo 
1.7.2. Triangolazione 
1.7.3. Luce strutturata 
1.7.4. Time of Flight 
1.7.5. Lidar 

1.8. Multispettro 

1.8.1. Telecamere Multispettrali 
1.8.2. Telecamere Iperspettrali 

1.9. Spettro vicino non Visibile 

1.9.1. Fotocamere IR 
1.9.2. Fotocamere UV 
1.9.3. Convertire il non visibile in visibile grazie all'illuminazione 

1.10. Altre bande di spettro 

1.10.1. Raggi X 
1.10.2. Terahertz 

Modulo 2. Applicazioni e stato dell'arte

2.1. Applicazioni industriali 

2.1.1. Librerie di visione artificiale 
2.1.2. Fotocamere compatte 
2.1.3. Sistemi basati sulla PC 
2.1.4. Robotica industriale 
2.1.5. Pick and place 2D 
2.1.6. Bin picking 
2.1.7. Controllo della qualità 
2.1.8. Presenza assenza di componenti 
2.1.9. Controllo dimensionale 
2.1.10. Controllo dell'etichettatura 
2.1.11. Tracciabilità 

2.2. Il veicolo autonomo 

2.2.1. Assistenza al conducente 
2.2.2. Guida autonoma 

2.3. Visione Artificiale per l'Analisi dei Contenuti 

2.3.1. Filtro per contenuto 
2.3.2. Moderazione dei contenuti visivi 
2.3.3. Sistemi di monitoraggio 
2.3.4. Identificazione di marchi e loghi 
2.3.5. Etichettatura e classificazione dei video 
2.3.6. Rilevamento del cambiamento di scena 
2.3.7. Estrazione di testi o crediti 

2.4. Applicazioni mediche 

2.4.1. Individuazione e localizzazione delle malattie 
2.4.2. Cancro e Analisi di radiografie 
2.4.3. Progressi della visione artificiale a Covid19 
2.4.4. Assistenza in sala operatoria 

2.5. Applicazioni spaziali 

2.5.1. Analisi delle immagini satellitari 
2.5.2. La visione artificiale per lo studio dello spazio 
2.5.3. Missione su Marte 

2.6. Applicazioni commerciali 

2.6.1. Control stock 
2.6.2. Videosorveglianza, sicurezza domestica 
2.6.3. Telecamere di parcheggio 
2.6.4. Telecamere per il controllo della popolazione 
2.6.5. Autovelox 

2.7. Visione Applicata alla Robotica 

2.7.1. Droni 
2.7.2. AGV 
2.7.3. Visione nei robot collaborativi 
2.7.4. Gli occhi dei robot 

2.8. Realtà Aumentata 

2.8.1. Funzionamento 
2.8.2. Dispositivi 
2.8.3. Applicazioni nell’industria 
2.8.4. Applicazioni commerciali 

2.9. Cloud Computing 

2.9.1. Piattaforme di Cloud Computing 
2.9.2. Dal Cloud Computing alla produzione 

2.10. Ricerca e Stato dell'arte 

2.10.1. La comunità scientifica 
2.10.2. Cosa bolle in pentola 
2.10.3. Il futuro della visione artificiale

Modulo 3. Elaborazione delle immagini digitali 

3.1. Ambiente di sviluppo per la Visione per Computer 

3.1.1. Librerie di Visione per Computer 
3.1.2. Ambiente di programmazione 
3.1.3. Strumenti di visualizzazione 

3.2. Elaborazione digitale delle immagini 

3.2.1. Relazioni tra pixel 
3.2.2. Operazioni con immagini 
3.2.3. Trasformazioni geometriche 

3.3. Operazioni con i pixel 

3.3.1. Istogramma 
3.3.2. Trasformazioni a partire da istogrammi 
3.3.3. Operazioni su immagini a colori 

3.4. Operazioni logiche e aritmetiche 

3.4.1. Addizione e sottrazione 
3.4.2. Prodotto e divisione 
3.4.3. And/Nand 
3.4.4. Or/Nor 
3.4.5. Xor/Xnor 

3.5. Filtri 

3.5.1. Maschere e convoluzione 
3.5.2. Filtraggio lineare 
3.5.3. Filtraggio non lineare 
3.5.4. Analisi di Fourier 

3.6. Operazioni morfologiche 

3.6.1. Erode and Dilating 
3.6.2. Closing and Open 
3.6.3. Top_hat e Black hat 
3.6.4. Rilevamento dei contorni 
3.6.5. Scheletro 
3.6.6. Riempimento dei fori 
3.6.7. Convex hull 

3.7. Strumenti di analisi di immagini 

3.7.1. Rilevamento dei bordi 
3.7.2. Rilevamento di blobs 
3.7.3. Controllo dimensionale 
3.7.4. Ispezione del colore 

3.8. Segmentazione degli oggetti 

3.8.1. Segmentazione delle immagini 
3.8.2. Tecniche di segmentazione classica 
3.8.3. Applicazioni reali 

3.9. Calibrazione di immagini 

3.9.1. Calibrazione dell'immagine 
3.9.2. Metodi di calibrazione 
3.9.3. Processo di calibrazione in un sistema telecamera/robot 2D 

3.10. Elaborazione di immagini in ambiente reale 

3.10.1. Analisi dei problemi 
3.10.2. Elaborazione delle immagini 
3.10.3. Estrazione delle caratteristiche 
3.10.4. Risultati finali

Modulo 4. Elaborazione avanzata delle immagini digitali 

4.1. Riconoscimento ottico dei caratteri (OCR) 

4.1.1. Pre-elaborazione dell'immagine 
4.1.2. Rilevamento del testo 
4.1.3. Riconoscimento di testo 

4.2. Lettura di codici 

4.2.1. Codice 1D 
4.2.2. Codice 2D 
4.2.3. Applicazioni 

4.3. Ricerca di modelli 

4.3.1. Ricerca di modelli 
4.3.2. Modelli basati sul livello di grigio 
4.3.3. Modelli basati sui contorni 
4.3.4. Modelli basati su forme geometriche 
4.3.5. Altre tecniche 

4.4. Tracciamento di oggetti con la visione convenzionale 

4.4.1. Estrazione di sfondo 
4.4.2. Meanshift 
4.4.3. Camshift 
4.4.4. Optical flow

4.5. Riconoscimento facciale 

4.5.1. Facial Landmark detection 
4.5.2. Applicazioni 
4.5.3. Riconoscimento facciale 
4.5.4. Riconoscimento delle emozioni 

4.6. Panoramica e allineamenti 

4.6.1. Stitching 
4.6.2. Composizione di immagini 
4.6.3. Fotomontaggio 

4.7. High Dinamic Range (HDR) and Photometric Stereo 

4.7.1. Aumento della gamma dinamica 
4.7.2. Composizione di immagini per il miglioramento dei contorni 
4.7.3. Tecniche per l'utilizzo di applicazioni dinamiche 

4.8. Compressione dell'immagine 

4.8.1. La compressione delle immagini 
4.8.2. Tipi di compressori 
4.8.3. Tecniche di compressione delle immagini 

4.9. Elaborazione di video 

4.9.1. Sequenze di immagini 
4.9.2. Formati e codec video 
4.9.3. Lettura di un video 
4.9.4. Elaborazione del fotogramma 

4.10. Applicazione reale dell'elaborazione delle immagini 

4.10.1. Analisi dei problemi 
4.10.2. Elaborazione delle immagini 
4.10.3. Estrazione delle caratteristiche 
4.10.4. Risultati finali

Modulo 5. Elaborazione delle immagini 3D 

5.1. Immagine 3D 

5.1.1. Immagine 3D 
5.1.2. Software di elaborazione e visualizzazione di immagini 3D 
5.1.3. Software di Metrologia 

5.2. Open3D 

5.2.1. Libreria per l'Elaborazione dei Dati 3D 
5.2.2. Caratteristiche 
5.2.3. Installazione ed Uso 

5.3. I dati 

5.3.1. Mappe di profondità dell'immagine 2D 
5.3.2. Pointclouds 
5.3.3. Normali 
5.3.4. Superfici 

5.4. Visualizzazione 

5.4.1. Visualizzazione dei Dati 
5.4.2. Controlli 
5.4.3. Visualizzazione web 

5.5. Filtri 

5.5.1. Distanza tra i punti, eliminare Outliers 
5.5.2. Filtro passa-alto 
5.5.3. Downsampling 

5.6. Geometria ed estrazione delle caratteristiche 

5.6.1. Estrazione di un profilo 
5.6.2. Misurazione della profondità 
5.6.3. Volume 
5.6.4. Forme geometriche 3D 
5.6.5. Piani 
5.6.6. Proiezione di un punto 
5.6.7. Distanze geometriche 
5.6.8. Kd Tree 
5.6.9. Features 3D 

5.7. Registro e Meshing 

5.7.1. Concatenazione 
5.7.2. ICP 
5.7.3. Ransac 3D

5.8.  Riconoscimento di oggetti 3D 

5.8.1. Ricerca di un oggetto nella scena 3d
5.8.2. Segmentazione 
5.8.3. Bin picking 

5.9. Analisi di superfici 

5.9.1. Smoothing 
5.9.2. Superfici regolabili 
5.9.3. Octree 

5.10.  Triangolazione 

5.10.1. Da Mesh a Point Cloud 
5.10.2. Triangolazione delle mappe di profondità 
5.10.3. Triangolazione di Point Cloud non ordinato 

Modulo 6. Deep Learning  

6.1. Intelligenza artificiale 

6.1.1. Machine Learning 
6.1.2. Deep Learning 
6.1.3. L’esplosione del Deep Learning: Perché ora 

6.2. Reti neuronali 

6.2.1. La rete neurale 
6.2.2. Uso delle reti neurali 
6.2.3. Regressione lineare e Perceptron 
6.2.4. Forward Propagation 
6.2.5. Backpropagation 
6.2.6. Feature vectors 

6.3. Loss Functions 

6.3.1. Loss function 
6.3.2. Tipi di Loss Functions 
6.3.3. Scelta di Loss Function 

6.4. Funzioni di attivazione 

6.4.1. Funzioni di attivazione 
6.4.2. Funzioni lineari 
6.4.3. Funzioni non lineari 
6.4.4. Output vs Hidden layer activation functions 

6.5. Regolarizzazione e Standardizzazione 

6.5.1. Regolarizzazione e Standardizzazione 
6.5.2. Overfitting and Data Augmentation 
6.5.3. Regularization Methods: L1, L2 and dropout 
6.5.4. Normalization Methods: Batch, Weight, Layer 

6.6. Ottimizzazione 

6.6.1. Gradient Descent 
6.6.2. Stochastic Gradient Descent 
6.6.3. Mini Batch Gradient Descent 
6.6.4. Momentum 
6.6.5. Adam 

6.7. Hyperparameter Tuning e Pesi 

6.7.1. Iperparametri 
6.7.2. Batch Size vs. Learning Rate vs Step Decay 
6.7.3. Pesi 

6.8. Metriche di valutazione delle reti neurali 

6.8.1. Accuracy 
6.8.2. Dice coefficient 
6.8.3. Sensitivity vs. Specificity/Recall vs. Precisione 
6.8.4. Curva ROC (AUC) 
6.8.5. F1-score 
6.8.6. Confusione Matrix 
6.8.7. Cross-validation 

6.9. Framework e Hardware 

6.9.1. Tensor Flow 
6.9.2. Pytorch 
6.9.3. Caffe 
6.9.4. Keras 
6.9.5. Hardware per la fase di preparazione 

6.10. Creazione di reti Neurali - Preparazione e Validazione 

6.10.1. Dataset 
6.10.2. Costruzione della rete 
6.10.3. Allenamento 
6.10.4. Visualizzazione dei risultati

Modulo 7. Reti convoluzionali e classificazione delle immagini

7.1. Reti neurali convoluzionali 

7.1.1. Introduzione 
7.1.2. La convoluzione
 7.1.3. CNN Building Blocks 

7.2. Tipi di strati CNN 

7.2.1. Convolutional 
7.2.2. Activation 
7.2.3. Batch normalization 
7.2.4. Polling 
7.2.5. Fully connected 

7.3. Metriche 

7.3.1. Confusione Matrix 
7.3.2. Accuracy 
7.3.3. Precisione 
7.3.4. Recall 
7.3.5. F1 Score 
7.3.6. ROC Curve 
7.3.7. AUC 

7.4. Principali architetture 

7.4.1. AlexNet 
7.4.2. VGG 
7.4.3. Resnet 
7.4.4. GoogleLeNet 

7.5. Classificazione di immagini 

7.5.1. Introduzione 
7.5.2. Analisi dei dati 
7.5.3. Preparazione dei dati 
7.5.4. Addestramento del modello 
7.5.5. Convalida del modello 

7.6. Considerazioni pratiche per la preparazione CNN 

7.6.1. Selezione dell'ottimizzatore 
7.6.2. Learning Rate Scheduler 
7.6.3. Controllo pipeline di preparazione 
7.6.4. Preparazione con regolarizzazione 

7.7. Buone pratiche in Deep Learning 

7.7.1. Transfer learning 
7.7.2. Fine Tuning 
7.7.3. Data Augmentation 

7.8. Valutazione statistica di dati 

7.8.1. Numero di dataset 
7.8.2. Numero di etichette 
7.8.3. Numero di immagini 
7.8.4. Bilanciamento dei dati 

7.9. Deployment 

7.9.1. Salvataggio e caricamento dei modelli 
7.9.2. Onnx 
7.9.3. Inferenza 

7.10. Caso Pratico: Classificazione di Immagini 

7.10.1. Analisi e preparazione dei dati 
7.10.2. Verifica della pipeline di formazione 
7.10.3. Addestramento del modello 
7.10.4. Convalida del modello 

Modulo 8. Rilevamento di oggetti 

8.1. Rilevamento e tracciamento di oggetti 

8.1.1. Rilevamento di oggetti 
8.1.2. Casi d'uso 
8.1.3. Tracciamento di oggetti 
8.1.4. Casi d'uso 
8.1.5. Occlusioni, Rigid and No Rigid Poses 

8.2. Metriche di Valutazione 

8.2.1. IOU - Intersection Over Union 
8.2.2. Confidence Score 
8.2.3. Recall 
8.2.4. Precisione 
8.2.5. Recall - Curva di Precisione 
8.2.6. Mean Average Precision (MAP) 

8.3. Metodi tradizionali 

8.3.1. Sliding window 
8.3.2. Viola detector 
8.3.3. HOG 
8.3.4. Non Maximal Supresion (NMS) 

8.4. Datasets 

8.4.1. Pascal VC 
8.4.2. MS Coco 
8.4.3. ImageNet (2014) 
8.4.4. MOTA Challenge 

8.5. Two Shot Object Detector 

8.5.1. R-CNN 
8.5.2. Fast R-CNN 
8.5.3. Faster R-CNN 
8.5.4. Mask R-CNN 

8.6. Single Shot Object Detector 

8.6.1. SSD 
8.6.2. YOLO 
8.6.3. RetinaNet 
8.6.4. CenterNet 
8.6.5. EfficientDet 

8.7. Backbone 

8.7.1. VGG 
8.7.2. ResNet 
8.7.3. Mobilenet 
8.7.4. Shufflenet 
8.7.5. Darknet 

8.8. Object Tracking 

8.8.1. Approcci classici 
8.8.2. Filtri di particelle 
8.8.3. Kalman 
8.8.4. Sort tracker 
8.8.5. Deep Sort 

8.9. Implementazione 

8.9.1. Piattaforma informatica 
8.9.2. Scelta del Backbone 
8.9.3. Scelta del Framework 
8.9.4. Ottimizzazione di modelli 
8.9.5. Versione dei modelli 

8.10. Studio: Rilevamento e monitoraggio di persone 

8.10.1. Rilevamento di persone 
8.10.2. Tracciamento delle persone 
8.10.3. Re-identificazione 
8.10.4. Conteggio delle persone in massa 

Modulo 9. Segmentazione delle Immagini con Deep Learning

9.1. Rilevamento di oggetti e segmentazione 

9.1.1. Segmentazione semantica 

9.1.1.1. Casi d'uso della segmentazione semantica 

9.1.2. Segmentazione delle istanze 

 9.1.2.1. Casi d'uso della segmentazione delle istanze 

9.2. Metriche di valutazione 

9.2.1. Similitudini con altri metodi 
9.2.2. Pixel Accuracy 
9.2.3. Dice Coefficient (F1 Score) 

9.3. Funzioni di costo 

9.3.1. Dice Loss 
9.3.2. Focal Loss 
9.3.3. Tversky Loss 
9.3.4. Altre funzioni 

9.4. Metodi tradizionali di segmentazione 

9.4.1. Applicazione della soglia con Otsu e Riddlen 
9.4.2. Mappe auto-organizzate 
9.4.3. GMM-EM algorithm 

9.5. Segmentazione Semantica con il Deep Learning: FCN 

9.5.1. FCN 
9.5.2. Architettura 
9.5.3. Applicazioni di FCN 

9.6. Segmentazione Semantica con il Deep Learning: U-NET 

9.6.1. U-NET 
9.6.2. Architettura 
9.6.3. Applicazione U-NET 

9.7. Segmentazione Semantica con il Deep Learning: Deep Lab 

9.7.1. Deep Lab 
9.7.2. Architettura 
9.7.3. Applicazione di Deep Lab 

9.8. Segmentazione istanziata con il Deep Learning: Mask RCNN 

9.8.1. Mask RCNN 
9.8.2. Architettura 
9.8.3. Implementazione di una Mask RCNN 

9.9. Segmentazione in video 

9.9.1. STFCN 
9.9.2. Semantic Video CNN 
9.9.3. Clockwork Convnets 
9.9.4. Low-Latency 

9.10. Segmentazione cloud di punti 

9.10.1. Cloud di punti 
9.10.2. PointNet 
9.10.3. A-CNN 

Modulo 10. Segmentazione Avanzata delle Immagini e Tecniche Avanzate di Visione Artificiale 

10.1. Database per problemi Generali di Segmentazione 

10.1.1. Pascal Context 
10.1.2. CelebAMask-HQ 
10.1.3. Cityscapes Dataset 
10.1.4. CCP Dataset 

10.2. Segmentazione Semantica in Medicina 

10.2.1. Segmentazione Semantica in Medicina 
10.2.2. Dataset per problemi medici 
10.2.3. Applicazione pratica 

10.3. Strumenti di annotazione 

10.3.1. Computer Vision Annotation Tool 
10.3.2. LabelMe 
10.3.3. Altri strumenti 

10.4. Strumenti di Segmentazione che utilizzano diversi framework 

10.4.1. Keras 
10.4.2. Tensorflow v2 
10.4.3. Pytorch 
10.4.4. Altri 

10.5. Progetto di Segmentazione semantica: I dati, fase 1 

10.5.1. Analisi del problema 
10.5.2. Fonte di input per i dati 
10.5.3. Analisi dei dati 
10.5.4. Preparazione dei dati 

10.6. Progetto di Segmentazione semantica: Allenamento, fase 2 

10.6.1. Selezione dell'algoritmo 
10.6.2. Allenamento 
10.6.3. Valutazione 

10.7. Progetto di Segmentazione semantica: Risultati, fase 3 

10.7.1. Regolazione fine 
10.7.2. Presentazione della soluzione 
10.7.3. Conclusioni 

 10.8. Autocodificatori 

10.8.1.  Autocodificatori 
10.8.2. Architettura di un Autocodificatore 
10.8.3. Autocodificatori a Cancellazione di Rumore 
10.8.4. Autocodificatore di Colorazione Automatica 

10.9. Reti Generative Avversarie (GAN) 

10.9.1. Reti Generative Avversarie (GAN) 
10.9.2. Architettura DCGAN  
10.9.3. Architettura GAN Condizionata 

10.10. Reti Generative Avversarie Migliorate 

10.10.1. Visione d'insieme del problema 
10.10.2. WGAN 
10.10.3. LSGAN 
10.10.4. ACGAN

 Modulo 11. L’industria del 3D 

11.1. Industria 3D nell'animazione e nei videogiochi 

11.1.1. Animazione in 3D 
11.1.2. Industria 3D nell'animazione e nei videogiochi 
11.1.3. Animazione in 3D: Futuro 

11.2. Il 3D nei Videogiochi 

11.2.1. I Videogiochi: Limiti 
11.2.2. Sviluppo di un videogioco in 3D: Difficoltà 
11.2.3. Soluzioni a problematiche nello sviluppo di un videogioco 

11.3. Software per il 3D nei videogiochi 

11.3.1. Maya: Pro e contro 
11.3.2. 3Ds Max: Pro e contro 
11.3.3. Blender: Pro e contro 

11.4. Pipeline nella creazione di Assets 3D per Videogiochi 

11.4.1. Idea e montaggio a partire da un Modelsheet 
11.4.2. Modellazione con geometria ridotta e dettagli avanzati 
11.4.3. Proiezione di dettagli tramite texture 

 11.5. Stili artistici chiave in 3D per i videogiochi 

11.5.1. Stile Cartoon 
11.5.2. Stile realista 
11.5.3. Cel Shading 
11.5.4. Motion capture 

11.6. Integrazione del 3D 

11.6.1. Integrazione 3D nel mondo digitale 
11.6.2. Integrazione 3D nel mondo digitale 
11.6.3. Integrazione nel mondo reale (AR, MR/XR) 

11.7. Fattori chiave del 3D per diverse industrie 

11.7.1. 3D nel cinema e nelle serie 
11.7.2. 3D nei videogiochi 
11.7.3. 3D nella pubblicità 

11.8. Render: Rendering in tempo reale e pre-rendering 

11.8.1. Illuminazione 
11.8.2. Definizione di ombre 
11.8.3. Qualità vs. Velocità 

11.9. Generazione di Asset 3D in 3D Max 

11.9.1. Software 3D Max 
11.9.2. Interfaccia, menù, barra degli strumenti 
11.9.3. Controlli 
11.9.4. Scena 
11.9.5. Viewport 
11.9.6. Basic shape 
11.9.7. Generazione, modifica e trasformazione di oggetti 
11.9.8. Creazione di una scena 3D 
11.9.9. Modellazione 3D di Asset professionali per videogiochi 
11.9.10. Redattori di materiali 
11.9.10.1. Creazione e modifica del materiale 
11.9.10.2. Applicazione della luce ai materiali 
11.9.10.3. Modificatore della mappa UVW: Coordinate di mappatura 
11.9.10.4. Creazione di texture 

11.10. Organizzazione dello spazio di lavoro e prassi ottimali 

11.10.1. Creazione di un progetto 
11.10.2. Struttura di un progetto 
11.10.3. Funzionalità personalizzata 

Modulo 12. Arte e 3D nell’industria dei videogiochi 

12.1. Progetti 3D in VR 

12.1.1. Software di creazione di mesh 3D 
12.1.2. Software di modifica delle immagini 
12.1.3. Realtà Virtuale 

12.2. Problemi tipici, soluzioni ed esigenze di progetto 

12.2.1. Esigenze del progetto 
12.2.2. Possibili problematiche 
12.2.3. Soluzioni 

12.3. Studio di linea estetica per la creazione dello stile artistico nei videogiochi: Dalla progettazione del gioco alla generazione di arte 3D 

12.3.1. Scegliere il pubblico di riferimento del videogioco: Chi vogliamo raggiungere 
12.3.2. Possibilità artistiche dello sviluppatore 
12.3.3. Definizione finale della linea estetica 

12.4. Ricerca di referenze e analisi dei concorrenti a livello estetico 

12.4.1. Pinterest e siti simili 
12.4.2. Creazione di un Modelsheet 
12.4.3. Ricerca di concorrenti 

12.5. Creazione della Bibbia e Briefing 

12.5.1. Creazione della Bibbia 
12.5.2. Sviluppo di una Bibbia 
12.5.3. Sviluppo di un Briefing 

12.6. Scenari e Asset 

12.6.1. Pianificazione di produzione degli Asset nei livelli 
12.6.2. Progettazione degli scenari 
12.6.3. Progettazione degli Asset 

 12.7. Integrazione degli Asset nei livelli e nelle prove 

12.7.1. Processo di integrazione dei livelli 
12.7.2. Texture 
12.7.3. Ritocchi finali 

12.8. Personaggi 

12.8.1. Pianificazione di produzione dei personaggi 
12.8.2. Progettazione dei personaggi 
12.8.3. Design degli Asset dei personaggi 

12.9. Integrazione dei personaggi negli scenari e prove 

12.9.1. Processo di integrazione dei personaggi nei livelli 
12.9.2. Esigenze del progetto 
12.9.3. Animazioni 

12.10. Audio nei videogiochi 3D 

12.10.1. Interpretazione del dossier di progetto per la generazione dell'identità sonora del videogioco 
12.10.2. Processi di composizione e produzione 
12.10.3. Progetto della banda sonora 
12.10.4. Progetto degli effetti del suono 
12.10.5. Progetto delle voci 

Modulo 13. 3D Avanzato

13.1. Tecniche avanzate di modellazione 3D 

13.1.1. Configurazione dell’interfaccia  
13.1.2. Osservazione per la modellazione  
13.1.3. Modellazione in scarico  
13.1.4. Modellazione organica per videogiochi  
13.1.5. Mappatura avanzata per oggetti in 3D 

13.2. Texturing 3D avanzato 

13.2.1. Interfaccia di Substance Painter  
13.2.2. Materiali, Alphas e uso di pennelli  
13.2.3. Uso di particelle 

13.3. Esportazione per il software 3D e Unreal Engine 

13.3.1. Integrazione di Unreal Engine nei progetti  
13.3.2. Integrazione di modelli 3D 
13.3.3. Applicazione di texture in Unreal Engine 

13.4. Scultura digitale 

13.4.1. Scultura digitale con ZBrush 
13.4.2. Primi passi con ZBrush 
13.4.3. Interfaccia, menu e navigazione 
13.4.4. Immagini di riferimento 
13.4.5. Modellazione 3D completa di un oggetto in ZBrush 
13.4.6. Utilizzo delle mesh di base 
13.4.7. Modellazione a compartimenti stagni 
13.4.8. Esportazione di modelli 3D in ZBrush 

13.5. L’uso di Polypaint 

13.5.1. Spazzole avanzate 
13.5.2. Texture 
13.5.3. Materiali predefiniti 

13.6. Retopology 

13.6.1. Retopology: Uso nell'industria dei videogiochi 
13.6.2. Creazione di mesh Low-Poly 
13.6.3. Utilizzo del software per la retopology 

13.7. Posizioni del modello 3D 

13.7.1. Visualizzare di immagini di riferimento 
13.7.2. Uso di Transpose 
13.7.3. Uso del Transpose per modelli composti da pezzi diversi 

13.8. Esportazione di modelli 3D 

13.8.1. Esportazione di modelli 3D 
13.8.2. Creazione di texture per l’esportazione 
13.8.3. Configurazione del modello 3d con diversi materiali e texture 
13.8.4. Anteprima del 3D 

13.9. Tecniche di lavoro avanzate 

13.9.1. Flusso di lavoro nella modellazione 3D 
13.9.2. Organizzazione dei processi di lavoro nella modellazione 3D 
13.9.3. Stime degli sforzi di produzione 

13.10. Completamento del modello ed esportazione per altri programmi 

13.10.1. Flusso di lavoro per completare il modello 
13.10.2. Esportazione con Zpluging 
13.10.3. File possibili: Vantaggi e svantaggi

 Modulo 14. Animazione in 3D 

14.1. Gestione del software 

14.1.1. Gestione delle informazioni e metodologia di lavoro 
14.1.2. L’animazione 
14.1.3. Timing e peso 
14.1.4.  Animazione con oggetti di base 
14.1.5. Cinematica diretta e inversa 
14.1.6. Cinematica inversa 
14.1.7. Catena cinematica 

14.2. Anatomia: Bipede vs. Quadrupede 

14.2.1. Bipede 
14.2.2. Quadrupede 
14.2.3. Ciclo della camminata 
14.2.4. Ciclo della corsa 

14.3. Rig facciale e Morpher 

14.3.1. Linguaggio facciale: Lip-sync, occhi e focus dell’attenzione 
14.3.2. Montaggio della sequenza 
14.3.3. La fonetica: Importanza 

14.4. Animazione applicata 

14.4.1. Animazione 3D per cinema e televisione 
14.4.2. Animazione per i videogiochi 
14.4.3. Animazione per altre applicazioni 

14.5. Cattura del movimento con Kinect 

14.5.1. Cattura del movimento per l’animazione 
14.5.2. Sequenza dei movimenti 
14.5.3. Integrazione in Blender 

14.6. Scheletro, skinning e setup 

14.6.1. Interazione tra scheletro e geometria 
14.6.2. Interpolazione delle mesh 
14.6.3. pesi dell’animazione 

14.7. Recitazione 

14.7.1. Linguaggio del corpo 
14.7.2. Le pose 
14.7.3. Montaggio della sequenza 

14.8. Telecamere e piani 

14.8.1. Telecamera e ambiente 
14.8.2. Composizione del piano e dei personaggi 
14.8.3. Rifiniture 

14.9. Effetti visivi e spaziali 

14.9.1. Effetti visivi e animazione 
14.9.2. Tipi di effetti ottici 
14.9.3. 3D VFX L 

14.10. L'animatore come attore 

14.10.1. Espressioni 
14.10.2. Riferimenti degli attori 
14.10.3. Dalla videocamera al programma 

Modulo 15. Padronanza di Unity 3D e dell'Intelligenza Artificiale

15.1. Il Videogioco: Unity 3D 

15.1.1. Il videogioco 
15.1.2. Il Videogioco: Errori e successi 
15.1.3. Applicazioni dei videogiochi in altri settori e industrie 

15.2. Sviluppo dei videogiochi: Unity 3D 

15.2.1. Piano di produzione e fasi di sviluppo 
15.2.2. Metodologia di sviluppo 
15.2.3. Patch e contenuti aggiuntivi 

15.3. Unity 3D 

15.3.1. Unity 3D: Applicazioni 
15.3.2. Scripting in Unity 3D 
15.3.3. Asset Store e plugin di terzi 

15.4. Fisici, Input 

15.4.1. InputSystem 
15.4.2. Fisici in Unity 3D 
15.4.3. Animazione e animatore 

15.5. Prototipo in Unity 

15.5.1. Blocking e colliders 
15.5.2. Prefabbricati 
15.5.3. Scriptable Objects 

 15.6. Tecniche di programmazione specifiche 

15.6.1. Modello Singleton 
15.6.2. Caricamento delle risorse nell'esecuzione di giochi Windows 
15.6.3. Prestazione e Profiler 

15.7. Videogiochi per dispositivi mobili 

15.7.1. Giochi per dispositivi Android 
15.7.2. Giochi per dispositivi IOS 
15.7.3. Sviluppi multipiattaforma 

15.8. Realtà Aumentata 

15.8.1. Tipologie di giochi di realtà aumentata 
15.8.2. ARkit e ARcore 
15.8.3. Sviluppo di Vuforia 

15.9. Programmazione di intelligenza artificiale 

15.9.1. Algoritmi di intelligenza artificiale 
15.9.2. Macchinari a stati finiti 
15.9.3. Reti neuronali 

15.10. Distribuzione e Marketing 

15.10.1. L’arte di pubblicare e promuovere videogiochi 
15.10.2. Il responsabile del successo 
15.10.3. Strategie

Modulo 16. Sviluppo di videogiochi in 2D e 3D

16.1. Risorse grafiche raster 

16.1.1. Sprites 
16.1.2. Atlas 
16.1.3. Texture 

16.2. Sviluppo di interfacce e menù 

16.2.1. GUI di Unity 
16.2.2. UI di Unity 
16.2.3. UI Toolkit 

16.3. Sistema di animazione 

16.3.1. Curve e codici di animazione 
16.3.2. Eventi di animazione applicati 
16.3.3. Modificatori 

16.4. Materiali e Shaders 

16.4.1. Componenti di un materiale 
16.4.2. Tipologie di RenderPass 
16.4.3. Shaders 

16.5. Particelle 

16.5.1. Sistema di particelle 
16.5.2. Emettitori e sub-emettitori 
16.5.3. Scripting 
16.5.4. Illuminazione 

16.6. Modalità di illuminazione 

16.6.1. Impianto di illuminazione 
16.6.2. Light probes 

16.7. Mecanim 

16.7.1. State Machines, SubState Machines e transizione tra le animazioni 
16.7.2. Miscela di alberi 
16.7.3. Livelli di Animazione e IK 

16.8. Finitura cinematica 

16.8.1. Timeline 
16.8.2. Effetti di post-elaborazione 
16.8.3. Universal Render Pipeline e High Definition Render Pipeline 

16.9. VFX avanzato 

16.9.1. VFX Graph 
16.9.2. Shader Graph 
16.9.3. Pipeline tools 

16.10. Componenti audio 

16.10.1. Audio Source y Audio Listener 
16.10.2. Mixer Audio 
16.10.3. Audio Spaziale

 Modulo 17. Programmazione, generazione di meccaniche e tecniche di prototipazione per videogiochi

17.1. Processo tecnico 

17.1.1. Modelli lowpoly e highpoly in Unity 
17.1.2. Configurazione del materiale 
17.1.3. Pipeline di rendering ad alta definizione 

17.2. Progettazione di personaggi 

17.2.1. Movimento 
17.2.2. Progettazione colliders 
17.2.3. Creazione e comportamento 

17.3. Importazione di Skeletal Meshes in Unity 

17.3.1. Esportazione Skeletal Meshes dal software 3D 
17.3.2. Skeletal Meshes in Unity 
17.3.3. Punti di fissaggio per gli accessori 

17.4. Importazione di animazioni 

17.4.1. Preparazione dell’animazione 
17.4.2. Importazione di animazioni 
17.4.3. Animatore e transizione 

17.5. Editor di animazioni 

17.5.1. Creazione del Blend Spaces 
17.5.2. Creazione del Montaggio di Animazione 
17.5.3. Modifica delle animazioni Read-Only 

17.6. Creazione e simulazione di un Ragdoll 

17.6.1. Configurazione di un Ragdoll 
17.6.2. Ragdoll con un grafico di animazione 
17.6.3. Simulazione di un Ragdoll 

17.7. Risorse per la creazione di un personaggio 

17.7.1. Librerie 
17.7.2. Importazione ed esportazione di materiali di biblioteca 
17.7.3. Manipolazione dei materiali 

17.8. Squadre di lavoro 

17.8.1. Gerarchia e ruoli di lavoro 
17.8.2. Sistemi di controllo delle versioni 
17.8.3. Risoluzione di conflitti 

17.9. Requisiti per uno sviluppo di successo 

17.9.1. Produzione per il successo 
17.9.2. Sviluppo ottimale 
17.9.3. Requisiti imprescindibili 

17.10. Imballaggio per la pubblicazione 

17.10.1. Player Settings 
17.10.2. Realizzazione 
17.10.3. Creazione un programma di installazione

Modulo 18. Sviluppo dei Videogiochi Immersivi in VR 

18.1. Singolarità della VR 

18.1.1. Videogiochi tradizionali e in VR: Differenze 
18.1.2. Motion sickness: fluidità vs. effetti 
18.1.3. Interazioni VR uniche 

18.2. Interazione 

18.2.1. Eventi 
18.2.2. Trigger fisici 
18.2.3. Mondo virtuale vs. mondo reale 

18.3. Locomozione immersiva 

18.3.1. Teletrasporto 
18.3.2. Arm swinging 
18.3.3. Movimento in avanti con e senza Facing 

18.4. Fisici nella VR 

18.4.1. Oggetti afferrabili e lanciabili 
18.4.2. Peso e massa nella VR 
18.4.3. Gravità nella VR 

18.5. UI nella VR 

18.5.1. Posizionamento e curvatura degli elementi dell’UI 
18.5.2. Modalità di interazione con i menù nella VR 
18.5.3. Le migliori pratiche per un'esperienza confortevole 

18.6. Animazione in VR 

18.6.1. Integrazione di modelli animati in VR 
18.6.2. Oggetti e personaggi animati vs. Oggetti fisici 
18.6.3. Transizioni animate vs Procedurali 

 18.7. L’Avatar 

18.7.1. Rappresentazione dell'avatar dai propri occhi 
18.7.2. Rappresentazione esterna dell'avatar stesso 
18.7.3. Cinematica inversa e animazione procedurale applicata all'avatar 

18.8. Audio 

18.8.1. Configurazione di Audio Sources e Audio Listeners per la VR 
18.8.2. Effetti disponibili per un'esperienza più coinvolgente 
18.8.3. Audio Spatializer VR 

18.9. Ottimizzazione nei progetti VR e AR 

18.9.1. Occlusion Culling 
18.9.2. Static Batching 
18.9.3. Configurazione di qualità e tipologie di Render Pass 

18.10. Pratica: Escape Room VR 

18.10.1. Progettazione dell'esperienza 
18.10.2. Layout dello scenario 
18.10.3. Sviluppo delle meccaniche

Modulo 19. Audio professionale per i videogiochi 3D in VR

19.1. Audio nei videogiochi professionali 3D 

19.1.1. Audio nei videogiochi 
19.1.2. Tipi di stili audio nei videogiochi attuali 
19.1.3. Modelli audio spaziali 

19.2. Studio preliminare del materiale 

19.2.1. Studio della documentazione di progettazione del gioco 
19.2.2. Studio della documentazione di progettazione dei livelli 
19.2.3. Valutazione della complessità e della tipologia di progetto per la creazione dell’audio 

19.3. Studio dei riferimenti sonori 

19.3.1. Elenco dei principali riferimenti per affinità con il progetto 
19.3.2. Riferimenti audio da altri media per dare al videogioco la sua identità 
19.3.3. Studio dei riferimenti e stesura delle conclusioni 

19.4. Progettazione dell'identità sonora completa del videogioco 

19.4.1. Fattori principali che influenzano in progetto 
19.4.2. Aspetti rilevanti nella composizione dell'audio: strumentazione, tempo, ecc. 
19.4.3. Definizione delle voci 

19.5. Creazione della banda sonora 

19.5.1. Elenco degli scenari e degli audio 
19.5.2. Definizione della motivazione, tematica e strumentalizzazione 
19.5.3. Composizione e test audio di prototipi funzionali 

19.6. Creazione degli effetti del suono (FX) 

19.6.1. Effetti sonori: tipi di FX ed elenco completo in base alle esigenze del progetto 
19.6.2. Definizione della motivazione, tematica e creazione 
19.6.3. Valutazione dell'FX sonoro e test su prototipi funzionali 

19.7. creazione delle voci 

19.7.1. Tipi di voce ed elenchi di frasi 
19.7.2. Ricerca e valutazione di attori e attrici di doppiaggio 
19.7.3. Valutazione delle registrazioni e test delle voci su prototipi funzionali 

19.8. Valutazione della qualità dell’audio 

19.8.1. Elaborazione di sessioni di ascolto con il team di sviluppo 
19.8.2. Integrazione di tutti gli audio in un prototipo funzionante 
19.8.3. Test e valutazione dei risultati ottenuti 

19.9. Esportazione, formattazione e importazione dell'audio nel progetto 

19.9.1. Formati audio e compressione nei videogiochi 
19.9.2. Esportazione audio 
19.9.3. Importazione dell’audio nel progetto 

19.10. Preparazioni di librerie audio per la commercializzazione 

19.10.1. Progettazione di librerie sonore versatili per i professionisti dei videogiochi 
19.10.2. Selezione dell'audio per tipo: colonna sonora, FX e voci 
19.10.3. Commercializzazione di librerie di asset di audio 

Modulo 20. Produzione e finanziamento di videogiochi 

20.1. La produzione nei videogiochi 

20.1.1. Metodologie a cascata 
20.1.2. Casistica della mancanza di gestione del progetto e dell'assenza di un piano di lavoro 
20.1.3. Conseguenze della mancanza di un reparto di produzione nell'industria dei videogiochi 

20.2. Team di sviluppo 

20.2.1. Dipartimenti chiave nello sviluppo dei progetti 
20.2.2. Profili chiave della microgestione: LEAD e SENIOR 
20.2.3. Problema della mancanza di esperienza nei profili JUNIOR 
20.2.4. Definizione di un piano didattico per i profili a bassa esperienza 

20.3. Metodologie agili nello sviluppo di videogiochi 

20.3.1. SCRUM 
20.3.2. AGILE 
20.3.3. Metodologie ibride 

20.4. Stime di sforzi, tempi e costi 

20.4.1. Il prezzo dello sviluppo di un videogioco: i principali concetti di costo 
20.4.2. Pianificazione dei compiti: punti critici, chiavi e aspetti da tenere in considerazione 
20.4.3. Stime basate su punti sforzo VS calcolo in ore 

20.5. Priorità nella pianificazione dei prototipi 

20.5.1. Definizione degli obiettivi generali del progetto 
20.5.2. Priorità alle funzionalità e ai contenuti chiave: ordine e necessità per dipartimento 
20.5.3. Raggruppamento delle funzionalità e dei contenuti in produzione per costituire i deliverable (prototipi funzionali) 

20.6. Pratica corretta per la produzione di videogiochi 

20.6.1. Riunioni, daylies, weekly meeting, riunioni di fine Sprint, riunioni per verificare i risultati nelle fasi ALFA, BETA e RELEASE 
20.6.2. Misurazione della velocità di Sprint 
20.6.3. Individuazione della mancanza di motivazione e della scarsa produttività e anticipazione di possibili problemi di produzione 

20.7. Analisi nella produzione 

20.7.1. Analisi preliminari I: esame della situazione di mercato 
20.7.2. Analisi preliminari 2: definizione dei principali benchmark di progetto (concorrenti diretti) 
20.7.3. Conclusioni delle analisi preliminari 

20.8. Calcolo dei costi di sviluppo 

20.8.1. Risorse Umane 
20.8.2. Tecnologia e licenze 
20.8.3. Costi di sviluppo esterni 

20.9. Ricerca di investimenti 

20.9.1. Tipi di investitori 
20.9.2. Sommario esecutivo 
20.9.3. Pitch Deck 
20.9.4. Publisher 
20.9.5. Autofinanziamento 

20.10. Elaborazione Post Mortem del progetto 

20.10.1. Processo di elaborazione del Post Mortem nell’azienda 
20.10.2. Analisi dei punti positivi del progetto 
20.10.3. Studio dei punti negativi del progetto 
20.10.4. Proposta di miglioramento dei punti negativi del progetto e conclusioni  

##IMAGE##

Con il piano di studi, TECH ti aiuta a comprendere e analizzare il mondo attraverso gli occhi della tecnologia" 

Master Specialistico in Realtà Virtuale e  Visione Artificiale

Sebbene la creazione di ambienti artificiali immersivi sembrassero scenari lontani nel tempo, l'evoluzione accelerata della tecnologia informatica non solo ha reso possibile l'accesso a questi strumenti da parte degli utenti, ma ha anche consentito di integrarli con successo in ambiti diversi, come ad esempio videogiochi, istruzione e architettura. Mentre il futuro di questa tecnologia mostra un futuro promettente, in TECH Global University abbiamo sviluppato il Master Specialistico in Realtà Virtuale e  Visione Artificiale, un programma che ti fornirà le ultime conoscenze disponibili in questo campo in modo che tu possa specializzarti nelle discipline più importanti sviluppi prodotti, la padronanza di strumenti all'avanguardia come Unreal Engine e le tecniche più avanzate di elaborazione digitale delle immagini 3D, tra gli altri aspetti. Potrai così unirti ai progetti più ambiziosi di aziende consolidate e diventare un esperto di riferimento nel settore.

Specializzati in Realtà Virtuale e  Visione Artificiale

Se i tuoi obiettivi includono il raggiungimento di un livello più elevato di conoscenza nello studio della tecnologia informatica, questo programma fa per te. In TECH Global University riceverai una formazione completa e di alta qualità, poiché disponiamo dei contenuti più completi sul mercato educativo, metodi di apprendimento innovativi per l'istruzione online e il supporto di esperti che guideranno il tuo processo. Avrai così accesso a tecniche, strategie, programmi e risorse che favoriranno lo svolgimento del tuo lavoro nella modellazione e simulazione di ambienti sensoriali, tridimensionali e artificiali. Questo Master Specialistico è un'opportunità nuova ed efficace per garantire la tua crescita professionale.