Presentazioni

Diventa un esperto di Robotica e Visione Artificiale in 24 mesi grazie a questo Master specialistico di TECH. Iscriviti subito”

##IMAGE##

L'ascesa dell'Intelligenza Artificiale e della Robotica sta cambiando il panorama tecnologico, economico e sociale a livello globale. In questo contesto, la specializzazione in aree come la Visione Artificiale è fondamentale per mantenersi aggiornati in un ambiente caratterizzato da rapidi progressi e cambiamenti disruptivi. La crescente interazione tra uomo e macchina e la necessità di elaborare in modo efficiente le informazioni visive richiedono professionisti altamente qualificati per guidare l'innovazione e affrontare le nuove sfide. 

Uno scenario ideale per i professionisti dell'ingegneria che desiderano far carriera in un settore in crescita. Ragion per cui TECH ha progettato questo Master specialistico in Robotica e Visione Artificiale, che fornisce una preparazione completa in queste discipline emergenti, coprendo argomenti come la Realtà Aumentata, l'Intelligenza Artificiale, l'elaborazione delle informazioni visive nelle macchine, ecc. 

Un programma che offre un approccio teorico-pratico che permette agli studenti di applicare le loro conoscenze in ambienti reali. Un corso 100% online che permette inoltre agli studenti di coniugare il loro apprendimento con gli impegni personali e professionali. Avranno quindi accesso a materiali didattici di alta qualità, come video, letture essenziali e risorse dettagliate, che forniranno loro una panoramica completa della Robotica e della Visione Artificiale. 

Inoltre, grazie al metodo Relearning, basato sulla continua ripetizione dei contenuti più importanti, lo studente ridurrà il numero di ore di studio e potrà assimilare facilmente 
i concetti più importanti. 

Una specializzazione unica nel panorama accademico che si distingue anche per un eccellente team di specialisti del settore. La sua vasta conoscenza ed esperienza nel settore si rispecchia in un programma avanzato, che solo TECH può offrire. 

Diventa un leader dell'innovazione e affronta le sfide in materia di etiche e sicurezza creando soluzioni innovative ed efficaci in diversi settori industriali" 

Questo Master specialistico in Robotica e Visione Artificiale possiede il programma più completo e aggiornato del mercato. Le caratteristiche principali del programma sono: 

  • Sviluppo di casi di studio pratici presentati da esperti in campo Informatico 
  • Contenuti grafici, schematici ed eminentemente pratici che forniscono informazioni scientifiche e pratiche sulle discipline essenziali per l’esercizio della professione 
  • Esercizi pratici con cui è possibile realizzare una valutazione per migliorare l'apprendimento 
  • Speciale enfasi sulle metodologie innovative nello sviluppo di Robot e della Visione Artificiale 
  • Lezioni teoriche, domande all'esperto, forum di discussione su questioni controverse e compiti di riflessione individuale 
  • Contenuti disponibili da qualsiasi dispositivo fisso o mobile dotato di connessione a internet 

Cogli l'opportunità di studiare un programma 100% online, coniugando il tuo tempo di studio con i tuoi impegni personali e professionali"

Il personale docente del programma comprende rinomati professionisti della robotica, e riconosciuti specialisti appartenenti a prestigiose società e università, che forniscono agli studenti le competenze necessarie a intraprendere un percorso di studio eccellente. 

I contenuti multimediali, sviluppati in base alle ultime tecnologie educative, forniranno al professionista un apprendimento coinvolgente e localizzato, ovvero inserito in un contesto reale. 

La creazione di questo programma è incentrata sull’Apprendimento Basato su Problemi, mediante il quale lo studente deve cercare di risolvere le diverse situazioni che gli si presentano durante il corso. Lo studente potrà usufruire di un innovativo sistema di video interattivi creati da esperti di rinomata fama.

Analizzare attraverso il miglior materiale didattico come eseguire la regolazione e la parametrizzazione degli algoritmi SLAM"

##IMAGE##

Approfondisci quando e dove vuoi i progressi raggiunti in materia di Deep Learning"

Piano di studi

Il Master specialistico in Robotica e Visione Artificiale è un'opzione eccellente per gli ingegneri che desiderino specializzarsi in questo campo all'avanguardia. I moduli del programma si svolgono in ordine progressivo, consentendo agli studenti di acquisire le conoscenze in modo graduale ed efficiente. Offre inoltre l'opportunità di apprendere la progettazione, la programmazione e il controllo dei robot, nonché gli algoritmi di visione artificiale e le tecniche di apprendimento automatico, competenze essenziali per avere successo in questo settore in costante evoluzione. Mette a disposizione inoltre una Biblioteca Virtuale, accessibile 24 ore su 24, da qualsiasi dispositivo digitale dotato di connessione a Internet. 

##IMAGE##

Acquisisci una visione globale della Robotica e della Visione Artificiale grazie a materiali didattici di alta qualità" 

Modulo 1. Robotica. Progettazione e modellazione di robot 

1.1. Robotica e Industria 4.0 

1.1.1. Robotica e Industria 4.0 
1.1.2. Campi di applicazione e casi d'uso 
1.1.3. Sottoaree di specializzazione della Robotica 

1.2. Architetture hardware e software per robot 

1.2.1. Architetture hardware e tempo reale 
1.2.2. Architetture software per robot 
1.2.3. Modelli di comunicazione e tecnologie Middleware 
1.2.4. Integrazione software con Robot Operating System (ROS) 

1.3. Modellazione matematica di robot 

1.3.1. Rappresentazione matematica di solidi rigidi 
1.3.2. Rotazioni e traslazioni 
1.3.3. Rappresentanza gerarchica dello stato 
1.3.4. Rappresentazione distribuita dello stato in ROS (Libreria TF) 

1.4. Cinematica e dinamica di robot 

1.4.1. Cinematica 
1.4.2. Dinamica 
1.4.3. Robot sottoattuati 
1.4.4. Robot ridondanti 

1.5. Modellazione e simulazione di robot 

1.5.1. Tecnologie di modellazione dei robot 
1.5.2. Modellazione di robot con URDF 
1.5.3. Simulazione di robot 
1.5.4. Modellazione con simulatore Gazebo 

1.6. Robot manipolatori 

1.6.1. Tipi di robot manipolatori 
1.6.2. Cinematica 
1.6.3. Dinamica 
1.6.4. Simulazione 

1.7. Robot mobili terrestri 

1.7.1. Tipi di Robot mobili terrestri 
1.7.2. Cinematica 
1.7.3. Dinamica 
1.7.4. Simulazione 

1.8. Robot mobili aerei 

1.8.1. Tipi di robot mobili aerei 
1.8.2. Cinematica 
1.8.3. Dinamica 
1.8.4. Simulazione 

1.9. Robot mobili acquatici 

1.9.1. Tipi di robot mobili acquatici 
1.9.2. Cinematica 
1.9.3. Dinamica 
1.9.4. Simulazione 

1.10. Robot bioispirati 

1.10.1. Umanoidi 
1.10.2. Robot con quattro o più gambe 
1.10.3. Robot modulari 
1.10.4. Robot con parti flessibili (Soft-Robotics

Modulo 2. Agenti intelligenti. Applicare l'Intelligenza Artificiale a robot e Softbot

2.1. Attori Intelligenti e Intelligenza Artificiale 

2.1.1. Robot intelligenti. Intelligenza Artificiale 
2.1.2. Agenti intelligenti 

2.1.2.1. Agenti hardware. Robot 
2.1.2.2. Agenti software. Softbot 

2.1.3. Applicazioni alla Robotica 

2.2. Connessione Cervello-Algoritmo 

2.2.1. Ispirazione biologica dell’Intelligenza Artificiale 
2.2.2. Ragionamento implementato in algoritmi. Tipologia 
2.2.3. Spiegazione dei risultati negli algoritmi di Intelligenza Artificiale 
2.2.4. Evoluzione degli algoritmi fino al Deep Learning 

2.3. Algoritmi di ricerca nello spazio delle soluzioni 

2.3.1. Elementi nella ricerca nello spazio delle soluzioni 
2.3.2. Algoritmi di ricerca di soluzioni ai problemi di Intelligenza Artificiale 
2.3.3. Applicazioni di algoritmi di ricerca e ottimizzazione 
2.3.4. Algoritmi di ricerca applicati a Machine Learning 

2.4. Apprendimento automatico 

2.4.1. Apprendimento automatico 
2.4.2. Algoritmi di apprendimento supervisionati 
2.4.3. Algoritmi di apprendimento non supervisionati 
2.4.4. Algoritmi di apprendimento per rinforzo 

2.5. Apprendimento supervisionato 

2.5.1. Metodi di apprendimento supervisionato 
2.5.2. Alberi decisionali per la classificazione 
2.5.3. Macchine di supporto di vettori 
2.5.4. Reti neuronali artificiali 
2.5.5. Applicazioni di apprendimento supervisionato 

2.6. Apprendimento non supervisionato 

2.6.1. Apprendimento non supervisionato 
2.6.2. Reti di Kohonen 
2.6.3. Mappe auto-organizzanti 
2.6.4. Algoritmo K-medies 

2.7. Apprendimento per rinforzo 

2.7.1. Apprendimento di rinforzo 
2.7.2. Agenti basati sui processi di Markov 
2.7.3. Algoritmi di apprendimento per rinforzo 
2.7.4. Apprendimento per rinforzo applicato alla Robotica 

2.8. Inferenza probabilistica 

2.8.1. Deduzione probabilistica 
2.8.2. Tipi di inferenza e definizione del metodo 
2.8.3. Inferenza bayesiana come caso di studio 
2.8.4. Tecniche di inferenza non parametriche 
2.8.5. Filtri Gaussiani 

2.9. Dalla teoria alla pratica: sviluppare un agente robotico intelligente 

2.9.1. Inclusione di moduli di apprendimento supervisionato in un agente robotico 
2.9.2. Inclusione di moduli di apprendimento per rinforzo in un agente robotico 
2.9.3. Architettura di un agente robotico controllato dall'Intelligenza Artificiale 
2.9.4. Strumenti professionali per l'implementazione degli agenti intelligenti 
2.9.5. Fasi di implementazione di algoritmi AI in agenti robotici 

Modulo 3. Deep Learning 

3.1. Intelligenza artificiale 

3.1.1. Machine Learning 
3.1.2. Deep Learning 
3.1.3. L’esplosione del Deep Learning. Perché adesso? 

3.2. Reti neuronali 

3.2.1. La rete neuronale 
3.2.2. Uso delle reti neurali 
3.2.3. Regressione lineare e percettrone 
3.2.4. Forward propagation 
3.2.5. Backpropagation 
3.2.6. Feature vector 

3.3. Loss function 

3.3.1. Loss function 
3.3.2. Tipi di Loss function 
3.3.3. Elezione di Loss function 

3.4. Funzioni di attivazione 

3.4.1. Funzioni di attivazione 
3.4.2. Funzioni lineari 
3.4.3. Funzioni non lineari 
3.4.4. Output vs. Hidden Layer Activation Functions 

3.5. Regolarizzazione e standardizzazione 

3.5.1. Regolarizzazione e standardizzazione 
3.5.2. Overfitting and Data Augmentation 
3.5.3. Regularization Methods: L1, L2 and Dropout 
3.5.4. Normalization Methods: Batch, Weight, Layer 

3.6. Ottimizzazione 

3.6.1. Gradient Descent 
3.6.2. Stochastic Gradient Descent 
3.6.3. Mini Batch Gradient Descent 
3.6.4. Momentum 
3.6.5. Adam 

3.7. Hyperparameter Tuning e pesi 

3.7.1. Iperparametri 
3.7.2. Batch Size vs. Learning Rate vs. Step Decay 
3.7.3. Pesi 

3.8. Metriche di valutazione delle reti neuronali 

3.8.1. Accuracy 
3.8.2. Dice Coefficient 
3.8.3. Sensitivity vs. Specificity/Recall vs. Precisione 
3.8.4. Curva ROC (AUC) 
3.8.5. F1-score 
3.8.6. Confusione Matrix 
3.8.7. Cross-Validation 

3.9. Frameworks e Hardware 

3.9.1. Tensor Flow 
3.9.2. Pytorch 
3.9.3. Caffe 
3.9.4. Keras 
3.9.5. Hardware per la fase di training 

3.10. Creazione di reti neuronali, training e validazione 

3.10.1. Dataset 
3.10.2. Costruzione della rete 
3.10.3. Training 
3.10.4. Visualizzazione dei risultati 

Modulo 4. Robotica nell'automazione di processi industriali 

4.1. Progettazione di sistemi automatizzati 

4.1.1. Architetture hardware 
4.1.2. Controllori logici programmabili 
4.1.3. Reti di comunicazioni industriali 

4.2. Progettazione elettrica avanzata I: automazione 

4.2.1. Progettazione di quadri elettrici e simbologia 
4.2.2. Circuiti di potenza e controllo. Armonica 
4.2.3. Elementi di protezione e messa a terra 

4.3. Progettazione elettrica avanzata II: determinismo e sicurezza 

4.3.1. Sicurezza della macchina e ridondanza 
4.3.2. Relè di sicurezza e trigger 
4.3.3. PLC di sicurezza 
4.3.4. Reti protette 

4.4. Azione elettrica 

4.4.1. Motori e servomotori 
4.4.2. Inverter e controller di frequenza 
4.4.3. Robotica industriale ad azionamento elettrico 

4.5. Azionamento idraulico e pneumatico 

4.5.1. Progettazione idraulica e simbologia 
4.5.2. Progettazione pneumatica e simbologia 
4.5.3. Ambienti ATEX nell'automazione 

4.6. Trasduttori in Robotica e Automazione 

4.6.1. Misurazione della posizione e della velocità 
4.6.2. Misurazione della forza e della temperatura 
4.6.3. Misura di presenza 
4.6.4. Sensori per la visione 

4.7. Programmazione e configurazione di controllori programmabili logici PLC 

4.7.1. Programmazione PLC: LD 
4.7.2. Programmazione PLC: ST 
4.7.3. Programmazione PLC: FBD e CFC 
4.7.4. Programmazione PLC: SFC 

4.8. Programmazione e configurazione di apparecchiature in impianti industriali 

4.8.1. Programmazione di inverter e controlli 
4.8.2. Programmazione di HMI 
4.8.3. Programmazione di robot manipolatori 

4.9. Programmazione e configurazione di apparecchiature informatica industriali 

4.9.1. Programmazione di sistemi di visione 
4.9.2. Programmazione di SCADA/software 
4.9.3. Configurazione di rete 

4.10. Implementazione di automatismi 

4.10.1. Progettazione di macchine di stato 
4.10.2. Implementazione di macchine di stato in PLC 
4.10.3. Implementazione di sistemi di controllo PID e PLC 
4.10.4. Manutenzione di automazioni e Igiene del codice 
4.10.5. Simulazione di automazioni e impianti 

Modulo 5. Sistemi di controllo automatico in Robotica 

5.1. Analisi e progettazione di sistemi non lineari 

5.1.1. Analisi e modellazione di sistemi non lineari 
5.1.2. Controllo con il feedback 
5.1.3. Linearizzazione per feedback 

5.2. Progettazione di tecniche di controllo per sistemi non lineari avanzati 

5.2.1. Controllo in Sliding Mode control 
5.2.2. Controllo basato su Lyapunov e Backstepping 
5.2.3. Controllo basato sulla passività 

5.3. Architetture di controllo 

5.3.1. Il paradigma della robotica 
5.3.2. Architetture di controllo 
5.3.3. Applicazioni ed esempi di architetture di controllo 

5.4. Controllo del movimento per articolazioni robotiche 

5.4.1. Modellazione cinematica e dinamica 
5.4.2. Controllo nello spazio delle articolazioni 
5.4.3. Controllo nello spazio operativo 

5.5. Controllo della forza sugli attuatori 

5.5.1. Controllo della forza 
5.5.2. Controllo dell'impedenza 
5.5.3. Controllo ibrido 

5.6. Robot mobili terrestri 

5.6.1. Equazione di moto 
5.6.2. Tecniche di controllo nei robot terrestri 
5.6.3. Manipolatori mobili 

5.7. Robot mobili aerei 

5.7.1. Equazione di moto 
5.7.2. Tecniche di controllo dei robot aerei 
5.7.3. Manipolazione aerea 

5.8. Controllo basato sulle tecniche di Machine Learning 

5.8.1. Controllo tramite l'apprendimento supervisionato 
5.8.2. Controllo tramite l'apprendimento di rinforzo 
5.8.3. Controllo tramite l'apprendimento non supervisionato 

5.9. Controllo basato sulla visione 

5.9.1. Visual Servoing basato sulla posizione 
5.9.2. Visual Servoing basato sull’immagine 
5.9.3. Visual Servoing ibrido 

5.10. Controllo predittivo 

5.10.1. Modelli e stime di stato 
5.10.2. MPC applicato ai robot mobili 
5.10.3. MPC applicato a UAV

Modulo 6. Algoritmi di pianificazione dei robot 

6.1. Algoritmi di pianificazione classica 

6.1.1. Pianificazione discreta: spazio degli stati 
6.1.2. Problemi di pianificazione in robotica. Modellazione di sistemi robotici 
6.1.3. Classificazione dei pianificatori 

6.2. Il problema della pianificazione della traiettoria nei robot mobili 

6.2.1. Forme di rappresentazione dell'ambiente: grafi 
6.2.2. Algoritmi di ricerca nei grafi 
6.2.3. Introduzione dei costi nei grafi 
6.2.4. Algoritmi di ricerca nei grafi pesanti 
6.2.5. Algoritmi con messa a fuoco da qualsiasi angolazione 

6.3. Pianificazione di sistemi robotici ad alta dimensionalità 

6.3.1. Problemi di robotica ad alta dimensionalità: manipolatori 
6.3.2. Modello cinematico diretto/inverso 
6.3.3. Algoritmi di pianificazione a campione PRM e RRT 
6.3.4. Pianificare in caso di vincoli dinamici 

6.4. Pianificazione a campione ottimale 

6.4.1. Problemi dei pianificatori basati sul campionamento 
6.4.2. RRT* concetto di ottimalità probabilistica 
6.4.3. Passaggio di riconnessione: vincoli dinamici 
6.4.4. CForest. Parallelizzazione della pianificazione 

6.5. Implementazione effettiva di un sistema di pianificazione del movimento 

6.5.1. Problema di pianificazione globale. Ambienti dinamici 
6.5.2. Ciclo di azione, sensorizzazione. Acquisizione di informazioni dall'ambiente 
6.5.3. Pianificazione locale e globale 

6.6. Coordinamento dei sistemi multirobot I: sistema centralizzato 

6.6.1. Problema di coordinamento multirobot 
6.6.2. Rilevamento e risoluzione delle collisioni: modifica delle traiettorie con algoritmi genetici 
6.6.3. Altri algoritmi bio-ispirati: sciami di particelle e fuochi d'artificio 
6.6.4. Algoritmo di prevenzione delle collisioni per scelta di manovra 

6.7. Coordinamento nei sistemi multirobot II: approcci distribuiti I 

6.7.1. Utilizzo di funzioni target complesse 
6.7.2. Fronte di Pareto 
6.7.3. Algoritmi evolutivi multiobiettivo 

6.8. Coordinamento nei sistemi multirobot III: approcci distribuiti II 

6.8.1. Sistemi di pianificazione di ordine 1 
6.8.2. Algoritmo ORCA 
6.8.3. Aggiunta di vincoli cinematici e dinamici in ORCA 

6.9. Teoria della pianificazione per decisione 

6.9.1. Teoria decisionale 
6.9.2. Sistemi di decisione sequenziale 
6.9.3. Sensori e spazi di informazione 
6.9.4. Pianificazione di fronte all'incertezza nella percezione e nell'azione 

6.10. Sistemi di pianificazione dell'apprendimento per rinforzo 

6.10.1. Ottenere la ricompensa prevista da un sistema 
6.10.2. Tecniche di apprendimento per ricompensa media 
6.10.3. Apprendimento per rinforzo inverso 

Modulo 7. Visione artificiale  

7.1. Percezione umana 

7.1.1. Sistema visivo umano 
7.1.2. Il colore 
7.1.3. Frequenze visibili e non visibili 

7.2. Cronaca della visione artificiale 

7.2.1. Principi 
7.2.2. Evoluzione 
7.2.3. Importanza della visione artificiale 

7.3. Composizione di immagini digitali 

7.3.1. L'immagine digitale 
7.3.2. Tipi di immagini 
7.3.3. Spazi di colore 
7.3.4. RGB 
7.3.5. HSV e HSL 
7.3.6. CMY-CMYK 
7.3.7. YCbCr 
7.3.8. Immagine indicizzata 

7.4. Sistemi di imaging 

7.4.1. Come funziona una telecamera digitale 
7.4.2. L'esposizione giusta per ogni situazione 
7.4.3. Profondità di campo 
7.4.4. Risoluzione 
7.4.5. Formati dell’immagine 
7.4.6. Modalità HDR 
7.4.7. Telecamere ad alta risoluzione 
7.4.8. Telecamere ad alta velocità 

7.5. Sistemi ottici 

7.5.1. Principi ottici 
7.5.2. Obiettivi convenzionali 
7.5.3. Obiettivi telecentrici 
7.5.4. Tipi di autofocus 
7.5.5. Lunghezza focale 
7.5.6. Profondità di campo 
7.5.7. Distorsione ottica 
7.5.8. Calibrazione di un'immagine 

7.6. Sistemi di illuminazione 

7.6.1. L’importanza dell’illuminazione 
7.6.2. Risposta in frequenza 
7.6.3. Illuminazione a led 
7.6.4. Illuminazione esterna 
7.6.5. Tipi di illuminazione per applicazioni industriali. Effetti 

7.7. Sistemi di captazione 3D 

7.7.1. Visione stereo 
7.7.2. Triangolazione 
7.7.3. Luce strutturata 
7.7.4. Time of Flight 
7.7.5. LiDAR 

7.8. Multispettrale 

7.8.1. Telecamere multispettrali 
7.8.2. Telecamere iperspettrali 

7.9. Spettro vicino non visibile 

7.9.1. Telecamere IR 
7.9.2. Telecamere UV 
7.9.3. Conversione da non visibile a visibile attraverso l'illuminazione 

7.10. Altre bande dello spettro 

7.10.1. Raggi X 
7.10.2. Terahertz 

Modulo 8. Applicazioni e stato dell'arte 

8.1. Applicazioni industriali 

8.1.1. Librerie di visione artificiale 
8.1.2. Telecamere compatte 
8.1.3. Sistemi basati su PC 
8.1.4. Robotica industriale 
8.1.5. Pick and place 2D 
8.1.6. Bin picking 
8.1.7. Controllo della qualità 
8.1.8. Presenza-assenza di componenti 
8.1.9. Controllo dimensionale 
8.1.10. Controllo dell'etichettatura 
8.1.11. Tracciabilità 

8.2. Veicoli autonomi 

8.2.1. Assistenza al conducente 
8.2.2. Guida autonoma 

8.3. Visione artificiale per l'analisi dei contenuti 

8.3.1. Filtrare per contenuto 
8.3.2. Moderazione dei contenuti visivi 
8.3.3. Sistemi di monitoraggio 
8.3.4. Identificazione di marchi e loghi 
8.3.5. Etichettatura e classificazione dei video 
8.3.6. Rilevamento del cambiamento di scena 
8.3.7. Estrazione di testi o crediti 

8.4. Applicazioni mediche 

8.4.1. Individuazione e localizzazione delle malattie 
8.4.2. Cancro e analisi a raggi X 
8.4.3. I progressi della visione artificiale grazie al Covid-19 
8.4.4. Assistenza in sala operatoria 

8.5. Applicazioni spaziali 

8.5.1. Analisi delle immagini satellitari 
8.5.2. La visione artificiale per lo studio dello spazio 
8.5.3. Missione su Marte 

8.6. Applicazioni commerciali 

8.6.1. Controllo stock 
8.6.2. Videosorveglianza, sicurezza domestica 
8.6.3. Telecamere per il parcheggio 
8.6.4. Telecamere per il controllo della popolazione 
8.6.5. Autovelox 

8.7. Visione applicata alla robotica 

8.7.1. Droni 
8.7.2. AGV 
8.7.3. Visione nei robot collaborativi 
8.7.4. Gli occhi dei robot 

8.8. Realtà aumentata 

8.8.1. Funzionamento 
8.8.2. Dispositivi 
8.8.3. Applicazioni nell’industria 
8.8.4. Applicazioni commerciali 

8.9. Cloud computing 

8.9.1. Piattaforme di Cloud Computing 
8.9.2. Dal Cloud Computing alla produzione 

8.10. Ricerca e stato dell'arte 

8.10.1. La comunità scientifica 
8.10.2. Cosa si sta preparando? 
8.10.3. Il futuro della visione artificiale 

Modulo 9. Tecniche di Visione Artificiale in Robotica: elaborazione e analisi delle immagini 

9.1. Visione Artificiale 

9.1.1. Visione Artificiale 
9.1.2. Elementi di un sistema di visione artificiale 
9.1.3. Strumenti matematici 

9.2. Sensori ottici per la Robotica 

9.2.1. Sensori ottici passivi 
9.2.2. Sensori ottici attivi 
9.2.3. Sensori non ottici 

9.3. Acquisizione di immagini 

9.3.1. Rappresentazione in immagini 
9.3.2. Spazio del colore 
9.3.3. Processo di digitalizzazione 

9.4. Geometria delle immagini 

9.4.1. Modelli di lenti 
9.4.2. Modelli di telecamere 
9.4.3. Calibrazione delle telecamere 

9.5. Strumenti matematici 

9.5.1. Istogramma di un'immagine 
9.5.2. Convoluzione 
9.5.3. Trasformata di Fourier 

9.6. Preelaborazione delle immagini 

9.6.1. Analisi del rumore 
9.6.2. Attenuazione delle immagini 
9.6.3. Miglioramento delle immagini 

9.7. Segmentazione delle immagini 

9.7.1. Tecniche basate sui contorni 
9.7.3. Tecniche basate sull’istogramma 
9.7.4. Operazioni morfologiche 

9.8. Rilevamento delle caratteristiche nell'immagine 

9.8.1. Rilevamento dei punti di interesse 
9.8.2. Descrittori delle caratteristiche 
9.8.3. Corrispondenze tra le caratteristiche 

9.9. Sistemi di visione 3D 

9.9.1. Percezione 3D 
9.9.2. Corrispondenza delle caratteristiche tra immagini 
9.9.3. Geometria a più viste 

9.10. Localizzazione basata sulla visione artificiale 

9.10.1. Il problema della localizzazione dei Robot 
9.10.2. Odometria visiva 
9.10.3. Fusione sensoriale 

Modulo 10. Sistemi di percezione visiva dei Robot con apprendimento automatico

10.1. Metodi di apprendimento non supervisionati applicati alla visione artificiale 

10.1.1. Clustering 
10.1.2. PCA 
10.1.3. Nearest Neighbors 
10.1.4. Similarity and matrix decomposition 

10.2. Metodi di apprendimento supervisionati applicati alla visione artificiale 

10.2.1. Concetto "Bag of words” 
10.2.2. Macchine di supporto di vettori 
10.2.3. Latent Dirichlet Allocation 
10.2.4. Reti neuronali 

10.3. Reti neurali profonde: strutture, Backbones e Transfer Learning 

10.3.1. Strati generatori di Features 

10.3.3.1. VGG 
10.3.3.2. Densenet 
10.3.3.3. Resnet 
10.3.3.4. Inception 
10.3.3.5. GoogLeNet 

10.3.2. Transfer Learning 
10.3.3. I dati. Preparazione al training 

10.4. Deep Learning I: rilevamento e segmentazione 

10.4.1. YOLO e SSD differenze e somiglianze 
10.4.2. Unet 
10.4.3. Altre strutture 

10.5. Visione Artificiale con Deep Learning II: General Adversarial Networks 

10.5.1. Super risoluzione delle immagini utilizzando GAN 
10.5.2. Creazione di Immagini realiste 
10.5.3. Scene understanding 

10.6. Tecniche di apprendimento per la localizzazione e la mappatura nella robotica mobile 

10.6.1. Rilevamento della chiusura di loop e rilocazione 
10.6.2. Magic Leap. Super Point y Super Glue 
10.6.3. Depth from Monocular 

10.7. Inferenza bayesiana e modellazione 3D 

10.7.1. Modelli bayesiani e apprendimento "classico" 
10.7.2. Superfici implicite con processi gaussiani (GPIS) 
10.7.3. Segmentazione 3D con GPIS 
10.7.4. Reti neurali per la modellazione di superfici 3D 

10.8. Applicazioni end-to-end delle reti neurali profonde 

10.8.1. Sistema end-to-end. Esempio di identificazione delle persone 
10.8.2. Manipolazione di oggetti con sensori visivi 
10.8.3. Generazione di movimenti e pianificazione con sensori visivi 

10.9. Tecnologie cloud per accelerare lo sviluppo di algoritmi di deep learning 

10.9.1. Uso di GPU per il Deep Learning 
10.9.2. Sviluppo agile con Google IColab 
10.9.3. GPUs remote, Google Cloud e AWS 

10.10. Deployment di reti neurali in applicazioni reali 

10.10.1. Sistemi embedded 
10.10.2. Deployment di reti neurali. Uso 
10.10.3. Ottimizzazione della rete durante la distribuzione, ad esempio con TensorRT 

Modulo 11. SLAM Visivo. Localizzazione di robot e mappatura simultanea con tecniche di Visione Artificiale 

11.1. Localizzazione e mappatura simultanee (SLAM) 

11.1.1. Localizzazione e mappatura simultanee. SLAM 
11.1.2. Applicazioni dello SLAM 
11.1.3. Funzioni dello SLAM 

11.2. Geometria proiettiva 

11.2.1. Modello Pin-Hole 
11.2.2. Stima di parametri intrinsechi di una fotocamera 
11.2.3. Omografia, principi di base e stima 
11.2.4. Matrice fondamentale, principi e stime 

11.3. Filtri Gaussiani 

11.3.1. Filtro di Kalman 
11.3.2. Filtro di informazioni 
11.3.3. Regolazione e parametrizzazione dei filtri gaussiani 

11.4. Stereo EKF-SLAM 

11.4.1. Geometria della telecamera stereo 
11.4.2. Estrazione e ricerca di funzionalità 
11.4.3. Filtro di Kalman per SLAM stereo 
11.4.4. Impostazione dei parametri di EKF-SLAM stereo 

11.5. Monoculare EKF-SLAM 

11.5.1. Parametrizzazione dei Landmarks in EKF-SLAM 
11.5.2. Filtro di Kalman per SLAM monoculare 
11.5.3. Impostazione dei parametri di EKF-SLAM monoculare 

11.6. Rilevamento della chiusura di loop 

11.6.1. Algoritmo di forza bruta 
11.6.2. FABMAP 
11.6.3. Astrazione tramite GIST e HOG 
11.6.4. Rilevamento tramite deep learning 

11.7. Graph-SLAM 

11.7.1. Graph-SLAM 
11.7.2. RGBD-SLAM 
11.7.3. ORB-SLAM 

11.8. Direct Visual SLAM 

11.8.1. Analisi dell’algoritmo Direct Visual SLAM 
11.8.2. LSD-SLAM 
11.8.3. SVO 

11.9. Visual Inertial SLAM 

11.9.1. Integrazione delle misure inerziali 
11.9.2. Accoppiamento basso: SOFT-SLAM 
11.9.3. Accoppiamento alto: Vins-Mono 

11.10. Altre tecnologie di SLAM 

11.10.1. Applicazioni oltre lo SLAM visivo 
11.10.2. Lidar-SLAM 
11.10.3. Range-only SLAM 

Modulo 12. Applicazione alla robotica delle tecnologie di realtà virtuale e aumentata 

12.1. Tecnologie immersive nella Robotica 

12.1.1. Realtà Virtuale in Robotica 
12.1.2. Realtà Aumentata in Robotica 
12.1.3. Realtà Mista in Robotica 
12.1.4. Differenza tra le realtà 

12.2. Costruzione di ambienti virtuali 

12.2.1. Materiali e texture 
12.2.2. Illuminazione 
12.2.3. Suono e odore virtuale 

12.3. Modellazione di robot in ambienti virtuali 

12.3.1. Modellazione geometrica 
12.3.2. Modellazione fisica 
12.3.3. Standardizzazione dei modelli 

12.4. Modellazione dinamica e cinematica dei robot: motori fisici virtuali 

12.4.1. Motori fisici. Tipologia 
12.4.2. Configurazione di un motore fisico 
12.4.3. Motori fisici nell'industria 

12.5. Piattaforme, periferiche e strumenti più utilizzati nella realtà virtuale 

12.5.1. Visori per la realtà virtuale 
12.5.2. Periferiche di interazione 
12.5.3. Sensori virtuali 

12.6. Sistemi di Realtà Aumentata 

12.6.1. Inserimento di elementi virtuali nella realtà 
12.6.2. Tipi di marcatori visivi 
12.6.3. Tecnologie di Realtà Aumentata 

12.7. Metaverso: ambienti virtuali di agenti intelligenti e persone 

12.7.1. Creazione di avatar 
12.7.2. Agenti intelligenti in ambienti virtuali 
12.7.3. Costruzione di ambienti multiutente per VR/AR 

12.8. Creazione di progetti di Realtà Virtuale in Robotica 

12.8.1. Fasi di sviluppo di un progetto di Realtà Virtuale 
12.8.2. Deployment di sistemi di Realtà Virtuale 
12.8.3. Risorse per la Realtà Virtuale 

12.9. Creazione di progetti di Realtà Aumentata in Robotica 

12.9.1. Fasi di sviluppo di un progetto di Realtà Aumentata 
12.9.2. Deployment di Progetti di Realtà Aumentata 
12.9.3. Risorse per la Realtà Aumentata 

12.10. Tele-operazione di robot con dispositivi mobili 

12.10.1. Realtà Mista in dispositivi mobili 
12.10.2. Sistemi immersivi con sensori per dispositivi mobili 
12.10.3. Esempi di progetti mobili 

Modulo 13. Sistemi di comunicazione e interazione con i robot 

13.1. Riconoscimento vocale: sistemi stocastici 

13.1.1. Modellazione acustica del discorso 
13.1.2. Modelli nascosti di Markov 
13.1.3. Modellazione linguistica del discorso: N-Grammi, grammatiche BNF 

13.2. Il riconoscimento del linguaggio: Deep Learning 

13.2.1. Reti neuronali profonde 
13.2.2. Reti neuronali ricorrenti 
13.2.3. Cellule LSTM 

13.3. Riconoscimento vocale: prosodia ed effetti ambientali 

13.3.1. Rumore ambientale 
13.3.2. Riconoscimento multi-vocale 
13.3.3. Patologie nell’uso della parola 

13.4. Comprensione del linguaggio naturale: sistemi euristici e probabilistici 

13.4.1. Analisi sintattico-semantica: regole linguistiche 
13.4.2. Comprensione basata su regole euristiche 
13.4.3. Sistemi probabilistici: regressione logistica e SVM 
13.4.4. Comprensione basata sulle reti neurali 

13.5. Gestione del dialogo: strategie euristiche/probabilistiche 

13.5.1. Intenzione dell'interlocutore 
13.5.2. Finestra di dialogo basata su modelli 
13.5.3. Gestione del dialogo stocastico: reti bayesiane 

13.6. Gestione del dialogo: strategie avanzate 

13.6.1. Sistemi di apprendimento basati sul rinforzo 
13.6.2. Sistemi basati sulle reti neurali 
13.6.3. Dal parlare all'intenzione in un'unica rete 

13.7. Generazione di risposta e sintesi vocale 

13.7.1. Generazione di risposta: dall'idea al testo coerente 
13.7.2. Sintesi del discorso per concatenazione 
13.7.3. Sintesi del linguaggio stocastico 

13.8. Adattamento e contestualizzazione del dialogo 

13.8.1. Iniziativa di dialogo 
13.8.2. Adattamento al parlante 
13.8.3. Adattamento al contesto del dialogo 

13.9. Robot e interazioni sociali: riconoscimento, sintesi ed espressione delle emozioni 

13.9.1. Paradigmi della voce artificiale: voce robotica e voce naturale 
13.9.2. Riconoscimento delle emozioni e analisi dei sentimenti 
13.9.3. Sintesi della voce emotiva 

13.10. Robot e interazioni sociali: interfacce multimodali avanzate 

13.10.1. Combinazione di interfacce vocali e tattili 
13.10.2. Riconoscimento e traduzione della lingua dei segni 
13.10.3. Avatar visivi: traduzione da voce a lingua dei segni 

Modulo 14. Elaborazione digitale delle immagini 

14.1. Ambiente di sviluppo per la visione artificiale 

14.1.1. Librerie di visione artificiale 
14.1.2. Ambiente di programmazione 
14.1.3. Strumenti di visualizzazione 

14.2. Elaborazione digitale delle immagini 

14.2.1. Relazioni tra pixel 
14.2.2. Operazioni sulle immagini 
14.2.3. Trasformazioni geometriche 

14.3. Operazioni sui pixel 

14.3.1. Istogramma 
14.3.2. Trasformazioni sulla base di istogrammi 
14.3.3. Operazioni su immagini a colori 

14.4. Operazioni logiche e aritmetiche 

14.4.1. Addizione e sottrazione 
14.4.2. Prodotto e divisione 
14.4.3. And/Nand 
14.4.4. Or/Nor 
14.4.5. Xor/Xnor 

14.5. Filtri 

14.5.1. Maschere e convoluzione 
14.5.2. Filtraggio lineare 
14.5.3. Filtraggio non lineare 
14.5.4. Analisi di Fourier 

14.6. Operazioni morfologiche 

14.6.1. Erode and Dilating 
14.6.2. Closing and Open 
14.6.3. Top hat e Black hat 
14.6.4. Rilevamento dei contorni 
14.6.5. Scheletro 
14.6.6. Riempimento dei buchi 
14.6.7. Convex hull 

14.7. Strumenti di analisi delle immagini 

14.7.1. Rilevamento dei bordi 
14.7.2. Rilevamento di blob 
14.7.3. Controllo dimensionale 
14.7.4. Ispezione del colore 

14.8. Segmentazione degli oggetti 

14.8.1. Segmentazione delle immagini 
14.8.2. Tecniche di segmentazione classiche 
14.8.3. Applicazioni reali 

14.9. Calibrazione di immagini 

14.9.1. Calibrazione dell'immagine 
14.9.2. Metodi di calibrazione 
14.9.3. Processo di calibrazione in un sistema telecamera 2D/robot 

14.10. Elaborazione di immagini in ambiente reale 

14.10.1. Analisi dei problemi 
14.10.2. Elaborazione delle immagini 
14.10.3. Estrazione delle caratteristiche 
14.10.4. Risultati finali

Modulo 15. Elaborazione digitale avanzata delle immagini 

15.1. Riconoscimento ottico dei caratteri (OCR) 

15.1.1. Preelaborazione dell’immagine 
15.1.2. Rilevamento del testo 
15.1.3. Riconoscimento del testo 

15.2. Lettura dei codici 

15.2.1. Codici 1D 
15.2.2. Codici 2D 
15.2.3. Applicazioni 

15.3. Ricerca di modelli 

15.3.1. Ricerca di modelli 
15.3.2. Modelli basati nel livello di grigio 
15.3.3. Modelli basati sui contorni 
15.3.4. Modelli basati su forme geometriche 
15.3.5. Altre tecniche 

15.4. Tracciamento di oggetti con visione convenzionale 

15.4.1. Estrazione dello sfondo 
15.4.2. Meanshift 
15.4.3. Camshift 
15.4.4. Optical flow 

15.5. Riconoscimento facciale 

15.5.1. Facial Landmark detection 
15.5.2. Applicazioni 
15.5.3. Riconoscimento facciale 
15.5.4. Riconoscimento delle emozioni 

15.6. Panoramica e allineamenti 

15.6.1. Stitching 
15.6.2. Composizione di immagini 
15.6.3. Fotomontaggio 

15.7. High Dinamic Range (HDR) e Photometric Stereo 

15.7.1. Aumento della gamma dinamica 
15.7.2. Composizione di immagini per il miglioramento dei contorni 
15.7.3. Tecniche per l'utilizzo di applicazioni dinamiche 

15.8. Compressione dell'immagine 

15.8.1. La compressione delle immagini 
15.8.2. Tipi di compressori 
15.8.3. Tecniche di compressione delle immagini 

15.9. Elaborazione video 

15.9.1. Sequenze di immagini 
15.9.2. Formati video e codec 
15.9.3. Lettura di un video 
15.9.4. Elaborazione del fotogramma 

15.10. Applicazione reale dell'elaborazione delle immagini 

15.10.1. Analisi dei problemi 
15.10.2. Elaborazione delle immagini 
15.10.3. Estrazione delle caratteristiche 
15.10.4. Risultati finali

Modulo 16. Elaborazione di immagini 3D 

16.1. Immagine 3D 

16.1.1. Immagine 3D 
16.1.2. Software di elaborazione e visualizzazione di immagini 3D 
16.1.3. Software di metrologia 

16.2. Open 3D 

16.2.1. Libreria per l'elaborazione dei dati 3D 
16.2.2. Caratteristiche 
16.2.3. Installazione e utilizzo 

16.3. I dati 

16.3.1. Mappe di profondità dell'immagine 2D 
16.3.2. Pointcloud 
16.3.3. Normali 
16.3.4. Superfici 

16.4. Visualizzazione 

16.4.1. Visualizzazione dei dati 
16.4.2. Controller 
16.4.3. Visualizzazione web 

16.5. Filtri 

16.5.1. Distanza tra punti, eliminare outliers 
16.5.2. Filtro passa alto 
16.5.3. Downsampling 

16.6. Geometria ed estrazione di caratteristiche 

16.6.1. Estrazione di un profilo 
16.6.2. Misura della profondità 
16.6.3. Volume 
16.6.4. Forme geometriche 3D 
16.6.5. Piani 
16.6.6. Proiezione di un punto 
16.6.7. Distanze geometriche 
16.6.8. Kd Tree 
16.6.9. Features 3D 

16.7. Registro e Meshing 

16.7.1. Concatenazione 
16.7.2. ICP 
16.7.3. Ransac 3D 

16.8. Riconoscimento di oggetti 3D 

16.8.1. Ricerca di un oggetto nella scena 3D 
16.8.2. Segmentazione 
16.8.3. Bin picking 

16.9. Analisi della superficie 

16.9.1. Smoothing 
16.9.2. Superfici regolabili 
16.9.3. Octree 

16.10. Triangolazione 

16.10.1. Da Mesh a Point Cloud 
16.10.2. Triangolazione delle mappe di profondità 
16.10.3. Triangolazione di PointCloud non ordinate

Modulo 17. Reti convoluzionali e classificazione delle immagini 

17.1. Reti neuronali convoluzionali 

17.1.1. Introduzione 
17.1.2. La convoluzione 
17.1.3. CNN Building Blocks 

17.2. Tipi di livelli della CNN 

17.2.1. Convolutional 
17.2.2. Activation 
17.2.3. Batch normalization 
17.2.4. Polling 
17.2.5. Fully connected 

17.3. Parametri 

17.3.1. Confusione Matrix 
17.3.2. Accuracy 
17.3.3. Precisione 
17.3.4. Recall 
17.3.5. F1 Score 
17.3.6. Curva ROC 
17.3.7. AUC 

17.4. Architetture principali 

17.4.1. AlexNet 
17.4.2. VGG 
17.4.3. Resnet 
17.4.4. GoogleLeNet 

17.5. Classificazione di immagini 

17.5.1. Introduzione 
17.5.2. Analisi dei dati 
17.5.3. Preparazione dei dati 
17.5.4. Training del modello 
17.5.5. Convalida del modello 

17.6. Considerazioni pratiche per il training nelle CNN 

17.6.1. Selezione dell'ottimizzatore 
17.6.2. Learning Rate Scheduler 
17.6.3. Controllare la pipeline di training 
17.6.4. Training con regolarizzazione 

17.7. Le migliori pratiche di Deep Learning 

17.7.1. Transfer Learning 
17.7.2. Fine Tuning 
17.7.3. Data Augmentation 

17.8. Valutazione statistica dei dati 

17.8.1. Numero di dataset 
17.8.2. Numero di etichette 
17.8.3. Numero di immagini 
17.8.4. Bilanciamento dei dati 

17.9. Deployment 

17.9.1. Salvataggio e caricamento dei modelli 
17.9.2. Onnx 
17.9.3. Inferenza 

17.10. Caso di studio: classificazione delle immagini 

17.10.1. Analisi e preparazione dei dati 
17.10.2. Verifica della pipeline di formazione 
17.10.3. Training del modello 
17.10.4. Convalida del modello

Modulo 18. Rilevamento di oggetti 

18.1. Rilevamento e tracciamento degli oggetti 

18.1.1. Rilevamento di oggetti 
18.1.2. Casi d'uso 
18.1.3. Tracciamento degli oggetti 
18.1.4. Casi d'uso 
18.1.5. Occlusioni, Rigid and No Rigid Poses 

18.2. Metriche di valutazione 

18.2.1. IOU - Intersection Over Union 
18.2.2. Confidence Score 
18.2.3. Recall 
18.2.4. Precisione 
18.2.5. Recall–Precisione Curve 
18.2.6. Mean Average Precision (mAP) 

18.3. Metodi tradizionali 

18.3.1. Sliding window 
18.3.2. Viola detector 
18.3.3. HOG 
18.3.4. Non Maximal Supresion (NMS) 

18.4. Datasets 

18.4.1. Pascal VC 
18.4.2. MS Coco 
18.4.3. ImageNet (2014) 
18.4.4. MOTA Challenge 

18.5. Two Shot Object Detector 

18.5.1. R-CNN 
18.5.2. Fast R-CNN 
18.5.3. Faster R-CNN 
18.5.4. Mask R-CNN 

18.6. Single Shot Object Detector 

18.6.1. SSD 
18.6.2. YOLO 
18.6.3. RetinaNet 
18.6.4. CenterNet 
18.6.5. EfficientDet 

18.7. Backbones 

18.7.1. VGG 
18.7.2. Resnet 
18.7.3. Mobilenet 
18.7.4. Shufflenet 
18.7.5. Darknet 

18.8. Object Tracking 

18.8.1. Approcci classici 
18.8.2. Filtri antiparticolato 
18.8.3. Kalman 
18.8.4. Sorttracker 
18.8.5. Deep Sort 

18.9. Distribuzione 

18.9.1. Piattaforma informatica 
18.9.2.  Scelta del Backbone 
18.9.3. Scelta del Framework 
18.9.4. Ottimizzazione del modello 
18.9.5. Versione del modello 

18.10. Studio: rilevamento e tracciamento delle persone 

18.10.1. Rilevamento di persone 
18.10.2. Tracciamento delle persone 
18.10.3. Ri-identificazione 
18.10.4. Contare le persone in mezzo alla folla 

Modulo 19. Segmentazione di immagini con Deep Learning 

19.1. Rilevamento e segmentazione degli oggetti 

19.1.1. Segmentazione semantica 

19.1.1.1. Esempi d'uso della segmentazione semantica 

19.1.2. Segmentazione di oggetti 

19.1.2.1. Esempi d'uso della segmentazione di oggetti 

19.2. Metriche di valutazione 

19.2.1. Analogie con altri metodi 
19.2.2. Pixel Accuracy 
19.2.3. Dice Coefficient (F1 Score) 

19.3. Funzioni di costo 

19.3.1. Dice Loss 
19.3.2. Focal Loss 
19.3.3. Tversky Loss 
19.3.4. Altre funzioni 

19.4. Metodi di segmentazione tradizionali 

19.4.1. Applicazione della soglia con Otsu e Riddlen 
19.4.2. Mappe auto-organizzate 
19.4.3. GMM-EM algorithm 

19.5. Segmentazione semantica usando Deep Learning: FCN 

19.5.1. FCN 
19.5.2. Architettura 
19.5.3. Applicazioni di FCN 

19.6. Segmentazione semantica usando Deep Learning: U-NET 

19.6.1. U-NET 
19.6.2. Architettura 
19.6.3. Applicazione U-NET 

19.7. Segmentazione semantica usando Deep Learning: Deep Lab 

19.7.1. Deep Lab 
19.7.2. Architettura 
19.7.3. Applicazione di Deep Lab 

19.8. Segmentazione di oggetti usando Deep Learning: Mask RCNN 

19.8.1. Mask RCNN 
19.8.2. Architettura 
19.8.3. Applicazione di un Mask RCNN 

19.9. Segmentazione video 

19.9.1. STFCN 
19.9.2. Semantic Video CNNs 
19.9.3. Clockwork Convnets 
19.9.4. Low-Latency 

19.10. Segmentazione in nuvole di punti 

19.10.1. La nuvola di punti 
19.10.2. PointNet 
19.10.3. A-CNN 

Modulo 20. Segmentazione avanzata delle immagini e tecniche avanzate di visione artificiale 

20.1. Database per problemi generali di segmentazione 

20.1.1. Pascal Context 
20.1.2. CelebAMask-HQ 
20.1.3. Cityscapes Dataset 
20.1.4. CCP Dataset 

20.2. Segmentazione semantica in medicina 

20.2.1. Segmentazione semantica in medicina 
20.2.2. Dataset per problemi medici 
20.2.3. Applicazione pratica 

20.3. Strumenti di annotazione 

20.3.1. Computer Vision Annotation Tool 
20.3.2. LabelMe 
20.3.3. Altri strumenti 

20.4. Strumenti di segmentazione che utilizzano diversi Framework 

20.4.1. Keras 
20.4.2. Tensorflow v2 
20.4.3. Pytorch 
20.4.4. Altri 

20.5. Progetto di segmentazione semantica. I dati, fase 1 

20.5.1. Analisi del problema 
20.5.2. Fonte di input per i dati 
20.5.3. Analisi dei dati 
20.5.4. Preparazione dati 

20.6. Progetto di segmentazione semantica. Training, fase 2 

20.6.1. Selezione dell'algoritmo 
20.6.2. Training 
20.6.3. Valutazione 

20.7. Progetto di segmentazione semantica. Risultati, fase 3 

20.7.1. Regolazione fine 
20.7.2. Presentazione della soluzione 
20.7.3. Conclusioni 

20.8. Autocodificatori 

20.8.1. Autocodificatori 
20.8.2. Architettura di un autocodificatore 
20.8.3. Autocodificatori di l’eliminazione del rumore 
20.8.4. Autocodificatori di colorazione automatica 

20.9. Reti generative avversarie (GAN) 

20.9.1. Reti generative avversarie (GAN) 
20.9.2. Architettura DCGAN 
20.9.3. Architettura GAN condizionale 

20.10. Reti generative avversarie migliorate 

20.10.1. Panoramica del problema 
20.10.2. WGAN 
20.10.3. LSGAN 
20.10.4. ACGAN 

##IMAGE##

Distinguiti dal resto dei tuoi concorrenti acquisendo competenze specialistiche in un campo con un grande potenziale di crescita"

Master Specialistico in Robotica e Visione Artificiale

La robotica e la visione artificiale sono due discipline che hanno rivoluzionato il modo in cui interagiamo con la tecnologia e hanno trasformato l'industria in diversi settori. In TECH Università Tecnologica, in collaborazione con la Facoltà di Ingegneria, abbiamo sviluppato un Master Specialistico in Robotica e Visione Artificiale per fornire ai professionisti una specializzazione virtuale in queste aree molto richieste dal mercato tecnologico di oggi. Grazie a una metodologia innovativa che mescola lezioni virtuali e il metodo del Relearning, potrai acquisire solide competenze in un ambiente coinvolgente e flessibile che si adatta facilmente alla tua routine.

In questo corso post-laurea online, i partecipanti acquisiranno conoscenze avanzate in robotica e visione artificiale, dai fondamenti teorici alle applicazioni pratiche nella progettazione e nello sviluppo di sistemi robotici intelligenti. Il nostro approccio interdisciplinare consente ai partecipanti di comprendere i concetti chiave della robotica e della visione artificiale, nonché di applicare tecniche e strumenti avanzati per risolvere problemi reali in contesti diversi. Inoltre, saranno guidati da docenti specializzati con una vasta esperienza nella ricerca e nell'applicazione della robotica e della visione artificiale nell'industria e nel mondo accademico.