Presentazioni

Sviluppa le competenze essenziali in Robotica e Visione Artificiale iscrivendoti ora a questo Master specialistico di TECH”

##IMAGE##

L'ascesa dell'Intelligenza Artificiale e della Robotica sta trasformando il panorama tecnologico, economico e sociale mondiale. La specializzazione in aree come la Visione Artificiale è diventata fondamentale per rimanere all'avanguardia in quest'epoca di rapidi progressi e cambiamenti dirompenti. La crescente interazione tra macchine ed esseri umani, così come la necessità di elaborare in modo efficiente le informazioni visive, richiede professionisti altamente qualificati in grado di affrontare queste sfide e di guidare l'innovazione.

Il Master specialistico in Robotica e Visione Artificiale offre una preparazione completa in queste discipline emergenti, coprendo argomenti come la realtà aumentata, l'intelligenza artificiale e l'elaborazione delle informazioni visive nelle macchine, ecc. Gli studenti beneficeranno di un approccio teorico-pratico, imparando gli ultimi sviluppi della robotica e della visione artificiale e come applicare queste conoscenze in ambienti reali.

Inoltre, il programma è in modalità 100% online, il che consente agli studenti di adattare il loro apprendimento alle loro circostanze personali e professionali, rendendo più facile per loro combinare l'apprendimento con le proprie responsabilità. Gli studenti avranno accesso a materiali didattici di alta qualità, come riassunti video, letture essenziali e video di approfondimento, che forniranno loro una panoramica completa della Robotica e della Visione Artificiale.

Il Master specialistico in Robotica e Visione Artificiale rappresenta quindi un'opportunità unica per gli informatici che desiderano differenziarsi in un mercato del lavoro altamente competitivo e acquisire competenze specialistiche in un settore con un grande potenziale di crescita.

Padroneggia le tecniche di visione artificiale e diventa un esperto nell'analisi delle immagini e nei sistemi di visione 3D"

Questo Master specialistico in Robotica e Visione Artificiale possiede il programma più completo e aggiornato del mercato. Le caratteristiche principali del programma sono:

  • Lo sviluppo di casi di studio pratici presentati da esperti in campo Informatico
  • Contenuti grafici, schematici ed eminentemente pratici che forniscono informazioni scientifiche e pratiche sulle discipline essenziali per l’esercizio della professione
  • Esercizi pratici che offrono un processo di autovalutazione per migliorare l'apprendimento
  • Particolare enfasi sulle metodologie innovative nello sviluppo di Robot e Visione Artificiale
  • Lezioni teoriche, domande all'esperto, forum di discussione su temi controversi e lavoro di riflessione individuale
  • Contenuti disponibili da qualsiasi dispositivo fisso o portatile provvisto di connessione a internet

Scopri come la tecnologia robotica possa essere applicata in campi diversi come la medicina e l'esplorazione spaziale, rafforzando notevolmente la tua proposta di valore"

Il personale docente del programma comprende rinomati professionisti nell’ambito del giornalismo, che apportano la propria esperienza a questa preparazione, oltre a specialisti riconosciuti e appartenenti  a società scientifiche e università di riferimento.

I contenuti multimediali, sviluppati in base alle ultime tecnologie educative, forniranno al professionista un apprendimento coinvolgente e localizzato, ovvero inserito in un contesto reale.

La creazione di questo programma è incentrata sull’Apprendimento Basato su Problemi, mediante il quale lo specialista deve cercare di risolvere le diverse situazioni che gli si presentano durante il corso. Lo studente potrà usufruire di un innovativo sistema di video interattivi creati da esperti di rinomata fama.

Potenzia i tuoi progetti esplorando l'applicazione dell'intelligenza artificiale e dell'apprendimento automatico nella robotica"

##IMAGE##

Rafforza le tue competenze negli algoritmi di pianificazione e controllo per lo sviluppo di robot intelligenti ed efficienti"

Programma

Il Master specialistico in Robotica e Visione Artificiale è progettato con una struttura e dei contenuti che garantiscono una preparazione completa e specializzata nel settore. Il programma si sviluppa in diversi moduli, partendo dai concetti di base e passando progressivamente ad argomenti più complessi e specifici. Gli studenti avranno l'opportunità di apprendere la progettazione, la programmazione e il controllo dei robot, nonché gli algoritmi di visione artificiale e le tecniche di apprendimento automatico.

##IMAGE##

Potenzia il tuo apprendimento attraverso un approccio pratico e teorico, che ti permetterà di affrontare sfide reali nel mondo della robotica"

Modulo 1. Robotica. Progettazione e modellazione di robot

1.1. Robotica e Industria 4.0

1.1.1. Robotica e Industria 4.0
1.1.2. Campi di Applicazioni e casi d'uso
1.1.3. Sottoaree di specializzazione in Robotica

1.2. Architetture hardware e software dei robot

1.2.1. Architetture hardware e tempo reale
1.2.2. Architetture software dei robot
1.2.3. Modelli di comunicazione e tecnologie Middleware
1.2.4. Integrazione Software con il Robot Operating System (ROS)

1.3. Modellazione matematica dei robot

1.3.1. Rappresentazione matematica di solidi rigidi
1.3.2. Rotazioni e traslazioni
1.3.3. Rappresentazione gerarchica dello Stato
1.3.4. Rappresentazione distribuita degli stati in ROS (Libreria TF)

1.4. Cinematica e dinamica di robot

1.4.1. Cinematica
1.4.2. Dinamica
1.4.3. Robot sottoattuati
1.4.4. Robot ridondanti

1.5. Modellazione e simulazione di robot

1.5.1. Tecnologie di modellazione robotica
1.5.2. Modellazione di robot con URDF
1.5.3. Simulazione di robot
1.5.4. Modellazione con il simulatore Gazebo

1.6. Robot manipolatori

1.6.1. Tipi di robot manipolatori
1.6.2. Cinematica
1.6.3. Dinamica
1.6.4. Simulazione

1.7. Robot mobili terrestri

1.7.1. Tipi di robot mobili terrestri
1.7.2. Cinematica
1.7.3. Dinamica
1.7.4. Simulazione

1.8. Robot mobili aerei

1.8.1. Tipi di robot mobili aerei
1.8.2. Cinematica
1.8.3. Dinamica
1.8.4. Simulazione

1.9. Robot mobili acquatici

1.9.1. Tipi di robot mobili acquatici
1.9.2. Cinematica
1.9.3. Dinamica
1.9.4. Simulazione

1.10. Robot bioispirati

1.10.1. Umanoidi
1.10.2. Robot con quattro o più gambe
1.10.3. Robot modulari
1.10.4. Robot con parti flessibili (Soft-Robotics)

Modulo 2. Agenti intelligenti. Applicazione dell'intelligenza Artificiale ai robot Softbots

2.1. Agenti Intelligenti e Intelligenza Artificiale

2.1.1. Robot intelligenti. Intelligenza Artificiale
2.1.2. Agenti intelligenti

2.1.2.1. Agenti hardware. Robot
2.1.2.2. Agenti software. Softbots

2.1.3. Applicazioni alla Robotica

2.2. Connessione Cervello-Algoritmo

2.2.1. Ispirazione biologica dell'Intelligenza Artificiale
2.2.2. Ragionamento implementato negli algoritmi. Tipologia
2.2.3. Spiegabilità dei risultati negli algoritmi di Intelligenza Artificiale
2.2.4. Evoluzione degli algoritmi fino a Deep Learning

2.3. Algoritmi di ricerca nello spazio delle soluzioni

2.3.1. Elementi di ricerca nello spazio delle soluzioni
2.3.2. Algoritmi per la ricerca di soluzioni a problemi di Intelligenza Artificiale
2.3.3. Applicazioni degli algoritmi di ricerca e ottimizzazione
2.3.4. Algoritmi di ricerca applicati all'Apprendimento Automatico

2.4. Apprendimento Automatico

2.4.1. Apprendimento automatico
2.4.2. Algoritmi di Apprendimento Supervisionato
2.4.3. Algoritmi di Apprendimento non Supervisionato
2.4.4. Algoritmi di Apprendimento per Rinforzo

2.5. Apprendimento Supervisionato

2.5.1. Metodi di Apprendimento Supervisionato
2.5.2. Alberi decisionali per la classificazione
2.5.3. Macchine di supporto di vettori
2.5.4. Reti neuronali artificiali
2.5.5. Applicazioni dell'Apprendimento Supervisionato

2.6. Apprendimento Non supervisionato

2.6.1. Apprendimento Non Supervisionato
2.6.2. Reti Kohonen
2.6.3. Mappe auto-organizzative
2.6.4. Algoritmo K-means

2.7.  Apprendimento di Rinforzo

2.7.1. Apprendimento di Rinforzo
2.7.2. Agenti basati su processi di Markov
2.7.3. Algoritmi di Apprendimento per Rinforzo
2.7.4. Apprendimento di Rinforzo applicato alla Robotica

2.8. Inferenza probabilistica

2.8.1. Inferenza probabilistica
2.8.2. Tipi di inferenza e definizione del metodo
2.8.3. L'inferenza bayesiana come caso di studio
2.8.4. Tecniche di inferenza non parametrica
2.8.5. Filtri gaussiani

2.9. Dalla teoria alla pratica: sviluppare un agente robotico intelligente

2.9.1. Inclusione di moduli di Apprendimento Supervisionato in un agente robotico
2.9.2. Inclusione di moduli di Apprendimento di Rinforzo in un agente robotico
2.9.3. Architettura di un agente robotico controllato dall'Intelligenza Artificiale
2.9.4. Strumenti professionali per l'implementazione di agenti intelligenti
2.9.5. Fasi di implementazione degli algoritmi di intelligenza artificiale negli agenti robotici

Modulo 3. Deep Learning

3.1 Intelligenza artificiale

3.1.1. Machine Learning
3.1.2. Deep Learning
3.1.3. L’esplosione del Deep Learning. Perché ora?

3.2 Reti neurali

3.2.1. La rete neurale
3.2.2. Uso delle reti neurali
3.2.3. Regressione lineare e percettrone
3.2.4. Forward Propagation
3.2.5. Backpropagation
3.2.6. Feature vectors

3.3. Loss Functions

3.3.1. Loss Functions
3.3.2. Tipi di Loss Functions
3.3.3. Scelta di Loss Functions

3.4. Funzioni di attivazione

3.4.1. Funzioni di attivazione
3.4.2. Funzioni lineari
3.4.3. Funzioni non lineari
3.4.4. Output vs. Hidden Layer Activation Functions

3.5. Regolarizzazione e standardizzazione

3.5.1. Regolarizzazione e standardizzazione
3.5.2. Overfitting and Data Augmentation
3.5.3. Regularization Methods: L1, L2 and Dropout
3.5.4. Normalization Methods: Batch, Weight, Layer

3.6. Ottimizzazione

3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam

3.7. Hyperparameter Tuning e pesi

3.7.1. Iperparametri
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Pesi

3.8. Metriche di valutazione delle reti neurali

3.8.1. Accuracy
3.8.2. Dice Coefficient
3.8.3. Sensitivity vs. Specificity/Recall vs. Precisione
3.8.4. Curva ROC (AUC)
3.8.5. F1-score
3.8.6. Confusione Matrix
3.8.7. Cross-Validation

3.9. Frameworks e Hardware

3.9.1. Tensor Flow
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware per la fase di formazione

3.10. Creazione di reti neurali, formazione e validazione

3.10.1. Dataset
3.10.2. Costruzione della rete
3.10.3. Formazione
3.10.4. Visualizzazione dei risultati

Modulo 4. La Robotica nell'automazione dei processi industriali

4.1. Progettazione di sistemi automatizzati

4.1.1. Architetture hardware
4.1.2. Controllori logici programmabili
4.1.3. Reti di comunicazione industriale

4.2. Progettazione elettrica avanzata I: automazione

4.2.1. Progettazione di quadri elettrici e simbologia
4.2.2. Circuiti di alimentazione e controllo. Armonici
4.2.3. Elementi di protezione e messa a terra

4.3. Progettazione elettrica avanzata II: determinismo e sicurezza

4.3.1. Sicurezza e ridondanza delle macchine
4.3.2. Relè e interruttori di sicurezza
4.3.3. PLC di sicurezza
4.3.4. Reti sicure

4.4. Prestazioni elettriche

4.4.1. Motori e servomotori
4.4.2. Inverter e regolatori di frequenza
4.4.3. Robotica industriale ad azionamento elettrico

4.5. Attuazione idraulica e pneumatica

4.5.1. Progettazione idraulica e simbologia
4.5.2. Progettazione pneumatica e simbologia
4.5.3. Ambienti ATEX nell'automazione

4.6. Trasduttori nella robotica e nell'automazione

4.6.1. Misurazione di posizione e velocità
4.6.2. Misurazione di forza e temperatura
4.6.3. Misura della presenza
4.6.4. Sensori per la visione

4.7. Programmazione e configurazione di controllori logici programmabili PLC

4.7.1. Programmazione PLC: LD
4.7.2. Programmazione PLC: ST
4.7.3. Programmazione PLC: FBD e CFC
4.7.4. Programmazione PLC: SFC

4.8. Programmazione e configurazione di apparecchiature in impianti industriali

4.8.1. Programmazione di azionamenti e controllori
4.8.2. Programmazione HMI
4.8.3. Programmazione di robot manipolatori

4.9. Programmazione e configurazione di apparecchiature informatica industriali

4.9.1. Programmazione di sistemi di visione
4.9.2. Programmazione SCADA/software
4.9.3. Configurazione di rete

4.10. Implementazione di automatismi

4.10.1. Progettazione di macchine a stati
4.10.2. Implementazione di macchine a stati nei PLC
4.10.3. Implementazione di sistemi di controllo analogici PID in PLC
4.10.4. Manutenzione dell'automazione e dell'igiene del codice
4.10.5. Simulazione di automatismi e impianti

Modulo 5. Sistemi di controllo automatico in Robotica

5.1. Analisi e progettazione di sistemi non lineari

5.1.1. Analisi e modellazione di sistemi non lineari
5.1.2. Controllo a retroazione
5.1.3. Linearizzazione per retroazione

5.2. Progettazione di tecniche di controllo per sistemi non lineari avanzati

5.2.1. Controllo a scorrimento (Sliding Mode Control)
5.2.2. Controllo basato su Lyapunov e Backstepping
5.2.3. Controllo basato sulla passività

5.3. Architetture di controllo

5.3.1. Il paradigma della Robotica
5.3.2. Architetture di controllo
5.3.3. Applicazioni ed esempi di architetture di controllo

5.4. Controllo del movimento per bracci robotici

5.4.1. Modellazione cinematica e dinamica
5.4.2. Controllo nello spazio articolare
5.4.3. Controllo nello spazio operativo

5.5. Controllo della forza sugli attuatori

5.5.1. Controllo della forza
5.5.2. Controllo dell'impedenza
5.5.3. Controllo ibrido

5.6. Robot mobili terrestri

5.6.1. Equazione di moto
5.6.2. Tecniche di controllo per robot terrestri
5.6.3. Manipolatori mobili

5.7. Robot mobili aerei

5.7.1. Equazione di moto
5.7.2. Tecniche di controllo per robot aerei
5.7.3. Movimentazione aerea

5.8. Controllo basato su tecniche di Apprendimento Automatico

5.8.1. Controllo tramite Apprendimento Supervisionato
5.8.2. Controllo tramite apprendimento rafforzato
5.8.3. Controllo tramite Apprendimento non Supervisionato

5.9. Controllo basato sulla visione

5.9.1. Visual Servoing in base alla posizione
5.9.2. Visual Servoing in base all’immagine
5.9.3. Visual Servoing ibrido

5.10. Controllo predittivo

5.10.1. Modellazione e stima dello stato
5.10.2. MPC applicato a Robot Mobili
5.10.3. MPC applicato agli UAV

Modulo 6. Algoritmi di pianificazione robotica

6.1. Algoritmi di pianificazione classica

6.1.1. Pianificazione discreta: spazio degli stati
6.1.2. Problemi di pianificazione in Robotica. Modelli di sistemi robotici
6.1.3. Classificazione dei pianificatori

6.2. Il problema della pianificazione del percorso nei robot mobili

6.2.1. Modi di rappresentare l'ambiente: i grafici
6.2.2. Algoritmi di ricerca grafica
6.2.3. Inserimento dei costi nelle reti
6.2.4. Algoritmi di ricerca a grafo pesanti
6.2.5. Algoritmi con approccio a qualsiasi angolo

6.3. Pianificazione in sistemi robotici ad alta dimensionalità

6.3.1. Problemi di Robotica ad alta dimensionalità: Manipolatori
6.3.2. Modello cinematico diretto/inverso
6.3.3. Algoritmi di pianificazione del campionamento PRM e RRT
6.3.4. Pianificazione per vincoli dinamici

6.4. Pianificazione ottimale del campione

6.4.1. Problemi dei pianificatori basati su campioni
6.4.2. Concetto di ottimalità probabilistica RRT*
6.4.3. Fase di riconnessione: vincoli dinamici
6.4.4. CForest. Pianificazione parallelizzata

6.5. Implementazione effettiva di un sistema di pianificazione del movimento

6.5.1. Problema di pianificazione generale. Ambienti dinamici
6.5.2. Ciclo d'azione, sensorizzazione. Acquisizione di informazioni dall'ambiente
6.5.3. Pianificazione locale e globale

6.6. Coordinamento in sistemi multirobot I: sistema centralizzato

6.6.1. Problema di coordinamento multi-robot
6.6.2. Rilevamento e risoluzione delle collisioni: modifica della traiettoria con algoritmi genetici
6.6.3. Altri algoritmi bio-ispirati: sciame di particelle e fuochi d'artificio
6.6.4. Algoritmo di prevenzione delle collisioni per scelta di manovra

6.7. Coordinamento in sistemi multirobot II: approcci distribuiti I

6.7.1. Utilizzo di funzioni target complesse
6.7.2. Fronte di Pareto
6.7.3. Algoritmi evolutivi multi-obiettivo

6.8. Coordinamento in sistemi multirobot III: approcci distribuiti II

6.8.1. Sistemi di pianificazione di ordine 1
6.8.2. Algoritmo ORCA
6.8.3. Aggiunti vincoli cinematici e dinamici in ORCA

6.9. Teoria della pianificazione basata sulle decisioni

6.9.1. Teoria delle decisioni
6.9.2. Sistemi decisionali sequenziali
6.9.3. Sensori e spazi informativi
6.9.4. Pianificazione dell'incertezza nel rilevamento e nell'attuazione

6.10. Sistemi di pianificazione con apprendimento per rinforzo

6.10.1. Ottenere la ricompensa attesa da un sistema
6.10.2. Tecniche di apprendimento a media ricompensa
6.10.3. Apprendimento di rinforzo inverso

Modulo 7. Visione artificiale

7.1. Percezione umana

7.1.1. Sistema visivo umano
7.1.2. Il colore
7.1.3. Frequenze visibili e non visibili

7.2. Cronaca della Visione Artificiale

7.2.1. Principi
7.2.2. Evoluzione
7.2.3. L’importanza della visione artificiale

7.3. Composizione delle immagini digitali

7.3.1. L'immagine digitale
7.3.2. Tipi di immagini
7.3.3. Spazi di colore
7.3.4. RGB
7.3.5. HSV e HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Immagine indicizzata

7.4. Sistemi di acquisizione di immagini

7.4.1. Funzionamento di una fotocamera digitale
7.4.2. L'esposizione giusta per ogni situazione
7.4.3. Profondità di campo
7.4.4. Risoluzione
7.4.5. Formati di immagine
7.4.6. Modalità HDR
7.4.7. Fotocamere ad alta risoluzione
7.4.8. Fotocamere ad alta velocità

7.5. Sistemi ottici

7.5.1. Principi ottici
7.5.2. Obiettivi convenzionali
7.5.3. Obiettivi telecentrici
7.5.4. Tipi di autofocus
7.5.5. Lunghezza focale
7.5.6. Profondità di campo
7.5.7. Distorsione ottica
7.5.8. Calibrazione dell'immagine

7.6. Sistemi di illuminazione

7.6.1. Importanza dell’illuminazione
7.6.2. Risposta in frequenza
7.6.3. Illuminazione a LED
7.6.4. Illuminazione esterna
7.6.5. Tipi di illuminazione per applicazioni industriali. Effetti

7.7. Sistemi di acquisizione 3D

7.7.1. Visione stereo
7.7.2. Triangolazione
7.7.3. Luce strutturata
7.7.4. Time of Flight
7.7.5. Lidar

7.8. Multispettro

7.8.1. Telecamere multispettrali
7.8.2. Telecamere iperspettrali

7.9. Spettro vicino non visibile

7.9.1. Fotocamere IR
7.9.2. Fotocamere UV
7.9.3. Convertire il non visibile in visibile grazie all'illuminazione

7.10. Altre bande di spettro

7.10.1. Raggi X
7.10.2. Teraherzio

Modulo 8. Applicazioni e stato dell'arte

8.1. Applicazioni industriali

8.1.1. Librerie di visione artificiale
8.1.2. Fotocamere compatte
8.1.3. Sistemi basati sulla PC
8.1.4. Robotica industriale
8.1.5. Pick and place 2D
8.1.6. Bin picking
8.1.7. Controllo della qualità
8.1.8. Presenza assenza di componenti
8.1.9. Controllo dimensionale
8.1.10. Controllo dell'etichettatura
8.1.11. Tracciabilità

8.2. Il veicolo autonomo

8.2.1. Assistenza al conducente
8.2.2. Guida autonoma

8.3. Visione artificiale per l'analisi dei contenuti

8.3.1. Filtro per contenuto
8.3.2. Moderazione dei contenuti visivi
8.3.3. Sistemi di monitoraggio
8.3.4. Identificazione di marchi e loghi
8.3.5. Etichettatura e classificazione dei video
8.3.6. Rilevamento del cambiamento di scena
8.3.7. Estrazione di testi o crediti

8.4. Applicazioni mediche

8.4.1. Individuazione e localizzazione delle malattie
8.4.2. Cancro e analisi di radiografie
8.4.3. Progressi della visione artificiale a Covid-19
8.4.4. Assistenza in sala operatoria

8.5. Applicazioni spaziali

8.5.1. Analisi delle immagini satellitari
8.5.2. La visione artificiale per lo studio dello spazio
8.5.3. Missione su Marte

8.6. Applicazioni commerciali

8.6.1. Control stock
8.6.2. Videosorveglianza, sicurezza domestica
8.6.3. Telecamere di parcheggio
8.6.4. Telecamere per il controllo della popolazione
8.6.5. Autovelox

8.7. Visione applicata alla robotica

8.7.1. Droni
8.7.2. AGV
8.7.3. Visione nei robot collaborativi
8.7.4. Gli occhi dei robot

8.8. Realtà aumentata

8.8.1. Funzionamento
8.8.2. Dispositivi
8.8.3. Applicazioni nell’industria
8.8.4. Applicazioni commerciali

8.9. Cloud computing

8.9.1. Piattaforme di Cloud Computing
8.9.2. Dal Cloud Computing alla produzione

8.10. Ricerca e stato dell'arte

8.10.1. La comunità scientifica
8.10.2. Cosa sta cucinando?
8.10.3. Il futuro della visione artificiale

Modulo 9. Tecniche di Visione Artificiale in Robotica: elaborazione e analisi delle immagini

9.1. La visione artificiale

9.1.1. La visione artificiale
9.1.2. Elementi di un sistema di visione artificiale
9.1.3. Strumenti matematici

9.2. Sensori ottici per la Robotica

9.2.1. Sensori ottici passivi
9.2.2. Sensori ottici attivi
9.2.3. Sensori non ottici

9.3. Acquisizione di immagini

9.3.1. Rappresentazione dell'immagine
9.3.2. Spazio di colori
9.3.3. Processo di digitalizzazione

9.4. Geometria delle immagini

9.4.1. Modelli di lenti
9.4.2. Modelli di fotocamera
9.4.3. Calibrazione della telecamera

9.5. Strumenti matematici

9.5.1. Istogramma dell'immagine
9.5.2. Convoluzione
9.5.3. Trasformata di Fourier

9.6. Elaborazione delle immagini

9.6.1. Analisi del rumore
9.6.2. Smussamento dell'immagine
9.6.3. Miglioramento dell'immagine

9.7. Segmentazione dell'immagine

9.7.1. Tecniche basate sui contorni
9.7.2. Tecniche basate sull’Istogramma
9.7.3. Operazioni morfologiche

9.8. Rilevamento delle caratteristiche dell'immagine

9.8.1. Rilevamento dei punti di interesse
9.8.2. Descrittori caratteristici
9.8.3. Corrispondenze tra caratteristiche

9.9. Sistemi di visione 3D

9.9.1. Percezione 3D
9.9.2. Corrispondenza di caratteristiche tra immagini
9.9.3. Geometria a più viste

9.10. Localizzazione basata sulla Visione Artificiale

9.10.1. Il problema della localizzazione dei robot
9.10.2. Odometria visiva
9.10.3. Fusione sensoriale

Modulo 10. Sistemi di percezione visiva di robot con apprendimento automatico

10.1. Metodi di Apprendimento Non Supervisionati applicati alla Visione Artificiale

10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similarity and matrix decomposition

10.2. Metodi di Apprendimento Supervisionati applicati alla Visione Artificiale

10.2.1. Concetto Bag of words
10.2.2. Macchine di supporto di vettori
10.2.3. Latent Dirichlet Allocation
10.2.4. Reti neuronali

10.3. Reti Neurali Profonde: strutture, Backbones e Transfer Learning

10.3.1. Strati generatori di Features

10.3.1.1. VGG
10.3.1.2. Densenet
10.3.1.3. ResNet
10.3.1.4. Inception
10.3.1.5. GoogLeNet

10.3.2. Transfer Learning
10.3.3. I dati. Preparazione all'allenamento

10.4. Visione Artificiale con apprendimento Profondo I: rilevamento e segmentazione

10.4.1. Differenze e analogie tra YOLO e SSD
10.4.2. Unet
10.4.3. Altre strutture

10.5. Visione Artificiale con apprendimento profondo II: General Adversarial Networks

10.5.1. Imaging a super risoluzione con GAN
10.5.2. Creazione di Immagini Realiste
10.5.3. Scene Understanding

10.6. Tecniche di apprendimento per la localizzazione e la mappatura nella Robotica Mobile

10.6.1. Rilevamento e ricollocazione della chiusura del loop
10.6.2. Magic Leap. Super Point e Super Glue
10.6.3. Depth from Monocular

10.7. Inferenza bayesiana e modellazione 3D

10.7.1. Modelli bayesiani e apprendimento "classico”
10.7.2. Superfici implicite con processi gaussiani (GPIS)
10.7.3. Segmentazione 3D con GPIS
10.7.4. Reti neurali per la modellazione di superfici 3D

10.8. Applicazioni End-to-End delle Reti Neurali Profonde

10.8.1. Sistema End-to-End Esempio di identificazione di persone
10.8.2. Manipolazione di oggetti con sensori visivi
10.8.3. Generazione e pianificazione del movimento con sensori visivi

10.9. Tecnologie cloud per accelerare lo sviluppo di algoritmi di Deep Learning

10.9.1. Utilizzo della GPU per il Deep Learning
10.9.2. Sviluppo agile con Google Colab
10.9.3. GPU remote, Google Cloud e AWS

10.10. Impiego delle Reti Neurali in applicazioni reali

10.10.1. Sistemi incorporati
10.10.2. Distribuzione delle Reti Neurali. Uso
10.10.3. Ottimizzazione della rete in fase di implementazione, esempio con TensorRT

Modulo 11. SLAM visiva. Localizzazione e mappatura robotica simultanea con Tecniche di Visione Artificiale

11.1. Localizzazione e mappatura simultanea (SLAM)

11.1.1. Localizzazione e mappatura simultanea. SLAM
11.1.2. Applicazioni della SLAM
11.1.3. Funzionamento della SLAM

11.2. Geometria proiettiva

11.2.1. Modello Pin-Hole
11.2.2. Stima dei parametri intrinseci della camera
11.2.3. Omografia, principi di base e stima
11.2.4. Matrice fondamentale, principi e stima

11.3. Filtri gaussiani

11.3.1. Filtro Kalman
11.3.2. Filtro di informazione
11.3.3. Regolazione e parametrizzazione dei filtri gaussiani

11.4. EKF-SLAM stereo

11.4.1. Geometria della telecamera stereo
11.4.2. Estrazione delle caratteristiche e ricerca
11.4.3. Filtro Kalman per SLAM stereo
11.4.4. Impostazioni dei parametri stereo EKF-SLAM

11.5. EKF-SLAM monoculare

11.5.1. Parametrizzazione dei Landmarks in EKF-SLAM
11.5.2. Filtro di Kalman per SLAM monoculare
11.5.3. Impostazioni dei parametri EKF-SLAM monoculare

11.6. Rilevamento delle chiusure a loop

11.6.1. Algoritmo di forza bruta
11.6.2. FABMAP
11.6.3. Astrazione con GIST e HOG
11.6.4. Rilevamento con apprendimento profondo

11.7. Graph-SLAM

11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM

11.8. Direct Visual SLAM

11.8.1. Analisi dell’algoritmo Direct Visual SLAM
11.8.2. LSD-SLAM
11.8.3. SVO

11.9. Visual Inertial SLAM

11.9.1. Integrazione delle misure inerziali
11.9.2. Accoppiamento basso: SOFT-SLAM
11.9.3. Accoppiamento alto: Vins-Mono

11.10. Altre tecnologie della SLAM

11.10.1. Applicazioni oltre la SLAM visiva
11.10.2. Lidar-SLAM
11.10.3. Range-only SLAM

Modulo 12. Applicazione alla Robotica delle Tecnologie di Realtà Virtuale e Aumentata

12.1. Tecnologie immersive nella Robotica

12.1.1. Realtà Virtuale in Robotica
12.1.2. Realtà Aumentata in Robotica
12.1.3. Realtà Mista in Robotica
12.1.4. Differenza tra le realtà

12.2. Costruire ambienti virtuali

12.2.1. Materiali e texture
12.2.2. Illuminazione
12.2.3. Suoni e odori virtuali

12.3. Modellare i robot in ambienti virtuali

12.3.1. Modellazione geometrica
12.3.2. Modellazione fisica
12.3.3. Standardizzazione dei modelli

12.4. Modellazione della dinamica e della cinematica dei robot: motori fisici virtuali

12.4.1. Motori fisici. Tipologia
12.4.2. Configurazione di un motore fisico
12.4.3. Motori fisici nell'industria

12.5. Piattaforme, periferiche e strumenti più comunemente utilizzati nella Realtà Virtuale

12.5.1. Visualizzatori di Realtà Virtuale
12.5.2. Periferiche di interazione
12.5.3. Sensori virtuali

12.6. Sistemi di Realtà Aumentata

12.6.1. Inserire elementi virtuali nella realtà
12.6.2. Tipi di marcatori visivi
12.6.3. Tecnologie di Realtà Aumentata

12.7. Metaverso: ambienti virtuali di agenti intelligenti e persone

12.7.1. Creazione di avatar
12.7.2. Agenti intelligenti in ambienti virtuali
12.7.3. Costruire ambienti multiutente per VR/AR

12.8. Creazione di progetti di Realtà Virtuale per la Robotica

12.8.1. Fasi di sviluppo di un progetto di Realtà Virtuale
12.8.2. Distribuzione di sistemi di Realtà Virtuale
12.8.3. Risorse della Realtà Virtuale

12.9. Creazione di progetti della Realtà Aumentata per la Robotica

12.9.1. Fasi di sviluppo di un progetto di Realtà Aumentata
12.9.2. Distribuzione di Progetti di Realtà Aumentata
12.9.3. Risorse della Realtà Aumentata

12.10. Teleoperazione robotica con dispositivi mobili

12.10.1. Realtà mista su dispositivi mobili
12.10.2. Sistemi immersivi che utilizzano sensori di dispositivi mobili
12.10.3. Esempi di progetti mobili

Modulo 13. Sistemi di comunicazione e interazione tra robot

13.1. Riconoscimento vocale: sistemi stocastici

13.1.1. Modellazione acustica del parlato
13.1.2. Modelli di Markov nascosti
13.1.3. Modellazione linguistica del parlato: Grammatiche N, grammatiche BNF

13.2. Riconoscimento vocale: Deep Learning

13.2.1. Reti neuronali profonde
13.2.2. Reti neuronali ricorrenti
13.2.3. Cellule LSTM

13.3. Riconoscimento del parlato: prosodia ed effetti ambientali

13.3.1. Rumore ambientale
13.3.2. Riconoscimento da parte di più partner
13.3.3. Patologie del linguaggio

13.4. Comprensione del linguaggio naturale: sistemi euristici e probabilistici

13.4.1. Analisi sintattica-semantica: regole linguistiche
13.4.2. Comprensione basata su regole euristiche
13.4.3. Sistemi probabilistici: regressione logistica e SVM
13.4.4. Comprensione basata su reti neurali

13.5. Gestione del dialogo: strategie euristiche/probabilistiche

13.5.1. L'intenzione dell'interlocutore
13.5.2. Dialogo basato su modelli
13.5.3. Gestione stocastica del dialogo: reti bayesiane

13.6. Gestione del dialogo: strategie avanzate

13.6.1. Sistemi di apprendimento basati sul rinforzo
13.6.2. Sistemi basati su reti neurali
13.6.3. Dal discorso all'intenzione in un'unica rete

13.7. Generazione di risposte e sintesi vocale

13.7.1. Generazione di risposte: dall'idea al testo coerente
13.7.2. Sintesi vocale per concatenazione
13.7.3. Sintesi vocale stocastica

13.8. Adattamento e contestualizzazione del dialogo

13.8.1. Iniziativa di dialogo
13.8.2. Adattamento al relatore
13.8.3. Adattamento al contesto del dialogo

13.9. Robot e interazioni sociali: riconoscimento, sintesi ed espressione delle emozioni

13.9.1. Paradigmi della voce artificiale: voce robotica e voce naturale
13.9.2. Riconoscimento delle emozioni e analisi del sentimento
13.9.3. Sintesi vocale emozionale

13.10. Robot e interazioni sociali: interfacce multimodali avanzate

13.10.1. Combinazione di interfacce vocali e tattili
13.10.2. Riconoscimento e traduzione del linguaggio dei segni
13.10.3. Avatar visivi: traduzione dalla voce al linguaggio dei segni

Modulo 14. Elaborazione delle immagini digitali

14.1. Ambiente di sviluppo per la visione artificiale

14.1.1. Librerie di visione artificiale
14.1.2. Ambiente di programmazione
14.1.3. Strumenti di visualizzazione

14.2. Elaborazione digitale delle immagini

14.2.1. Relazioni tra pixel
14.2.2. Operazioni con immagini
14.2.3. Trasformazioni geometriche

14.3. Operazioni con i pixel

14.3.1. Istogramma
14.3.2. Trasformazioni a partire da istogrammi
14.3.3. Operazioni su immagini a colori

14.4. Operazioni logiche e aritmetiche

14.4.1. Addizione e sottrazione
14.4.2. Prodotto e divisione
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor

14.5. Filtri

14.5.1. Maschere e convoluzione
14.5.2. Filtraggio lineare
14.5.3. Filtraggio non lineare
14.5.4. Analisi di Fourier

14.6. Operazioni morfologiche

14.6.1. Erode and Dilating
14.6.2. Closing and Open
14.6.3. Top hat e Black hat
14.6.4. Rilevamento dei contorni
14.6.5. Scheletro
14.6.6. Riempimento dei fori
14.6.7. Convex hull

14.7. Strumenti di analisi di immagini

14.7.1. Rilevamento dei bordi
14.7.2. Rilevamento di blobs
14.7.3. Controllo dimensionale
14.7.4. Ispezione del colore

14.8. Segmentazione degli oggetti

14.8.1. Segmentazione dell'immagine
14.8.2. Tecniche di segmentazione classica
14.8.3. Applicazioni reali

14.9. Calibrazione di immagini

14.9.1. Calibrazione dell'immagine
14.9.2. Metodi di calibrazione
14.9.3. Processo di calibrazione in un sistema telecamera/robot 2D

14.10. Elaborazione di immagini in ambiente reale

14.10.1. Analisi dei problemi
14.10.2. Elaborazione delle immagini
14.10.3. Estrazione delle caratteristiche
14.10.4. Risultati finali

Modulo 15. Elaborazione delle immagini digitali avanzata

15.1. Riconoscimento ottico dei caratteri (OCR)

15.1.1. Pre-elaborazione dell'immagine
15.1.2. Rilevamento del testo
15.1.3. Riconoscimento di testo

15.2. Lettura di codici

15.2.1. Codice 1D
15.2.2. Codice 2D
15.2.3. Applicazioni

15.3. Ricerca di modelli

15.3.1. Ricerca di modelli
15.3.2. Modelli basati sul livello di grigio
15.3.3. Modelli basati sui contorni
15.3.4. Modelli basati su forme geometriche
15.3.5. Altre tecniche

15.4. Tracciamento di oggetti con la visione convenzionale

15.4.1. Estrazione di sfondo
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Optical flow

15.5. Riconoscimento facciale

15.5.1. Facial Landmark detection
15.5.2. Applicazioni
15.5.3. Riconoscimento facciale
15.5.4. Riconoscimento delle emozioni

15.6. Panoramica e allineamenti

15.6.1. Stitching
15.6.2. Composizione di immagini
15.6.3. Fotomontaggio

15.7. High Dinamic Range (HDR) and Photometric Stereo

15.7.1. Aumento della gamma dinamica
15.7.2. Composizione di immagini per il miglioramento dei contorni
15.7.3. Tecniche per l'utilizzo di applicazioni dinamiche

15.8. Compressione dell'immagine

15.8.1. La compressione delle immagini
15.8.2. Tipi di compressori
15.8.3. Tecniche di compressione delle immagini

15.9. Elaborazione di video

15.9.1. Sequenze di immagini
15.9.2. Formati e codec video
15.9.3. Lettura di un video
15.9.4. Elaborazione del fotogramma

15.10. Applicazione reale dell'elaborazione delle immagini

15.10.1. Analisi dei problemi
15.10.2. Elaborazione delle immagini
15.10.3. Estrazione delle caratteristiche
15.10.4. Risultati finali

Modulo 16. Elaborazione delle immagini 3D

16.1. Immagine 3D

16.1.1. Immagine 3D
16.1.2. Software di elaborazione e visualizzazione di immagini 3D
16.1.3. Software di metrologia

16.2. Open 3D

16.2.1. Libreria per l'elaborazione dei dati 3D
16.2.2. Caratteristiche
16.2.3. Installazione ed uso

16.3. I dati

16.3.1. Mappe di profondità dell'immagine 2D
16.3.2. Pointclouds
16.3.3. Normali
16.3.4. Superfici

16.4. Visualizzazione

16.4.1. Visualizzazione dei dati
16.4.2. Controller
16.4.3. Visualizzazione web

16.5. Filtri

16.5.1. Distanza tra i punti, eliminare outliers
16.5.2. Filtro passa-alto
16.5.3. Downsampling

16.6. Geometria ed estrazione delle caratteristiche

16.6.1. Estrazione di un profilo
16.6.2. Misurazione della profondità
16.6.3. Volume
16.6.4. Forme geometriche 3D
16.6.5. Piani
16.6.6. Proiezione di un punto
16.6.7. Distanze geometriche
16.6.8. Kd Tree
16.6.9. Features 3D

16.7. Registro e Meshing

16.7.1. Concatenazione
16.7.2. ICP
16.7.3. Ransac 3D

16.8. Riconoscimento di oggetti 3D

16.8.1. Ricerca di un oggetto nella scena 3D
16.8.2. Segmentazione
16.8.3. Bin picking

16.9. Analisi di superfici

16.9.1. Smoothing
16.9.2. Superfici regolabili
16.9.3. Octree

16.10. Triangolazione

16.10.1. Da Mesh a Point Cloud
16.10.2. Triangolazione delle mappe di profondità
16.10.3. Triangolazione di PointClouds non ordinato

Modulo 17. Reti convoluzionali e classificazione delle immagini

17.1. Reti neurali convoluzionali

17.1.1. Introduzione
17.1.2. La convoluzione
17.1.3. CNN Building Blocks

17.2. Tipi di strati CNN

17.2.1. Convolutional
17.2.2. Activation
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected

17.3. Metriche

17.3.1. Confusione Matrix
17.3.2. Accuracy
17.3.3. Precisione
17.3.4. Recall
17.3.5. F1 Score
17.3.6. ROC Curve
17.3.7. AUC

17.4. Principali Architetture

17.4.1. AlexNet
17.4.2. VGG
17.4.3. Resnet
17.4.4. GoogleLeNet

17.5. Classificazione di immagini

17.5.1. Introduzione
17.5.2. Analisi dei dati
17.5.3. Preparazione dei dati
17.5.4. Formazione del modello
17.5.5. Convalida del modello

17.6. Considerazioni pratiche per la formazione CNN

17.6.1. Selezione dell'ottimizzatore
17.6.2. Learning Rate Scheduler
17.6.3. Controllo pipeline di formazione
17.6.4. Formazione con regolarizzazione

17.7. Buone pratiche in Deep Learning

17.7.1. Transfer Learning
17.7.2. Fine Tuning
17.7.3. Data Augmentation

17.8. Valutazione statistica di dati

17.8.1. Numero di dataset
17.8.2. Numero di etichette
17.8.3. Numero di immagini
17.8.4. Bilanciamento dei dati

17.9. Deployment

17.9.1. Salvataggio e caricamento dei modelli
17.9.2. Onnx
17.9.3. Inferenza

17.10. Caso di studio: classificazione di immagini

17.10.1. Analisi e preparazione dei dati
17.10.2. Verifica della pipeline di formazione
17.10.3. Formazione del modello
17.10.4. Convalida del modello

Modulo 18. Rilevamento di oggetti

18.1. Rilevamento e tracciamento di oggetti

18.1.1. Rilevamento di oggetti
18.1.2. Casi d'uso
18.1.3. Tracciamento di oggetti
18.1.4. Casi d'uso
18.1.5. Occlusioni, Rigid and No Rigid Poses

18.2. Metriche di valutazione

18.2.1. IOU - Intersection Over Union
18.2.2. Confidence Score
18.2.3. Recall
18.2.4. Precisione
18.2.5. Recall–Curva di Precisione
18.2.6. Mean Average Precision (mAP)

18.3. Metodi tradizionali

18.3.1. Sliding window
18.3.2. Viola detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)

18.4. Datasets

18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge

18.5. Two Shot Object Detector

18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN

18.6. Single Shot Object Detector

18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet

18.7. Backbone

18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet

18.8. Object Tracking

18.8.1. Approcci classici
18.8.2. Filtri di particelle
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort

18.9. Implementazione

18.9.1. Piattaforma informatica
18.9.2. Scelta del Backbone
18.9.3. Scelta del Framework
18.9.4. Ottimizzazione di modelli
18.9.5. Versione dei modelli

18.10. Studio: rilevamento e monitoraggio delle persone

18.10.1. Rilevamento di persone
18.10.2. Tracciamento delle persone
18.10.3. Re-identificazione
18.10.4. Conteggio delle persone in massa

Modulo 19. Segmentazione delle Immagini con Deep Learning

19.1. Rilevamento e segmentazione

19.1.1. Segmentazione semantica

19.1.1.1. Casi d'uso della segmentazione semantica

19.1.2. Segmentazione Istanziata

19.1.2.1. Casi d'uso della segmentazione istanziata

19.2. Metriche di valutazione

19.2.1. Similitudini con altri metodi
19.2.2. Pixel Accuracy
19.2.3. Dice Coefficient (F1 Score)

19.3. Funzioni di costo

19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Altre funzioni

19.4. Metodi tradizionali di segmentazione

19.4.1. Applicazione della soglia con Otsu y Riddlen
19.4.2. Mappe auto-organizzate
19.4.3. GMM-EM algorithm

19.5. Segmentazione Semantica che applica Deep Learning: FCN

19.5.1. FCN
19.5.2. Architettura
19.5.3. Applicazioni di FCN

19.6. Segmentazione Semantica che applica Deep Learning: U-NET

19.6.1. U-NET
19.6.2. Architettura
19.6.3. Applicazione U-NET

19.7. Segmentazione Semantica che applica Deep Learning: Deep Lab

19.7.1. Deep Lab
19.7.2. Architettura
19.7.3. Applicazione di Deep Lab

19.8. Segmentazione istanziata che applica Deep Learning: Mask RCNN

19.8.1. Mask RCNN
19.8.2. Architettura
19.8.3. Implementazione di una Mas RCNN

19.9. Segmentazione in video

19.9.1. STFCN
19.9.2. Semantic Video CNNs
19.9.3. Clockwork Convnets
19.9.4. Low-Latency

19.10. Segmentazione cloud di punti

19.10.1. Cloud di punti
19.10.2. PointNet
19.10.3. A-CNN

Modulo 20. Segmentazione di immagini avanzate e tecniche avanzate di visione artificiale

20.1. Database per problemi generali di segmentazione

20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset

20.2. Segmentazione semantica in medicina

20.2.1. Segmentazione semantica in medicina
20.2.2. Datasets per problemi medici
20.2.3. Applicazione pratica

20.3. Strumenti di annotazione

20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Altri strumenti

20.4. Strumenti di Segmentazione che utilizzano diversi Frameworks

20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Altri

20.5. Progetto di Segmentazione semantica. I dati, fase 1

20.5.1. Analisi del problema
20.5.2. Fonte di input per i dati
20.5.3. Analisi dei dati
20.5.4. Preparazione dei dati

20.6. Progetto di Segmentazione semantica. Formazione, fase 2

20.6.1. Selezione dell'algoritmo
20.6.2. Formazione
20.6.3. Valutazione

20.7. Progetto di Segmentazione semantica. Risultati, fase 3

20.7.1. Regolazione fine
20.7.2. Presentazione della soluzione
20.7.3. Conclusioni

20.8. Autocodificatori

20.8.1. Autocodificatori
20.8.2. Architettura di un autocodificatore
20.8.3. Autocodificatori a cancellazione di rumore
20.8.4. Autocodificatore di colorazione automatica

20.9. Reti Generative Avversarie (GAN)

20.9.1. Reti Generative Avversarie (GAN)
20.9.2. Architettura DCGAN
20.9.3. Architettura GAN Condizionata

20.10. Reti generative avversarie migliorate

20.10.1. Visione d'insieme del problema
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN

##IMAGE##

Affina le TUE capacità di progettazione, programmazione e controllo dei robot utilizzando algoritmi di visione artificiale e apprendimento automatico"

Master Specialistico in Robotica e Visione Artificiale

La robotica e la visione artificiale sono due aree in continua evoluzione che hanno rivoluzionato il modo in cui interagiamo con la tecnologia oggi. In TECH Università Tecnologica, abbiamo progettato un Master Specialistico post-laurea in robotica e visione artificiale, in collaborazione con la Facoltà di scienze informatiche, per preparare professionisti nelle ultime tendenze e progressi in questi campi. Questo programma di formazione virtuale offre un'ampia varietà di contenuti, dai fondamenti teorici all'applicazione pratica di tecniche e algoritmi nello sviluppo di sistemi robotici e visione artificiale.

Con un approccio interdisciplinare, il nostro programma Master Specialistico in Robotica e Visione Artificiale forma i partecipanti a comprendere i principi e i concetti chiave della robotica e della visione artificiale, nonché ad applicare tecniche avanzate per la risoluzione di problemi reali. I partecipanti avranno l'opportunità di esplorare argomenti come la percezione visiva, la navigazione autonoma, l'apprendimento automatico e l'interazione uomo-robot, tra gli altri. Inoltre, il nostro programma ha una facoltà altamente qualificata, con esperienza nell'indagine e nell'applicazione della robotica e della visione artificiale in vari settori industriali e tecnologici.