Titolo universitario
Accreditamento/Affiliazione
La più grande facoltà di ingegneria del mondo"
Presentazioni
Diventa un esperto di Robotica e Visione Artificiale in 24 mesi grazie a questo Master specialistico di TECH. Iscriviti subito”
L'ascesa dell'Intelligenza Artificiale e della Robotica sta cambiando il panorama tecnologico, economico e sociale a livello globale. In questo contesto, la specializzazione in aree come la Visione Artificiale è fondamentale per mantenersi aggiornati in un ambiente caratterizzato da rapidi progressi e cambiamenti disruptivi. La crescente interazione tra uomo e macchina e la necessità di elaborare in modo efficiente le informazioni visive richiedono professionisti altamente qualificati per guidare l'innovazione e affrontare le nuove sfide.
Uno scenario ideale per i professionisti dell'ingegneria che desiderano far carriera in un settore in crescita. Ragion per cui TECH ha progettato questo Master specialistico in Robotica e Visione Artificiale, che fornisce una preparazione completa in queste discipline emergenti, coprendo argomenti come la Realtà Aumentata, l'Intelligenza Artificiale, l'elaborazione delle informazioni visive nelle macchine, ecc.
Un programma che offre un approccio teorico-pratico che permette agli studenti di applicare le loro conoscenze in ambienti reali. Un corso 100% online che permette inoltre agli studenti di coniugare il loro apprendimento con gli impegni personali e professionali. Avranno quindi accesso a materiali didattici di alta qualità, come video, letture essenziali e risorse dettagliate, che forniranno loro una panoramica completa della Robotica e della Visione Artificiale.
Inoltre, grazie al metodo Relearning, basato sulla continua ripetizione dei contenuti più importanti, lo studente ridurrà il numero di ore di studio e potrà assimilare facilmente
i concetti più importanti.
Una specializzazione unica nel panorama accademico che si distingue anche per un eccellente team di specialisti del settore. La sua vasta conoscenza ed esperienza nel settore si rispecchia in un programma avanzato, che solo TECH può offrire.
Diventa un leader dell'innovazione e affronta le sfide in materia di etiche e sicurezza creando soluzioni innovative ed efficaci in diversi settori industriali"
Questo Master specialistico in Robotica e Visione Artificiale possiede il programma più completo e aggiornato del mercato. Le caratteristiche principali del programma sono:
- Sviluppo di casi di studio pratici presentati da esperti in campo Informatico
- Contenuti grafici, schematici ed eminentemente pratici che forniscono informazioni scientifiche e pratiche sulle discipline essenziali per l’esercizio della professione
- Esercizi pratici con cui è possibile realizzare una valutazione per migliorare l'apprendimento
- Speciale enfasi sulle metodologie innovative nello sviluppo di Robot e della Visione Artificiale
- Lezioni teoriche, domande all'esperto, forum di discussione su questioni controverse e compiti di riflessione individuale
- Contenuti disponibili da qualsiasi dispositivo fisso o mobile dotato di connessione a internet
Cogli l'opportunità di studiare un programma 100% online, coniugando il tuo tempo di studio con i tuoi impegni personali e professionali"
Il personale docente del programma comprende rinomati professionisti della robotica, e riconosciuti specialisti appartenenti a prestigiose società e università, che forniscono agli studenti le competenze necessarie a intraprendere un percorso di studio eccellente.
I contenuti multimediali, sviluppati in base alle ultime tecnologie educative, forniranno al professionista un apprendimento coinvolgente e localizzato, ovvero inserito in un contesto reale.
La creazione di questo programma è incentrata sull’Apprendimento Basato su Problemi, mediante il quale lo studente deve cercare di risolvere le diverse situazioni che gli si presentano durante il corso. Lo studente potrà usufruire di un innovativo sistema di video interattivi creati da esperti di rinomata fama.
Analizzare attraverso il miglior materiale didattico come eseguire la regolazione e la parametrizzazione degli algoritmi SLAM"
Approfondisci quando e dove vuoi i progressi raggiunti in materia di Deep Learning"
Piano di studi
Acquisisci una visione globale della Robotica e della Visione Artificiale grazie a materiali didattici di alta qualità"
Modulo 1. Robotica. Progettazione e modellazione di robot
1.1. Robotica e Industria 4.0
1.1.1. Robotica e Industria 4.0
1.1.2. Campi di applicazione e casi d'uso
1.1.3. Sottoaree di specializzazione della Robotica
1.2. Architetture hardware e software per robot
1.2.1. Architetture hardware e tempo reale
1.2.2. Architetture software per robot
1.2.3. Modelli di comunicazione e tecnologie Middleware
1.2.4. Integrazione software con Robot Operating System (ROS)
1.3. Modellazione matematica di robot
1.3.1. Rappresentazione matematica di solidi rigidi
1.3.2. Rotazioni e traslazioni
1.3.3. Rappresentanza gerarchica dello stato
1.3.4. Rappresentazione distribuita dello stato in ROS (Libreria TF)
1.4. Cinematica e dinamica di robot
1.4.1. Cinematica
1.4.2. Dinamica
1.4.3. Robot sottoattuati
1.4.4. Robot ridondanti
1.5. Modellazione e simulazione di robot
1.5.1. Tecnologie di modellazione dei robot
1.5.2. Modellazione di robot con URDF
1.5.3. Simulazione di robot
1.5.4. Modellazione con simulatore Gazebo
1.6. Robot manipolatori
1.6.1. Tipi di robot manipolatori
1.6.2. Cinematica
1.6.3. Dinamica
1.6.4. Simulazione
1.7. Robot mobili terrestri
1.7.1. Tipi di Robot mobili terrestri
1.7.2. Cinematica
1.7.3. Dinamica
1.7.4. Simulazione
1.8. Robot mobili aerei
1.8.1. Tipi di robot mobili aerei
1.8.2. Cinematica
1.8.3. Dinamica
1.8.4. Simulazione
1.9. Robot mobili acquatici
1.9.1. Tipi di robot mobili acquatici
1.9.2. Cinematica
1.9.3. Dinamica
1.9.4. Simulazione
1.10. Robot bioispirati
1.10.1. Umanoidi
1.10.2. Robot con quattro o più gambe
1.10.3. Robot modulari
1.10.4. Robot con parti flessibili (Soft-Robotics)
Modulo 2. Agenti intelligenti. Applicare l'Intelligenza Artificiale a robot e Softbot
2.1. Attori Intelligenti e Intelligenza Artificiale
2.1.1. Robot intelligenti. Intelligenza Artificiale
2.1.2. Agenti intelligenti
2.1.2.1. Agenti hardware. Robot
2.1.2.2. Agenti software. Softbot
2.1.3. Applicazioni alla Robotica
2.2. Connessione Cervello-Algoritmo
2.2.1. Ispirazione biologica dell’Intelligenza Artificiale
2.2.2. Ragionamento implementato in algoritmi. Tipologia
2.2.3. Spiegazione dei risultati negli algoritmi di Intelligenza Artificiale
2.2.4. Evoluzione degli algoritmi fino al Deep Learning
2.3. Algoritmi di ricerca nello spazio delle soluzioni
2.3.1. Elementi nella ricerca nello spazio delle soluzioni
2.3.2. Algoritmi di ricerca di soluzioni ai problemi di Intelligenza Artificiale
2.3.3. Applicazioni di algoritmi di ricerca e ottimizzazione
2.3.4. Algoritmi di ricerca applicati a Machine Learning
2.4. Apprendimento automatico
2.4.1. Apprendimento automatico
2.4.2. Algoritmi di apprendimento supervisionati
2.4.3. Algoritmi di apprendimento non supervisionati
2.4.4. Algoritmi di apprendimento per rinforzo
2.5. Apprendimento supervisionato
2.5.1. Metodi di apprendimento supervisionato
2.5.2. Alberi decisionali per la classificazione
2.5.3. Macchine di supporto di vettori
2.5.4. Reti neuronali artificiali
2.5.5. Applicazioni di apprendimento supervisionato
2.6. Apprendimento non supervisionato
2.6.1. Apprendimento non supervisionato
2.6.2. Reti di Kohonen
2.6.3. Mappe auto-organizzanti
2.6.4. Algoritmo K-medies
2.7. Apprendimento per rinforzo
2.7.1. Apprendimento di rinforzo
2.7.2. Agenti basati sui processi di Markov
2.7.3. Algoritmi di apprendimento per rinforzo
2.7.4. Apprendimento per rinforzo applicato alla Robotica
2.8. Inferenza probabilistica
2.8.1. Deduzione probabilistica
2.8.2. Tipi di inferenza e definizione del metodo
2.8.3. Inferenza bayesiana come caso di studio
2.8.4. Tecniche di inferenza non parametriche
2.8.5. Filtri Gaussiani
2.9. Dalla teoria alla pratica: sviluppare un agente robotico intelligente
2.9.1. Inclusione di moduli di apprendimento supervisionato in un agente robotico
2.9.2. Inclusione di moduli di apprendimento per rinforzo in un agente robotico
2.9.3. Architettura di un agente robotico controllato dall'Intelligenza Artificiale
2.9.4. Strumenti professionali per l'implementazione degli agenti intelligenti
2.9.5. Fasi di implementazione di algoritmi AI in agenti robotici
Modulo 3. Deep Learning
3.1. Intelligenza artificiale
3.1.1. Machine Learning
3.1.2. Deep Learning
3.1.3. L’esplosione del Deep Learning. Perché adesso?
3.2. Reti neuronali
3.2.1. La rete neuronale
3.2.2. Uso delle reti neurali
3.2.3. Regressione lineare e percettrone
3.2.4. Forward propagation
3.2.5. Backpropagation
3.2.6. Feature vector
3.3. Loss function
3.3.1. Loss function
3.3.2. Tipi di Loss function
3.3.3. Elezione di Loss function
3.4. Funzioni di attivazione
3.4.1. Funzioni di attivazione
3.4.2. Funzioni lineari
3.4.3. Funzioni non lineari
3.4.4. Output vs. Hidden Layer Activation Functions
3.5. Regolarizzazione e standardizzazione
3.5.1. Regolarizzazione e standardizzazione
3.5.2. Overfitting and Data Augmentation
3.5.3. Regularization Methods: L1, L2 and Dropout
3.5.4. Normalization Methods: Batch, Weight, Layer
3.6. Ottimizzazione
3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam
3.7. Hyperparameter Tuning e pesi
3.7.1. Iperparametri
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Pesi
3.8. Metriche di valutazione delle reti neuronali
3.8.1. Accuracy
3.8.2. Dice Coefficient
3.8.3. Sensitivity vs. Specificity/Recall vs. Precisione
3.8.4. Curva ROC (AUC)
3.8.5. F1-score
3.8.6. Confusione Matrix
3.8.7. Cross-Validation
3.9. Frameworks e Hardware
3.9.1. Tensor Flow
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware per la fase di training
3.10. Creazione di reti neuronali, training e validazione
3.10.1. Dataset
3.10.2. Costruzione della rete
3.10.3. Training
3.10.4. Visualizzazione dei risultati
Modulo 4. Robotica nell'automazione di processi industriali
4.1. Progettazione di sistemi automatizzati
4.1.1. Architetture hardware
4.1.2. Controllori logici programmabili
4.1.3. Reti di comunicazioni industriali
4.2. Progettazione elettrica avanzata I: automazione
4.2.1. Progettazione di quadri elettrici e simbologia
4.2.2. Circuiti di potenza e controllo. Armonica
4.2.3. Elementi di protezione e messa a terra
4.3. Progettazione elettrica avanzata II: determinismo e sicurezza
4.3.1. Sicurezza della macchina e ridondanza
4.3.2. Relè di sicurezza e trigger
4.3.3. PLC di sicurezza
4.3.4. Reti protette
4.4. Azione elettrica
4.4.1. Motori e servomotori
4.4.2. Inverter e controller di frequenza
4.4.3. Robotica industriale ad azionamento elettrico
4.5. Azionamento idraulico e pneumatico
4.5.1. Progettazione idraulica e simbologia
4.5.2. Progettazione pneumatica e simbologia
4.5.3. Ambienti ATEX nell'automazione
4.6. Trasduttori in Robotica e Automazione
4.6.1. Misurazione della posizione e della velocità
4.6.2. Misurazione della forza e della temperatura
4.6.3. Misura di presenza
4.6.4. Sensori per la visione
4.7. Programmazione e configurazione di controllori programmabili logici PLC
4.7.1. Programmazione PLC: LD
4.7.2. Programmazione PLC: ST
4.7.3. Programmazione PLC: FBD e CFC
4.7.4. Programmazione PLC: SFC
4.8. Programmazione e configurazione di apparecchiature in impianti industriali
4.8.1. Programmazione di inverter e controlli
4.8.2. Programmazione di HMI
4.8.3. Programmazione di robot manipolatori
4.9. Programmazione e configurazione di apparecchiature informatica industriali
4.9.1. Programmazione di sistemi di visione
4.9.2. Programmazione di SCADA/software
4.9.3. Configurazione di rete
4.10. Implementazione di automatismi
4.10.1. Progettazione di macchine di stato
4.10.2. Implementazione di macchine di stato in PLC
4.10.3. Implementazione di sistemi di controllo PID e PLC
4.10.4. Manutenzione di automazioni e Igiene del codice
4.10.5. Simulazione di automazioni e impianti
Modulo 5. Sistemi di controllo automatico in Robotica
5.1. Analisi e progettazione di sistemi non lineari
5.1.1. Analisi e modellazione di sistemi non lineari
5.1.2. Controllo con il feedback
5.1.3. Linearizzazione per feedback
5.2. Progettazione di tecniche di controllo per sistemi non lineari avanzati
5.2.1. Controllo in Sliding Mode control
5.2.2. Controllo basato su Lyapunov e Backstepping
5.2.3. Controllo basato sulla passività
5.3. Architetture di controllo
5.3.1. Il paradigma della robotica
5.3.2. Architetture di controllo
5.3.3. Applicazioni ed esempi di architetture di controllo
5.4. Controllo del movimento per articolazioni robotiche
5.4.1. Modellazione cinematica e dinamica
5.4.2. Controllo nello spazio delle articolazioni
5.4.3. Controllo nello spazio operativo
5.5. Controllo della forza sugli attuatori
5.5.1. Controllo della forza
5.5.2. Controllo dell'impedenza
5.5.3. Controllo ibrido
5.6. Robot mobili terrestri
5.6.1. Equazione di moto
5.6.2. Tecniche di controllo nei robot terrestri
5.6.3. Manipolatori mobili
5.7. Robot mobili aerei
5.7.1. Equazione di moto
5.7.2. Tecniche di controllo dei robot aerei
5.7.3. Manipolazione aerea
5.8. Controllo basato sulle tecniche di Machine Learning
5.8.1. Controllo tramite l'apprendimento supervisionato
5.8.2. Controllo tramite l'apprendimento di rinforzo
5.8.3. Controllo tramite l'apprendimento non supervisionato
5.9. Controllo basato sulla visione
5.9.1. Visual Servoing basato sulla posizione
5.9.2. Visual Servoing basato sull’immagine
5.9.3. Visual Servoing ibrido
5.10. Controllo predittivo
5.10.1. Modelli e stime di stato
5.10.2. MPC applicato ai robot mobili
5.10.3. MPC applicato a UAV
Modulo 6. Algoritmi di pianificazione dei robot
6.1. Algoritmi di pianificazione classica
6.1.1. Pianificazione discreta: spazio degli stati
6.1.2. Problemi di pianificazione in robotica. Modellazione di sistemi robotici
6.1.3. Classificazione dei pianificatori
6.2. Il problema della pianificazione della traiettoria nei robot mobili
6.2.1. Forme di rappresentazione dell'ambiente: grafi
6.2.2. Algoritmi di ricerca nei grafi
6.2.3. Introduzione dei costi nei grafi
6.2.4. Algoritmi di ricerca nei grafi pesanti
6.2.5. Algoritmi con messa a fuoco da qualsiasi angolazione
6.3. Pianificazione di sistemi robotici ad alta dimensionalità
6.3.1. Problemi di robotica ad alta dimensionalità: manipolatori
6.3.2. Modello cinematico diretto/inverso
6.3.3. Algoritmi di pianificazione a campione PRM e RRT
6.3.4. Pianificare in caso di vincoli dinamici
6.4. Pianificazione a campione ottimale
6.4.1. Problemi dei pianificatori basati sul campionamento
6.4.2. RRT* concetto di ottimalità probabilistica
6.4.3. Passaggio di riconnessione: vincoli dinamici
6.4.4. CForest. Parallelizzazione della pianificazione
6.5. Implementazione effettiva di un sistema di pianificazione del movimento
6.5.1. Problema di pianificazione globale. Ambienti dinamici
6.5.2. Ciclo di azione, sensorizzazione. Acquisizione di informazioni dall'ambiente
6.5.3. Pianificazione locale e globale
6.6. Coordinamento dei sistemi multirobot I: sistema centralizzato
6.6.1. Problema di coordinamento multirobot
6.6.2. Rilevamento e risoluzione delle collisioni: modifica delle traiettorie con algoritmi genetici
6.6.3. Altri algoritmi bio-ispirati: sciami di particelle e fuochi d'artificio
6.6.4. Algoritmo di prevenzione delle collisioni per scelta di manovra
6.7. Coordinamento nei sistemi multirobot II: approcci distribuiti I
6.7.1. Utilizzo di funzioni target complesse
6.7.2. Fronte di Pareto
6.7.3. Algoritmi evolutivi multiobiettivo
6.8. Coordinamento nei sistemi multirobot III: approcci distribuiti II
6.8.1. Sistemi di pianificazione di ordine 1
6.8.2. Algoritmo ORCA
6.8.3. Aggiunta di vincoli cinematici e dinamici in ORCA
6.9. Teoria della pianificazione per decisione
6.9.1. Teoria decisionale
6.9.2. Sistemi di decisione sequenziale
6.9.3. Sensori e spazi di informazione
6.9.4. Pianificazione di fronte all'incertezza nella percezione e nell'azione
6.10. Sistemi di pianificazione dell'apprendimento per rinforzo
6.10.1. Ottenere la ricompensa prevista da un sistema
6.10.2. Tecniche di apprendimento per ricompensa media
6.10.3. Apprendimento per rinforzo inverso
Modulo 7. Visione artificiale
7.1. Percezione umana
7.1.1. Sistema visivo umano
7.1.2. Il colore
7.1.3. Frequenze visibili e non visibili
7.2. Cronaca della visione artificiale
7.2.1. Principi
7.2.2. Evoluzione
7.2.3. Importanza della visione artificiale
7.3. Composizione di immagini digitali
7.3.1. L'immagine digitale
7.3.2. Tipi di immagini
7.3.3. Spazi di colore
7.3.4. RGB
7.3.5. HSV e HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Immagine indicizzata
7.4. Sistemi di imaging
7.4.1. Come funziona una telecamera digitale
7.4.2. L'esposizione giusta per ogni situazione
7.4.3. Profondità di campo
7.4.4. Risoluzione
7.4.5. Formati dell’immagine
7.4.6. Modalità HDR
7.4.7. Telecamere ad alta risoluzione
7.4.8. Telecamere ad alta velocità
7.5. Sistemi ottici
7.5.1. Principi ottici
7.5.2. Obiettivi convenzionali
7.5.3. Obiettivi telecentrici
7.5.4. Tipi di autofocus
7.5.5. Lunghezza focale
7.5.6. Profondità di campo
7.5.7. Distorsione ottica
7.5.8. Calibrazione di un'immagine
7.6. Sistemi di illuminazione
7.6.1. L’importanza dell’illuminazione
7.6.2. Risposta in frequenza
7.6.3. Illuminazione a led
7.6.4. Illuminazione esterna
7.6.5. Tipi di illuminazione per applicazioni industriali. Effetti
7.7. Sistemi di captazione 3D
7.7.1. Visione stereo
7.7.2. Triangolazione
7.7.3. Luce strutturata
7.7.4. Time of Flight
7.7.5. LiDAR
7.8. Multispettrale
7.8.1. Telecamere multispettrali
7.8.2. Telecamere iperspettrali
7.9. Spettro vicino non visibile
7.9.1. Telecamere IR
7.9.2. Telecamere UV
7.9.3. Conversione da non visibile a visibile attraverso l'illuminazione
7.10. Altre bande dello spettro
7.10.1. Raggi X
7.10.2. Terahertz
Modulo 8. Applicazioni e stato dell'arte
8.1. Applicazioni industriali
8.1.1. Librerie di visione artificiale
8.1.2. Telecamere compatte
8.1.3. Sistemi basati su PC
8.1.4. Robotica industriale
8.1.5. Pick and place 2D
8.1.6. Bin picking
8.1.7. Controllo della qualità
8.1.8. Presenza-assenza di componenti
8.1.9. Controllo dimensionale
8.1.10. Controllo dell'etichettatura
8.1.11. Tracciabilità
8.2. Veicoli autonomi
8.2.1. Assistenza al conducente
8.2.2. Guida autonoma
8.3. Visione artificiale per l'analisi dei contenuti
8.3.1. Filtrare per contenuto
8.3.2. Moderazione dei contenuti visivi
8.3.3. Sistemi di monitoraggio
8.3.4. Identificazione di marchi e loghi
8.3.5. Etichettatura e classificazione dei video
8.3.6. Rilevamento del cambiamento di scena
8.3.7. Estrazione di testi o crediti
8.4. Applicazioni mediche
8.4.1. Individuazione e localizzazione delle malattie
8.4.2. Cancro e analisi a raggi X
8.4.3. I progressi della visione artificiale grazie al Covid-19
8.4.4. Assistenza in sala operatoria
8.5. Applicazioni spaziali
8.5.1. Analisi delle immagini satellitari
8.5.2. La visione artificiale per lo studio dello spazio
8.5.3. Missione su Marte
8.6. Applicazioni commerciali
8.6.1. Controllo stock
8.6.2. Videosorveglianza, sicurezza domestica
8.6.3. Telecamere per il parcheggio
8.6.4. Telecamere per il controllo della popolazione
8.6.5. Autovelox
8.7. Visione applicata alla robotica
8.7.1. Droni
8.7.2. AGV
8.7.3. Visione nei robot collaborativi
8.7.4. Gli occhi dei robot
8.8. Realtà aumentata
8.8.1. Funzionamento
8.8.2. Dispositivi
8.8.3. Applicazioni nell’industria
8.8.4. Applicazioni commerciali
8.9. Cloud computing
8.9.1. Piattaforme di Cloud Computing
8.9.2. Dal Cloud Computing alla produzione
8.10. Ricerca e stato dell'arte
8.10.1. La comunità scientifica
8.10.2. Cosa si sta preparando?
8.10.3. Il futuro della visione artificiale
Modulo 9. Tecniche di Visione Artificiale in Robotica: elaborazione e analisi delle immagini
9.1. Visione Artificiale
9.1.1. Visione Artificiale
9.1.2. Elementi di un sistema di visione artificiale
9.1.3. Strumenti matematici
9.2. Sensori ottici per la Robotica
9.2.1. Sensori ottici passivi
9.2.2. Sensori ottici attivi
9.2.3. Sensori non ottici
9.3. Acquisizione di immagini
9.3.1. Rappresentazione in immagini
9.3.2. Spazio del colore
9.3.3. Processo di digitalizzazione
9.4. Geometria delle immagini
9.4.1. Modelli di lenti
9.4.2. Modelli di telecamere
9.4.3. Calibrazione delle telecamere
9.5. Strumenti matematici
9.5.1. Istogramma di un'immagine
9.5.2. Convoluzione
9.5.3. Trasformata di Fourier
9.6. Preelaborazione delle immagini
9.6.1. Analisi del rumore
9.6.2. Attenuazione delle immagini
9.6.3. Miglioramento delle immagini
9.7. Segmentazione delle immagini
9.7.1. Tecniche basate sui contorni
9.7.3. Tecniche basate sull’istogramma
9.7.4. Operazioni morfologiche
9.8. Rilevamento delle caratteristiche nell'immagine
9.8.1. Rilevamento dei punti di interesse
9.8.2. Descrittori delle caratteristiche
9.8.3. Corrispondenze tra le caratteristiche
9.9. Sistemi di visione 3D
9.9.1. Percezione 3D
9.9.2. Corrispondenza delle caratteristiche tra immagini
9.9.3. Geometria a più viste
9.10. Localizzazione basata sulla visione artificiale
9.10.1. Il problema della localizzazione dei Robot
9.10.2. Odometria visiva
9.10.3. Fusione sensoriale
Modulo 10. Sistemi di percezione visiva dei Robot con apprendimento automatico
10.1. Metodi di apprendimento non supervisionati applicati alla visione artificiale
10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similarity and matrix decomposition
10.2. Metodi di apprendimento supervisionati applicati alla visione artificiale
10.2.1. Concetto "Bag of words”
10.2.2. Macchine di supporto di vettori
10.2.3. Latent Dirichlet Allocation
10.2.4. Reti neuronali
10.3. Reti neurali profonde: strutture, Backbones e Transfer Learning
10.3.1. Strati generatori di Features
10.3.3.1. VGG
10.3.3.2. Densenet
10.3.3.3. Resnet
10.3.3.4. Inception
10.3.3.5. GoogLeNet
10.3.2. Transfer Learning
10.3.3. I dati. Preparazione al training
10.4. Deep Learning I: rilevamento e segmentazione
10.4.1. YOLO e SSD differenze e somiglianze
10.4.2. Unet
10.4.3. Altre strutture
10.5. Visione Artificiale con Deep Learning II: General Adversarial Networks
10.5.1. Super risoluzione delle immagini utilizzando GAN
10.5.2. Creazione di Immagini realiste
10.5.3. Scene understanding
10.6. Tecniche di apprendimento per la localizzazione e la mappatura nella robotica mobile
10.6.1. Rilevamento della chiusura di loop e rilocazione
10.6.2. Magic Leap. Super Point y Super Glue
10.6.3. Depth from Monocular
10.7. Inferenza bayesiana e modellazione 3D
10.7.1. Modelli bayesiani e apprendimento "classico"
10.7.2. Superfici implicite con processi gaussiani (GPIS)
10.7.3. Segmentazione 3D con GPIS
10.7.4. Reti neurali per la modellazione di superfici 3D
10.8. Applicazioni end-to-end delle reti neurali profonde
10.8.1. Sistema end-to-end. Esempio di identificazione delle persone
10.8.2. Manipolazione di oggetti con sensori visivi
10.8.3. Generazione di movimenti e pianificazione con sensori visivi
10.9. Tecnologie cloud per accelerare lo sviluppo di algoritmi di deep learning
10.9.1. Uso di GPU per il Deep Learning
10.9.2. Sviluppo agile con Google IColab
10.9.3. GPUs remote, Google Cloud e AWS
10.10. Deployment di reti neurali in applicazioni reali
10.10.1. Sistemi embedded
10.10.2. Deployment di reti neurali. Uso
10.10.3. Ottimizzazione della rete durante la distribuzione, ad esempio con TensorRT
Modulo 11. SLAM Visivo. Localizzazione di robot e mappatura simultanea con tecniche di Visione Artificiale
11.1. Localizzazione e mappatura simultanee (SLAM)
11.1.1. Localizzazione e mappatura simultanee. SLAM
11.1.2. Applicazioni dello SLAM
11.1.3. Funzioni dello SLAM
11.2. Geometria proiettiva
11.2.1. Modello Pin-Hole
11.2.2. Stima di parametri intrinsechi di una fotocamera
11.2.3. Omografia, principi di base e stima
11.2.4. Matrice fondamentale, principi e stime
11.3. Filtri Gaussiani
11.3.1. Filtro di Kalman
11.3.2. Filtro di informazioni
11.3.3. Regolazione e parametrizzazione dei filtri gaussiani
11.4. Stereo EKF-SLAM
11.4.1. Geometria della telecamera stereo
11.4.2. Estrazione e ricerca di funzionalità
11.4.3. Filtro di Kalman per SLAM stereo
11.4.4. Impostazione dei parametri di EKF-SLAM stereo
11.5. Monoculare EKF-SLAM
11.5.1. Parametrizzazione dei Landmarks in EKF-SLAM
11.5.2. Filtro di Kalman per SLAM monoculare
11.5.3. Impostazione dei parametri di EKF-SLAM monoculare
11.6. Rilevamento della chiusura di loop
11.6.1. Algoritmo di forza bruta
11.6.2. FABMAP
11.6.3. Astrazione tramite GIST e HOG
11.6.4. Rilevamento tramite deep learning
11.7. Graph-SLAM
11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM
11.8. Direct Visual SLAM
11.8.1. Analisi dell’algoritmo Direct Visual SLAM
11.8.2. LSD-SLAM
11.8.3. SVO
11.9. Visual Inertial SLAM
11.9.1. Integrazione delle misure inerziali
11.9.2. Accoppiamento basso: SOFT-SLAM
11.9.3. Accoppiamento alto: Vins-Mono
11.10. Altre tecnologie di SLAM
11.10.1. Applicazioni oltre lo SLAM visivo
11.10.2. Lidar-SLAM
11.10.3. Range-only SLAM
Modulo 12. Applicazione alla robotica delle tecnologie di realtà virtuale e aumentata
12.1. Tecnologie immersive nella Robotica
12.1.1. Realtà Virtuale in Robotica
12.1.2. Realtà Aumentata in Robotica
12.1.3. Realtà Mista in Robotica
12.1.4. Differenza tra le realtà
12.2. Costruzione di ambienti virtuali
12.2.1. Materiali e texture
12.2.2. Illuminazione
12.2.3. Suono e odore virtuale
12.3. Modellazione di robot in ambienti virtuali
12.3.1. Modellazione geometrica
12.3.2. Modellazione fisica
12.3.3. Standardizzazione dei modelli
12.4. Modellazione dinamica e cinematica dei robot: motori fisici virtuali
12.4.1. Motori fisici. Tipologia
12.4.2. Configurazione di un motore fisico
12.4.3. Motori fisici nell'industria
12.5. Piattaforme, periferiche e strumenti più utilizzati nella realtà virtuale
12.5.1. Visori per la realtà virtuale
12.5.2. Periferiche di interazione
12.5.3. Sensori virtuali
12.6. Sistemi di Realtà Aumentata
12.6.1. Inserimento di elementi virtuali nella realtà
12.6.2. Tipi di marcatori visivi
12.6.3. Tecnologie di Realtà Aumentata
12.7. Metaverso: ambienti virtuali di agenti intelligenti e persone
12.7.1. Creazione di avatar
12.7.2. Agenti intelligenti in ambienti virtuali
12.7.3. Costruzione di ambienti multiutente per VR/AR
12.8. Creazione di progetti di Realtà Virtuale in Robotica
12.8.1. Fasi di sviluppo di un progetto di Realtà Virtuale
12.8.2. Deployment di sistemi di Realtà Virtuale
12.8.3. Risorse per la Realtà Virtuale
12.9. Creazione di progetti di Realtà Aumentata in Robotica
12.9.1. Fasi di sviluppo di un progetto di Realtà Aumentata
12.9.2. Deployment di Progetti di Realtà Aumentata
12.9.3. Risorse per la Realtà Aumentata
12.10. Tele-operazione di robot con dispositivi mobili
12.10.1. Realtà Mista in dispositivi mobili
12.10.2. Sistemi immersivi con sensori per dispositivi mobili
12.10.3. Esempi di progetti mobili
Modulo 13. Sistemi di comunicazione e interazione con i robot
13.1. Riconoscimento vocale: sistemi stocastici
13.1.1. Modellazione acustica del discorso
13.1.2. Modelli nascosti di Markov
13.1.3. Modellazione linguistica del discorso: N-Grammi, grammatiche BNF
13.2. Il riconoscimento del linguaggio: Deep Learning
13.2.1. Reti neuronali profonde
13.2.2. Reti neuronali ricorrenti
13.2.3. Cellule LSTM
13.3. Riconoscimento vocale: prosodia ed effetti ambientali
13.3.1. Rumore ambientale
13.3.2. Riconoscimento multi-vocale
13.3.3. Patologie nell’uso della parola
13.4. Comprensione del linguaggio naturale: sistemi euristici e probabilistici
13.4.1. Analisi sintattico-semantica: regole linguistiche
13.4.2. Comprensione basata su regole euristiche
13.4.3. Sistemi probabilistici: regressione logistica e SVM
13.4.4. Comprensione basata sulle reti neurali
13.5. Gestione del dialogo: strategie euristiche/probabilistiche
13.5.1. Intenzione dell'interlocutore
13.5.2. Finestra di dialogo basata su modelli
13.5.3. Gestione del dialogo stocastico: reti bayesiane
13.6. Gestione del dialogo: strategie avanzate
13.6.1. Sistemi di apprendimento basati sul rinforzo
13.6.2. Sistemi basati sulle reti neurali
13.6.3. Dal parlare all'intenzione in un'unica rete
13.7. Generazione di risposta e sintesi vocale
13.7.1. Generazione di risposta: dall'idea al testo coerente
13.7.2. Sintesi del discorso per concatenazione
13.7.3. Sintesi del linguaggio stocastico
13.8. Adattamento e contestualizzazione del dialogo
13.8.1. Iniziativa di dialogo
13.8.2. Adattamento al parlante
13.8.3. Adattamento al contesto del dialogo
13.9. Robot e interazioni sociali: riconoscimento, sintesi ed espressione delle emozioni
13.9.1. Paradigmi della voce artificiale: voce robotica e voce naturale
13.9.2. Riconoscimento delle emozioni e analisi dei sentimenti
13.9.3. Sintesi della voce emotiva
13.10. Robot e interazioni sociali: interfacce multimodali avanzate
13.10.1. Combinazione di interfacce vocali e tattili
13.10.2. Riconoscimento e traduzione della lingua dei segni
13.10.3. Avatar visivi: traduzione da voce a lingua dei segni
Modulo 14. Elaborazione digitale delle immagini
14.1. Ambiente di sviluppo per la visione artificiale
14.1.1. Librerie di visione artificiale
14.1.2. Ambiente di programmazione
14.1.3. Strumenti di visualizzazione
14.2. Elaborazione digitale delle immagini
14.2.1. Relazioni tra pixel
14.2.2. Operazioni sulle immagini
14.2.3. Trasformazioni geometriche
14.3. Operazioni sui pixel
14.3.1. Istogramma
14.3.2. Trasformazioni sulla base di istogrammi
14.3.3. Operazioni su immagini a colori
14.4. Operazioni logiche e aritmetiche
14.4.1. Addizione e sottrazione
14.4.2. Prodotto e divisione
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor
14.5. Filtri
14.5.1. Maschere e convoluzione
14.5.2. Filtraggio lineare
14.5.3. Filtraggio non lineare
14.5.4. Analisi di Fourier
14.6. Operazioni morfologiche
14.6.1. Erode and Dilating
14.6.2. Closing and Open
14.6.3. Top hat e Black hat
14.6.4. Rilevamento dei contorni
14.6.5. Scheletro
14.6.6. Riempimento dei buchi
14.6.7. Convex hull
14.7. Strumenti di analisi delle immagini
14.7.1. Rilevamento dei bordi
14.7.2. Rilevamento di blob
14.7.3. Controllo dimensionale
14.7.4. Ispezione del colore
14.8. Segmentazione degli oggetti
14.8.1. Segmentazione delle immagini
14.8.2. Tecniche di segmentazione classiche
14.8.3. Applicazioni reali
14.9. Calibrazione di immagini
14.9.1. Calibrazione dell'immagine
14.9.2. Metodi di calibrazione
14.9.3. Processo di calibrazione in un sistema telecamera 2D/robot
14.10. Elaborazione di immagini in ambiente reale
14.10.1. Analisi dei problemi
14.10.2. Elaborazione delle immagini
14.10.3. Estrazione delle caratteristiche
14.10.4. Risultati finali
Modulo 15. Elaborazione digitale avanzata delle immagini
15.1. Riconoscimento ottico dei caratteri (OCR)
15.1.1. Preelaborazione dell’immagine
15.1.2. Rilevamento del testo
15.1.3. Riconoscimento del testo
15.2. Lettura dei codici
15.2.1. Codici 1D
15.2.2. Codici 2D
15.2.3. Applicazioni
15.3. Ricerca di modelli
15.3.1. Ricerca di modelli
15.3.2. Modelli basati nel livello di grigio
15.3.3. Modelli basati sui contorni
15.3.4. Modelli basati su forme geometriche
15.3.5. Altre tecniche
15.4. Tracciamento di oggetti con visione convenzionale
15.4.1. Estrazione dello sfondo
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Optical flow
15.5. Riconoscimento facciale
15.5.1. Facial Landmark detection
15.5.2. Applicazioni
15.5.3. Riconoscimento facciale
15.5.4. Riconoscimento delle emozioni
15.6. Panoramica e allineamenti
15.6.1. Stitching
15.6.2. Composizione di immagini
15.6.3. Fotomontaggio
15.7. High Dinamic Range (HDR) e Photometric Stereo
15.7.1. Aumento della gamma dinamica
15.7.2. Composizione di immagini per il miglioramento dei contorni
15.7.3. Tecniche per l'utilizzo di applicazioni dinamiche
15.8. Compressione dell'immagine
15.8.1. La compressione delle immagini
15.8.2. Tipi di compressori
15.8.3. Tecniche di compressione delle immagini
15.9. Elaborazione video
15.9.1. Sequenze di immagini
15.9.2. Formati video e codec
15.9.3. Lettura di un video
15.9.4. Elaborazione del fotogramma
15.10. Applicazione reale dell'elaborazione delle immagini
15.10.1. Analisi dei problemi
15.10.2. Elaborazione delle immagini
15.10.3. Estrazione delle caratteristiche
15.10.4. Risultati finali
Modulo 16. Elaborazione di immagini 3D
16.1. Immagine 3D
16.1.1. Immagine 3D
16.1.2. Software di elaborazione e visualizzazione di immagini 3D
16.1.3. Software di metrologia
16.2. Open 3D
16.2.1. Libreria per l'elaborazione dei dati 3D
16.2.2. Caratteristiche
16.2.3. Installazione e utilizzo
16.3. I dati
16.3.1. Mappe di profondità dell'immagine 2D
16.3.2. Pointcloud
16.3.3. Normali
16.3.4. Superfici
16.4. Visualizzazione
16.4.1. Visualizzazione dei dati
16.4.2. Controller
16.4.3. Visualizzazione web
16.5. Filtri
16.5.1. Distanza tra punti, eliminare outliers
16.5.2. Filtro passa alto
16.5.3. Downsampling
16.6. Geometria ed estrazione di caratteristiche
16.6.1. Estrazione di un profilo
16.6.2. Misura della profondità
16.6.3. Volume
16.6.4. Forme geometriche 3D
16.6.5. Piani
16.6.6. Proiezione di un punto
16.6.7. Distanze geometriche
16.6.8. Kd Tree
16.6.9. Features 3D
16.7. Registro e Meshing
16.7.1. Concatenazione
16.7.2. ICP
16.7.3. Ransac 3D
16.8. Riconoscimento di oggetti 3D
16.8.1. Ricerca di un oggetto nella scena 3D
16.8.2. Segmentazione
16.8.3. Bin picking
16.9. Analisi della superficie
16.9.1. Smoothing
16.9.2. Superfici regolabili
16.9.3. Octree
16.10. Triangolazione
16.10.1. Da Mesh a Point Cloud
16.10.2. Triangolazione delle mappe di profondità
16.10.3. Triangolazione di PointCloud non ordinate
Modulo 17. Reti convoluzionali e classificazione delle immagini
17.1. Reti neuronali convoluzionali
17.1.1. Introduzione
17.1.2. La convoluzione
17.1.3. CNN Building Blocks
17.2. Tipi di livelli della CNN
17.2.1. Convolutional
17.2.2. Activation
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected
17.3. Parametri
17.3.1. Confusione Matrix
17.3.2. Accuracy
17.3.3. Precisione
17.3.4. Recall
17.3.5. F1 Score
17.3.6. Curva ROC
17.3.7. AUC
17.4. Architetture principali
17.4.1. AlexNet
17.4.2. VGG
17.4.3. Resnet
17.4.4. GoogleLeNet
17.5. Classificazione di immagini
17.5.1. Introduzione
17.5.2. Analisi dei dati
17.5.3. Preparazione dei dati
17.5.4. Training del modello
17.5.5. Convalida del modello
17.6. Considerazioni pratiche per il training nelle CNN
17.6.1. Selezione dell'ottimizzatore
17.6.2. Learning Rate Scheduler
17.6.3. Controllare la pipeline di training
17.6.4. Training con regolarizzazione
17.7. Le migliori pratiche di Deep Learning
17.7.1. Transfer Learning
17.7.2. Fine Tuning
17.7.3. Data Augmentation
17.8. Valutazione statistica dei dati
17.8.1. Numero di dataset
17.8.2. Numero di etichette
17.8.3. Numero di immagini
17.8.4. Bilanciamento dei dati
17.9. Deployment
17.9.1. Salvataggio e caricamento dei modelli
17.9.2. Onnx
17.9.3. Inferenza
17.10. Caso di studio: classificazione delle immagini
17.10.1. Analisi e preparazione dei dati
17.10.2. Verifica della pipeline di formazione
17.10.3. Training del modello
17.10.4. Convalida del modello
Modulo 18. Rilevamento di oggetti
18.1. Rilevamento e tracciamento degli oggetti
18.1.1. Rilevamento di oggetti
18.1.2. Casi d'uso
18.1.3. Tracciamento degli oggetti
18.1.4. Casi d'uso
18.1.5. Occlusioni, Rigid and No Rigid Poses
18.2. Metriche di valutazione
18.2.1. IOU - Intersection Over Union
18.2.2. Confidence Score
18.2.3. Recall
18.2.4. Precisione
18.2.5. Recall–Precisione Curve
18.2.6. Mean Average Precision (mAP)
18.3. Metodi tradizionali
18.3.1. Sliding window
18.3.2. Viola detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)
18.4. Datasets
18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge
18.5. Two Shot Object Detector
18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN
18.6. Single Shot Object Detector
18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet
18.7. Backbones
18.7.1. VGG
18.7.2. Resnet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet
18.8. Object Tracking
18.8.1. Approcci classici
18.8.2. Filtri antiparticolato
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort
18.9. Distribuzione
18.9.1. Piattaforma informatica
18.9.2. Scelta del Backbone
18.9.3. Scelta del Framework
18.9.4. Ottimizzazione del modello
18.9.5. Versione del modello
18.10. Studio: rilevamento e tracciamento delle persone
18.10.1. Rilevamento di persone
18.10.2. Tracciamento delle persone
18.10.3. Ri-identificazione
18.10.4. Contare le persone in mezzo alla folla
Modulo 19. Segmentazione di immagini con Deep Learning
19.1. Rilevamento e segmentazione degli oggetti
19.1.1. Segmentazione semantica
19.1.1.1. Esempi d'uso della segmentazione semantica
19.1.2. Segmentazione di oggetti
19.1.2.1. Esempi d'uso della segmentazione di oggetti
19.2. Metriche di valutazione
19.2.1. Analogie con altri metodi
19.2.2. Pixel Accuracy
19.2.3. Dice Coefficient (F1 Score)
19.3. Funzioni di costo
19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Altre funzioni
19.4. Metodi di segmentazione tradizionali
19.4.1. Applicazione della soglia con Otsu e Riddlen
19.4.2. Mappe auto-organizzate
19.4.3. GMM-EM algorithm
19.5. Segmentazione semantica usando Deep Learning: FCN
19.5.1. FCN
19.5.2. Architettura
19.5.3. Applicazioni di FCN
19.6. Segmentazione semantica usando Deep Learning: U-NET
19.6.1. U-NET
19.6.2. Architettura
19.6.3. Applicazione U-NET
19.7. Segmentazione semantica usando Deep Learning: Deep Lab
19.7.1. Deep Lab
19.7.2. Architettura
19.7.3. Applicazione di Deep Lab
19.8. Segmentazione di oggetti usando Deep Learning: Mask RCNN
19.8.1. Mask RCNN
19.8.2. Architettura
19.8.3. Applicazione di un Mask RCNN
19.9. Segmentazione video
19.9.1. STFCN
19.9.2. Semantic Video CNNs
19.9.3. Clockwork Convnets
19.9.4. Low-Latency
19.10. Segmentazione in nuvole di punti
19.10.1. La nuvola di punti
19.10.2. PointNet
19.10.3. A-CNN
Modulo 20. Segmentazione avanzata delle immagini e tecniche avanzate di visione artificiale
20.1. Database per problemi generali di segmentazione
20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset
20.2. Segmentazione semantica in medicina
20.2.1. Segmentazione semantica in medicina
20.2.2. Dataset per problemi medici
20.2.3. Applicazione pratica
20.3. Strumenti di annotazione
20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Altri strumenti
20.4. Strumenti di segmentazione che utilizzano diversi Framework
20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Altri
20.5. Progetto di segmentazione semantica. I dati, fase 1
20.5.1. Analisi del problema
20.5.2. Fonte di input per i dati
20.5.3. Analisi dei dati
20.5.4. Preparazione dati
20.6. Progetto di segmentazione semantica. Training, fase 2
20.6.1. Selezione dell'algoritmo
20.6.2. Training
20.6.3. Valutazione
20.7. Progetto di segmentazione semantica. Risultati, fase 3
20.7.1. Regolazione fine
20.7.2. Presentazione della soluzione
20.7.3. Conclusioni
20.8. Autocodificatori
20.8.1. Autocodificatori
20.8.2. Architettura di un autocodificatore
20.8.3. Autocodificatori di l’eliminazione del rumore
20.8.4. Autocodificatori di colorazione automatica
20.9. Reti generative avversarie (GAN)
20.9.1. Reti generative avversarie (GAN)
20.9.2. Architettura DCGAN
20.9.3. Architettura GAN condizionale
20.10. Reti generative avversarie migliorate
20.10.1. Panoramica del problema
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN
Distinguiti dal resto dei tuoi concorrenti acquisendo competenze specialistiche in un campo con un grande potenziale di crescita"
Master Specialistico in Robotica e Visione Artificiale
La robotica e la visione artificiale sono due discipline che hanno rivoluzionato il modo in cui interagiamo con la tecnologia e hanno trasformato l'industria in diversi settori. In TECH Università Tecnologica, in collaborazione con la Facoltà di Ingegneria, abbiamo sviluppato un Master Specialistico in Robotica e Visione Artificiale per fornire ai professionisti una specializzazione virtuale in queste aree molto richieste dal mercato tecnologico di oggi. Grazie a una metodologia innovativa che mescola lezioni virtuali e il metodo del Relearning, potrai acquisire solide competenze in un ambiente coinvolgente e flessibile che si adatta facilmente alla tua routine.
In questo corso post-laurea online, i partecipanti acquisiranno conoscenze avanzate in robotica e visione artificiale, dai fondamenti teorici alle applicazioni pratiche nella progettazione e nello sviluppo di sistemi robotici intelligenti. Il nostro approccio interdisciplinare consente ai partecipanti di comprendere i concetti chiave della robotica e della visione artificiale, nonché di applicare tecniche e strumenti avanzati per risolvere problemi reali in contesti diversi. Inoltre, saranno guidati da docenti specializzati con una vasta esperienza nella ricerca e nell'applicazione della robotica e della visione artificiale nell'industria e nel mondo accademico.