Titolo universitario
La più grande facoltà di ingegneria del mondo"
Presentazione
Grazie a questo Master semipresenziale, acquisirai competenze tecniche specialistiche nell'apprendimento automatico, nel data mining, nelle reti neurali e nell'elaborazione del linguaggio naturale”

L'intelligenza artificiale (IA) ha registrato progressi significativi negli ultimi anni, trasformando diversi settori grazie a tecnologie emergenti come i modelli linguistici di grandi dimensioni e le reti neurali profonde. Gli ingegneri stanno implementando queste tecnologie per ottimizzare i processi.
Così è nato questo Master semipresenziale, che affronterà l'evoluzione storica dell'IA, i principi delle reti neurali e degli algoritmi genetici, nonché l'importanza della strutturazione dei dati attraverso thesauri e tassonomie. Inoltre, si concentrerà sui concetti fondamentali di statistica, classificazione dei dati e ciclo di vita dei dati, compresa la pianificazione, la raccolta e l'archiviazione nei data warehouse.
Il programma si focalizzerà anche sulla scienza dei dati e sul data mining, fornendo agli ingegneri strumenti e tecniche per l'estrazione, la trasformazione e la visualizzazione delle informazioni, nonché per la preparazione e la pulizia dei dati. Verranno inoltre introdotte le strategie di progettazione degli algoritmi, l'analisi dell'efficienza e la teoria degli agenti, nonché la rappresentazione della conoscenza e il web semantico.
Infine, si parlerà di apprendimento supervisionato e non supervisionato e di tecniche avanzate di deep learning. I professionisti potranno anche personalizzare i modelli con TensorFlow e applicare il deep learning all'elaborazione del linguaggio naturale. Il corso di laurea culminerà nello studio di Autoencoder, GAN e modelli di diffusione, oltre che nelle strategie di implementazione dell'IA in vari settori e nell'informatica bioispirata.
In questo contesto, TECH ha progettato un programma universitario che combina la teoria al 100% online con un soggiorno pratico di 3 settimane nelle aziende più rinomate del settore. In questo modo, la prima metà della formazione si adatterà agli orari di lavoro e personali del laureato, richiedendo solo un dispositivo elettronico con una connessione a Internet. Inoltre, si baserà sulla rivoluzionaria metodologia del Relearning, che consiste nella ripetizione dei concetti chiave per un'assimilazione ottimale e organica dei contenuti.L'intelligenza artificiale (IA) ha registrato progressi significativi negli ultimi anni, trasformando diversi settori grazie a tecnologie emergenti come i modelli linguistici di grandi dimensioni e le reti neurali profonde. Gli ingegneri stanno implementando queste tecnologie per ottimizzare i processi.
Così è nato questo Master Semipresenziale, che affronterà l'evoluzione storica dell'IA, i principi delle reti neurali e degli algoritmi genetici, nonché l'importanza della strutturazione dei dati attraverso thesauri e tassonomie. Inoltre, si concentrerà sui concetti fondamentali di statistica, classificazione dei dati e ciclo di vita dei dati, compresa la pianificazione, la raccolta e l'archiviazione nei data warehouse.
Il programma si focalizzerà anche sulla scienza dei dati e sul data mining, fornendo agli ingegneri strumenti e tecniche per l'estrazione, la trasformazione e la visualizzazione delle informazioni, nonché per la preparazione e la pulizia dei dati. Verranno inoltre introdotte le strategie di progettazione degli algoritmi, l'analisi dell'efficienza e la teoria degli agenti, nonché la rappresentazione della conoscenza e il web semantico.
Infine, si parlerà di apprendimento supervisionato e non supervisionato e di tecniche avanzate di deep learning. I professionisti potranno anche personalizzare i modelli con TensorFlow e applicare il deep learning all'elaborazione del linguaggio naturale. Il corso di laurea culminerà nello studio di Autoencoder, GAN e modelli di diffusione, oltre che nelle strategie di implementazione dell'IA in vari settori e nell'informatica bioispirata.
In questo contesto, TECH ha progettato un programma universitario che combina la teoria al 100% online con un soggiorno pratico di 3 settimane nelle aziende più rinomate del settore. In questo modo, la prima metà della formazione si adatterà agli orari di lavoro e personali del laureato, richiedendo solo un dispositivo elettronico con una connessione a Internet. Inoltre, si baserà sulla rivoluzionaria metodologia del Relearning, che consiste nella ripetizione dei concetti chiave per un'assimilazione ottimale e organica dei contenuti.
Potrai ampliare le tue opportunità di carriera, posizionandoti all'avanguardia dell'innovazione tecnologica ed essendo altamente competitivo in un mercato del lavoro in costante evoluzione”
Questo Master semipresenziale in Intelligenza Artificiale possiede il programma più completo e aggiornato del mercato. Le caratteristiche principali del programma sono:
- Sviluppo di oltre 100 casi pratici presentati da esperti in Intelligenza Artificiale
- Contenuti grafici, schematici e prettamente pratici che forniscono informazioni tecniche riguardo alle discipline essenziali per l’esercizio della professione
- La sua particolare enfasi sulle metodologie innovative
- Tutto ciò sarà integrato da lezioni teoriche, domande all'esperto, forum di discussione su questioni controverse e lavoro di riflessione individuale
- Contenuti disponibili da qualsiasi dispositivo fisso o portatile con connessione a internet
- Inoltre, potrai fare un tirocinio presso una delle migliori aziende del settore
Svolgerai uno stage intensivo di 3 settimane presso un prestigioso istituto specializzato in Intelligenza Artificiale, dove acquisirai le competenze necessarie per proseguire la tua carriera di ingegnere”
In questa proposta di Master, di natura professionale e in modalità semipresenziale, il programma è finalizzato all'aggiornamento dei professionisti dell’Informatica. I contenuti sono basati sull’ultima evidenza scientifica, e orientati in maniera didattica, per integrare il sapere teorico con la pratica.
Grazie ai loro contenuti multimediali elaborati con le più recenti tecnologie educative, consentiranno al professionista un apprendimento localizzato e contestuale, vale a dire un ambiente simulato che fornisca un apprendimento immersivo programmato per specializzarsi in situazioni reali. La creazione di questo programma è incentrata sull’Apprendimento Basato su Problemi, mediante il quale lo specialista deve cercare di risolvere le diverse situazioni che gli si presentano durante il corso. Lo studente potrà usufruire di un innovativo sistema di video interattivi creati da esperti di rinomata fama.
Approfondirai le tecniche di data science, mining e visualizzazione, e la preparazione e pulizia dei dati per il data mining, grazie a un'ampia biblioteca di risorse multimediali"

Ti immergerai nelle tecniche avanzate di apprendimento supervisionato e non supervisionato, così come nell'applicazione del deep learning, attraverso i migliori materiali didattici, all'avanguardia nella formazione"
Pianificazione del corso
I materiali didattici che compongono questo Master semipresenziale sono stati progettati da un gruppi di esperti altamente specializzati nell'Intelligenza Artificiale. In questo modo, i laureati avranno accesso a un programma di studi che si distingue per la sua eccellente qualità e per la sua capacità di soddisfare le esigenze dell'attuale mercato del lavoro. Composto da 15 moduli completi, il percorso accademico si concentrerà sui processi di scoperta della conoscenza e sul Machine Learning. In questo modo, approfondiranno lo sviluppo di algoritmi e modelli che consentono alle macchine di apprendere modelli ed eseguire compiti.

Scegli TECH! Questo programma universitario comprende moduli specializzati in aree emergenti come gli autoencoder, la modellazione della diffusione e il bio-inspired computing”
Modulo 1. Fondamenti di Intelligenza Artificiale
1.1. Storia dell’Intelligenza Artificiale
1.1.1 Quando si è cominciato a parlare di Intelligenza Artificiale?
1.1.2 Riferimenti nel cinema
1.1.3 Importanza dell'Intelligenza Artificiale
1.1.4 Tecnologie che favoriscono e supportano l'Intelligenza Artificiale
1.2. Intelligenza Artificiale nei giochi
1.2.1 Teoria dei giochi
1.2.2 Minimax e potatura Alfa-Beta
1.2.3 Simulazione: Monte Carlo
1.3. Reti neurali
1.3.1 Basi biologiche
1.3.2 Modello computazionale
1.3.3 Reti neurali supervisionate e non
1.3.4 Percettrone semplice
1.3.5 Percettrone multistrato
1.4. Algoritmi genetici
1.4.1 Storia
1.4.2 Base biologica
1.4.3 Codifica dei problemi
1.4.4 Generazione della popolazione iniziale
1.4.5 Algoritmo principale e operatori genetici
1.4.6 Valutazione degli individui: Fitness
1.5. Thesauri, vocabolari, tassonomie
1.5.1 Vocabolari
1.5.2 Tassonomie
1.5.3 Thesauri
1.5.4 Ontologie
1.5.5 Rappresentazione della conoscenza: web semantico
1,6. Web semantico
1.6.1 Specifiche: RDF, RDFS e OWL
1.6.2 Inferenza/ragionamento
1.6.3 Linked Data
1.7. Sistemi esperti e DSS
1.7.1 Sistemi esperti
1.7.2 Sistemi di supporto decisionale
1.8. Chatbots e Assistenti Virtuali
1.8.1 Tipi di assistenti: assistente vocale e scritto
1.8.2 Parti fondamentali per lo sviluppo di un assistente: Intent, entità e flusso di dialogo
1.8.3 Integrazioni: web, Slack, Whatsapp, Facebook
1.8.4 Strumenti per lo sviluppo di un assistente: Dialog Flow, Watson Assistant
1.9. Strategia di implementazione dell'IA
1.10. Futuro dell’Intelligenza Artificiale
1.10.1 Comprendiamo come identificare emozioni tramite algoritmi
1.10.2 Creazione di una personalità: linguaggio, espressioni e contenuto
1.10.3 Tendenze dell'Intelligenza Artificiale
1.10.4 Riflessioni
Modulo 2. Tipi e cicli di vita del dato
2.1. La Statistica
2.1.1 Statistica: statistiche descrittive, inferenze statistiche
2.1.2 Popolazione, campione, individuo
2.1.3 Variabili: definizione, scale di misurazione
2.2. Tipi di dati statistici
2.2.1 Secondo la tipologia
2.2.1.1. Quantitativi: dati continui e discreti
2.2.1.2. Qualitativi: dati binominali, nominali e ordinali
2.2.2 Secondo la forma
2.2.2.1. Numerici
2.2.2.2. Testuali
2.2.2.3. Logici
2.2.3 Secondo la fonte
2.2.3.1. Primari
2.2.3.2. Secondari
2.3. Ciclo di vita dei dati
2.3.1 Fasi del ciclo
2.3.2 Tappe del ciclo
2.3.3 Principi FAIR
2.4. Fasi iniziali del ciclo
2.4.1 Definizione delle mete
2.4.2 Determinazione delle risorse necessarie
2.4.3 Diagramma di Gantt
2.4.4 Struttura dei dati
2.5. Raccolta di dati
2.5.1 Metodologia di raccolta
2.5.2 Strumenti di raccolta
2.5.3 Canali di raccolta
2.6. Pulizia del dato
2.6.1 Fasi di pulizia dei dati
2.6.2 Qualità del dato
2.6.3 Elaborazione dei dati (con R)
2.7. Analisi dei dati, interpretazione e valutazione dei risultati
2.7.1 Misure statistiche
2.7.2 Indici di relazione
2.7.3 Data Mining
2.8. Archiviazione dei dati (data warehouse)
2.8.1 Elementi che lo integrano
2.8.2 Progetto
2.8.3 Aspetti da considerare
2.9. Disponibilità del dato
2.9.1 Accesso
2.9.2 Utilità
2.9.3 Sicurezza
2.10. Aspetti normativi
2.10.1 Legge di protezione dei dati
2.10.2 Buone pratiche
2.10.3 Altri aspetti normativi
Modulo 3. Il dato nell’Intelligenza Artificiale
3.1. Data Science
3.1.1 Data Science
3.1.2 Strumenti avanzati per i data scientist
3.2. Dati, informazioni e conoscenza
3.2.1 Dati, informazioni e conoscenza
3.2.2 Tipi di dati
3.2.3 Fonti di dati
3.3. Dai dati all’informazione
3.3.1 Analisi dei dati
3.3.2 Tipi di analisi
3.3.3 Estrazione di informazioni da un Dataset
3.4. Estrazione di informazioni tramite visualizzazione
3.4.1 La visualizzazione come strumento di analisi
3.4.2 Metodi di visualizzazione
3.4.3 Visualizzazione di un insieme di dati
3.5. Qualità dei dati
3.5.1 Dati di qualità
3.5.2 Pulizia di dati
3.5.3 Pre-elaborazione base dei dati
3.6. Dataset
3.6.1 Arricchimento del Dataset
3.6.2 La maledizione della dimensionalità
3.6.3 Modifica di un insieme di dati
3.7. Squilibrio
3.7.1 Squilibrio di classe
3.7.2 Tecniche di mitigazione dello squilibrio
3.7.3 Equilibrio di un Dataset
3.8. Modelli non supervisionati
3.8.1 Modelli non controllati
3.8.2 Metodi
3.8.3 Classificazione con modelli non controllati
3.9. Modelli supervisionati
3.9.1 Modelli controllati
3.9.2 Metodi
3.9.3 Classificazione con modelli controllati
3.10. Strumenti e buone pratiche
3.10.1 Buone pratiche per i data scientist
3.10.2 Il modello migliore
3.10.3 Strumenti utili
Modulo 4. Data Mining Selezione, pre-elaborazione e trasformazione
4.1. Inferenza statistica
4.1.1 Statistica descrittiva vs Inferenza statistica
4.1.2 Procedure parametriche
4.1.3 Procedure non parametriche
4.2. Analisi esplorativa
4.2.1 Analisi descrittiva
4.2.2 Visualizzazione
4.2.3 Preparazione dei dati
4.3. Preparazione dei dati
4.3.1 Integrazione e pulizia di dati
4.3.2 Standardizzazione dei dati
4.3.3 Trasformazione degli attributi
4.4. I valori mancanti
4.4.1 Trattamenti dei valori mancanti
4.4.2 Metodi di imputazione a massima verosimiglianza
4.4.3 Imputazione di valori mancanti mediante apprendimento automatico
4.5. Rumore nei dati
4.5.1 Classi di rumore e attributi
4.5.2 Filtraggio del rumore
4.5.3 Effetto del rumore
4.6. La maledizione della dimensionalità
4.6.1 Oversampling
4.6.2 Undersampling
4.6.3 Riduzione dei dati multidimensionali
4.7. Da attributi continui a discreti
4.7.1 Dati continui vs discreti
4.7.2 Processo di discretizzazione
4.8. I dati
4.8.1 Selezione dei dati
4.8.2 Prospettiva e criteri di selezione
4.8.3 Metodi di selezione
4.9. Selezione di istanze
4.9.1 Metodi per la selezione di istanze
4.9.2 Selezione di prototipi
4.9.3 Metodi avanzati per la selezione di istanze
4.10. Pre-elaborazione dei dati negli ambienti Big Data
Modulo 5. Algoritmi e complessità nell'Intelligenza Artificiale
5.1. Introduzione ai modelli di progettazione di algoritmi
5.1.1 Ricorsività
5.1.2 Dividi e conquista
5.1.3 Altre strategie
5.2. Efficienza e analisi degli algoritmi
5.2.1 Misure di efficienza
5.2.2 Misurare l'ingresso di input
5.2.3 Misurare il tempo di esecuzione
5.2.4 Caso peggiore, migliore e medio
5.2.5 Notazione asintotica
5.2.6 Criteri di analisi matematica per algoritmi non ricorsivi
5.2.7 Analisi matematica per algoritmi ricorsivi
5.2.8 Analisi empirica degli algoritmi
5.3. Algoritmi di ordinamento
5.3.1 Concetto di ordinamento
5.3.2 Ordinamento delle bolle
5.3.3 Ordinamento per selezione
5.3.4 Ordinamento per inserimento
5.3.5 Ordinamento per fusione (Merge_Sort)
5.3.6 Ordinamento rapido (Quick_Sort)
5.4. Algoritmi con alberi
5.4.1 Concetto di albero
5.4.2 Alberi binari
5.4.3 Percorsi degli alberi
5.4.4 Rappresentare le espressioni
5.4.5 Alberi binari ordinati
5.4.6 Alberi binari bilanciati
5.5. Algoritmi con Heaps
5.5.1 Gli Heaps
5.5.2 L’algoritmo Heapsort
5.5.3 Code prioritarie
5.6. Algoritmi con grafi
5.6.1 Rappresentazione
5.6.2 Percorso in larghezza
5.6.3 Percorso in profondità
5.6.4 Ordinamento topologico
5.7. Algoritmi Greedy
5.7.1 La strategia Greedy
5.7.2 Elementi della strategia Greedy
5.7.3 Cambio valuta
5.7.4 Il problema del viaggiatore
5.7.5 Problema dello zaino
5.8. Ricerca del percorso minimo
5.8.1 Il problema del percorso minimo
5.8.2 Archi e cicli negativi
5.8.3 Algoritmo di Dijkstra
5.9. Algoritmi Greedy sui grafi
5.9.1 L'albero a sovrapposizione minima
5.9.2 Algoritmo di Prim
5.9.3 Algoritmo di Kruskal
5.9.4 Analisi della complessità
5.10. Backtracking
5.10.1 Il Backtracking
5.10.2 Tecniche alternative
Modulo 6. Sistemi intelligenti
6.1. Teoria degli agenti
6.1.1 Storia del concetto
6.1.2 Definizione di agente
6.1.3 Agenti nell'intelligenza artificiale
6.1.4 Agenti nell'Ingegneria dei software
6.2. Architetture di agenti
6.2.1 Il processo di ragionamento dell'agente
6.2.2 Agenti reattivi
6.2.3 Agenti deduttivi
6.2.4 Agenti ibridi
6.2.5 Confronto
6.3. Informazione e conoscenza
6.3.1 Distinzione tra dati, informazioni e conoscenza
6.3.2 Valutazione della qualità dei dati
6.3.3 Metodi di raccolta dei dati
6.3.4 Metodi di acquisizione dei dati
6.3.5 Metodi di acquisizione della conoscenza
6.4. Rappresentazione della conoscenza
6.4.1 L'importanza della rappresentazione della conoscenza
6.4.2 Definire la rappresentazione della conoscenza attraverso i suoi ruoli
6.4.3 Caratteristiche di una rappresentazione della conoscenza
6.5. Ontologie
6.5.1 Introduzione ai metadati
6.5.2 Concetto filosofico di ontologia
6.5.3 Concetto informatico di ontologia
6.5.4 Ontologie di dominio e di livello superiore
6.5.5 Come costruire un'ontologia?
6.6. Linguaggi ontologici e software per la creazione di ontologie
6.6.1 Triple RDF, Turtle e N
6.6.2 Schema RDF
6.6.3 OWL
6.6.4 SPARQL
6.6.5 Introduzione ai diversi strumenti per la creazione di ontologie
6.6.6 Installazione e utilizzo di Protégé
6.7. Il web semantico
6.7.1 Lo stato attuale e il futuro del web semantico
6.7.2 Applicazioni del web semantico
6.8. Altri modelli di rappresentazione della conoscenza
6.8.1 Vocabolari
6.8.2 Panoramica
6.8.3 Tassonomie
6.8.4 Thesauri
6.8.5 Folksonomie
6.8.6 Confronto
6.8.7 Mappe mentali
6.9.Valutazione e integrazione delle rappresentazioni della conoscenza
6.9.1 Logica dell'ordine zero
6.9.2 Logica di primo ordine
6.9.3 Logica descrittiva
6.9.4 Relazione tra i diversi tipi di logica
6.9.5 Prolog: programmazione basata sulla logica del primo ordine
6.10. Ragionatori semantici, sistemi basati sulla conoscenza e sistemi esperti
6.10.1 Concetto di ragionatore
6.10.2 Applicazioni di un ragionatore
6.10.3 Sistemi basati sulla conoscenza
6.10.4 MYCIN, storia dei sistemi esperti
6.10.5 Elementi e architettura dei sistemi esperti
6.10.6 Creazione di sistemi esperti
Modulo 7. Apprendimento automatico e data mining
7.1. Introduzione ai processi di scoperta della conoscenza e ai concetti di base dell'apprendimento automatico
7.1.1 Concetti chiave dei processi di scoperta della conoscenza
7.1.2 Prospettiva storica sui processi di scoperta della conoscenza
7.1.3 Fasi dei processi di scoperta della conoscenza
7.1.4 Tecniche utilizzate nei processi di scoperta della conoscenza
7.1.5 Caratteristiche dei buoni modelli di apprendimento automatico
7.1.6 Tipi di informazioni sull'apprendimento automatico
7.1.7 Concetti di base dell'apprendimento
7.1.8 Concetti di base dell'apprendimento non supervisionato
7.2. Analisi e pre-elaborazione dei dati
7.2.1 Elaborazione dei dati
7.2.2 Trattamento dei dati nel flusso di analisi dei dati
7.2.3 Tipi di dati
7.2.4 Trasformazione dei dati
7.2.5 Visualizzazione ed esplorazione di variabili continue
7.2.6 Visualizzazione ed esplorazione di variabili categoriche
7.2.7 Misure di correlazione
7.2.8 Rappresentazioni grafiche più comuni
7.2.9 Introduzione all'analisi multivariata e alla riduzione delle dimensioni
7.3. Alberi decisionali
7.3.1 Algoritmo ID
7.3.2 Algoritmo C
7.3.3 Sovrallenamento e potatura
7.3.4 Analisi dei risultati
7.4. Valutazione dei classificatori
7.4.1 Matrici di confusione
7.4.2 Matrici di valutazione numerica
7.4.3 Statistica Kappa
7.4.4 La curva ROC
7.5. Regole di classificazione
7.5.1 Misure di valutazione delle regole
7.5.2 Introduzione alla rappresentazione grafica
7.5.3 Algoritmo di sovrapposizione sequenziale
7.6. Reti neuronali
7.6.1 Concetti di base
7.6.2 Reti neurali semplici
7.6.3 Algoritmo di Backpropagation
7.6.4 Introduzione alle reti neurali ricorrenti
7.7. Metodi bayesiani
7.7.1 Concetti di base della probabilità
7.7.2 Teorema di Bayes
7.7.3 Naive Bayes
7.7.4 Introduzione alle reti bayesiane
7.8. Modelli di regressione e di risposta continua
7.8.1 Regressione lineare semplice
7.8.2 Regressione lineare multipla
7.8.3 Regressione logistica
7.8.4 Alberi di regressione
7.8.5 Introduzione alle macchine a vettori di supporto (SVM)
7.8.6 Misure di bontà di adattamento
7.9. Clustering
7.9.1 Concetti di base
7.9.2 Clustering gerarchico
7.9.3 Metodi probabilistici
7.9.4 Algoritmo EM
7.9.5 Metodo B-Cubed
7.9.6 Metodi impliciti
7.10. Estrazione di testi ed elaborazione del linguaggio naturale (NLP)
7.10.1 Concetti di base
7.10.2 Creazione del corpus
7.10.3 Analisi descrittiva
7.10.4 Introduzione alla sentiment analysis
Modulo 8. Le reti neurali, base del deep learning
8.1. Deep learning
8.1.1 Tipi di deep learning
8.1.2 Applicazioni del deep learning
8.1.3 Vantaggi e svantaggi del deep learning
8.2. Operazioni
8.2.1 Somma
8.2.2 Prodotto
8.2.3 Trasporto
8.3. Livelli
8.3.1 Livello di input
8.3.2 Livello nascosto
8.3.3 Livello di output
8.4. Unione di livelli e operazioni
8.4.1 Progettazione dell’architettura
8.4.2 Connessione tra i livelli
8.4.3 Propagazione in avanti
8.5. Costruzione della prima rete neurale
8.5.1 Progettazione della rete
8.5.2 Impostare i pesi
8.5.3 Addestramento della rete
8.6. Trainer e ottimizzatore
8.6.1 Selezione dell'ottimizzatore
8.6.2 Ristabilire una funzione di perdita
8.6.3 Ristabilire una metrica
8.7. Applicazione dei principi delle Reti Neurali
8.7.1 Funzioni di attivazione
8.7.2 Propagazione all'indietro
8.7.3 Regolazioni dei parametri
8.8. Dai neuroni biologici a quelli artificiali
8.8.1 Funzionamento di un neurone biologico
8.8.2 Trasferimento della conoscenza ai neuroni artificiali
8.8.3 Stabilire relazioni tra di essi
8.9. Implementazione di MLP (Perceptron multistrato) con Keras
8.9.1 Definizione della struttura di reti
8.9.2 Creazione del modello
8.9.3 Training del modello
8.10. Iperparametri di Fine tuning di Reti Neurali
8.10.1 Selezione della funzione di attivazione
8.10.2 Stabilire il learning rate
8.10.3 Regolazioni dei pesi
Modulo 9. Addestramento delle reti neurali profonde
9.1. Problemi di gradiente
9.1.1 Tecniche di ottimizzazione gradiente
9.1.2 Gradienti stocastici
9.1.3 Tecniche di inizializzazione dei pesi
9.2. Riutilizzo di strati pre-addestrati
9.2.1 Addestramento per il trasferimento dell'apprendimento
9.2.2 Estrazione delle caratteristiche
9.2.3 Deep learning
9.3. Ottimizzatori
9.3.1 Ottimizzatori a discesa stocastica del gradiente
9.3.2 Ottimizzatori Adam e RMSprop
9.3.3 Ottimizzatori di momento
9.4. Programmazione del tasso di apprendimento
9.4.1 Controllo automatico del tasso di apprendimento
9.4.2 Cicli di apprendimento
9.4.3 Termini di livellamento
9.5. Overfitting
9.5.1 Convalida incrociata
9.5.2 Regolarizzazione
9.5.3 Metriche di valutazione
9.6. Linee guida pratiche
9.6.1 Progettazione dei modelli
9.6.2 Selezione delle metriche e dei parametri di valutazione
9.6.3 Verifica delle ipotesi
9.7. Transfer Learning
9.7.1 Addestramento per il trasferimento dell'apprendimento
9.7.2 Estrazione delle caratteristiche
9.7.3 Deep learning
9.8. Aumento dei dati
9.8.1 Trasformazioni dell'immagine
9.8.2 Generazione di dati sintetici
9.8.3 Trasformazione del testo
9.9. Applicazione Pratica del Transfer Learning
9.9.1 Addestramento per il trasferimento dell'apprendimento
9.9.2 Estrazione delle caratteristiche
9.9.3 Deep learning
9.10. Regolarizzazione
9.10.1 L e L
9.10.2 Regolarizzazione a entropia massima
9.10.3 Dropout
Modulo 10. Personalizzazione di modelli e addestramento con TensorFlow
10.1. TensorFlow
10.1.1 Utilizzo della libreria TensorFlow
10.1.2 Addestramento dei modelli con TensorFlow
10.1.3 Operazioni grafiche su TensorFlow
10.2. TensorFlow e NumPy
10.2.1 Ambiente computazionale NumPy per TensorFlow
10.2.2 Utilizzo degli array NumPy con TensorFlow
10.2.3 Operazioni NumPy per i grafici di TensorFlow
10.3. Personalizzazione di modelli e algoritmi di addestramento
10.3.1 Costruire modelli personalizzati con TensorFlow
10.3.2 Gestione dei parametri di addestramento
10.3.3 Utilizzo di tecniche di ottimizzazione per l’addestramento
10.4. Funzioni e grafica di TensorFlow
10.4.1 Funzioni con TensorFlow
10.4.2 Utilizzo di grafici per l’addestramento dei modelli
10.4.3 Ottimizzazione dei grafici con le operazioni di TensorFlow
10.5. Caricamento e pre-elaborazione dei dati con TensorFlow
10.5.1 Caricamento di insiemi di dati con TensorFlow
10.5.2 Pre-elaborazione dei dati con TensorFlow
10.5.3 Utilizzo di strumenti di TensorFlow per la manipolazione dei dati
10.6. La API tfdata
10.6.1 Utilizzo dell'API tfdata per il trattamento dei dati
10.6.2 Costruzione di flussi di dati con tfdata
10.6.3 Uso dell'API tfdata per l’addestramento dei modelli
10.7. Il formato TFRecord
10.7.1 Utilizzo dell’API TFRecord per la serialità dei dati
10.7.2 Caricamento di file TFRecord con TensorFlow
10.7.3 Utilizzo di file TFRecord per l’addestramento dei modelli
10.8. Livelli di pre-elaborazione di Keras
10.8.1 Utilizzo dell'API di pre-elaborazione Keras
10.8.2 Costruzione di pipeline di pre-elaborazione con Keras
10.8.3 Uso dell'API nella pre-elaborazione di Keras per il training dei modelli
10.9. Il progetto TensorFlow Datasets
10.9.1 Utilizzo di TensorFlow Datasets per la serialità dei dati
10.9.2 Pre-elaborazione dei dati con TensorFlow Datasets
10.9.3 Uso di TensorFlow Datasets per l’addestramento dei modelli
10.10. Costruire un'applicazione di Deep Learning con TensorFlow
10.10.1 Applicazione Pratica
10.10.2 Costruire un'applicazione di deep learning con TensorFlow
10.10.3 Addestramento dei modelli con TensorFlow
10.10.4 Utilizzo dell'applicazione per la previsione dei risultati
Modulo 11. Deep Computer Vision con Reti Neurali Convoluzionali
11.1. L'architettura Visual Cortex
11.1.1 Funzioni della corteccia visiva
11.1.2 Teoria della visione computazionale
11.1.3 Modelli di elaborazione delle immagini
11.2. Layer convoluzionali
11.2.1 Riutilizzazione dei pesi nella convoluzione
11.2.2 Convoluzione D
11.2.3 Funzioni di attivazione
11.3. Livelli di raggruppamento e distribuzione dei livelli di raggruppamento con Keras
11.3.1 Pooling e Striding
11.3.2 Flattening
11.3.3 Tipi di Pooling
11.4. Architetture CNN
11.4.1 Architettura VGG
11.4.2 Architettura AlexNet
11.4.3 Architettura ResNet
11.5. Implementazione di una CNN ResNet- usando Keras
11.5.1 Inizializzazione dei pesi
11.5.2 Definizione del livello di input
11.5.3 Definizione di output
11.6. Uso di modelli pre-addestramento di Keras
11.6.1 Caratteristiche dei modelli pre-addestramento
11.6.2 Usi dei modelli pre-addestramento
11.6.3 Vantaggi dei modelli pre-addestramento
11.7. Modelli pre-addestramento per l'apprendimento tramite trasferimento
11.7.1 L'apprendimento attraverso il trasferimento
11.7.2 Processo di apprendimento per trasferimento
11.7.3 Vantaggi dell’apprendimento per trasferimento
11.8. Classificazione e localizzazione in Deep Computer Vision
11.8.1 Classificazione di immagini
11.8.2 Localizzazione di oggetti nelle immagini
11.8.3 Rilevamento di oggetti
11.9. Rilevamento di oggetti e tracciamento degli oggetti
11.9.1 Metodi di rilevamento degli oggetti
11.9.2 Algoritmi di tracciamento degli oggetti
11.9.3 Tecniche di tracciamento e localizzazione
11.10. Segmentazione semantica
11.10.1 Deep Learning con segmentazione semantica
11.10.2 Rilevamento dei bordi
11.10.3 Metodi di segmentazione basati su regole
Modulo 12. Elaborazione del Linguaggio Naturale (NLP) con Reti Neurali Ricorrenti (RNN) e Assistenza
12.1. Generazione di testo utilizzando RNN
12.1.1 Addestramento di una RNN per la generazione di testo
12.1.2 Generazione di linguaggio naturale con RNN
12.1.3 Applicazioni di generazione di testo con RNN
12.2. Creazione del set di dati di addestramento
12.2.1 Preparazione dei dati per l’addestramento di una RNN
12.2.2 Conservazione del set di dati di addestramento
12.2.3 Pulizia e trasformazione dei dati
12.2.4 Analisi del Sentimento
12.3. Classificazione delle opinioni con RNN
12.3.1 Rilevamento degli argomenti nei commenti
12.3.2 Analisi dei sentimenti con algoritmi di deep learning
12.4. Rete encoder-decoder per eseguire la traduzione automatica neurale
12.4.1 Addestramento di una RNN per eseguire la traduzione automatica
12.4.2 Utilizzo di una rete encoder-decoder per la traduzione automatica
12.4.3 Migliore precisione della traduzione automatica con RNN
12.5. Meccanismi di assistenza
12.5.1 Attuazione di meccanismi di assistenza in RNN
12.5.2 Utilizzo di meccanismi di assistenza per migliorare la precisione dei modelli
12.5.3 Vantaggi dei meccanismi di assistenza nelle reti neurali
12.6. Modelli Transformer
12.6.1 Utilizzo dei modelli Transformer per l'elaborazione del linguaggio naturale
12.6.2 Applicazione dei modelli Transformer per la visione
12.6.3 Vantaggi dei modelli Transformer
12.7. Transformer per la visione
12.7.1 Uso dei modelli Transformer per la visione
12.7.2 Elaborazione dei dati di immagine
12.7.3 Addestramento dei modelli Transformer per la visione
12.8. Libreria di Transformer di Hugging Face
12.8.1 Uso della libreria di Transformer di Hugging Face
12.8.2 Applicazione della libreria Transformer di Hugging Face
12.8.3 Vantaggi della libreria di Transformer di Hugging Face
12.9. Altre Librerie di Transformer: Confronto
12.9.1 Confronto tra le diverse librerie di Transformer
12.9.2 Uso di altre librerie di Transformer
12.9.3 Vantaggi delle altre librerie di Transformer
12.10. Sviluppo di un'applicazione NLP con RNN e assistenza: Applicazione Pratica
12.10.1 Sviluppare di un'applicazione di elaborazione di linguaggio naturale con RNN e assistenza
12.10.2 Utilizzo di RNN, meccanismi di assistenza e modelli Transformer nell'applicazione
12.10.3 Valutazione dell'attuazione pratica
Modulo 13. Autoencoder, GAN, Modelli di Diffusione
13.1. Rappresentazione dei dati efficienti
13.1.1 Riduzione della dimensionalità
13.1.2 Deep learning
13.1.3 Rappresentazioni compatte
13.2. Realizzazione di PCA con un encoder automatico lineare incompleto
13.2.1 Processo di addestramento
13.2.2 Implementazione in Python
13.2.3 Uso dei dati di prova
13.3. Codificatori automatici raggruppati
13.3.1 Reti neurali profonde
13.3.2 Costruzione di architetture di codifica
13.3.3 Uso della regolarizzazione
13.4. Autocodificatori convoluzionali
13.4.1 Progettazione di modelli convoluzionali
13.4.2 Addestramento di modelli convoluzionali
13.4.3 Valutazione dei risultati
13.5. Eliminazione del rumore dei codificatori automatici
13.5.1 Applicare filtro
13.5.2 Progettazione di modelli di codificazione
13.5.3 Uso di tecniche di regolarizzazione
13.6. Codificatori automatici dispersi
13.6.1 Aumentare l'efficienza della codifica
13.6.2 Ridurre al minimo il numero di parametri
13.6.3 Uso di tecniche di regolarizzazione
13.7. Codificatori automatici variazionali
13.7.1 Utilizzo dell’ottimizzazione variazionale
13.7.2 Deep learning non supervisionato
13.7.3 Rappresentazioni latenti profonde
13.8. Creazione di immagini MNIST di moda
13.8.1 Riconoscimento di pattern
13.8.2 Creazione di immagini
13.8.3 Addestramento delle reti neurali profonde
13.9. Reti generative avversarie e modelli di diffusione
13.9.1 Generazione di contenuti da immagini
13.9.2 Modello di distribuzione dei dati
13.9.3 Uso di reti avversarie
13.10. L'implementazione dei modelli
13.10.1 Applicazione pratica
13.10.2 L'implementazione dei modelli
13.10.3 Utilizzo dei dati di prova
13.10.4 Valutazione dei risultati
Modulo 14. Bio-inspired computing
14.1. Introduzione al bio-inspired computing
14.1.1 Introduzione al bio-inspired computing
14.2. Algoritmi di adattamento sociale
14.2.1 Bio-inspired computing basato su colonie di formiche
14.2.2 Varianti degli algoritmi di colonia di formiche
14.2.3 Elaborazione particellare basata su cloud
14.3. Algoritmi genetici
14.3.1 Struttura generale
14.3.2 Implementazioni dei principali operatori
14.4. Strategie spaziali di esplorazione-sfruttamento per algoritmi genetici
14.4.1 Algoritmo CHC
14.4.2 Problemi multimodali
14.5. Modelli di calcolo evolutivo (I)
14.5.1 Strategie evolutive
14.5.2 Programmazione evolutiva
14.5.3 Algoritmi basati sull'evoluzione differenziale
14.6. Modelli di calcolo evolutivo (II)
14.6.1 Modelli evolutivi basati sulla stima delle distribuzioni (EDA)
14.6.2 Programmazione genetica
14.7. Programmazione evolutiva applicata ai problemi di apprendimento
14.7.1 Apprendimento basato sulle regole
14.7.2 Metodi evolutivi nei problemi di selezione delle istanze
14.8. Problemi multi-obiettivo
14.8.1 Concetto di dominanza
14.8.2 Applicazione degli algoritmi evolutivi ai problemi multi-obiettivo
14.9. Reti neurali (I)
14.9.1 Introduzione alle reti neurali
14.9.2 Esempio pratico con le reti neurali
14.10. Reti neurali (II)
14.10.1 Casi di utilizzo delle reti neurali nella ricerca medica
14.10.2 Casi di utilizzo delle reti neurali in economia
14.10.3 Casi di utilizzo delle reti neurali nella visione artificiale
Modulo 15. Intelligenza Artificiale: strategie e applicazioni
15.1. Servizi finanziari
15.1.1 Le implicazioni dell'Intelligenza Artificiale (IA) nei servizi finanziari: opportunità e sfide
15.1.2 Casi d'uso
15.1.3 Potenziali rischi legati all'uso dell'IA
15.1.4 Potenziali sviluppi/utilizzi futuri dell'IA
15.2. Implicazioni dell'Intelligenza Artificiale nel servizio sanitario
15.2.1 Implicazioni dell'IA nel settore sanitario: Opportunità e sfide
15.2.2 Casi d'uso
15.3. Rischi legati all'uso dell'IA nel servizio sanitario
15.3.1 Potenziali rischi legati all'uso dell'IA
15.3.2 Potenziali sviluppi/utilizzi futuri dell'IA
15.4. Retail
15.4.1 Implicazioni dell'IA nel retail: Opportunità e sfide
15.4.2 Casi d'uso
15.4.3 Potenziali rischi legati all'uso dell'IA
15.4.4 Potenziali sviluppi/utilizzi futuri dell'IA
15.5. Industria
15.5.1 Implicazioni dell'IA nell’Industria. Opportunità e sfide
15.5.2 Casi d'uso
15.6. Potenziali rischi legati all'uso dell'IA nell’industria
15.6.1 Casi d'uso
15.6.2 Potenziali rischi legati all'uso dell'IA
15.6.3 Potenziali sviluppi/utilizzi futuri dell'IA
15.7. Pubblica Amministrazione
15.7.1 Implicazioni dell'IA nella Pubblica Amministrazione: Opportunità e sfide
15.7.2 Casi d'uso
15.7.3 Potenziali rischi legati all'uso dell'IA
15.7.4 Potenziali sviluppi/utilizzi futuri dell'IA
15.8. Istruzione
15.8.1 Implicazioni dell'IA nell’educazione: Opportunità e sfide
15.8.2 Casi d'uso
15.8.3 Potenziali rischi legati all'uso dell'IA
15.8.4 Potenziali sviluppi/utilizzi futuri dell'IA
15.9. Silvicoltura e agricoltura
15.9.1 Implicazioni dell'IA nella silvicoltura e nell’agricoltura: Opportunità e sfide
15.9.2 Casi d'uso
15.9.3 Potenziali rischi legati all'uso dell'IA
15.9.4 Potenziali sviluppi/utilizzi futuri dell'IA
15.10. Risorse umane
15.10.1 Implicazioni dell'IA nelle Risorse Umane: Opportunità e sfide
15.10.2 Casi d'uso
15.10.3 Potenziali rischi legati all'uso dell'IA
15.10.4 Potenziali sviluppi/utilizzi futuri dell'IA

Esplorerai argomenti come i modelli di IA generativa, l'informatica quantistica applicata e le strategie di etica e governance con la migliore università digitale del mondo secondo Forbes"
Master Semipresenziale in Intelligenza Artificiale
Benvenuto al Master Semipresenziale in Intelligenza Artificiale di TECH Technological University, dove l'innovazione didattica si fonde con la flessibilità dell'apprendimento online e l'esperienza pratica nelle nostre strutture specializzate. Questo programma è progettato per prepararti a diventare una professionista versatile nel campo dell'Intelligenza Artificiale, offrendoti un approccio completo che combina teoria avanzata e applicazioni pratiche. Durante le lezioni miste, avrai accesso a contenuti teorici all'avanguardia attraverso la nostra piattaforma digitale, che ti consentirà di studiare al tuo ritmo e ovunque tu sia. Inoltre, gli stage in loco presso il nostro centro ti permetteranno di applicare le tue conoscenze in ambienti controllati, sotto la guida di esperti in materia. Nel corso del programma, esplorerai argomenti fondamentali come l'apprendimento automatico, l'elaborazione dei big data, la <i>computer vision</i> e la robotica intelligente. Imparerai a sviluppare algoritmi avanzati che stanno trasformando interi settori, da quello sanitario a quello automobilistico e bancario.
Formati in IA con la teoria online e i tirocini in presenza
Sai perché TECH è considerata una delle migliori università del mondo? Perché abbiamo un catalogo di oltre diecimila programmi accademici, presenza in più Paesi, metodologie innovative, tecnologie accademiche uniche e un team di docenti altamente qualificati; ecco perché non puoi perdere l'opportunità di studiare con questo corso post-laurea che unisce teoria online e tirocini in presenza. Il nostro corpo docente è composto da professionisti con esperienza reale in progetti globali di IA, che ti assicurano di acquisire le competenze pratiche e le conoscenze aggiornate richieste dal mercato del lavoro odierno. Inoltre, avrai l'opportunità di collaborare a progetti reali, favorendo lo sviluppo di capacità di lavoro di squadra e di leadership che sono fondamentali nel mondo del lavoro. Al termine del Master, sarai pronto ad affrontare le sfide più impegnative dell'Intelligenza Artificiale, contribuendo all'innovazione e al progresso tecnologico in qualsiasi settore tu scelga. Consegui la tua laurea presso TECH Technological University e diventa un leader nella trasformazione digitale con i nostri strumenti, conoscenze e contenuti di alta qualità.