Diplôme universitaire
Centre Collaborateur
La plus grande faculté d’ingénieurs du monde”
Présentation
Grâce à ce Mastère Spécialisé Hybride, vous développerez des compétences techniques spécialisées dans l'apprentissage automatique, l'exploration de données, les réseaux neuronaux et le traitement du langage naturel’’
L'Intelligence Artificielle (IA) a connu des avancées significatives ces dernières années, transformant diverses industries grâce à des technologies émergentes telles que les grands modèles de langage et les réseaux neuronaux profonds. Les ingénieurs mettent en œuvre ces technologies pour optimiser les processus.
C'est ainsi qu'est né ce Mastère Spécialisé Hybride, qui abordera l'évolution historique de l'IA, les principes des réseaux neuronaux et des algorithmes génétiques, ainsi que l'importance de la structuration des données à travers les thésaurus et les taxonomies. Il se concentrera également sur les concepts fondamentaux des statistiques, la classification des données et leur cycle de vie, y compris la planification, la collecte et le stockage des Datawarehouses.
Le cours se concentrera également sur la science des données et l'exploration des données, en fournissant aux ingénieurs des outils et des techniques pour l'extraction, la transformation et la visualisation des informations, ainsi que pour la préparation et le nettoyage des données. Les stratégies de conception d'algorithmes, l'analyse de l'efficacité des algorithmes et la théorie des agents seront également introduites, ainsi que la représentation des connaissances et le web sémantique.
Enfin, l'apprentissage supervisé et non supervisé sera abordé, ainsi que les techniques avancées de Deep Learning. Les professionnels seront également en mesure de personnaliser des modèles avec TensorFlow et d'appliquer le Deep Learning au traitement du langage naturel. Le diplôme culminera avec l'étude des autoencodeurs, des GAN et des modèles de diffusion, ainsi que de l'informatique bio-inspirée et des stratégies de mise en œuvre de l'IA dans divers secteurs.
Dans ce contexte, TECH a conçu un programme universitaire qui combine la théorie 100% en ligne avec un séjour pratique de 3 semaines dans les entreprises les plus renommées du secteur. Ainsi, la première moitié de la formation sera adaptée à l'emploi du temps professionnel et personnel du diplômé, qui n'aura besoin que d'un appareil électronique doté d'une connexion Internet. En outre, il sera basé sur la méthodologie révolutionnaire du réapprentissage, qui consiste à répéter des concepts clés pour une assimilation optimale et organique du contenu.
Vous élargirez vos opportunités professionnelles, en vous positionnant à la pointe de l'innovation technologique et en étant très compétitif sur un marché de l'emploi en constante évolution’’
Ce Mastère Spécialisé Hybride en Intelligence Artificielle contient le programme le plus complet et le plus actualisé du marché. Ses caractéristiques sont les suivantes:
- Le développement de 100 cas pratiques présentés par des experts en Intelligence Artificielle
- Son contenu graphique, schématique et éminemment pratique fournit des informations essentiel sur les disciplines indispensables à la pratique professionnelle
- Il met l'accent sur les méthodologies innovantes
- Tout cela sera complété par des cours théoriques, des questions à l'expert, des forums de discussion sur des sujets controversés et un travail de réflexion individuel
- Disponibilité des contenus à partir de tout appareil fixe ou portable doté d'une connexion internet
- En outre, vous pourrez effectuer un stage pratique dans l'une des meilleures entreprises
Vous passerez un séjour intensif de trois semaines dans une institution prestigieuse spécialisée dans l'Intelligence Artificielle, où vous acquerrez les compétences nécessaires pour dynamiser votre carrière d'ingénieur’’
Dans cette proposition de Mastère, de nature professionnalisante et de modalité d'apprentissage hybride, le programme vise à mettre à jour les professionnels dans le domaine de l'informatique. Les contenus sont basés sur les dernières données scientifiques et orientés de manière didactique pour intégrer les connaissances théoriques dans la pratique.
Grâce à son contenu multimédia développé avec les dernières technologies éducatives, il permettra au professionnel de l'Informatique d'apprendre de manière située et contextuelle, c'est-à-dire dans un environnement simulé qui fournira un apprentissage immersif programmé pour s'entraîner dans des situations réelles. La conception de ce programme est basée sur l'Apprentissage par les Problèmes, grâce auquel le médecin devra essayer de résoudre les différentes situations de pratique professionnelle qui se présentent tout au long du programme. Pour ce faire, l’étudiant sera assisté d'un innovant système de vidéos interactives, créé par des experts reconnus.
Vous vous plongerez dans la science des données, les techniques d'exploration et de visualisation, ainsi que dans la préparation et le nettoyage des données pour l'exploration des données, grâce à une vaste bibliothèque de ressources multimédias"
Vous serez immergé dans les techniques avancées d'apprentissage supervisé et non supervisé, ainsi que dans l'application du Deep Learning, grâce aux meilleurs supports pédagogiques, à la pointe de l'éducation"
Programme d'études
Le matériel pédagogique qui compose ce Mastère Spécialisé Hybride a été designé par un groupe d'experts hautement spécialisés en Intelligence Artificielle. Les diplômés auront ainsi accès à un programme d'études qui se distingue par son excellente qualité et par sa capacité à répondre aux exigences du marché du travail actuel. Composé de 15 modules complets, l'itinéraire académique mettra l'accent sur les processus de découverte de connaissances et d'Apprentissage Automatique. Ainsi, vous vous plongerez dans le développement d'algorithmes et de modèles qui permettent aux machines d'apprendre des modèles et d'effectuer des tâches.
Optez pour la TECH! Ce programme universitaire comprend des modules spécialisés dans des domaines émergents tels que les autoencodeurs, la modélisation de la diffusion et l'informatique bio-inspirée’’
Module 1. Les principes fondamentaux de l'Intelligence Artificielle
1.1. Histoire de l'Intelligence Artificielle
1.1.1. Quand avons-nous commencé à parler d'intelligence artificielle?
1.1.2. Références dans le cinéma
1.1.3. Importance de l'intelligence artificielle
1.1.4. Technologies habilitantes et de soutien pour l'intelligence artificielle
1.2. L'Intelligence Artificielle dans les jeux
1.2.1. La théorie des Jeux
1.2.2. Minimax et Alpha-Beta
1.2.3. Simulation: Monte Carlo
1.3. Réseaux neuronaux
1.3.1. Fondements biologiques
1.3.2. Modèle computationnel
1.3.3. Réseaux neuronaux supervisés et non supervisés
1.3.4. Perceptron simple
1.3.5. Perceptron multicouche
1.4. Algorithmes génétiques
1.4.1. Histoire
1.4.2. Base biologique
1.4.3. Codification des problèmes
1.4.4. Génération de la population initiale
1.4.5. Algorithme principal et opérateurs génétiques
1.4.6. Évaluation des individus: Fitness
1.5. Thésaurus, vocabulaires, taxonomies
1.5.1. Vocabulaire
1.5.2. Taxonomie
1.5.3. Thésaurus
1.5.4. Ontologies
1.5.5. Représentation des connaissances: web sémantique
1.6. Web sémantique
1.6.1. Spécifications: RDF, RDFS et OWL
1.6.2. Inférence/raisonnement
1.6.3. Linked Data
1.7. Systèmes experts et DSS
1.7.1. Systèmes experts
1.7.2. Systèmes d'aide à la décision
1.8. Chatbots et assistants virtuels
1.8.1. Types d'assistants: assistants vocaux et textuels
1.8.2. Éléments fondamentaux pour le développement d'un assistant: Intents, entités et flux de dialogue
1.8.3. Intégrations: web, Slack, Whatsapp, Facebook
1.8.4. Outils d'aide au développement: Dialog Flow, Watson Assistant
1.9. Stratégie de mise en œuvre de l'IA
1.10. L'avenir de l'intelligence artificielle
1.10.1. Nous comprenons comment détecter les émotions grâce aux algorithmes
1.10.2. Créer une personnalité: langage, expressions et contenu
1.10.3. Tendances de l'Intelligence Artificielle
1.10.4. Réflexion
Module 2. Types et Cycle de Vie des données
2.1. Statistiques
2.1.1. Statistiques: statistiques descriptives, inférences statistiques
2.1.2. Population, échantillon, individu
2.1.3. Variables: définition, échelles de mesure
2.2. Types de données statistiques
2.2.1. Selon le type
2.2.1.1. Quantitatif: données continues et données discrètes
2.2.1.2. Qualitatif: données binomiales, données nominales et données ordinales
2.2.2. Selon la forme
2.2.2.1. Numérique
2.2.2.2. Texte
2.2.2.3. Logique
2.2.3. Selon la source
2.2.3.1. Primaire
2.2.3.2. Secondaire
2.3. Cycle de vie des données
2.3.1. Étape de cycle
2.3.2. Les étapes du cycle
2.3.3. Les principes du FAIR
2.4. Les premières étapes du cycle
2.4.1. Définition des objectifs
2.4.2. Détermination des besoins en ressources
2.4.3. Diagramme de Gantt
2.4.4. Structure des données
2.5. Collecte des données
2.5.1. Méthodologie de collecte
2.5.2. Outils de collecte
2.5.3. Canaux de collecte
2.6. Nettoyage des données
2.6.1. Phases du nettoyage des données
2.6.2. Qualité des données
2.6.3. Manipulation des données (avec R)
2.7. Analyse des données, interprétations, évaluation des résultats
2.7.1. Mesures statistiques
2.7.2. Indices de ratios
2.7.3. Extraction de données
2.8. Entrepôt de données (Datawarehouse)
2.8.1. Les éléments qui le composent
2.8.2. Design
2.8.3. Aspects à prendre en compte
2.9. Disponibilité des données
2.9.1. Accès
2.9.2. Utilité
2.9.3. Sécurité
2.10. Aspects réglementaires
2.10.1. Loi sur la protection des données
2.10.2. Bonnes pratiques
2.10.3. Autres aspects réglementaires
Module 3. Les données en Intelligence Artificielle
3.1. Science des données
3.1.1. La science des données
3.1.2. Outils avancés pour le scientifique des données
3.2. Données, informations et connaissances
3.2.1. Données, informations et connaissances
3.2.2. Types de données
3.2.3. Sources des données
3.3. Des données aux informations
3.3.1. Analyse des données
3.3.2. Types d’analyse
3.3.3. Extraction d'informations d'un dataset
3.4. Extraction d'informations par la visualisation
3.4.1. La visualisation comme outils d’analyse
3.4.2. Méthodes de visualisation
3.4.3. Visualisation d'un ensemble de données
3.5. Qualité des données
3.5.1. Données de qualités
3.5.2. Nettoyage des données
3.5.3. Prétraitement de base des données
3.6. Dataset
3.6.1. Enrichissement du Dataset
3.6.2. La malédiction de la dimensionnalité
3.6.3. Modification d'un ensemble de données
3.7. Déséquilibre
3.7.1. Déséquilibre des classes
3.7.2. Techniques d'atténuation du déséquilibre
3.7.3. Équilibrer un Dataset
3.8. Modèles non supervisés
3.8.1. Modèles non supervisés
3.8.2. Méthodes
3.8.3. Classifications avec modèles non supervisés
3.9. Modèles supervisés
3.9.1. Modèles supervisés
3.9.2. Méthodes
3.9.3. Classifications avec modèles supervisés
3.10. Outils et bonnes pratiques
3.10.1. Bonnes pratiques pour un scientifique des données
3.10.2. Le meilleur modèle
3.10.3. Outils utiles
Module 4. Extraction de Données. Sélection, prétraitement et transformation
4.1. Inférence statistique
4.1.1. Statistique descriptive vs. Inférence Statistique
4.1.2. Procédures paramétriques
4.1.3. Procédures non paramétriques
4.2. Analyse exploratoire
4.2.1. Analyse descriptive
4.2.2. Visualisation
4.2.3. Préparations des données
4.3. Préparations des données
4.3.1. Intégration et nettoyage des données
4.3.2. Normalisation des données
4.3.3. Transformer les attributs
4.4. Valeurs manquantes
4.4.1. Traitement des valeurs manquantes
4.4.2. Méthodes d'imputation par maximum de vraisemblance
4.4.3. Imputation des valeurs manquantes à l'aide de l'apprentissage automatique
4.5. Bruit dans les données
4.5.1. Classes et attributs de bruit
4.5.2. Filtrage du bruit
4.5.3. L’effet du bruit
4.6. La malédiction de la dimensionnalité
4.6.1. Oversampling
4.6.2. Undersampling
4.6.3. Réduction des données multidimensionnelles
4.7. Des attributs continus aux attributs discrets
4.7.1. Données continues ou discrètes
4.7.2. Processus de discrétisation
4.8. Les données
4.8.1. Sélection des données
4.8.2. Perspectives et critères de sélections
4.8.3. Méthodes de sélection
4.9. Sélection des instances
4.9.1. Méthodes de sélection des instances
4.9.2. Sélection des prototypes
4.9.3. Méthodes avancées de sélection des instances
4.10. Pré-traitement des données dans les environnements Big Data
Module 5. Algorithme et complexité en Intelligence Artificielle
5.1. Introduction aux stratégies de conception d'algorithmes
5.1.1. Récursion
5.1.2. Diviser pour mieux régner
5.1.3. Autres stratégies
5.2. Efficacité et analyse des algorithmes
5.2.1. Mesures d'efficacité
5.2.2. Taille de l'entrée de mesure
5.2.3. Mesure du temps d'exécution
5.2.4. Pire, meilleur et moyen cas
5.2.5. Notation asymptotique
5.2.6. Critères d'Analyse mathématique des algorithmes non récursifs
5.2.7. Analyse mathématique des algorithmes récursifs
5.2.8. Analyse empirique des algorithmes
5.3. Algorithmes de tri
5.3.1. Concept de tri
5.3.2. Triage des bulles
5.3.3. Tri par sélection
5.3.4. Triage par insertion
5.3.5. Tri fusion (Merge_Sort)
5.3.6. Tri rapide (Quick_Sort)
5.4. Algorithmes avec arbres
5.4.1. Concept d'arbre
5.4.2. Arbres binaires
5.4.3. Allées d'arbres
5.4.4. Représentation des expressions
5.4.5. Arbres binaires ordonnés
5.4.6. Arbres binaires équilibrés
5.5. Algorithmes avec Heaps
5.5.1. Les Heaps
5.5.2. L'algorithme Heapsort
5.5.3. Files d'attente prioritaires
5.6. Algorithmes graphiques
5.6.1. Représentation
5.6.2. Voyage en largeur
5.6.3. Profondeur de déplacement
5.6.4. Disposition topologique
5.7. Algorithmes Greedy
5.7.1. La stratégie Greedy
5.7.2. Éléments de la stratégie Greedy
5.7.3. Change de devises
5.7.4. Le problème du voyageur
5.7.5. Problème de sac à dos
5.8. Recherche de chemins minimaux
5.8.1. Le problème du chemin minimal
5.8.2. Arcs et cycles négatifs
5.8.3. Algorithme de Dijkstra
5.9. Algorithmes Greedy sur les graphes
5.9.1. L'arbre à chevauchement minimal
5.9.2. L'algorithme de Prim
5.9.3. L'algorithme de Kruskal
5.9.4. Analyse de la complexité
5.10. Backtracking
5.10.1. Le Backtracking
5.10.2. Techniques alternatives
Module 6. Systèmes intelligents
6.1. Théorie des agents
6.1.1. Histoire du concept
6.1.2. Définition d’agent
6.1.3. Les agents en Intelligence Artificielle
6.1.4. Les agents en Génie de Software
6.2. Architectures des agents
6.2.1. Le processus de raisonnement d'un agent
6.2.2. Agents réactifs
6.2.3. Agents déductifs
6.2.4. Agents hybrides
6.2.5. Comparaison
6.3. Information et connaissance
6.3.1. Distinction entre données, informations et connaissances
6.3.2. Évaluation de la qualité des données
6.3.3. Méthode de capture des données
6.3.4. Méthodes d'acquisition des informations
6.3.5. Méthodes d'acquisition des connaissances
6.4. Représentation de la connaissance
6.4.1. L'importance de la représentation de la connaissance
6.4.2. Définition de la représentation des connaissances à travers leurs rôles
6.4.3. Caractéristiques de la représentation de la connaissance
6.5. Ontologies
6.5.1. Introduction aux Métadonnées
6.5.2. Concept philosophique d'ontologie
6.5.3. Concept informatique d'ontologie
6.5.4. Ontologies de domaine et ontologies de niveau supérieur
6.5.5. Comment construire une ontologie?
6.6. Langages d'ontologie et logiciels de création d'ontologies
6.6.1. Triplés RDF, Turtle et N
6.6.2. RDF Schema
6.6.3. OWL
6.6.4. SPARQL
6.6.5. Introduction aux différents outils de création d'ontologies
6.6.6. Installation et utilisation du Protégé
6.7. Le web sémantique
6.7.1. L'état actuel et futur du web sémantique
6.7.2. Applications du web sémantique
6.8. Autres modèles de représentation de la connaissance
6.8.1. Vocabulaire
6.8.2. Vision globale
6.8.3. Taxonomie
6.8.4. Thésaurus
6.8.5. Folksonomies
6.8.6. Comparaison
6.8.7. Cartes mentales
6.9. Évaluation et intégration des représentations de la connaissance
6.9.1. Logique d'ordre zéro
6.9.2. Logique de premier ordre
6.9.3. Logique descriptive
6.9.4. Relations entre les différents types de logique
6.9.5. Prolog: programmation basée sur la logique du premier ordre
6.10. Raisonneurs sémantiques, systèmes à base de connaissances et Systèmes Experts
6.10.1. Concept de raisonneur
6.10.2. Application d’un raisonneur
6.10.3. Systèmes basés sur la connaissance
6.10.4. MYCIN, histoire des Systèmes Experts
6.10.5. Éléments et Architecture des Systèmes Experts
6.10.6. Création de Systèmes Experts
Module 7. Apprentissage automatique et exploration des données
7.1. Introduction à les processus de découverte des connaissances et les concepts de base de l'apprentissage automatique
7.1.1. Concepts clés du processus de découverte de connaissances
7.1.2. Perspective historique du processus de découverte de connaissances
7.1.3. Étapes du processus de découverte de connaissances
7.1.4. Techniques utilisées dans les processus de découverte de connaissances
7.1.5. Caractéristiques des bons modèles d'apprentissage automatique
7.1.6. Types d'informations sur l'apprentissage automatique
7.1.7. Concepts de base de l'apprentissage
7.1.8. Concepts de base de l'apprentissage non supervisé
7.2. Exploration et prétraitement des données
7.2.1. Traitement des données
7.2.2. Traitement des données dans le flux d'analyse des données
7.2.3. Types de données
7.2.4. Transformations de données
7.2.5. Affichage et exploration des variables continues
7.2.6. Affichage et exploration des variables catégorielles
7.2.7. Mesures de corrélation
7.2.8. Représentations graphiques les plus courantes
7.2.9. Introduction à l'analyse multivariée et à la réduction des dimensions
7.3. Arbres de décision
7.3.1. Algorithme ID
7.3.2. Algorithme C
7.3.3. Surentraînement et taillage
7.3.4. Analyse des résultats
7.4. Évaluation des classificateurs
7.4.1. Matrices de confusion
7.4.2. Matrices d'évaluation numérique
7.4.3. Statistique de Kappa
7.4.4. La courbe ROC
7.5. Règles de classification
7.5.1. Mesures d'évaluation des règles
7.5.2. Introduction à la représentation graphique
7.5.3. Algorithme de superposition séquentielle
7.6. Réseaux neuronaux
7.6.1. Concepts de base
7.6.2. Réseaux neuronaux simples
7.6.3. Algorithme de Backpropagation
7.6.4. Introduction aux réseaux neuronaux récurrents
7.7. Méthodes bayésiennes
7.7.1. Concepts de base des probabilités
7.7.2. Théorème de Bayes
7.7.3. Naive Bayes
7.7.4. Introduction aux réseaux bayésiens
7.8. Modèles de régression et de réponse continue
7.8.1. Régression linéaire simple
7.8.2. Régression linéaire multiple
7.8.3. Régression logistique
7.8.4. Arbres de régression
7.8.5. Introduction aux machines à vecteurs de support (SVM)
7.8.6. Mesures de qualité de l'ajustement
7.9. Clustering
7.9.1. Concepts de base
7.9.2. Clustering hiérarché
7.9.3. Méthodes probabilistes
7.9.4. Algorithme EM
7.9.5. Méthode B-Cubed
7.9.6. Méthodes implicites
7.10. Exploration de textes et traitement du langage naturel (NLP)
7.10.1. Concepts de base
7.10.2. Création du corpus
7.10.3. Analyse descriptive
7.10.4. Introduction à l'analyse des sentiments
Module 8. Les Réseaux Neuronaux, la base du Deep Learning
8.1. Apprentissage profond
8.1.1. Types d'apprentissage profond
8.1.2. Applications de l'apprentissage profond
8.1.3. Avantages et Inconvénients de l'apprentissage profond
8.2. Opérations
8.2.1. Somme
8.2.2. Produit
8.2.3. Transfert
8.3. Couches
8.3.1. Couche d'entrée
8.3.2. Couche cachée
8.3.3. Couche de sortie
8.4. Liaison des couches et opérations
8.4.1. Conception des architectures
8.4.2. Connexion entre les couches
8.4.3. Propagation vers l'avant
8.5. Construction du premier réseau neuronal
8.5.1. Conception du réseau
8.5.2. Établissement des poids
8.5.3. Entraînement du réseau
8.6. Entraîneur et optimiseur
8.6.1. Sélection de l'optimiseur
8.6.2. Établissement d'une fonction de perte
8.6.3. Établissement d'une métrique
8.7. Application des principes des réseaux neuronaux
8.7.1. Fonctions d'activation
8.7.2. Propagation à rebours
8.7.3. Paramétrage
8.8. Des neurones biologiques aux neurones artificiels
8.8.1. Fonctionnement d'un neurone biologique
8.8.2. Transfert de connaissances aux neurones artificiels
8.8.3. Établissement de relations entre les deux
8.9. Mise en œuvre du MLP (Perceptron Multicouche) avec Keras
8.9.1. Définition de la structure du réseau
8.9.2. Compilation du modèle
8.9.3. Formation au modèle
8.10. Hyperparamètres de Fine tuning des Réseaux Neuronaux
8.10.1. Sélection de la fonction d'activation
8.10.2. Réglage du Learning rate
8.10.3. Réglage des poids
Module 9. Entraînement de Réseaux neuronaux profonds
9.1. Problèmes de gradient
9.1.1. Techniques d'optimisation du gradient
9.1.2. Gradients stochastiques
9.1.3. Techniques d'initialisation des poids
9.2. Réutilisation des couches pré-entraînées
9.2.1. Entraînement par transfert d'apprentissage
9.2.2. Extraction de caractéristiques
9.2.3. Apprentissage profond
9.3. Optimisateurs
9.3.1. Optimiseurs stochastiques à descente de gradient
9.3.2. Optimiseurs Adam et RMSprop
9.3.3. Optimiseurs de moment
9.4. Programmation du taux de d'apprentissage
9.4.1. Contrôle automatique du taux d'apprentissage
9.4.2. Cycles d'apprentissage
9.4.3. Termes de lissage
9.5. Surajustement
9.5.1. Validation croisée
9.5.2. Régularisation
9.5.3. Mesures d'évaluation
9.6. Lignes directrices pratiques
9.6.1. Conception de modèles
9.6.2. Sélection des métriques et des paramètres d'évaluation
9.6.3. Tests d'hypothèses
9.7. Transfer Learning
9.7.1. Entraînement par transfert d'apprentissage
9.7.2. Extraction de caractéristiques
9.7.3. Apprentissage profond
9.8. Data Augmentation
9.8.1. Transformation d’image
9.8.2. Génération de données synthétiques
9.8.3. Transformation de texte
9.9. Application pratique du Transfer Learning
9.9.1. Entraînement par transfert d'apprentissage
9.9.2. Extraction de caractéristiques
9.9.3. Apprentissage profond
9.10. Régularisation
9.10.1. L et L
9.10.2. Régularisation par entropie maximale
9.10.3. Dropout
Module 10. Personnaliser les Modèles et l’entraînement avec TensorFlow
10.1. TensorFlow
10.1.1. Utilisation de la bibliothèque TensorFlow
10.1.2. Entraînement des modèles avec TensorFlow
10.1.3. Opérations avec les graphes dans TensorFlow
10.2. TensorFlow et NumPy
10.2.1. Environnement de calcul NumPy pour TensorFlow
10.2.2. Utilisation des arrays NumPy avec TensorFlow
10.2.3. Opérations NumPy pour les graphes TensorFlow
10.3. Personnalisation des modèles et des algorithmes d'apprentissage
10.3.1. Construire des modèles personnalisés avec TensorFlow
10.3.2. Gestion des paramètres d'entraînement
10.3.3. Utilisation de techniques d'optimisation pour l'entraînement
10.4. Fonctions et graphiques TensorFlow
10.4.1. Fonctions avec TensorFlow
10.4.2. Utilisation des graphes pour l'apprentissage des modèles
10.4.3. Optimisation des graphes avec les opérations TensorFlow
10.5. Chargement des données et prétraitement avec TensorFlow
10.5.1. Chargement des données d'ensembles avec TensorFlow
10.5.2. Prétraitement des données avec TensorFlow
10.5.3. Utilisation des outils TensorFlow pour la manipulation des données
10.6. L'API tfdata
10.6.1. Utilisation de l'API tfdata pour le traitement des données
10.6.2. Construction des flux de données avec tfdata
10.6.3. Utilisation de l'API tfdata pour l’entrainement des modèles
10.7. Le format TFRecord
10.7.1. Utilisation de l'API TFRecord pour la sérialisation des données
10.7.2. Chargement de fichiers TFRecord avec TensorFlow
10.7.3. Utilisation des fichiers TFRecord pour l'entraînement des modèles
10.8. Couches de prétraitement Keras
10.8.1. Utilisation de l'API de prétraitement Keras
10.8.2. Construire un prétraitement en pipelined avec Keras
10.8.3. Utilisation de l'API de prétraitement Keras pour l’entrainement des modèles
10.9. Le projet TensorFlow Datasets
10.9.1. Utilisation de TensorFlow Datasets pour le chargement des données
10.9.2. Prétraitement des données avec TensorFlow Datasets
10.9.3. Utilisation de TensorFlow Datasets pour l’entrainement des modèles
10.10. Construire une application de Deep Learning avec TensorFlow
10.10.1. Application Pratique
10.10.2. Construire une application de Deep Learning avec TensorFlow
10.10.3. Entraînement des modèles avec TensorFlow
10.10.4. Utilisation de l'application pour la prédiction des résultats
Module 11. Deep Computer Vision avec des Réseaux Neuronaux Convolutifs
11.1. L’Architecture Visual Cortex
11.1.1. Fonctions du cortex visuel
11.1.2. Théorie de la vision computationnelle
11.1.3. Modèles de traitement des images
11.2. Couches convolutives
11.2.1. Réutilisation des poids dans la convolution
11.2.2. Convolution D
11.2.3. Fonctions d'activation
11.3. Couches de regroupement et implémentation des couches de regroupement avec Keras
11.3.1. Pooling et Striding
11.3.2. Flattening
11.3.3. Types de Pooling
11.4. Architecture du CNN
11.4.1. Architecture du VGG
11.4.2. Architecture AlexNet
11.4.3. Architecture ResNet
11.5. Mise en œuvre d'un CNN ResNet- à l'aide de Keras
11.5.1. Initialisation des poids
11.5.2. Définition de la couche d'entrée
11.5.3. Définition de la sortie
11.6. Utilisation de modèles Keras pré-entraînés
11.6.1. Caractéristiques des modèles pré-entraînés
11.6.2. Utilisations des modèles pré-entraînés
11.6.3. Avantages des modèles pré-entraînés
11.7. Modèles pré-entraînés pour l'apprentissage par transfert
11.7.1. Apprentissage par transfert
11.7.2. Processus d'apprentissage par transfert
11.7.3. Avantages de l'apprentissage par transfert
11.8. Classification et localisation en Deep Computer Vision
11.8.1. Classification des images
11.8.2. Localisation d'objets dans les images
11.8.3. Détection d'objets
11.9. Détection et suivi d'objets
11.9.1. Méthodes de détection d'objets
11.9.2. Algorithmes de suivi d'objets
11.9.3. Techniques de suivi et de localisation
11.10. Segmentation sémantique
11.10.1. Apprentissage profond pour la segmentation sémantique
11.10.2. Détection des bords
11.10.3. Méthodes de segmentation basées sur des règles
Module 12. Traitement du langage naturel (NLP) avec les Réseaux Récurrents Naturels (NNN) et l'Attention
12.1. Génération de texte à l'aide de RNN
12.1.1. Formation d'un RNN pour la génération de texte
12.1.2. Génération de langage naturel avec RNN
12.1.3. Applications de génération de texte avec RNN
12.2. Création d'ensembles de données d'entraînement
12.2.1. Préparation des données pour l'entraînement des RNN
12.2.2. Stockage de l'ensemble de données de formation
12.2.3. Nettoyage et transformation des données
12.2.4. Analyse des Sentiments
12.3. Classement des opinions avec RNN
12.3.1. Détection des problèmes dans les commentaires
12.3.2. Analyse des sentiments à l'aide d'algorithmes d'apprentissage profond
12.4. Réseau encodeur-décodeur pour la traduction automatique neuronale
12.4.1. Formation d'un RNN pour la traduction automatique
12.4.2. Utilisation d'un réseau encoder-decoder pour la traduction automatique
12.4.3. Améliorer la précision de la traduction automatique avec les RNN
12.5. Mécanismes de l’attention
12.5.1. Application de mécanismes de l’attention avec les RNN
12.5.2. Utilisation de mécanismes d'attention pour améliorer la précision des modèles
12.5.3. Avantages des mécanismes d'attention dans les réseaux neuronaux
12.6. Modèles Transformers
12.6.1. Utilisation des modèles Transformers pour le traitement du langage naturel
12.6.2. Application des modèles Transformers pour la vision
12.6.3. Avantages des modèles Transformers
12.7. Transformers pour la vision
12.7.1. Utilisation des modèles Transformers pour la vision
12.7.2. Prétraitement des données d'imagerie
12.7.3. Entrainement d’un modèle Transformers pour la vision
12.8. Bibliothèque de Transformers de Hugging Face
12.8.1. Utilisation de la bibliothèque de Transformers de Hugging Face
12.8.2. Application de la bibliothèque de Transformers de Hugging Face
12.8.3. Avantages de la bibliothèque de Transformers de Hugging Face
12.9. Autres bibliothèques de Transformers. Comparaison
12.9.1. Comparaison entre les bibliothèques de Transformers
12.9.2. Utilisation de bibliothèques de Transformers
12.9.3. Avantages des bibliothèque de Transformers
12.10. Développement d'une Application NLP avec RNN et l’Atention Application Pratique
12.10.1. Développer une application du traitement du langage naturel à l'aide de RNN et de l'attention
12.10.2. Utilisation des RNN, des mécanismes de soins et des modèles Transformers dans l'application
12.10.3. Évaluation de l'application pratique
Module 13. Autoencodeurs, GAN et Modèles de Diffusion
13.1. Représentation des données efficaces
13.1.1. Réduction de la dimensionnalité
13.1.2. Apprentissage profond
13.1.3. Représentations compactes
13.2. Réalisation de PCA avec un codeur automatique linéaire incomplet
13.2.1. Processus d'apprentissage
13.2.2. Implémentation Python
13.2.3. Utilisation des données de test
13.3. Codeurs automatiques empilés
13.3.1. Réseaux neuronaux profonds
13.3.2. Construction d'architectures de codage
13.3.3. Utilisation de la régularisation
13.4. Auto-encodeurs convolutifs
13.4.1. Conception du modèle convolutionnels
13.4.2. Entrainement de modèles convolutionnels
13.4.3. Évaluation des résultats
13.5. Suppression du bruit des codeurs automatiques
13.5.1. Application de filtres
13.5.2. Conception de modèles de codage
13.5.3. Utilisation de techniques de régularisation
13.6. Codeurs automatiques dispersés
13.6.1. Augmentation de l'efficacité du codage
13.6.2. Minimiser le nombre de paramètres
13.6.3. Utiliser des techniques de régularisation
13.7. Codeurs automatiques variationnels
13.7.1. Utilisation de l'optimisation variationnelle
13.7.2. Apprentissage profond non supervisé
13.7.3. Représentations latentes profondes
13.8. Génération d'images MNIST à la mode
13.8.1. Reconnaissance des formes
13.8.2. Génération d'images
13.8.3. Entraînement de Réseaux neuronaux profonds
13.9. Réseaux adversatifs génératifs et modèles de diffusion
13.9.1. Génération de contenu à partir d'images
13.9.2. Modélisation des distributions de données
13.9.3. Utilisation de réseaux contradictoires
13.10. Implémentation des modèles
13.10.1. Application Pratique
13.10.2. Implémentation des modèles
13.10.3. Utilisation de données réelles
13.10.4. Évaluation des résultats
Module 14. Informatique bio-inspirée
14.1. Introduction à l'informatique bio-inspirée
14.1.1. Introduction à l'informatique bio-inspirée
14.2. Algorithmes d'adaptation sociale
14.2.1. Calcul basé sur des colonies de fourmis bio-inspirées
14.2.2. Variantes des algorithmes de colonies de fourmis
14.2.3. Informatique en nuage de particules
14.3. Algorithmes génétiques
14.3.1. Structure générale
14.3.2. Implantations des principaux opérateurs
14.4. Stratégies d'exploration-exploitation de l'espace pour les algorithmes génétiques
14.4.1. Algorithme CHC
14.4.2. Problèmes multimodaux
14.5. Modèles de calcul évolutif (I)
14.5.1. Stratégies évolutives
14.5.2. Programmation évolutive
14.5.3. Algorithmes basés sur l'évolution différentielle
14.6. Modèles de calcul évolutif (II)
14.6.1. Modèles d'évolution basés sur l'estimation des distributions (EDA)
14.6.2. Programmation génétique
14.7. Programmation évolutive appliquée aux problèmes d'apprentissage
14.7.1. Apprentissage basé sur des règles
14.7.2. Méthodes évolutionnaires dans les problèmes de sélection d'instances
1.8. Problèmes multi-objectifs
14.8.1. Concept de dominance
14.8.2. Application des algorithmes évolutionnaires aux problèmes multi-objectifs
14.9. Réseaux neuronaux (I)
14.9.1. Introduction aux réseaux neuronaux
14.9.2. Exemple pratique avec les réseaux neuronaux
14.10. Réseaux neuronaux (II)
14.10.1. Cas d'utilisation des réseaux neuronaux dans la recherche médicale
14.10.2. Cas d'utilisation des réseaux neuronaux en économie
14.10.3. Cas d'utilisation des réseaux neuronaux en vision artificielle
Module 15. Intelligence Artificielle: stratégies et applications
15.1. Services financiers
15.1.1. Les implications de l'intelligence artificielle (IA) dans les services et défis
15.1.2. Cas d'utilisation
15.1.3. Risques potentiels liés à l'utilisation de l'IA
15.1.4. Développements / utilisations futurs potentiels de l'IA
15.2. Implications de l'intelligence artificielle dans les services de santé
15.2.1. Implications de l'IA dans le secteur de la santé. Opportunités et défis
15.2.2. Cas d'utilisation
15.3. Risques liés à l'utilisation de l'IA dans les services de santé
15.3.1. Risques potentiels liés à l'utilisation de l'IA
15.3.2. Développements / utilisations futurs potentiels de l'IA
15.4. Retail
15.4.1. Implications de l'IA dans le commerce de détail.. Opportunités et défis
15.4.2. Cas d'utilisation
15.4.3. Risques potentiels liés à l'utilisation de l'IA
15.4.4. Développements / utilisations futurs potentiels de l'IA
15.5. Industrie
15.5.1. Implications de l'IA dans l'Industrie. Opportunités et défis
15.5.2. Cas d'utilisation
15.6. Risques potentiels liés à l'utilisation de l'IA dans l'Industrie
15.6.1. Cas d'utilisation
15.6.2. Risques potentiels liés à l'utilisation de l'IA
15.6.3. Développements / utilisations futurs potentiels de l'IA
15.7. Administration publique
15.7.1. Implications de l' IA dans Administration Publique Opportunités et défis
15.7.2. Cas d'utilisation
15.7.3. Risques potentiels liés à l'utilisation de l'IA
15.7.4. Développements / utilisations futurs potentiels de l'IA
15.8. Éducation
15.8.1. Implications de l'IA dans l'éducation. Opportunités et défis
15.8.2. Cas d'utilisation
15.8.3. Risques potentiels liés à l'utilisation de l'IA
15.8.4. Développements / utilisations futurs potentiels de l'IA
15.9. Sylviculture et agriculture
15.9.1. Implications de l'IA pour la foresterie et l'agriculture. Opportunités et défis
15.9.2. Cas d'utilisation
15.9.3. Risques potentiels liés à l'utilisation de l'IA
15.9.4. Développements / utilisations futurs potentiels de l'IA
15.10. Ressources Humaines
15.10.1. Implications de l'IA pour les ressources humaines. Opportunités et défis
15.10.2. Cas d'utilisation
15.10.3. Risques potentiels liés à l'utilisation de l'IA
15.10.4. Développements / utilisations futurs potentiels de l'IA
Vous explorerez des sujets tels que les modèles d'IA générative, l'informatique quantique appliquée et les stratégies d'éthique et de gouvernance avec la meilleure université numérique au monde selon Forbes’’
Mastère Spécialisé Hybride en Intelligence Artificielle
Bienvenue au Mastère Spécialisé Hybride en Intelligence Artificielle de TECH Global University, où l'innovation éducative est fusionnée avec la flexibilité de l'apprentissage en ligne et l'expérience pratique dans nos installations spécialisées. Ce programme est conçu pour vous préparer en tant que professionnel polyvalent dans le domaine de l'Intelligence Artificielle, en vous offrant une approche complète qui combine la théorie avancée avec des applications pratiques. Pendant les classes d'apprentissage hybride, vous aurez accès à un contenu théorique de pointe par le biais de notre plateforme numérique, ce qui vous permettra d'étudier facilement à votre propre rythme et de n'importe où. En outre, des stages sur place dans notre centre vous permettront d'appliquer vos connaissances dans des environnements contrôlés, sous la direction d'experts en la matière. Tout au long du programme, vous explorerez des sujets fondamentaux tels que l'apprentissage automatique, le traitement des données volumineuses, la vision par ordinateur et la robotique intelligente. Vous apprendrez à développer des algorithmes avancés qui transforment des secteurs entiers, des soins de santé à l'automobile en passant par la banque.
Formez-vous à l'IA grâce à des cours théoriques en ligne et à des stages en présentiel
Savez-vous pourquoi TECH est considérée comme l'une des meilleures universités au monde ? Parce que nous avons un catalogue de plus de dix mille programmes académiques, une présence dans de nombreux pays, des méthodologies innovantes, une technologie académique unique et une équipe d'enseignants hautement qualifiés ; c'est pourquoi vous ne pouvez pas manquer l'occasion d'étudier avec ce cours de troisième cycle avec théorie en ligne et stages en face-à-face. Notre corps professoral est composé de professionnels ayant une expérience concrète des projets mondiaux d'Intelligence Artificielle, ce qui vous permettra d'acquérir les compétences pratiques et les connaissances actualisées exigées par le marché du travail actuel. En outre, vous aurez l'occasion de collaborer à des projets réels, ce qui favorisera le développement de compétences en matière de travail d'équipe et de leadership qui sont cruciales dans le monde du travail. À l'issue du Mastère, vous serez prêt à relever les défis les plus exigeants de l'Intelligence Artificielle, en contribuant à l'innovation et au progrès technologique dans n'importe quelle industrie que vous choisirez. Obtenez votre diplôme auprès de TECH Global University et devenez un leader de la transformation numérique grâce à nos outils, connaissances et contenus de haute qualité.