Universitäre Qualifikation
Die größte Fakultät für Informatik der Welt"
Präsentation
Positionieren Sie sich in einer boomenden Branche mit dem besten Programm der Universitätsszene, das nur TECH anbieten kann“

Die virtuelle Realität entführt uns in immersive Welten und ermöglicht Erfahrungen, die von der Simulation komplexer Operationen bis hin zur architektonischen Gestaltung in Echtzeit reichen. Die Auswirkungen dieser Disziplin gehen über den technologischen Bereich hinaus, da sie die Art und Weise, wie wir leben, arbeiten und lernen, prägt. Ihre ständige Weiterentwicklung erfordert nicht nur Fachleute, die in der Anwendung dieser Werkzeuge geschult sind, sondern auch Visionäre, die in der Lage sind, ihre Anwendungen auf neue Horizonte auszuweiten.
Das maschinelle Sehen verleiht Maschinen die Fähigkeit, Bilder und Videos zu interpretieren und zu analysieren, was die Entwicklung fortschrittlicher Technologien ermöglicht. Dazu gehören autonome Fahrzeuge, die den Verkehr revolutionieren, und medizinische Diagnoseplattformen, die die Genauigkeit und Effizienz im Gesundheitswesen verbessern. Darüber hinaus eröffnen die jüngsten Entwicklungen in diesem Bereich, wie Multitasking-Modelle und generative Technologien, neue Möglichkeiten für die Entwicklung innovativer Lösungen. Die Integration mit Edge Computing hat auch die Datenverarbeitung in Echtzeit erleichtert, was die Anwendungsmöglichkeiten des maschinellen Sehens weiter ausweitet. Aus all diesen Gründen öffnet eine Fortbildung in diesen Disziplinen nicht nur die Türen in einem ständig wachsenden Technologiesektor, sondern ermöglicht auch die Teilnahme an Projekten, die einen echten Einfluss auf das tägliche Leben haben. Sie trägt auch zur Entwicklung von Technologien bei, die die Art und Weise, wie wir mit der Welt interagieren, verändern und unsere Lebensqualität verbessern werden.
Der Lehrplan von TECH mit seiner 100%igen Online-Methodik und dem Relearning-Lernansatz ermöglicht es den Studenten, sich voll und ganz auf die wichtigsten Themen zu konzentrieren, um sich in diesen technologischen Bereichen zu spezialisieren. Darüber hinaus werden die Studenten von hochspezialisierten Lehrkräften und der aktuellsten Forschung im Hochschulbereich unterstützt. All dies ohne Stundenplan und von jedem Ort der Welt aus, so dass die Studenten ihr Studium an ihr eigenes Tempo anpassen können, ohne ihre persönlichen oder beruflichen Verpflichtungen zu beeinträchtigen.
Die Kombination aus Kreativität und Technologie wartet auf Sie, um mit der Entwicklung großartiger Lösungen mit globaler Wirkung zu beginnen“
Dieser Weiterbildender masterstudiengang in Virtuelle Realität und Maschinelles Sehen enthält das vollständigste und aktuellste Programm auf dem Markt. Die hervorstechendsten Merkmale sind:
- Die Entwicklung von Fallstudien, die von Experten in Informatik präsentiert werden
- Der anschauliche, schematische und äußerst praxisnahe Inhalt vermittelt alle für die berufliche Praxis unverzichtbaren wissenschaftlichen und praktischen Informationen
- Praktische Übungen, bei denen der Selbstbewertungsprozess zur Verbesserung des Lernens genutzt werden kann
- Sein besonderer Schwerpunkt liegt auf innovativen Methoden in virtueller Realität und maschinellem Sehen
- Theoretische Lektionen, Fragen an den Experten, Diskussionsforen zu kontroversen Themen und individuelle Reflexionsarbeit
- Die Verfügbarkeit des Zugangs zu Inhalten von jedem festen oder tragbaren Gerät mit Internetanschluss
Werden Sie der Beste in den Bereichen Virtuelle Realität und Maschinelles Sehen, in Ihrem eigenen Tempo, ohne Zeitplan und von jedem Ort der Welt aus“
Zu den Dozenten gehören Fachleute aus dem Bereich des Journalismus, die ihre Erfahrungen in dieses Programm einbringen, sowie anerkannte Spezialisten aus führenden Gesellschaften und renommierten Universitäten.
Die multimedialen Inhalte, die mit den neuesten Bildungstechnologien entwickelt wurden, ermöglichen der Fachkraft ein situiertes und kontextbezogenes Lernen, d. h. eine simulierte Umgebung, die eine immersive Fortbildung bietet, die auf die Ausführung von realen Situationen ausgerichtet ist.
Das Konzept dieses Programms konzentriert sich auf problemorientiertes Lernen, bei dem der Student versuchen muss, die verschiedenen Situationen aus der beruflichen Praxis zu lösen, die während des gesamten Studiengangs gestellt werden. Dabei wird die Fachkraft durch ein innovatives interaktives Videosystem unterstützt, das von anerkannten Experten entwickelt wurde.
Beherrschen Sie diese Technologien mit den didaktischen Werkzeugen, die TECH Ihnen bietet, und beginnen Sie, Leben zu verändern"

Entwickeln Sie Anwendungen und erleben Sie die spannendsten Herausforderungen an der größten digitalen Universität der Welt"
Lehrplan
Der Weiterbildender masterstudiengang in Virtuelle Realität und Maschinelles Sehen ist als umfassende und fortgeschrittene akademische Möglichkeit in diesen beiden Schlüsseldisziplinen konzipiert. Das Programm beginnt mit einer soliden Grundlage in den grundlegenden Bereichen Programmierung, angewandte Mathematik und Bildverarbeitung. Im Laufe des Kurses werden sich die Studenten mit der Entwicklung virtueller Umgebungen unter Verwendung modernster Werkzeuge befassen. Darüber hinaus werden sie fortgeschrittene Simulations- und Interaktionstechniken in immersiven Umgebungen erforschen.

Kommen Sie zu TECH und Sie werden beginnen, die Unterhaltung mit immersiven Erfahrungen im Bereich des maschinellen Sehens zu verändern“
Modul 1. Maschinelles Sehen
1.1. Menschliche Wahrnehmung
1.1.1. Das menschliche Sehsystem
1.1.2. Farbe
1.1.3. Sichtbare und nicht sichtbare Frequenzen
1.2. Chronik der industriellen Bildverarbeitung
1.2.1. Grundsätze
1.2.2. Evolution
1.2.3. Die Bedeutung der industriellen Bildverarbeitung
1.3. Digitale Bildgestaltung
1.3.1. Digitales Bild
1.3.2. Bildtypen
1.3.3. Farbräume
1.3.4. RGB
1.3.5. HSV und HSL
1.3.6. CMY-CMYK
1.3.7. YCbCr
1.3.8. Indiziertes Bild
1.4. System zur Bilderfassung
1.4.1. Funktionsweise einer Digitalkamera
1.4.2. Die richtige Belichtung für jede Situation
1.4.3. Schärfentiefe
1.4.4. Resolution
1.4.5. Bildformate
1.4.6. HDR-Modus
1.4.7. Kameras mit hoher Auflösung
1.4.8. Kameras mit hoher Geschwindigkeit
1.5. Optische Systeme
1.5.1. Optische Grundsätze
1.5.2. Konventionelle Objektive
1.5.3. Telezentrische Objektive
1.5.4. Arten von Autofokus
1.5.5. Brennweite
1.5.6. Schärfentiefe
1.5.7. Optische Verzerrung
1.5.8. Kalibrierung eines Bildes
1.6. Beleuchtungssysteme
1.6.1. Die Bedeutung der Beleuchtung
1.6.2. Frequenzgang
1.6.3. LED-Beleuchtung
1.6.4. Außenbeleuchtung
1.6.5. Arten von Beleuchtung für industrielle Anwendungen. Auswirkungen
1.7. 3D-Erfassungssysteme
1.7.1. Stereovision
1.7.2. Triangulation
1.7.3. Strukturiertes Licht
1.7.4. Time of Flight
1.7.5. LIDAR
1.8. Multispektral
1.8.1. Multispektralkameras
1.8.2. Hyperspektralkameras
1.9. Nicht sichtbares Nahspektrum
1.9.1. IR-Kameras
1.9.2. UV-Kameras
1.9.3. Umwandlung von nicht sichtbar in sichtbar durch Beleuchtung
1.10. Andere Frequenzbänder
1.10.1. Röntgenstrahlen
1.10.2. Terahertz
Modul 2. Anwendungen und Stand der Technik
2.1. Industrielle Anwendungen
2.1.1. Bildverarbeitungsbibliotheken
2.1.2. Kompaktkameras
2.1.3. PC-gestützte Systeme
2.1.4. Industrielle Robotik
2.1.5. Pick and place 2D
2.1.6. Bin Picking
2.1.7. Qualitätskontrolle
2.1.8. Vorhandensein und Fehlen von Komponenten
2.1.9. Kontrolle der Dimensionen
2.1.10. Kontrolle der Etikettierung
2.1.11. Rückverfolgbarkeit
2.2. Autonome Fahrzeuge
2.2.1. Fahrerassistenz
2.2.2. Autonomes Fahren
2.3. Maschinelles Sehen für die Inhaltsanalyse
2.3.1. Nach Inhalt filtern
2.3.2. Moderation visueller Inhalte
2.3.3. Verfolgungssysteme
2.3.4. Identifizierung von Marken und Logos
2.3.5. Kennzeichnung und Klassifizierung von Videos
2.3.6. Erkennung von Szenenänderungen
2.3.7. Extraktion von Texten oder Credits
2.4. Medizinische Anwendungen
2.4.1. Erkennung und Lokalisierung von Krankheiten
2.4.2. Krebs und Röntgenanalyse
2.4.3. Fortschritte beim maschinellen Sehen im Rahmen von Covid19
2.4.4. Assistenz im Operationssaal
2.5. Raumfahrtanwendungen
2.5.1. Analyse von Satellitenbildern
2.5.2. Maschinelles Sehen für die Erforschung des Weltraums
2.5.3. Mission zum Mars
2.6. Kommerzielle Anwendungen
2.6.1. Bestandskontrolle
2.6.2. Videoüberwachung, Haussicherheit
2.6.3. Kameras zum Parken
2.6.4. Kameras zur Bevölkerungskontrolle
2.6.5. Radarkameras
2.7. Vision angewandt auf Robotik
2.7.1. Drohnen
2.7.2. AGV
2.7.3. Vision in kollaborierenden Robotern
2.7.4. Die Augen der Roboter
2.8. Erweiterte Realität
2.8.1. Funktionsweise
2.8.2. Geräte
2.8.3. Anwendungen in der Industrie
2.8.4. Kommerzielle Anwendungen
2.9. Cloud Computing
2.9.1. Plattformen für Cloud Computing
2.9.2. Vom Cloud Computing zur Produktion
2.10. Forschung und aktueller Stand der Technik
2.10.1. Die wissenschaftliche Gemeinschaft
2.10.2. Was tut sich?
2.10.3. Die Zukunft des maschinellen Sehens
Modul 3. Digitale Bildverarbeitung
3.1. Entwicklungsumgebung für Computer Vision
3.1.1. Bibliotheken für Computer Vision
3.1.2. Programmierumgebung
3.1.3. Visualisierungstools
3.2. Digitale Bildverarbeitung
3.2.1. Pixel-Beziehungen
3.2.2. Bildbearbeitung
3.2.3. Geometrische Transformationen
3.3. Pixel-Operationen
3.3.1. Histogramm
3.3.2. Transformationen von Histogrammen
3.3.3. Operationen an Farbbildern
3.4. Logische und arithmetische Operationen
3.4.1. Additionen und Subtraktionen
3.4.2. Produkt und Bereich
3.4.3. And/Nand
3.4.4. Or/Nor
3.4.5. Xor/Xnor
3.5. Filter
3.5.1. Masken und Faltung
3.5.2. Lineare Filterung
3.5.3. Nichtlineare Filterung
3.5.4. Fourier-Analyse
3.6. Morphologische Operationen
3.6.1. Erode and Dilating
3.6.2. Closing and Open
3.6.3. Top Hat und Black Hat
3.6.4. Kontur-Erkennung
3.6.5. Skelett
3.6.6. Füllen von Löchern
3.6.7. Convex Hull
3.7. Werkzeuge zur Bildanalyse
3.7.1. Kantenerkennung
3.7.2. Erkennung von Blobs
3.7.3. Kontrolle der Dimensionen
3.7.4. Farbprüfung
3.8. Segmentierung von Objekten
3.8.1. Bildsegmentierung
3.8.2. Klassische Segmentierungstechniken
3.8.3. Echte Anwendungen
3.9. Kalibrierung von Bildern
3.9.1. Bildkalibrierung
3.9.2. Kalibrierungsmethoden
3.9.3. Kalibrierungsprozess in einem 2D-Kamera-Roboter-System
3.10. Bildverarbeitung in realer Umgebung
3.10.1. Problemanalyse
3.10.2. Bildbearbeitung
3.10.3. Merkmalsextraktion
3.10.4. Endgültiges Ergebnis
Modul 4. Fortgeschrittene digitale Bildverarbeitung
4.1. Optische Zeichenerkennung (OCR)
4.1.1. Vorverarbeitung des Bildes
4.1.2. Erkennung von Text
4.1.3. Texterkennung
4.2. Code-Lesung
4.2.1. 1D-Codes
4.2.2. 2D-Codes
4.2.3. Anwendungen
4.3. Suche nach Mustern
4.3.1. Suche nach Mustern
4.3.2. Muster auf Basis von Graustufen
4.3.3. Konturbasierte Muster
4.3.4. Muster auf der Grundlage geometrischer Formen
4.3.5. Andere Techniken
4.4. Objektverfolgung mit konventionellem Sehen
4.4.1. Hintergrund-Extraktion
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow
4.5. Gesichtserkennung
4.5.1. Facial Landmark Detection
4.5.2. Anwendungen
4.5.3. Gesichtserkennung
4.5.4. Erkennung von Emotionen
4.6. Überblick und Ausrichtungen
4.6.1. Stitching
4.6.2. Bildkomposition
4.6.3. Fotomontage
4.7. High Dinamic Range (HDR) and Photometric Stereo
4.7.1. Erhöhter Dynamikbereich
4.7.2. Bildkomposition zur Konturverbesserung
4.7.3. Techniken für den Einsatz von dynamischen Anwendungen
4.8. Bildkompression
4.8.1. Die Bildkompression
4.8.2. Kompressortypen
4.8.3. Techniken zur Bildkomprimierung
4.9. Videoverarbeitung
4.9.1. Bildsequenzen
4.9.2. Videoformate und Codecs
4.9.3. Lesen eines Videos
4.9.4. Rahmenverarbeitung
4.10. Reale Anwendung der Bildverarbeitung
4.10.1. Problemanalyse
4.10.2. Bildbearbeitung
4.10.3. Merkmalsextraktion
4.10.4. Endgültiges Ergebnis
Modul 5. 3D-Bildverarbeitung
5.1. 3D-Bild
5.1.1. 3D-Bild
5.1.2. 3D-Bildverarbeitungssoftware und Visualisierungen
5.1.3. Metrologie-Software
5.2. Open3D
5.2.1. Bibliothek für 3D-Datenverarbeitung
5.2.2. Merkmale
5.2.3. Installation und Nutzung
5.3. Daten
5.3.1. 2D-Bildtiefenkarten
5.3.2. Pointclouds
5.3.3. Normalitäten
5.3.4. Oberflächen
5.4. Visualisierung
5.4.1. Datenvisualisierung
5.4.2. Kontrollen
5.4.3. Web-Visualisierung
5.5. Filter
5.5.1. Abstand zwischen Punkten, Outliers eliminieren
5.5.2. Hochpass-Filter
5.5.3. Downsampling
5.6. Geometrie und Merkmalsextraktion
5.6.1. Extrahieren eines Profils
5.6.2. Messung der Tiefe
5.6.3. Volumen
5.6.4. Geometrische 3D-Formen
5.6.5. Pläne
5.6.6. Projektion eines Punktes
5.6.7. Geometrische Abstände
5.6.8. Kd Tree
5.6.9. 3D-Features
5.7. Registrierung und Meshing
5.7.1. Verkettung
5.7.2. ICP
5.7.3. 3D-Ransac
5.8. 3D-Objekterkennung
5.8.1. Suche nach einem Objekt in der 3D-Szene
5.8.2. Segmentierung
5.8.3. Bin Picking
5.9. Oberflächenanalyse
5.9.1. Smoothing
5.9.2. Einstellbare Oberflächen
5.9.3. Octree
5.10. Triangulation
5.10.1. Von Mesh zu Point Cloud
5.10.2. Triangulation von Tiefenkarten
5.10.3. Triangulation von ungeordneten PointClouds
Modul 6. Deep Learning
6.1. Künstliche Intelligenz
6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. Die Explosion des Deep Learning. Warum jetzt?
6.2. Neuronale Netze
6.2.1. Das neuronale Netz
6.2.2. Einsatz von neuronalen Netzen
6.2.3. Lineare Regression und Perceptron
6.2.4. Forward Propagation
6.2.5. Backpropagation
6.2.6. Feature Vectors
6.3. Loss Functions
6.3.1. Loss Function
6.3.2. Arten von Loss Functions
6.3.3. Auswahl der Loss Function
6.4. Aktivierungsfunktionen
6.4.1. Aktivierungsfunktionen
6.4.2. Lineare Funktionen
6.4.3. Nichtlineare Funktionen
6.4.4. Output vs. Hidden Layer Activation Functions
6.5. Regularisierung und Standardisierung
6.5.1. Regularisierung und Standardisierung
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization Methods: L1, L2 and Dropout
6.5.4. Normalization Methods: Batch, Weight, Layer
6.6. Optimierung
6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam
6.7. Hyperparameter Tuning und Gewichte
6.7.1. Hyperparameter
6.7.2. Batch Size vs. Learning Rate vs Step Decay
6.7.3. Gewichte
6.8. Bewertungsmetriken für neuronale Netze
6.8.1. Accuracy
6.8.2. Dice Coefficient
6.8.3. Sensitivity vs. Specificity / Recall vs. Precision
6.8.4. ROC-Kurve (AUC)
6.8.5. F1-Score
6.8.6. Confusion Matrix
6.8.7. Cross-Validation
6.9. Frameworks und Hardware
6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware für die Trainingsphase
6.10. Erstellung neuronaler Netze - Training und Validierung
6.10.1. Dataset
6.10.2. Aufbau des Netzes
6.10.3. Training
6.10.4. Visualisierung der Ergebnisse
Modul 7. Faltungsnetzwerke und Bildklassifizierung
7.1. Convolutional Neural Networks
7.1.1. Einführung
7.1.2. Faltung
7.1.3. CNN Building Blocks
7.2. Arten von CNN-Bezügen
7.2.1. Convolutional
7.2.2. Activation
7.2.3. Batch Normalization
7.2.4. Polling
7.2.5. Fully Connected
7.3. Metriken
7.3.1. Matrix-Verwirrung
7.3.2. Accuracy
7.3.3. Präzision
7.3.4. Recall
7.3.5. F1 Score
7.3.6. ROC Curve
7.3.7. AUC
7.4. Wichtigste Architekturen
7.4.1. AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet
7.5. Klassifizierung von Bildern
7.5.1. Einführung
7.5.2. Analyse der Daten
7.5.3. Vorbereitung der Daten
7.5.4. Modell-Training
7.5.5. Modell-Validierung
7.6. Praktische Überlegungen zum CNN-Training
7.6.1. Auswahl des Optimierers
7.6.2. Learning Rate Scheduler
7.6.3. Überprüfung der Schulungspipeline
7.6.4. Ausbildung mit Regularisierung
7.7. Bewährte Verfahren beim Deep Learning
7.7.1. Transfer Learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation
7.8. Statistische Auswertung der Daten
7.8.1. Anzahl der Datensätze
7.8.2. Anzahl der Etiketten
7.8.3. Anzahl der Bilder
7.8.4. Datenausgleich
7.9. Deployment
7.9.1. Speichern und Laden von Modellen
7.9.2. Onnx
7.9.3. Inferenz
7.10. Fallstudie: Klassifizierung von Bildern
7.10.1. Datenanalyse und -aufbereitung
7.10.2. Testen der Trainingspipeline
7.10.3. Modell-Training
7.10.4. Modell-Validierung
Modul 8. Objekterkennung
8.1. Objekterkennung und -verfolgung
8.1.1. Objekterkennung
8.1.2. Anwendungsbeispiele
8.1.3. Objektverfolgung
8.1.4. Anwendungsbeispiele
8.1.5. Okklusionen, Rigid and Non-Rigid Poses
8.2. Bewertungsmetriken
8.2.1. IOU - Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Präzision
8.2.5. Recall- Precision Curve
8.2.6. Mean Average Precision (MAP)
8.3. Traditionelle Methoden
8.3.1. Sliding Window
8.3.2. Viola Detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)
8.4. Datasets
8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge
8.5. Two Shot Object Detector
8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN
8.6. Single Shot Object Detector
8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet
8.7. Backbones
8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet
8.8. Object Tracking
8.8.1. Klassische Ansätze
8.8.2. Partikelfilter
8.8.3. Kalman
8.8.4. Sort Tracker
8.8.5. Deep Sort
8.9. Bereitstellung
8.9.1. Plattform für Computing
8.9.2. Backbone-Auswahl
8.9.3. Framework-Auswahl
8.9.4. Optimierung des Modells
8.9.5. Modellversionierung
8.10. Studie: Objekterkennung und -verfolgung
8.10.1. Erkennung von Personen
8.10.2. Verfolgung von Personen
8.10.3. Re-Identifizierung
8.10.4. Zählen von Menschen in Menschenmengen
Modul 9. Bildsegmentierung mit Deep Learning
9.1. Objekterkennung und Segmentierung
9.1.1. Semantische Segmentierung
9.1.1.1. Anwendungsfälle von semantischer Segmentierung
9.1.2. Instanziierte Segmentierung
9.1.2.1. Anwendungsfälle von instanziierter Segmentierung
9.2. Bewertungsmetriken
9.2.1. Ähnlichkeiten mit anderen Methoden
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)
9.3. Kostenfunktionen
9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Andere Funktionen
9.4. Traditionelle Segmentierungsmethoden
9.4.1. Schwellenwertanwendung mit Otsu und Riddlen
9.4.2. Selbstorganisierte Karten
9.4.3. GMM-EM algorithm
9.5. Semantische Segmentierung mit Deep Learning: FCN
9.5.1. FCN
9.5.2. Architektur
9.5.3. FCN-Anwendungen
9.6. Semantische Segmentierung mit Deep Learning: U-NET
9.6.1. U-NET
9.6.2. Architektur
9.6.3. U-NET-Anwendung
9.7. Semantische Segmentierung mit Deep Learning: Deep Lab
9.7.1. Deep Lab
9.7.2. Architektur
9.7.3. Deep-Lab-Anwendung
9.8. Instantiierte Segmentierung mit Deep Learning: Mask RCNN
9.8.1. Mask RCNN
9.8.2. Architektur
9.8.3. Implementierung eines Mask RCNN
9.9. Video-Segmentierung
9.9.1. STFCN
9.9.2. Semantisches Video CN
9.9.3. Clockwork Convnets
9.9.4. Low-Latency
9.10. Segmentierung von Punktwolken
9.10.1. Punktwolke
9.10.2. PointNet
9.10.3. A-CNN
Modul 10. Fortgeschrittene Bildsegmentierung und fortgeschrittene Computer-Vision-Techniken
10.1. Datenbank für allgemeine Segmentierungsprobleme
10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset
10.2. Semantische Segmentierung in der Medizin
10.2.1. Semantische Segmentierung in der Medizin
10.2.2. Datasets für medizinische Probleme
10.2.3. Praktische Anwendung
10.3. Anmerkungswerkzeuge
10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Andere Werkzeuge
10.4. Segmentierungstools mit verschiedenen Frameworks
10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Sonstige
10.5. Projekt semantische Segmentierung. Die Daten, Phase 1
10.5.1. Problemanalyse
10.5.2. Eingabequelle für Daten
10.5.3. Analyse der Daten
10.5.4. Vorbereitung der Daten
10.6. Projekt semantische Segmentierung. Training, Phase 2
10.6.1. Auswahl des Algorithmus
10.6.2. Training
10.6.3. Bewertung
10.7. Projekt semantische Segmentierung. Ergebnisse, Phase 3
10.7.1. Feinabstimmung
10.7.2. Präsentation der Lösung
10.7.3. Schlussfolgerungen
10.8. Autoencoder
10.8.1. Autoencoder
10.8.2. Architektur eines Autoencoders
10.8.3. Autoencoder für Rauschunterdrückung
10.8.4. Autoencoder für automatische Farbgebung
10.9. Generative Adversarial Networks (GAN)
10.9.1. Generative Adversarial Networks (GAN)
10.9.2. DCGAN-Architektur
10.9.3. Bedingte GAN-Architektur
10.10. Verbesserte Generative Adversarial Networks
10.10.1. Überblick über das Problem
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN
Modul 11. Die 3D-Industrie
11.1. 3D-Industrie im Bereich Animation und Videospiele
11.1.1. 3D-Animation
11.1.2. 3D-Industrie im Bereich Animation und Videospiele
11.1.3. 3D-Animation. Zukunft
11.2. 3D in Videospielen
11.2.1. Videospiele. Beschränkungen
11.2.2. Entwicklung eines 3D-Videospiels. Schwierigkeiten
11.2.3. Lösungen für die Schwierigkeiten bei der Entwicklung eines Videospiels
11.3. Software für 3D-Videospiele
11.3.1. Maya. Pro und Kontra
11.3.2. 3Ds Max. Pro und Kontra
11.3.3. Blender. Pro und Kontra
11.4. Pipeline für die Erstellung von 3D-Assets für Videospiele
11.4.1. Idee und Zusammenbau aus einem Modelsheet
11.4.2. Modellierung mit niedriger Geometrie und hohen Details
11.4.3. Projektion von Details durch Texturen
11.5. Wichtige künstlerische Stile in 3D für Videospiele
11.5.1. Cartoon-Stil
11.5.2. Realistischer Stil
11.5.3. Cel Shading
11.5.4. Motion Capture
11.6. 3D-Integration
11.6.1. 2D-Integration in die digitale Welt
11.6.2. 3D-Integration in die digitale Welt
11.6.3. Integration in die reale Welt (AR, MR/XR)
11.7. Schlüsselfaktoren von 3D für verschiedene Branchen
11.7.1. 3D in Film und Serien
11.7.2. 3D in Videospielen
11.7.3. 3D in der Werbung
11.8. Render: Echtzeit-Render und Pre-Rendering
11.8.1. Beleuchtung
11.8.2. Definition von Schatten
11.8.3. Qualität vs. Geschwindigkeit
11.9. Generierung von 3D-Assets in 3D Max
11.9.1. Software 3D Max
11.9.2. Schnittstelle, Menüs, Symbolleiste
11.9.3. Kontrollen
11.9.4. Schauplatz
11.9.5. Viewports
11.9.6. Basic Shapes
11.9.7. Objekterzeugung, -modifikation und -transformation
11.9.8. Erstellung einer 3D-Szene
11.9.9. 3D-Modellierung von professionellen Assets für Videospiele
11.9.10. Material-Editoren
11.9.10.1. Materialien erstellen und bearbeiten
11.9.10.2. Licht auf Materialien anwenden
11.9.10.3. UVW Map-Modifikator. Mapping-Koordinaten
11.9.10.4. Erstellung von Texturen
11.10. Organisation des Arbeitsbereichs und bewährte Verfahren
11.10.1. Ein Projekt erstellen
11.10.2. Ordnerstruktur
11.10.3. Benutzerdefinierte Funktionen
Modul 12. Kunst und 3D in der Videospielindustrie
12.1. 3D-Projekte in VR
12.1.1. Software zur Erstellung von 3D-Netzen
12.1.2. Software zur Bildbearbeitung
12.1.3. Virtuelle Realität
12.2. Typische Probleme, Lösungen und Projektanforderungen
12.2.1. Anforderungen des Projekts
12.2.2. Potenzielle Probleme
12.2.3. Lösungen
12.3. Ästhetische Linienstudie für die Erzeugung des künstlerischen Stils in Videospielen: vom Spieldesign zur 3D-Kunstgenerierung
12.3.1. Die Wahl des Ziels des Videospiels. Wen wollen wir erreichen
12.3.2. Künstlerische Möglichkeiten des Entwicklers
12.3.3. Endgültige Definition der ästhetischen Linie
12.4. Suche nach Referenzen und Analyse der Konkurrenz auf ästhetischer Ebene
12.4.1. Pinterest und ähnliche Seiten
12.4.2. Ein Modelsheet erstellen
12.4.3. Nach Konkurrenten suchen
12.5. Erstellung der Bibel und Briefing
12.5.1. Erstellung der Bibel
12.5.2. Entwicklung einer Bibel
12.5.3. Entwicklung eines Briefings
12.6. Szenarien und Assets
12.6.1. Produktionsplanung von Assets in den Ebenen
12.6.2. Entwurf von Szenarien
12.6.3. Entwurf von Assets
12.7. Integration von Assets in Levels und Tests
12.7.1. Prozess der Level-Integration
12.7.2. Texturen
12.7.3. Letzte Korrekturen
12.8. Charaktere
12.8.1. Planung der Produktion von Charakteren
12.8.2. Entwurf der Charaktere
12.8.3. Design der Charakter-Assets
12.9. Integration der Charaktere in Szenarien und Tests
12.9.1. Prozess der Integration von Charakteren in Levels
12.9.2. Anforderungen des Projekts
12.9.3. Animationen
12.10. Audio in 3D-Videospielen
12.10.1. Interpretation des Projektdossiers für die Erstellung der Klangidentität des Videospiels
12.10.2. Komposition und Produktionsprozesse
12.10.3. Soundtrack-Design
12.10.4. Design von Soundeffekten
12.10.5. Gestaltung von Stimmen
Modul 13. Fortgeschrittene 3D
13.1. Fortgeschrittene 3D-Modellierungstechniken
13.1.1. Schnittstellen-Konfiguration
13.1.2. Beobachtung für die Modellierung
13.1.3. Modellierung in hoch
13.1.4. Organische Modellierung für Videospiele
13.1.5. Fortgeschrittenes 3D-Objektmapping
13.2. Fortgeschrittenes 3D-Texturing
13.2.1. Substance Painter-Schnittstelle
13.2.2. Materialien, Alphas und die Verwendung von Pinseln
13.2.3. Verwendung von Partikeln
13.3. Export für 3D-Software und Unreal Engine
13.3.1. Integration der Unreal Engine in die Entwürfe
13.3.2. Integration von 3D-Modellen
13.3.3. Texturanwendung in der Unreal Engine
13.4. Digitales Sculpting
13.4.1. Digitales Sculpting mit ZBrush
13.4.2. Erste Schritte in ZBrush
13.4.3. Schnittstelle, Menüs und Navigation
13.4.4. Referenzbilder
13.4.5. Vollständige 3D-Modellierung eines Objekts in ZBrush
13.4.6. Verwendung von Basisnetzen
13.4.7. Stückweises Modellieren
13.4.8. 3D-Modelle in ZBrush exportieren
13.5. Die Verwendung von Polypaint
13.5.1. Fortgeschrittene Pinsel
13.5.2. Texturen
13.5.3. Standard-Materialien
13.6. Retopologie
13.6.1. Retopologie. Die Verwendung in der Videospielindustrie
13.6.2. Erstellung von Low Poly Meshes
13.6.3. Verwendung von Software für die Retopologie
13.7. Posieren der 3D-Modelle
13.7.1. Referenzbildbetrachter
13.7.2. Verwendung von Transpose
13.7.3. Verwendung von Transpose für Modelle, die aus verschiedenen Teilen bestehen
13.8. 3D-Modelle exportieren
13.8.1. 3D-Modelle exportieren
13.8.2. Erzeugung von Texturen für den Export
13.8.3. Konfiguration des 3D-Modells mit den verschiedenen Materialien und Texturen
13.8.4. Vorschau des 3D-Modells
13.9. Erweiterte Arbeitstechniken
13.9.1. Der Arbeitsablauf bei der 3D-Modellierung
13.9.2. Organisation von 3D-Modellierungs-Workflows
13.9.3. Aufwandsschätzungen für die Produktion
13.10. Fertigstellung des Modells und Export in andere Programme
13.10.1. Der Arbeitsablauf für die Fertigstellung des Modells
13.10.2. Exportieren mit ZPlugin
13.10.3. Mögliche Dateien. Vor- und Nachteile
Modul 14. 3D-Animation
14.1. Handhabung der Software
14.1.1. Informationsmanagement und Arbeitsmethodik
14.1.2. Die Animation
14.1.3. Timing und Gewicht
14.1.4. Animation mit einfachen Objekten
14.1.5. Direkte und inverse Kinematik
14.1.6. Inverse Kinematik
14.1.7. Kinematische Kette
14.2. Anatomie. Zweibeiner vs. Vierbeiner
14.2.1. Zweibeiner
14.2.2. Vierbeiner
14.2.3. Zyklus des Gehens
14.2.4. Zyklus des Rennens
14.3. Gesichts-Rig und Morpher
14.3.1. Mienensprache. Lippensynchronität, Augen, Fokus der Aufmerksamkeit
14.3.2. Bearbeitung von Sequenzen
14.3.3. Phonetik. Bedeutung
14.4. Angewandte Animation
14.4.1. 3D-Animation für Film und Fernsehen
14.4.2. Animation für Videospiele
14.4.3. Animation für andere Anwendungen
14.5. Bewegungserfassung mit Kinect
14.5.1. Motion Capture für Animationen
14.5.2. Bewegungssequenzierung
14.5.3. Integration in Blender
14.6. Skelett, Skinning und Setup
14.6.1. Interaktion zwischen Skelett und Geometrie
14.6.2. Mesh-Interpolation
14.6.3. Animations-Gewichte
14.7. Acting
14.7.1. Die Körpersprache
14.7.2. Posen
14.7.3. Bearbeitung von Sequenzen
14.8. Kameras und Aufnahmen
14.8.1. Die Kamera und die Umgebung
14.8.2. Aufnahmekomposition und Figuren
14.8.3. Fertigstellung
14.9. Visuelle Spezialeffekte
14.9.1. Visuelle Effekte und Animation
14.9.2. Arten von optischen Effekten
14.9.3. 3D VFX L
14.10. Der Animator als Schauspieler
14.10.1. Ausdrücke
14.10.2. Referenzen der Akteure
14.10.3. Von der Kamera zum Programm
Modul 15. Beherrschung von Unity 3D und künstlicher Intelligenz
15.1. Das Videospiel. Unity 3D
15.1.1. Das Videospiel
15.1.2. Das Videospiel. Fehler und Erfolge
15.1.3. Anwendungen von Videospielen in anderen Bereichen und Industrien
15.2. Die Entwicklung von Videospielen. Unity 3D
15.2.1. Produktionsplan und Entwicklungsphasen
15.2.2. Entwicklungsmethodik
15.2.3. Patches und zusätzliche Inhalte
15.3. Unity 3D
15.3.1. Unity 3D. Anwendungen
15.3.2. Scripting in Unity 3D
15.3.3. Asset Store und Plugins von Dritten
15.4. Physik, Inputs
15.4.1. InputSystem
15.4.2. Physik in Unity 3D
15.4.3. Animation und Animator
15.5. Prototyping in Unity
15.5.1. Blocking und Colliders
15.5.2. Prefabs
15.5.3. Scriptable Objects
15.6. Spezifische Programmiertechniken
15.6.1. Singleton-Modell
15.6.2. Laden von Ressourcen bei der Ausführung von Windows-Spielen
15.6.3. Leistung und Profiler
15.7. Videospiele für mobile Geräte
15.7.1. Spiele für Android-Geräte
15.7.2. Spiele für IOS-Geräte
15.7.3. Plattformübergreifende Entwicklungen
15.8. Erweiterte Realität
15.8.1. Arten von Spielen mit erweiterter Realität
15.8.2. ARkit und ARcore
15.8.3. Vuforia-Entwicklung
15.9. Programmierung von künstlicher Intelligenz
15.9.1. Algorithmen der künstlichen Intelligenz
15.9.2. Endliche Zustandsmaschinen
15.9.3. Neuronale Netze
15.10. Vertrieb und Marketing
15.10.1. Die Kunst der Veröffentlichung und Vermarktung eines Videospiels
15.10.2. Die Person, die für den Erfolg verantwortlich ist
15.10.3. Strategien
Modul 16. 2D- und 3D-Videospielentwicklung
16.1. Ressourcen für Rastergrafiken
16.1.1. Sprites
16.1.2. Atlas
16.1.3. Texturen
16.2. Entwicklung von Schnittstellen und Menüs
16.2.1. Unity GUI
16.2.2. Unity UI
16.2.3. UI-Toolkit
16.3. Animationssystem
16.3.1. Animationskurven und -schlüssel
16.3.2. Angewandte Animationsereignisse
16.3.3. Modifikatoren
16.4. Materialien und Shader
16.4.1. Bestandteile eines Materials
16.4.2. Arten von RenderPass
16.4.3. Shaders
16.5. Partikel
16.5.1. Partikel-Systeme
16.5.2. Sender und Untersender
16.5.3. Scripting
16.5.4. Beleuchtung
16.6. Beleuchtungsmodi
16.6.1. Beleuchtungs-Baking
16.6.2. Light Probes
16.7. Mecanim
16.7.1. State Machines, SubState Machines und Übergänge zwischen Animationen
16.7.2. Blend Trees
16.7.3. Animation Layers und IK
16.8. Kinematisches Finish
16.8.1. Timeline
16.8.2. Nachbearbeitungseffekte
16.8.3. Universal Render Pipeline und High Definition Render Pipeline
16.9. VFX für Fortgeschrittene
16.9.1. VFX Graph
16.9.2. Shader Graph
16.9.3. Pipeline Tools
16.10. Audio-Komponenten
16.10.1. Audio Source und Audio Listener
16.10.2. Audio Mixer
16.10.3. Audio Spatializer
Modul 17. Programmierung, Erstellung von Mechaniken und Prototyping-Techniken für Videospiele
17.1. Technischer Prozess
17.1.1. Lowpoly- und Highpoly-Modelle in Unity
17.1.2. Material-Konfiguration
17.1.3. High Definition Render Pipeline
17.2. Charakterdesign
17.2.1. Bewegung
17.2.2. Collider-Design
17.2.3. Erstellung und Verhalten
17.3. Importieren von Skeletal Meshes in Unity
17.3.1. Exportieren von Skeletal Meshes aus 3D-Software
17.3.2. Skeletal Meshes in Unity
17.3.3. Ankerpunkte für Zubehör
17.4. Importieren von Animationen
17.4.1. Vorbereitung von Animationen
17.4.2. Importieren von Animationen
17.4.3. Animator und Übergänge
17.5. Editor von Animationen
17.5.1. Shaffung von Blend Spaces
17.5.2. Erstellen von Animation Montage
17.5.3. Bearbeiten von Read-Only-Animationen
17.6. Erstellen und Simulieren einer Ragdoll
17.6.1. Konfiguration einer Ragdoll
17.6.2. Ragdoll in einen Animationsgraphen einfügen
17.6.3. Simulation einer Ragdoll
17.7. Ressourcen für die Erstellung von Charakteren
17.7.1. Bibliotheken
17.7.2. Importieren und Exportieren von Bibliotheksmaterialien
17.7.3. Handhabung von Materialien
17.8. Arbeitsgruppen
17.8.1. Hierarchie und Arbeitsaufgaben
17.8.2. Versionskontrollsysteme
17.8.3. Konfliktlösung
17.9. Voraussetzungen für eine erfolgreiche Entwicklung
17.9.1. Produktion für den Erfolg
17.9.2. Optimale Entwicklung
17.9.3. Grundlegende Anforderungen
17.10. Verpackung für die Veröffentlichung
17.10.1. Player settings
17.10.2. Build
17.10.3. Einen Installer erstellen
Modul 18. Entwicklung von immersiven Videospielen in VR
18.1. Die Einzigartigkeit von VR
18.1.1. Traditionelle und VR-Videospiele. Unterschiede
18.1.2. Motion Sickness: Fluidität vs. Effekte
18.1.3. Einzigartige VR-Interaktionen
18.2. Interaktion
18.2.1. Events
18.2.2. Physische Trigger
18.2.3. Virtuelle vs. reale Welt
18.3. Immersive Fortbewegung
18.3.1. Teleportation
18.3.2. Arm Swinging
18.3.3. Forward Movement mit Facing und ohne
18.4. VR-Physik
18.4.1. Greifbare und werfbare Objekte
18.4.2. Gewicht und Masse in VR
18.4.3. Schwerkraft in VR
18.5. UI in VR
18.5.1. Positionierung und Krümmung von UI-Elementen
18.5.2. VR-Menü-Interaktionsmodi
18.5.3. Bewährte Praktiken für ein komfortables Erlebnis
18.6. Animation in VR
18.6.1. Integration von animierten Modellen in VR
18.6.2. Animierte Objekte und Charaktere vs. Physische Objekte
18.6.3. Animierte vs. prozedurale Übergänge
18.7. Das Avatar
18.7.1. Darstellung des Avatars aus Ihren eigenen Augen
18.7.2. Die externe Darstellung des Avatars selbst
18.7.3. Inverse Kinematik und prozedurale Animation auf den Avatar angewendet
18.8. Audio
18.8.1. Konfiguration von Audio Sources und Audio Listeners für VR
18.8.2. Verfügbare Effekte für ein noch intensiveres Erlebnis
18.8.3. Audio Spatializer VR
18.9. Optimierung in VR- und AR-Projekten
18.9.1. Beseitigung von Okklusionen
18.9.2. Static Batching
18.9.3. Qualitätseinstellungen und Render-Pass-Typen
18.10. Praxis: Escape Room VR
18.10.1. Entwerfen des Erlebnisses
18.10.2. Layout des Szenarios
18.10.3. Entwicklung der Mechanik
Modul 19. Professioneller Ton für 3D-Videospiele in VR
19.1. Audio in professionellen 3D-Videospielen
19.1.1. Audio in Videospielen
19.1.2. Arten von Audiostilen in aktuellen Videospielen
19.1.3. Räumliche Audiomodelle
19.2. Vorläufige Materialstudie
19.2.1. Studium der Spieldesign-Dokumentation
19.2.2. Untersuchung der Leveldesign-Dokumentation
19.2.3. Bewertung der Komplexität und Typologie des Projekts zur Erstellung des Audios
19.3. Studie der Klangreferenzen
19.3.1. Liste der wichtigsten Referenzen nach Ähnlichkeit mit dem Projekt
19.3.2. Audio-Referenzen aus anderen Medien, um dem Videospiel seine Identität zu verleihen
19.3.3. Untersuchung der Referenzen und Ziehen von Schlussfolgerungen
19.4. Entwerfen der Sound-Identität des Videospiels
19.4.1. Die wichtigsten Faktoren, die das Projekt beeinflussen
19.4.2. Relevante Aspekte bei der Komposition des Sounds: Instrumentierung, Tempo, andere
19.4.3. Definition der Stimmen
19.5. Erstellung des Soundtracks
19.5.1. Liste der Umgebungen und Audios
19.5.2. Definition von Motiv, Thema und Instrumentierung
19.5.3. Komposition und Audiotest von Funktionsprototypen
19.6. Erstellung von Soundeffekten (FX)
19.6.1. Soundeffekte: FX-Typen und vollständige Liste entsprechend den Projektanforderungen
19.6.2. Definition von Motiv, Thema und Kreation
19.6.3. Bewertung von Sound FX und Tests an funktionierenden Prototypen
19.7. Erstellung von Stimmen
19.7.1. Stimmtypen und Phrasenliste
19.7.2. Suche und Bewertung von Synchronsprechern und -sprecherinnen
19.7.3. Auswertung der Aufnahmen und Testen der Stimmen an funktionalen Prototypen
19.8. Bewertung der Audioqualität
19.8.1. Ausarbeitung von Hörsitzungen mit dem Entwicklungsteam
19.8.2. Integration aller Audios in einen funktionierenden Prototyp
19.8.3. Testen und Auswerten der erzielten Ergebnisse
19.9. Exportieren, Formatieren und Importieren von Audio in das Projekt
19.9.1. Audioformate und Kompression in Videospielen
19.9.2. Audio-Export
19.9.3. Audio in das Projekt importieren
19.10. Vorbereitung von Audiobibliotheken für die Vermarktung
19.10.1. Gestaltung vielseitiger Soundbibliotheken für Videospielprofis
19.10.2. Auswahl der Audios nach Typ: Soundtrack, FX und Stimmen
19.10.3. Vermarktung von Audio-Asset-Bibliotheken
Modul 20. Videospielproduktion und -finanzierung
20.1. Produktion von Videospielen
20.1.1. Kaskaden-Methoden
20.1.2. Kasuistik des mangelnden Projektmanagements und des Fehlens eines Arbeitsplans
20.1.3. Die Folgen des Fehlens einer Produktionsabteilung in der Videospielindustrie
20.2. Das Entwicklungsteam
20.2.1. Die wichtigsten Abteilungen bei der Entwicklung von Projekten
20.2.2. Schlüsselprofile im Mikromanagement: Lead und Senior
20.2.3. Problem der mangelnden Erfahrung bei Junior-Profilen
20.2.4. Aufstellung eines Fortbildungsplans für unerfahrene Profile
20.3. Agile Methoden bei der Entwicklung von Videospielen
20.3.1. SCRUM
20.3.2. AGILE
20.3.3. Hybride Methoden
20.4. Schätzungen von Aufwand, Zeit und Kosten
20.4.1. Der Preis der Videospielentwicklung: Die wichtigsten Kostenkonzepte
20.4.2. Zeitplanung der Aufgaben: kritische Punkte, Grundlagen und zu berücksichtigende Aspekte
20.4.3. Schätzungen auf der Grundlage von Aufwandspunkten vs. Berechnung in Stunden
20.5. Priorisierung bei der Planung von Prototypen
20.5.1. Festlegung der allgemeinen Projektziele
20.5.2. Priorisierung der wichtigsten Funktionalitäten und Inhalte: Reihenfolge und Bedarf nach Abteilung
20.5.3. Gruppierung der Funktionalitäten und Inhalte in der Produktion, um Deliverables (funktionale Prototypen) zu erstellen
20.6. Bewährte Praktiken bei der Produktion von Videospielen
20.6.1. Besprechungen, Daylies, Weekly Meeting, Besprechungen am Ende eines Sprint, Besprechungen zur Überprüfung der Ergebnisse von Meilensteinen ALFA, BETA und RELEASE
20.6.2. Messung der Sprint-Geschwindigkeit
20.6.3. Erkennung von mangelnder Motivation und geringer Produktivität und Vorwegnahme möglicher Probleme in der Produktion
20.7. Analyse in der Produktion
20.7.1. Vorläufige Analyse I: Überprüfung des Marktstatus
20.7.2. Vorläufige Analyse 2: Ermittlung der wichtigsten Projektreferenzen (direkte Wettbewerber)
20.7.3. Schlussfolgerungen aus den vorläufigen Analysen
20.8. Kalkulation der Entwicklungskosten
20.8.1. Personalwesen
20.8.2. Technologie und Lizenzierung
20.8.3. Externe Entwicklungskosten
20.9. Suche nach Investitionen
20.9.1. Arten von Investoren
20.9.2. Zusammenfassung
20.9.3. Pitch Deck
20.9.4. Publishers
20.9.5. Selbstfinanzierung
20.10. Ausarbeitung von Projekt-Post Mortems
20.10.1. Prozess der Ausarbeitung des Post Mortem im Unternehmen
20.10.2. Analyse der positiven Aspekte des Projekts
20.10.3. Analyse der negativen Aspekte des Projekts
20.10.4. Vorschlag zur Verbesserung der negativen Punkte des Projekts und Schlussfolgerungen

Mit dem unserem Lehrplan helfen wir Ihnen, die Welt mit den Augen der Technik zu verstehen und zu analysieren“
Weiterbildender Masterstudiengang in Virtuelle Realität und Maschinelles Sehen
Obwohl die Schaffung immersiver künstlicher Umgebungen in der Vergangenheit als weit entferntes Szenario erschien, hat die beschleunigte Entwicklung der Computertechnologie nicht nur den Zugang zu diesen Werkzeugen ermöglicht, sondern auch deren erfolgreiche Integration in verschiedene Bereiche wie Videospiele, Bildung und Architektur. Da die Zukunft dieser Technologie vielversprechend ist, haben wir an der TECH Technologischen Universität den Weiterbildenden Masterstudiengang in Virtuelle Realität und Maschinelles Sehen entwickelt, ein Programm, das Ihnen die neuesten Kenntnisse auf diesem Gebiet vermittelt, so dass Sie sich unter anderem auf die wichtigsten Entwicklungen, die Beherrschung von Spitzenwerkzeugen wie der Unreal Engine und die fortschrittlichsten Techniken der digitalen 3D-Bildverarbeitung spezialisieren können. Auf diese Weise können Sie sich an den ehrgeizigsten Projekten konsolidierter Unternehmen beteiligen und zu einem führenden Experten in diesem Bereich werden.
Spezialisieren Sie sich auf virtuelle Realität und maschinelles Sehen
Wenn es Ihr Ziel ist, ein höheres Wissensniveau im Bereich der Computertechnologie zu erreichen, dann ist dieses Programm das Richtige für Sie. An der TECH Technologischen Universität erhalten Sie eine umfassende und qualitativ hochwertige Fortbildung, da wir über die vollständigsten Inhalte auf dem Bildungsmarkt, innovative Lernmethoden für die Online-Ausbildung und die Unterstützung von Experten verfügen, die Sie bei Ihrem Prozess begleiten werden. Auf diese Weise erhalten Sie Zugang zu Techniken, Strategien, Programmen und Ressourcen, die Ihre Arbeit im Bereich der Modellierung und Simulation von sensorischen, dreidimensionalen und künstlichen Umgebungen erleichtern. Dieser weiterbildende Masterstudiengang ist eine innovative und effektive Möglichkeit, Ihre berufliche Entwicklung zu gewährleisten.