Präsentation

Positionieren Sie sich in einer boomenden Branche mit dem besten Programm der Universitätsszene, das nur TECH anbieten kann“ 

##IMAGE##

Die virtuelle Realität entführt uns in immersive Welten und ermöglicht Erfahrungen, die von der Simulation komplexer Operationen bis hin zur architektonischen Gestaltung in Echtzeit reichen. Die Auswirkungen dieser Disziplin gehen über den technologischen Bereich hinaus, da sie die Art und Weise, wie wir leben, arbeiten und lernen, prägt. Ihre ständige Weiterentwicklung erfordert nicht nur Fachleute, die in der Anwendung dieser Werkzeuge geschult sind, sondern auch Visionäre, die in der Lage sind, ihre Anwendungen auf neue Horizonte auszuweiten. 

Das maschinelle Sehen verleiht Maschinen die Fähigkeit, Bilder und Videos zu interpretieren und zu analysieren, was die Entwicklung fortschrittlicher Technologien ermöglicht. Dazu gehören autonome Fahrzeuge, die den Verkehr revolutionieren, und medizinische Diagnoseplattformen, die die Genauigkeit und Effizienz im Gesundheitswesen verbessern. Darüber hinaus eröffnen die jüngsten Entwicklungen in diesem Bereich, wie Multitasking-Modelle und generative Technologien, neue Möglichkeiten für die Entwicklung innovativer Lösungen. Die Integration mit Edge Computing hat auch die Datenverarbeitung in Echtzeit erleichtert, was die Anwendungsmöglichkeiten des maschinellen Sehens weiter ausweitet. Aus all diesen Gründen öffnet eine Fortbildung in diesen Disziplinen nicht nur die Türen in einem ständig wachsenden Technologiesektor, sondern ermöglicht auch die Teilnahme an Projekten, die einen echten Einfluss auf das tägliche Leben haben. Sie trägt auch zur Entwicklung von Technologien bei, die die Art und Weise, wie wir mit der Welt interagieren, verändern und unsere Lebensqualität verbessern werden. 

Der Lehrplan von TECH mit seiner 100%igen Online-Methodik und dem Relearning-Lernansatz ermöglicht es den Studenten, sich voll und ganz auf die wichtigsten Themen zu konzentrieren, um sich in diesen technologischen Bereichen zu spezialisieren. Darüber hinaus werden die Studenten von hochspezialisierten Lehrkräften und der aktuellsten Forschung im Hochschulbereich unterstützt. All dies ohne Stundenplan und von jedem Ort der Welt aus, so dass die Studenten ihr Studium an ihr eigenes Tempo anpassen können, ohne ihre persönlichen oder beruflichen Verpflichtungen zu beeinträchtigen. 

Die Kombination aus Kreativität und Technologie wartet auf Sie, um mit der Entwicklung großartiger Lösungen mit globaler Wirkung zu beginnen“ 

Dieser Weiterbildender masterstudiengang in Virtuelle Realität und Maschinelles Sehen enthält das vollständigste und aktuellste Programm auf dem Markt. Die hervorstechendsten Merkmale sind:

  • Die Entwicklung von Fallstudien, die von Experten in Informatik präsentiert werden 
  • Der anschauliche, schematische und äußerst praxisnahe Inhalt vermittelt alle für die berufliche Praxis unverzichtbaren wissenschaftlichen und praktischen Informationen 
  • Praktische Übungen, bei denen der Selbstbewertungsprozess zur Verbesserung des Lernens genutzt werden kann 
  • Sein besonderer Schwerpunkt liegt auf innovativen Methoden in virtueller Realität und maschinellem Sehen   
  • Theoretische Lektionen, Fragen an den Experten, Diskussionsforen zu kontroversen Themen und individuelle Reflexionsarbeit 
  • Die Verfügbarkeit des Zugangs zu Inhalten von jedem festen oder tragbaren Gerät mit Internetanschluss 

Werden Sie der Beste in den Bereichen Virtuelle Realität und Maschinelles Sehen, in Ihrem eigenen Tempo, ohne Zeitplan und von jedem Ort der Welt aus“

Zu den Dozenten gehören Fachleute aus dem Bereich des Journalismus, die ihre Erfahrungen in dieses Programm einbringen, sowie anerkannte Spezialisten aus führenden Gesellschaften und renommierten Universitäten.  

Die multimedialen Inhalte, die mit den neuesten Bildungstechnologien entwickelt wurden, ermöglichen der Fachkraft ein situiertes und kontextbezogenes Lernen, d. h. eine simulierte Umgebung, die eine immersive Fortbildung bietet, die auf die Ausführung von realen Situationen ausgerichtet ist. 

Das Konzept dieses Programms konzentriert sich auf problemorientiertes Lernen, bei dem der Student versuchen muss, die verschiedenen Situationen aus der beruflichen Praxis zu lösen, die während des gesamten Studiengangs gestellt werden. Dabei wird die Fachkraft durch ein innovatives interaktives Videosystem unterstützt, das von anerkannten Experten entwickelt wurde.  

Beherrschen Sie diese Technologien mit den didaktischen Werkzeugen, die TECH Ihnen bietet, und beginnen Sie, Leben zu verändern"

##IMAGE##

Entwickeln Sie Anwendungen und erleben Sie die spannendsten Herausforderungen an der größten digitalen Universität der Welt"

Lehrplan

Der Weiterbildender masterstudiengang in Virtuelle Realität und Maschinelles Sehen ist als umfassende und fortgeschrittene akademische Möglichkeit in diesen beiden Schlüsseldisziplinen konzipiert. Das Programm beginnt mit einer soliden Grundlage in den grundlegenden Bereichen Programmierung, angewandte Mathematik und Bildverarbeitung. Im Laufe des Kurses werden sich die Studenten mit der Entwicklung virtueller Umgebungen unter Verwendung modernster Werkzeuge befassen. Darüber hinaus werden sie fortgeschrittene Simulations- und Interaktionstechniken in immersiven Umgebungen erforschen.  

##IMAGE##

Kommen Sie zu TECH und Sie werden beginnen, die Unterhaltung mit immersiven Erfahrungen im Bereich des maschinellen Sehens zu verändern“   

Modul 1. Maschinelles Sehen 

1.1. Menschliche Wahrnehmung 

1.1.1. Das menschliche Sehsystem 
1.1.2. Farbe 
1.1.3. Sichtbare und nicht sichtbare Frequenzen 

1.2. Chronik der industriellen Bildverarbeitung 

1.2.1. Grundsätze 
1.2.2. Evolution 
1.2.3. Die Bedeutung der industriellen Bildverarbeitung 

1.3. Digitale Bildgestaltung 

1.3.1. Digitales Bild 
1.3.2. Bildtypen 
1.3.3. Farbräume 
1.3.4. RGB 
1.3.5. HSV und HSL 
1.3.6. CMY-CMYK 
1.3.7. YCbCr 
1.3.8. Indiziertes Bild 

1.4. System zur Bilderfassung 

1.4.1. Funktionsweise einer Digitalkamera 
1.4.2. Die richtige Belichtung für jede Situation 
1.4.3. Schärfentiefe 
1.4.4. Resolution 
1.4.5. Bildformate 
1.4.6. HDR-Modus 
1.4.7. Kameras mit hoher Auflösung 
1.4.8. Kameras mit hoher Geschwindigkeit 

1.5. Optische Systeme 

1.5.1. Optische Grundsätze 
1.5.2. Konventionelle Objektive 
1.5.3. Telezentrische Objektive 
1.5.4. Arten von Autofokus 
1.5.5. Brennweite 
1.5.6. Schärfentiefe 
1.5.7. Optische Verzerrung 
1.5.8. Kalibrierung eines Bildes 

1.6. Beleuchtungssysteme 

1.6.1. Die Bedeutung der Beleuchtung 
1.6.2. Frequenzgang 
1.6.3. LED-Beleuchtung 
1.6.4. Außenbeleuchtung 
1.6.5. Arten von Beleuchtung für industrielle Anwendungen. Auswirkungen 

1.7. 3D-Erfassungssysteme 

1.7.1. Stereovision 
1.7.2. Triangulation 
1.7.3. Strukturiertes Licht 
1.7.4. Time of Flight 
1.7.5. LIDAR 

1.8. Multispektral 

1.8.1. Multispektralkameras 
1.8.2. Hyperspektralkameras 

1.9. Nicht sichtbares Nahspektrum 

1.9.1. IR-Kameras 
1.9.2. UV-Kameras 
1.9.3. Umwandlung von nicht sichtbar in sichtbar durch Beleuchtung 

1.10. Andere Frequenzbänder 

1.10.1. Röntgenstrahlen 
1.10.2. Terahertz 

Modul 2. Anwendungen und Stand der Technik 

2.1. Industrielle Anwendungen 

2.1.1. Bildverarbeitungsbibliotheken 
2.1.2. Kompaktkameras 
2.1.3. PC-gestützte Systeme 
2.1.4. Industrielle Robotik 
2.1.5. Pick and place 2D 
2.1.6. Bin Picking 
2.1.7. Qualitätskontrolle 
2.1.8. Vorhandensein und Fehlen von Komponenten 
2.1.9. Kontrolle der Dimensionen 
2.1.10. Kontrolle der Etikettierung 
2.1.11. Rückverfolgbarkeit 

2.2. Autonome Fahrzeuge 

2.2.1. Fahrerassistenz 
2.2.2. Autonomes Fahren 

2.3. Maschinelles Sehen für die Inhaltsanalyse 

2.3.1. Nach Inhalt filtern 
2.3.2. Moderation visueller Inhalte 
2.3.3. Verfolgungssysteme 
2.3.4. Identifizierung von Marken und Logos 
2.3.5. Kennzeichnung und Klassifizierung von Videos 
2.3.6. Erkennung von Szenenänderungen 
2.3.7. Extraktion von Texten oder Credits 

2.4. Medizinische Anwendungen 

2.4.1. Erkennung und Lokalisierung von Krankheiten 
2.4.2. Krebs und Röntgenanalyse 
2.4.3. Fortschritte beim maschinellen Sehen im Rahmen von Covid19 
2.4.4. Assistenz im Operationssaal 

2.5. Raumfahrtanwendungen 

2.5.1. Analyse von Satellitenbildern 
2.5.2. Maschinelles Sehen für die Erforschung des Weltraums 
2.5.3. Mission zum Mars 

2.6. Kommerzielle Anwendungen 

2.6.1. Bestandskontrolle 
2.6.2. Videoüberwachung, Haussicherheit 
2.6.3. Kameras zum Parken 
2.6.4. Kameras zur Bevölkerungskontrolle 
2.6.5. Radarkameras 

2.7. Vision angewandt auf Robotik 

2.7.1. Drohnen 
2.7.2. AGV 
2.7.3. Vision in kollaborierenden Robotern 
2.7.4. Die Augen der Roboter 

2.8. Erweiterte Realität 

2.8.1. Funktionsweise 
2.8.2. Geräte 
2.8.3. Anwendungen in der Industrie 
2.8.4. Kommerzielle Anwendungen 

2.9. Cloud Computing 

2.9.1. Plattformen für Cloud Computing 
2.9.2. Vom Cloud Computing zur Produktion 

2.10. Forschung und aktueller Stand der Technik 

2.10.1. Die wissenschaftliche Gemeinschaft 
2.10.2. Was tut sich? 
2.10.3. Die Zukunft des maschinellen Sehens 

Modul 3. Digitale Bildverarbeitung 

3.1. Entwicklungsumgebung für Computer Vision 

3.1.1. Bibliotheken für Computer Vision 
3.1.2. Programmierumgebung 
3.1.3. Visualisierungstools 

3.2. Digitale Bildverarbeitung 

3.2.1. Pixel-Beziehungen 
3.2.2. Bildbearbeitung 
3.2.3. Geometrische Transformationen 

3.3. Pixel-Operationen 

3.3.1. Histogramm 
3.3.2. Transformationen von Histogrammen 
3.3.3. Operationen an Farbbildern 

3.4. Logische und arithmetische Operationen 

3.4.1. Additionen und Subtraktionen 
3.4.2. Produkt und Bereich 
3.4.3. And/Nand 
3.4.4. Or/Nor 
3.4.5. Xor/Xnor 

3.5. Filter 

3.5.1. Masken und Faltung 
3.5.2. Lineare Filterung 
3.5.3. Nichtlineare Filterung 
3.5.4. Fourier-Analyse 

3.6. Morphologische Operationen 

3.6.1. Erode and Dilating 
3.6.2. Closing and Open 
3.6.3. Top Hat und Black Hat 
3.6.4. Kontur-Erkennung 
3.6.5. Skelett 
3.6.6. Füllen von Löchern 
3.6.7. Convex Hull 

3.7. Werkzeuge zur Bildanalyse 

3.7.1. Kantenerkennung 
3.7.2. Erkennung von Blobs 
3.7.3. Kontrolle der Dimensionen 
3.7.4. Farbprüfung 

3.8. Segmentierung von Objekten 

3.8.1. Bildsegmentierung 
3.8.2. Klassische Segmentierungstechniken 
3.8.3. Echte Anwendungen 

3.9. Kalibrierung von Bildern 

3.9.1. Bildkalibrierung 
3.9.2. Kalibrierungsmethoden 
3.9.3. Kalibrierungsprozess in einem 2D-Kamera-Roboter-System 

3.10. Bildverarbeitung in realer Umgebung 

3.10.1. Problemanalyse 
3.10.2. Bildbearbeitung 
3.10.3. Merkmalsextraktion 
3.10.4. Endgültiges Ergebnis 

Modul 4. Fortgeschrittene digitale Bildverarbeitung 

4.1. Optische Zeichenerkennung (OCR) 

4.1.1. Vorverarbeitung des Bildes 
4.1.2. Erkennung von Text 
4.1.3. Texterkennung 

4.2. Code-Lesung 

4.2.1. 1D-Codes 
4.2.2. 2D-Codes 
4.2.3. Anwendungen 

4.3. Suche nach Mustern 

4.3.1. Suche nach Mustern 
4.3.2. Muster auf Basis von Graustufen 
4.3.3. Konturbasierte Muster 
4.3.4. Muster auf der Grundlage geometrischer Formen 
4.3.5. Andere Techniken 

4.4. Objektverfolgung mit konventionellem Sehen 

4.4.1. Hintergrund-Extraktion 
4.4.2. Meanshift 
4.4.3. Camshift 
4.4.4. Optical flow 

4.5. Gesichtserkennung 

4.5.1. Facial Landmark Detection 
4.5.2. Anwendungen 
4.5.3. Gesichtserkennung 
4.5.4. Erkennung von Emotionen 

4.6. Überblick und Ausrichtungen 

4.6.1. Stitching 
4.6.2. Bildkomposition 
4.6.3. Fotomontage 

4.7. High Dinamic Range (HDR) and Photometric Stereo 

4.7.1. Erhöhter Dynamikbereich 
4.7.2. Bildkomposition zur Konturverbesserung 
4.7.3. Techniken für den Einsatz von dynamischen Anwendungen 

4.8. Bildkompression 

4.8.1. Die Bildkompression 
4.8.2. Kompressortypen 
4.8.3. Techniken zur Bildkomprimierung 

4.9. Videoverarbeitung 

4.9.1. Bildsequenzen 
4.9.2. Videoformate und Codecs 
4.9.3. Lesen eines Videos 
4.9.4. Rahmenverarbeitung 

4.10. Reale Anwendung der Bildverarbeitung 

4.10.1. Problemanalyse 
4.10.2. Bildbearbeitung 
4.10.3. Merkmalsextraktion 
4.10.4. Endgültiges Ergebnis

Modul 5. 3D-Bildverarbeitung 

5.1. 3D-Bild 

5.1.1. 3D-Bild 
5.1.2. 3D-Bildverarbeitungssoftware und Visualisierungen 
5.1.3. Metrologie-Software 

5.2. Open3D 

5.2.1. Bibliothek für 3D-Datenverarbeitung 
5.2.2. Merkmale 
5.2.3. Installation und Nutzung 

5.3. Daten 

5.3.1. 2D-Bildtiefenkarten 
5.3.2. Pointclouds 
5.3.3. Normalitäten 
5.3.4. Oberflächen 

5.4. Visualisierung 

5.4.1. Datenvisualisierung 
5.4.2. Kontrollen 
5.4.3. Web-Visualisierung 

5.5. Filter 

5.5.1. Abstand zwischen Punkten, Outliers eliminieren 
5.5.2. Hochpass-Filter 
5.5.3. Downsampling 

5.6. Geometrie und Merkmalsextraktion 

5.6.1. Extrahieren eines Profils 
5.6.2. Messung der Tiefe 
5.6.3. Volumen 
5.6.4. Geometrische 3D-Formen 
5.6.5. Pläne 
5.6.6. Projektion eines Punktes 
5.6.7. Geometrische Abstände 
5.6.8. Kd Tree 
5.6.9. 3D-Features  

5.7. Registrierung und Meshing 

5.7.1. Verkettung 
5.7.2. ICP 
5.7.3. 3D-Ransac  

5.8.  3D-Objekterkennung 

5.8.1. Suche nach einem Objekt in der 3D-Szene
5.8.2. Segmentierung 
5.8.3. Bin Picking 

5.9. Oberflächenanalyse 

5.9.1. Smoothing 
5.9.2. Einstellbare Oberflächen 
5.9.3. Octree 

5.10.  Triangulation 

5.10.1. Von Mesh zu Point Cloud 
5.10.2. Triangulation von Tiefenkarten 
5.10.3. Triangulation von ungeordneten PointClouds 

Modul 6. Deep Learning  

6.1. Künstliche Intelligenz 

6.1.1. Machine Learning 
6.1.2. Deep Learning 
6.1.3. Die Explosion des Deep Learning. Warum jetzt? 

6.2. Neuronale Netze 

6.2.1. Das neuronale Netz 
6.2.2. Einsatz von neuronalen Netzen 
6.2.3. Lineare Regression und Perceptron 
6.2.4. Forward Propagation 
6.2.5. Backpropagation 
6.2.6. Feature Vectors 

6.3. Loss Functions 

6.3.1. Loss Function 
6.3.2. Arten von Loss Functions 
6.3.3. Auswahl der Loss Function 

6.4. Aktivierungsfunktionen 

6.4.1. Aktivierungsfunktionen 
6.4.2. Lineare Funktionen 
6.4.3. Nichtlineare Funktionen 
6.4.4. Output vs. Hidden Layer Activation Functions 

6.5. Regularisierung und Standardisierung 

6.5.1. Regularisierung und Standardisierung 
6.5.2. Overfitting and Data Augmentation 
6.5.3. Regularization Methods: L1, L2 and Dropout 
6.5.4. Normalization Methods: Batch, Weight, Layer 

6.6. Optimierung 

6.6.1. Gradient Descent 
6.6.2. Stochastic Gradient Descent 
6.6.3. Mini Batch Gradient Descent 
6.6.4. Momentum 
6.6.5. Adam 

6.7. Hyperparameter Tuning und Gewichte 

6.7.1. Hyperparameter 
6.7.2. Batch Size vs. Learning Rate vs Step Decay 
6.7.3. Gewichte 

6.8. Bewertungsmetriken für neuronale Netze 

6.8.1. Accuracy 
6.8.2. Dice Coefficient 
6.8.3. Sensitivity vs. Specificity / Recall vs. Precision 
6.8.4. ROC-Kurve (AUC) 
6.8.5. F1-Score 
6.8.6. Confusion Matrix 
6.8.7. Cross-Validation 

6.9. Frameworks und Hardware 

6.9.1. Tensor Flow 
6.9.2. Pytorch 
6.9.3. Caffe 
6.9.4. Keras 
6.9.5. Hardware für die Trainingsphase 

6.10. Erstellung neuronaler Netze - Training und Validierung 

6.10.1. Dataset 
6.10.2. Aufbau des Netzes 
6.10.3. Training 
6.10.4. Visualisierung der Ergebnisse 

Modul 7. Faltungsnetzwerke und Bildklassifizierung 

7.1. Convolutional Neural Networks 

7.1.1. Einführung 
7.1.2. Faltung
7.1.3. CNN Building Blocks 

7.2. Arten von CNN-Bezügen 

7.2.1. Convolutional 
7.2.2. Activation 
7.2.3. Batch Normalization 
7.2.4. Polling 
7.2.5. Fully Connected 

7.3. Metriken 

7.3.1. Matrix-Verwirrung 
7.3.2. Accuracy 
7.3.3. Präzision 
7.3.4. Recall 
7.3.5. F1 Score 
7.3.6. ROC Curve 
7.3.7. AUC 

7.4. Wichtigste Architekturen 

7.4.1. AlexNet 
7.4.2. VGG 
7.4.3. Resnet 
7.4.4. GoogleLeNet 

7.5. Klassifizierung von Bildern 

7.5.1. Einführung 
7.5.2. Analyse der Daten 
7.5.3. Vorbereitung der Daten 
7.5.4. Modell-Training 
7.5.5. Modell-Validierung 

7.6. Praktische Überlegungen zum CNN-Training 

7.6.1. Auswahl des Optimierers 
7.6.2. Learning Rate Scheduler 
7.6.3. Überprüfung der Schulungspipeline 
7.6.4. Ausbildung mit Regularisierung 

7.7. Bewährte Verfahren beim Deep Learning 

7.7.1. Transfer Learning 
7.7.2. Fine Tuning 
7.7.3. Data Augmentation 

7.8. Statistische Auswertung der Daten 

7.8.1. Anzahl der Datensätze 
7.8.2. Anzahl der Etiketten 
7.8.3. Anzahl der Bilder 
7.8.4. Datenausgleich 

7.9. Deployment 

7.9.1. Speichern und Laden von Modellen 
7.9.2. Onnx 
7.9.3. Inferenz 

7.10. Fallstudie: Klassifizierung von Bildern 

7.10.1. Datenanalyse und -aufbereitung 
7.10.2. Testen der Trainingspipeline 
7.10.3. Modell-Training 
7.10.4. Modell-Validierung 

Modul 8. Objekterkennung 

8.1. Objekterkennung und -verfolgung 

8.1.1. Objekterkennung 
8.1.2. Anwendungsbeispiele 
8.1.3. Objektverfolgung 
8.1.4. Anwendungsbeispiele 
8.1.5. Okklusionen, Rigid and Non-Rigid Poses 

8.2. Bewertungsmetriken 

8.2.1. IOU - Intersection Over Union 
8.2.2. Confidence Score 
8.2.3. Recall 
8.2.4. Präzision 
8.2.5. Recall- Precision Curve 
8.2.6. Mean Average Precision (MAP) 

8.3. Traditionelle Methoden 

8.3.1. Sliding Window 
8.3.2. Viola Detector 
8.3.3. HOG 
8.3.4. Non Maximal Supresion (NMS) 

8.4. Datasets 

8.4.1. Pascal VC 
8.4.2. MS Coco 
8.4.3. ImageNet (2014) 
8.4.4. MOTA Challenge 

8.5. Two Shot Object Detector 

8.5.1. R-CNN 
8.5.2. Fast R-CNN 
8.5.3. Faster R-CNN 
8.5.4. Mask R-CNN 

8.6. Single Shot Object Detector 

8.6.1. SSD 
8.6.2. YOLO 
8.6.3. RetinaNet 
8.6.4. CenterNet 
8.6.5. EfficientDet 

8.7. Backbones 

8.7.1. VGG 
8.7.2. ResNet 
8.7.3. Mobilenet 
8.7.4. Shufflenet 
8.7.5. Darknet 

8.8. Object Tracking 

8.8.1. Klassische Ansätze 
8.8.2. Partikelfilter 
8.8.3. Kalman 
8.8.4. Sort Tracker 
8.8.5. Deep Sort 

8.9. Bereitstellung 

8.9.1. Plattform für Computing 
8.9.2. Backbone-Auswahl 
8.9.3. Framework-Auswahl 
8.9.4. Optimierung des Modells 
8.9.5. Modellversionierung 

8.10. Studie: Objekterkennung und -verfolgung 

8.10.1. Erkennung von Personen 
8.10.2. Verfolgung von Personen 
8.10.3. Re-Identifizierung 
8.10.4. Zählen von Menschen in Menschenmengen 

Modul 9. Bildsegmentierung mit Deep Learning 

9.1. Objekterkennung und Segmentierung 

9.1.1. Semantische Segmentierung 

9.1.1.1. Anwendungsfälle von semantischer Segmentierung 

9.1.2. Instanziierte Segmentierung 

9.1.2.1. Anwendungsfälle von instanziierter Segmentierung 

9.2. Bewertungsmetriken 

9.2.1. Ähnlichkeiten mit anderen Methoden 
9.2.2. Pixel Accuracy 
9.2.3. Dice Coefficient (F1 Score) 

9.3. Kostenfunktionen 

9.3.1. Dice Loss 
9.3.2. Focal Loss 
9.3.3. Tversky Loss 
9.3.4. Andere Funktionen 

9.4. Traditionelle Segmentierungsmethoden 

9.4.1. Schwellenwertanwendung mit Otsu und Riddlen 
9.4.2. Selbstorganisierte Karten 
9.4.3. GMM-EM algorithm 

9.5. Semantische Segmentierung mit Deep Learning: FCN 

9.5.1. FCN 
9.5.2. Architektur 
9.5.3. FCN-Anwendungen 

9.6. Semantische Segmentierung mit Deep Learning: U-NET 

9.6.1. U-NET 
9.6.2. Architektur 
9.6.3. U-NET-Anwendung 

9.7. Semantische Segmentierung mit Deep Learning: Deep Lab 

9.7.1. Deep Lab 
9.7.2. Architektur 
9.7.3. Deep-Lab-Anwendung 

9.8. Instantiierte Segmentierung mit Deep Learning: Mask RCNN 

9.8.1. Mask RCNN 
9.8.2. Architektur 
9.8.3. Implementierung eines Mask RCNN 

9.9. Video-Segmentierung 

9.9.1. STFCN 
9.9.2. Semantisches Video CN 
9.9.3. Clockwork Convnets 
9.9.4. Low-Latency 

9.10. Segmentierung von Punktwolken 

9.10.1. Punktwolke 
9.10.2. PointNet 
9.10.3. A-CNN 

Modul 10. Fortgeschrittene Bildsegmentierung und fortgeschrittene Computer-Vision-Techniken 

10.1. Datenbank für allgemeine Segmentierungsprobleme 

10.1.1. Pascal Context 
10.1.2. CelebAMask-HQ 
10.1.3. Cityscapes Dataset 
10.1.4. CCP Dataset 

10.2. Semantische Segmentierung in der Medizin 

10.2.1. Semantische Segmentierung in der Medizin 
10.2.2. Datasets für medizinische Probleme 
10.2.3. Praktische Anwendung 

10.3. Anmerkungswerkzeuge 

10.3.1. Computer Vision Annotation Tool 
10.3.2. LabelMe 
10.3.3. Andere Werkzeuge 

10.4. Segmentierungstools mit verschiedenen Frameworks 

10.4.1. Keras 
10.4.2. Tensorflow v2 
10.4.3. Pytorch 
10.4.4. Sonstige 

10.5. Projekt semantische Segmentierung. Die Daten, Phase 1 

10.5.1. Problemanalyse 
10.5.2. Eingabequelle für Daten 
10.5.3. Analyse der Daten 
10.5.4. Vorbereitung der Daten 

10.6. Projekt semantische Segmentierung. Training, Phase 2 

10.6.1. Auswahl des Algorithmus 
10.6.2. Training 
10.6.3. Bewertung 

10.7. Projekt semantische Segmentierung. Ergebnisse, Phase 3 

10.7.1. Feinabstimmung 
10.7.2. Präsentation der Lösung 
10.7.3. Schlussfolgerungen 

10.8. Autoencoder 

10.8.1.  Autoencoder 
10.8.2. Architektur eines Autoencoders 
10.8.3. Autoencoder für Rauschunterdrückung 
10.8.4. Autoencoder für automatische Farbgebung 

10.9. Generative Adversarial Networks (GAN) 

10.9.1. Generative Adversarial Networks (GAN) 
10.9.2. DCGAN-Architektur  
10.9.3. Bedingte GAN-Architektur 

10.10. Verbesserte Generative Adversarial Networks  

10.10.1. Überblick über das Problem 
10.10.2. WGAN 
10.10.3. LSGAN 
10.10.4. ACGAN

Modul 11. Die 3D-Industrie 

11.1. 3D-Industrie im Bereich Animation und Videospiele 

11.1.1. 3D-Animation 
11.1.2. 3D-Industrie im Bereich Animation und Videospiele 
11.1.3. 3D-Animation. Zukunft 

11.2. 3D in Videospielen 

11.2.1. Videospiele. Beschränkungen 
11.2.2. Entwicklung eines 3D-Videospiels. Schwierigkeiten 
11.2.3. Lösungen für die Schwierigkeiten bei der Entwicklung eines Videospiels 

11.3. Software für 3D-Videospiele 

11.3.1. Maya. Pro und Kontra 
11.3.2. 3Ds Max. Pro und Kontra 
11.3.3. Blender. Pro und Kontra 

11.4. Pipeline für die Erstellung von 3D-Assets für Videospiele 

11.4.1. Idee und Zusammenbau aus einem Modelsheet 
11.4.2. Modellierung mit niedriger Geometrie und hohen Details 
11.4.3. Projektion von Details durch Texturen 

11.5. Wichtige künstlerische Stile in 3D für Videospiele 

11.5.1. Cartoon-Stil 
11.5.2. Realistischer Stil 
11.5.3. Cel Shading 
11.5.4. Motion Capture 

11.6. 3D-Integration 

11.6.1. 2D-Integration in die digitale Welt 
11.6.2. 3D-Integration in die digitale Welt 
11.6.3. Integration in die reale Welt (AR, MR/XR) 

11.7. Schlüsselfaktoren von 3D für verschiedene Branchen 

11.7.1. 3D in Film und Serien 
11.7.2. 3D in Videospielen 
11.7.3. 3D in der Werbung 

11.8. Render: Echtzeit-Render und Pre-Rendering 

11.8.1. Beleuchtung 
11.8.2. Definition von Schatten 
11.8.3. Qualität vs. Geschwindigkeit 

11.9. Generierung von 3D-Assets in 3D Max 

11.9.1. Software 3D Max 
11.9.2. Schnittstelle, Menüs, Symbolleiste 
11.9.3. Kontrollen 
11.9.4. Schauplatz 
11.9.5. Viewports 
11.9.6. Basic Shapes 
11.9.7. Objekterzeugung, -modifikation und -transformation 
11.9.8. Erstellung einer 3D-Szene 
11.9.9. 3D-Modellierung von professionellen Assets für Videospiele 
11.9.10. Material-Editoren 

11.9.10.1. Materialien erstellen und bearbeiten 
11.9.10.2. Licht auf Materialien anwenden 
11.9.10.3. UVW Map-Modifikator. Mapping-Koordinaten 
11.9.10.4. Erstellung von Texturen 

11.10. Organisation des Arbeitsbereichs und bewährte Verfahren 

11.10.1. Ein Projekt erstellen 
11.10.2. Ordnerstruktur 
11.10.3. Benutzerdefinierte Funktionen 

Modul 12. Kunst und 3D in der Videospielindustrie 

12.1. 3D-Projekte in VR 

12.1.1. Software zur Erstellung von 3D-Netzen 
12.1.2. Software zur Bildbearbeitung 
12.1.3. Virtuelle Realität 

12.2. Typische Probleme, Lösungen und Projektanforderungen 

12.2.1. Anforderungen des Projekts 
12.2.2. Potenzielle Probleme 
12.2.3. Lösungen 

12.3. Ästhetische Linienstudie für die Erzeugung des künstlerischen Stils in Videospielen: vom Spieldesign zur 3D-Kunstgenerierung 

12.3.1. Die Wahl des Ziels des Videospiels. Wen wollen wir erreichen 
12.3.2. Künstlerische Möglichkeiten des Entwicklers 
12.3.3. Endgültige Definition der ästhetischen Linie 

12.4. Suche nach Referenzen und Analyse der Konkurrenz auf ästhetischer Ebene 

12.4.1. Pinterest und ähnliche Seiten 
12.4.2. Ein Modelsheet erstellen 
12.4.3. Nach Konkurrenten suchen 

12.5. Erstellung der Bibel und Briefing 

12.5.1. Erstellung der Bibel 
12.5.2. Entwicklung einer Bibel 
12.5.3. Entwicklung eines Briefings 

12.6. Szenarien und Assets 

12.6.1. Produktionsplanung von Assets in den Ebenen 
12.6.2. Entwurf von Szenarien 
12.6.3. Entwurf von Assets 

12.7. Integration von Assets in Levels und Tests 

12.7.1. Prozess der Level-Integration 
12.7.2. Texturen 
12.7.3. Letzte Korrekturen 

12.8. Charaktere 

12.8.1. Planung der Produktion von Charakteren 
12.8.2. Entwurf der Charaktere 
12.8.3. Design der Charakter-Assets 

12.9. Integration der Charaktere in Szenarien und Tests 

12.9.1. Prozess der Integration von Charakteren in Levels 
12.9.2. Anforderungen des Projekts 
12.9.3. Animationen 

12.10. Audio in 3D-Videospielen 

12.10.1. Interpretation des Projektdossiers für die Erstellung der Klangidentität des Videospiels 
12.10.2. Komposition und Produktionsprozesse 
12.10.3. Soundtrack-Design 
12.10.4. Design von Soundeffekten 
12.10.5. Gestaltung von Stimmen 

Modul 13. Fortgeschrittene 3D 

13.1. Fortgeschrittene 3D-Modellierungstechniken 

13.1.1. Schnittstellen-Konfiguration  
13.1.2. Beobachtung für die Modellierung  
13.1.3. Modellierung in hoch  
13.1.4. Organische Modellierung für Videospiele  
13.1.5. Fortgeschrittenes 3D-Objektmapping 

13.2. Fortgeschrittenes 3D-Texturing 

13.2.1. Substance Painter-Schnittstelle  
13.2.2. Materialien, Alphas und die Verwendung von Pinseln  
13.2.3. Verwendung von Partikeln 

13.3. Export für 3D-Software und Unreal Engine 

13.3.1. Integration der Unreal Engine in die Entwürfe  
13.3.2. Integration von 3D-Modellen 
13.3.3. Texturanwendung in der Unreal Engine 

13.4. Digitales Sculpting 

13.4.1. Digitales Sculpting mit ZBrush 
13.4.2. Erste Schritte in ZBrush 
13.4.3. Schnittstelle, Menüs und Navigation 
13.4.4. Referenzbilder 
13.4.5. Vollständige 3D-Modellierung eines Objekts in ZBrush 
13.4.6. Verwendung von Basisnetzen 
13.4.7. Stückweises Modellieren 
13.4.8. 3D-Modelle in ZBrush exportieren 

13.5. Die Verwendung von Polypaint 

13.5.1. Fortgeschrittene Pinsel 
13.5.2. Texturen 
13.5.3. Standard-Materialien 

13.6. Retopologie 

13.6.1. Retopologie. Die Verwendung in der Videospielindustrie 
13.6.2. Erstellung von Low Poly Meshes 
13.6.3. Verwendung von Software für die Retopologie 

13.7. Posieren der 3D-Modelle 

13.7.1. Referenzbildbetrachter 
13.7.2. Verwendung von Transpose 
13.7.3. Verwendung von Transpose für Modelle, die aus verschiedenen Teilen bestehen 

13.8. 3D-Modelle exportieren 

13.8.1. 3D-Modelle exportieren 
13.8.2. Erzeugung von Texturen für den Export 
13.8.3. Konfiguration des 3D-Modells mit den verschiedenen Materialien und Texturen 
13.8.4. Vorschau des 3D-Modells 

13.9. Erweiterte Arbeitstechniken 

13.9.1. Der Arbeitsablauf bei der 3D-Modellierung 
13.9.2. Organisation von 3D-Modellierungs-Workflows 
13.9.3. Aufwandsschätzungen für die Produktion 

13.10. Fertigstellung des Modells und Export in andere Programme 

13.10.1. Der Arbeitsablauf für die Fertigstellung des Modells 
13.10.2. Exportieren mit ZPlugin 
13.10.3. Mögliche Dateien. Vor- und Nachteile 

 Modul 14. 3D-Animation 

14.1. Handhabung der Software 

14.1.1. Informationsmanagement und Arbeitsmethodik 
14.1.2. Die Animation 
14.1.3. Timing und Gewicht 
14.1.4.  Animation mit einfachen Objekten 
14.1.5. Direkte und inverse Kinematik 
14.1.6. Inverse Kinematik 
14.1.7. Kinematische Kette 

14.2. Anatomie. Zweibeiner vs. Vierbeiner 

14.2.1. Zweibeiner 
14.2.2. Vierbeiner 
14.2.3. Zyklus des Gehens 
14.2.4. Zyklus des Rennens 

14.3. Gesichts-Rig und Morpher 

14.3.1. Mienensprache. Lippensynchronität, Augen, Fokus der Aufmerksamkeit 
14.3.2. Bearbeitung von Sequenzen 
14.3.3. Phonetik. Bedeutung 

14.4. Angewandte Animation 

14.4.1. 3D-Animation für Film und Fernsehen 
14.4.2. Animation für Videospiele 
14.4.3. Animation für andere Anwendungen 

14.5. Bewegungserfassung mit Kinect 

14.5.1. Motion Capture für Animationen 
14.5.2. Bewegungssequenzierung 
14.5.3. Integration in Blender 

14.6. Skelett, Skinning und Setup 

14.6.1. Interaktion zwischen Skelett und Geometrie 
14.6.2. Mesh-Interpolation 
14.6.3. Animations-Gewichte 

14.7. Acting 

14.7.1. Die Körpersprache 
14.7.2. Posen 
14.7.3. Bearbeitung von Sequenzen 

14.8. Kameras und Aufnahmen 

14.8.1. Die Kamera und die Umgebung 
14.8.2. Aufnahmekomposition und Figuren 
14.8.3. Fertigstellung 

14.9. Visuelle Spezialeffekte 

14.9.1. Visuelle Effekte und Animation 
14.9.2. Arten von optischen Effekten 
14.9.3. 3D VFX L 

14.10. Der Animator als Schauspieler 

14.10.1. Ausdrücke 
14.10.2. Referenzen der Akteure 
14.10.3. Von der Kamera zum Programm 

Modul 15. Beherrschung von Unity 3D und künstlicher Intelligenz 

15.1. Das Videospiel. Unity 3D 

15.1.1. Das Videospiel 
15.1.2. Das Videospiel. Fehler und Erfolge 
15.1.3. Anwendungen von Videospielen in anderen Bereichen und Industrien 

15.2. Die Entwicklung von Videospielen. Unity 3D 

15.2.1. Produktionsplan und Entwicklungsphasen 
15.2.2. Entwicklungsmethodik 
15.2.3. Patches und zusätzliche Inhalte 

15.3. Unity 3D 

15.3.1. Unity 3D. Anwendungen 
15.3.2. Scripting in Unity 3D 
15.3.3. Asset Store und Plugins von Dritten 

15.4. Physik, Inputs 

15.4.1. InputSystem 
15.4.2. Physik in Unity 3D 
15.4.3. Animation und Animator 

15.5. Prototyping in Unity 

15.5.1. Blocking und Colliders 
15.5.2. Prefabs 
15.5.3. Scriptable Objects 

15.6. Spezifische Programmiertechniken 

15.6.1. Singleton-Modell 
15.6.2. Laden von Ressourcen bei der Ausführung von Windows-Spielen 
15.6.3. Leistung und Profiler 

15.7. Videospiele für mobile Geräte 

15.7.1. Spiele für Android-Geräte 
15.7.2. Spiele für IOS-Geräte 
15.7.3. Plattformübergreifende Entwicklungen 

15.8. Erweiterte Realität 

15.8.1. Arten von Spielen mit erweiterter Realität 
15.8.2. ARkit und ARcore 
15.8.3. Vuforia-Entwicklung 

15.9. Programmierung von künstlicher Intelligenz 

15.9.1. Algorithmen der künstlichen Intelligenz 
15.9.2. Endliche Zustandsmaschinen 
15.9.3. Neuronale Netze 

15.10. Vertrieb und Marketing 

15.10.1. Die Kunst der Veröffentlichung und Vermarktung eines Videospiels 
15.10.2. Die Person, die für den Erfolg verantwortlich ist 
15.10.3. Strategien 

Modul 16. 2D- und 3D-Videospielentwicklung 

16.1. Ressourcen für Rastergrafiken 

16.1.1. Sprites 
16.1.2. Atlas 
16.1.3. Texturen 

16.2. Entwicklung von Schnittstellen und Menüs 

16.2.1. Unity GUI 
16.2.2. Unity UI 
16.2.3. UI-Toolkit 

16.3. Animationssystem 

16.3.1. Animationskurven und -schlüssel 
16.3.2. Angewandte Animationsereignisse 
16.3.3. Modifikatoren 

16.4. Materialien und Shader 

16.4.1. Bestandteile eines Materials 
16.4.2. Arten von RenderPass 
16.4.3. Shaders 

16.5. Partikel 

16.5.1. Partikel-Systeme 
16.5.2. Sender und Untersender 
16.5.3. Scripting 
16.5.4. Beleuchtung 

16.6. Beleuchtungsmodi 

16.6.1. Beleuchtungs-Baking 
16.6.2. Light Probes 

16.7. Mecanim 

16.7.1. State Machines, SubState Machines und Übergänge zwischen Animationen 
16.7.2. Blend Trees 
16.7.3. Animation Layers und IK 

16.8. Kinematisches Finish 

16.8.1. Timeline 
16.8.2. Nachbearbeitungseffekte 
16.8.3. Universal Render Pipeline und High Definition Render Pipeline 

16.9. VFX für Fortgeschrittene 

16.9.1. VFX Graph 
16.9.2. Shader Graph 
16.9.3. Pipeline Tools 

16.10. Audio-Komponenten 

16.10.1. Audio Source und Audio Listener 
16.10.2. Audio Mixer 
16.10.3. Audio Spatializer 

Modul 17. Programmierung, Erstellung von Mechaniken und Prototyping-Techniken für Videospiele 

17.1. Technischer Prozess 

17.1.1. Lowpoly- und Highpoly-Modelle in Unity 
17.1.2. Material-Konfiguration 
17.1.3. High Definition Render Pipeline 

17.2. Charakterdesign 

17.2.1. Bewegung 
17.2.2. Collider-Design 
17.2.3. Erstellung und Verhalten 

17.3. Importieren von Skeletal Meshes in Unity 

17.3.1. Exportieren von Skeletal Meshes aus 3D-Software 
17.3.2. Skeletal Meshes in Unity 
17.3.3. Ankerpunkte für Zubehör 

17.4. Importieren von Animationen 

17.4.1. Vorbereitung von Animationen 
17.4.2. Importieren von Animationen 
17.4.3. Animator und Übergänge 

17.5. Editor von Animationen 

17.5.1. Shaffung von Blend Spaces 
17.5.2. Erstellen von Animation Montage 
17.5.3. Bearbeiten von Read-Only-Animationen 

17.6. Erstellen und Simulieren einer Ragdoll 

17.6.1. Konfiguration einer Ragdoll 
17.6.2. Ragdoll in einen Animationsgraphen einfügen 
17.6.3. Simulation einer Ragdoll 

17.7. Ressourcen für die Erstellung von Charakteren 

17.7.1. Bibliotheken 
17.7.2. Importieren und Exportieren von Bibliotheksmaterialien 
17.7.3. Handhabung von Materialien 

17.8. Arbeitsgruppen 

17.8.1. Hierarchie und Arbeitsaufgaben 
17.8.2. Versionskontrollsysteme 
17.8.3. Konfliktlösung 

17.9. Voraussetzungen für eine erfolgreiche Entwicklung 

17.9.1. Produktion für den Erfolg 
17.9.2. Optimale Entwicklung 
17.9.3. Grundlegende Anforderungen 

17.10. Verpackung für die Veröffentlichung 

17.10.1. Player settings 
17.10.2. Build 
17.10.3. Einen Installer erstellen 

Modul 18. Entwicklung von immersiven Videospielen in VR 

18.1. Die Einzigartigkeit von VR 

18.1.1. Traditionelle und VR-Videospiele. Unterschiede 
18.1.2. Motion Sickness: Fluidität vs. Effekte 
18.1.3. Einzigartige VR-Interaktionen 

18.2. Interaktion 

18.2.1. Events 
18.2.2. Physische Trigger 
18.2.3. Virtuelle vs. reale Welt 

18.3. Immersive Fortbewegung 

18.3.1. Teleportation 
18.3.2. Arm Swinging 
18.3.3. Forward Movement mit Facing und ohne 

18.4. VR-Physik 

18.4.1. Greifbare und werfbare Objekte 
18.4.2. Gewicht und Masse in VR 
18.4.3. Schwerkraft in VR 

18.5. UI in VR 

18.5.1. Positionierung und Krümmung von UI-Elementen 
18.5.2. VR-Menü-Interaktionsmodi 
18.5.3. Bewährte Praktiken für ein komfortables Erlebnis 

18.6. Animation in VR 

18.6.1. Integration von animierten Modellen in VR 
18.6.2. Animierte Objekte und Charaktere vs. Physische Objekte 
18.6.3. Animierte vs. prozedurale Übergänge 

18.7. Das Avatar 

18.7.1. Darstellung des Avatars aus Ihren eigenen Augen 
18.7.2. Die externe Darstellung des Avatars selbst 
18.7.3. Inverse Kinematik und prozedurale Animation auf den Avatar angewendet 

18.8. Audio 

18.8.1. Konfiguration von Audio Sources und Audio Listeners für VR 
18.8.2. Verfügbare Effekte für ein noch intensiveres Erlebnis 
18.8.3. Audio Spatializer VR 

18.9. Optimierung in VR- und AR-Projekten 

18.9.1. Beseitigung von Okklusionen 
18.9.2. Static Batching 
18.9.3. Qualitätseinstellungen und Render-Pass-Typen 

18.10. Praxis: Escape Room VR 

18.10.1. Entwerfen des Erlebnisses 
18.10.2. Layout des Szenarios 
18.10.3. Entwicklung der Mechanik 

Modul 19. Professioneller Ton für 3D-Videospiele in VR 

19.1. Audio in professionellen 3D-Videospielen 

19.1.1. Audio in Videospielen 
19.1.2. Arten von Audiostilen in aktuellen Videospielen 
19.1.3. Räumliche Audiomodelle 

19.2. Vorläufige Materialstudie 

19.2.1. Studium der Spieldesign-Dokumentation 
19.2.2. Untersuchung der Leveldesign-Dokumentation 
19.2.3. Bewertung der Komplexität und Typologie des Projekts zur Erstellung des Audios 

19.3. Studie der Klangreferenzen 

19.3.1. Liste der wichtigsten Referenzen nach Ähnlichkeit mit dem Projekt 
19.3.2. Audio-Referenzen aus anderen Medien, um dem Videospiel seine Identität zu verleihen 
19.3.3. Untersuchung der Referenzen und Ziehen von Schlussfolgerungen 

19.4. Entwerfen der Sound-Identität des Videospiels 

19.4.1. Die wichtigsten Faktoren, die das Projekt beeinflussen 
19.4.2. Relevante Aspekte bei der Komposition des Sounds: Instrumentierung, Tempo, andere 
19.4.3. Definition der Stimmen 

19.5. Erstellung des Soundtracks 

19.5.1. Liste der Umgebungen und Audios 
19.5.2. Definition von Motiv, Thema und Instrumentierung 
19.5.3. Komposition und Audiotest von Funktionsprototypen 

19.6. Erstellung von Soundeffekten (FX) 

19.6.1. Soundeffekte: FX-Typen und vollständige Liste entsprechend den Projektanforderungen 
19.6.2. Definition von Motiv, Thema und Kreation 
19.6.3. Bewertung von Sound FX und Tests an funktionierenden Prototypen 

19.7. Erstellung von Stimmen 

19.7.1. Stimmtypen und Phrasenliste 
19.7.2. Suche und Bewertung von Synchronsprechern und -sprecherinnen 
19.7.3. Auswertung der Aufnahmen und Testen der Stimmen an funktionalen Prototypen 

19.8. Bewertung der Audioqualität 

19.8.1. Ausarbeitung von Hörsitzungen mit dem Entwicklungsteam 
19.8.2. Integration aller Audios in einen funktionierenden Prototyp 
19.8.3. Testen und Auswerten der erzielten Ergebnisse 

19.9. Exportieren, Formatieren und Importieren von Audio in das Projekt 

19.9.1. Audioformate und Kompression in Videospielen 
19.9.2. Audio-Export 
19.9.3. Audio in das Projekt importieren 

19.10. Vorbereitung von Audiobibliotheken für die Vermarktung 

19.10.1. Gestaltung vielseitiger Soundbibliotheken für Videospielprofis 
19.10.2. Auswahl der Audios nach Typ: Soundtrack, FX und Stimmen 
19.10.3. Vermarktung von Audio-Asset-Bibliotheken 

Modul 20. Videospielproduktion und -finanzierung 

20.1. Produktion von Videospielen 

20.1.1. Kaskaden-Methoden 
20.1.2. Kasuistik des mangelnden Projektmanagements und des Fehlens eines Arbeitsplans 
20.1.3. Die Folgen des Fehlens einer Produktionsabteilung in der Videospielindustrie 

20.2. Das Entwicklungsteam 

20.2.1. Die wichtigsten Abteilungen bei der Entwicklung von Projekten 
20.2.2. Schlüsselprofile im Mikromanagement: Lead und Senior 
20.2.3. Problem der mangelnden Erfahrung bei Junior-Profilen 
20.2.4. Aufstellung eines Fortbildungsplans für unerfahrene Profile 

20.3. Agile Methoden bei der Entwicklung von Videospielen 

20.3.1. SCRUM 
20.3.2. AGILE 
20.3.3. Hybride Methoden 

20.4. Schätzungen von Aufwand, Zeit und Kosten 

20.4.1. Der Preis der Videospielentwicklung: Die wichtigsten Kostenkonzepte 
20.4.2. Zeitplanung der Aufgaben: kritische Punkte, Grundlagen und zu berücksichtigende Aspekte 
20.4.3. Schätzungen auf der Grundlage von Aufwandspunkten vs. Berechnung in Stunden 

20.5. Priorisierung bei der Planung von Prototypen 

20.5.1. Festlegung der allgemeinen Projektziele 
20.5.2. Priorisierung der wichtigsten Funktionalitäten und Inhalte: Reihenfolge und Bedarf nach Abteilung 
20.5.3. Gruppierung der Funktionalitäten und Inhalte in der Produktion, um Deliverables (funktionale Prototypen) zu erstellen 

20.6. Bewährte Praktiken bei der Produktion von Videospielen 

20.6.1. Besprechungen, Daylies, Weekly Meeting, Besprechungen am Ende eines Sprint, Besprechungen zur Überprüfung der Ergebnisse von Meilensteinen ALFA, BETA und RELEASE 
20.6.2. Messung der Sprint-Geschwindigkeit 
20.6.3. Erkennung von mangelnder Motivation und geringer Produktivität und Vorwegnahme möglicher Probleme in der Produktion 

20.7. Analyse in der Produktion 

20.7.1. Vorläufige Analyse I: Überprüfung des Marktstatus 
20.7.2. Vorläufige Analyse 2: Ermittlung der wichtigsten Projektreferenzen (direkte Wettbewerber) 
20.7.3. Schlussfolgerungen aus den vorläufigen Analysen 

20.8. Kalkulation der Entwicklungskosten 

20.8.1. Personalwesen 
20.8.2. Technologie und Lizenzierung 
20.8.3. Externe Entwicklungskosten 

20.9. Suche nach Investitionen 

20.9.1. Arten von Investoren 
20.9.2. Zusammenfassung 
20.9.3. Pitch Deck 
20.9.4. Publishers 
20.9.5. Selbstfinanzierung 

20.10. Ausarbeitung von Projekt-Post Mortems 

20.10.1. Prozess der Ausarbeitung des Post Mortem im Unternehmen 
20.10.2. Analyse der positiven Aspekte des Projekts 
20.10.3. Analyse der negativen Aspekte des Projekts 
20.10.4. Vorschlag zur Verbesserung der negativen Punkte des Projekts und Schlussfolgerungen 

##IMAGE##

Mit dem unserem Lehrplan helfen wir Ihnen, die Welt mit den Augen der Technik zu verstehen und zu analysieren“ 

Weiterbildender Masterstudiengang in Virtuelle Realität und Maschinelles Sehen

Obwohl die Schaffung immersiver künstlicher Umgebungen in der Vergangenheit als weit entferntes Szenario erschien, hat die beschleunigte Entwicklung der Computertechnologie nicht nur den Zugang zu diesen Werkzeugen ermöglicht, sondern auch deren erfolgreiche Integration in verschiedene Bereiche wie Videospiele, Bildung und Architektur. Da die Zukunft dieser Technologie vielversprechend ist, haben wir an der TECH Technologischen Universität den Weiterbildenden Masterstudiengang in Virtuelle Realität und Maschinelles Sehen entwickelt, ein Programm, das Ihnen die neuesten Kenntnisse auf diesem Gebiet vermittelt, so dass Sie sich unter anderem auf die wichtigsten Entwicklungen, die Beherrschung von Spitzenwerkzeugen wie der Unreal Engine und die fortschrittlichsten Techniken der digitalen 3D-Bildverarbeitung spezialisieren können. Auf diese Weise können Sie sich an den ehrgeizigsten Projekten konsolidierter Unternehmen beteiligen und zu einem führenden Experten in diesem Bereich werden.

Spezialisieren Sie sich auf virtuelle Realität und maschinelles Sehen

Wenn es Ihr Ziel ist, ein höheres Wissensniveau im Bereich der Computertechnologie zu erreichen, dann ist dieses Programm das Richtige für Sie. An der TECH Technologischen Universität erhalten Sie eine umfassende und qualitativ hochwertige Fortbildung, da wir über die vollständigsten Inhalte auf dem Bildungsmarkt, innovative Lernmethoden für die Online-Ausbildung und die Unterstützung von Experten verfügen, die Sie bei Ihrem Prozess begleiten werden. Auf diese Weise erhalten Sie Zugang zu Techniken, Strategien, Programmen und Ressourcen, die Ihre Arbeit im Bereich der Modellierung und Simulation von sensorischen, dreidimensionalen und künstlichen Umgebungen erleichtern. Dieser weiterbildende Masterstudiengang ist eine innovative und effektive Möglichkeit, Ihre berufliche Entwicklung zu gewährleisten.