Qualificação universitária
A maior faculdade de Informática do mundo”
Apresentação do programa
A visão artificial é a tecnologia do presente e do futuro. Especialize-se com este programa e obtenha o progresso profissional que procura”
Nos últimos anos, a inteligência artificial provocou uma grande revolução no mundo tecnológico. Permite o desenvolvimento de software e máquinas capazes de aprender, gerar novos conhecimentos e agir de acordo com a melhor solução disponível em cada caso. Assim, as suas aplicações vão desde as ciências computacionais à investigação no campo sanitário, ao desenvolvimento de ferramentas tais como veículos, robôs ou videojogos.
Como tal, é um campo em constante expansão que é já central para a maioria das empresas informáticas e tecnológicas. No entanto, precisamente devido à sua grande importância e dinâmica nos últimos anos, surgiram especialidades que se centram num dos seus aspetos específicos. A visão artificial é uma das mais importantes. Esta centra-se na forma como as máquinas processam a informação visual recebida e como essa informação pode ser utilizada, quer para melhorar a relação da própria máquina com o seu próprio ambiente, tornando as suas operações mais precisas, ou para recolher dados de forma eficiente.
Por este motivo, é um campo fundamental e está estreitamente relacionado com o Machine Learning, razão pela qual cada vez mais empresas procuram cientistas informáticos especializados neste campo que possam fornecer as melhores soluções tecnológicas para o desenvolvimento de projetos de visão artificial. Este Mestrado oferece-lhe um estudo aprofundado desta área, proporcionando-lhe os conhecimentos e ferramentas mais inovadores para que, ao completar a certificação, possa fazer progressos profissionais imediatos graças às suas novas competências.
E tudo isto será conseguido seguindo a metodologia 100% online da TECH Global University, especialmente concebida para que os cientistas e engenheiros informáticos que trabalham possam combinar este programa com os seus trabalhos, uma vez que se adapta às suas circunstâncias pessoais. Além disso, ao longo do processo de aprendizagem será acompanhado por um corpo docente especializado e desfrutará dos melhores recursos de ensino multimédia, tais como estudos de casos, vídeos técnicos, master classes ou resumos interativos,entre muitos outros.
O futuro já está aqui Não perca a oportunidade e torne-se um grande especialista em visão artificial graças a este Mestrado”
Este Mestrado em Visão Artificial conta com o conteúdo educativo mais completo e atualizado do mercado. As caraterísticas que mais se destacam são:
- O desenvolvimento de casos práticos apresentados por especialistas em informática
e visão artificial - O conteúdo gráfico, esquemático e eminentemente prático do livro fornece informações científicas e práticas sobre as disciplinas que são essenciais para a prática profissional
- Exercícios práticos onde o processo de autoavaliação pode ser levado a cabo a fim
de melhorar a aprendizagem - A sua ênfase especial em metodologias inovadoras
Palestras teóricas, perguntas ao especialista, fóruns de discussão sobre questões controversas e atividades de reflexão individual - A disponibilidade de acesso ao conteúdo a partir de qualquer dispositivo fixo ou portátil com ligação à Internet
Não espere mais e especialize-se numa área chave da tecnologia do futuro que o fará avançar profissionalmente de imediato”
O corpo docente do curso inclui profissionais do setor que trazem a sua experiência profissional para estacapacitação, para além de especialistas reconhecidos de sociedades de referência e universidades de prestígio.
Graças ao seu conteúdo multimédia, desenvolvido com a mais recente tecnologia educacional, o profissional terá acesso a uma aprendizagem situada e contextual, ou seja, um ambiente de simulação que proporcionará um programa imersivo programado para se formar em situações reais.
A conceção deste programa baseia-se na Aprendizagem Baseada nos Problemas, através da qual o instrutor deve tentar resolver as diferentes situações da atividade profissional que surgem ao longo do curso académico. Para tal, contará com a ajuda de um sistema inovador de vídeo interativo desenvolvido por especialistas reconhecidos.
Mergulhe na inteligência artificial e na Deep Learning e seja uma referência no campo da visão artificial"
Inscreva-se agora e comece a desenvolver projetos promissores de visão artificial com o que irá aprender neste programa"
Plano de estudos
O conteúdo deste Mestrado em Visão Artificial foi concebido por especialistas internacionais líderes na matéria, de modo que os cientistas informáticos terão acesso a conhecimentos altamente especializados que os colocarão como referência na matéria. Assim, neste programa poderá estudar em profundidade aspetos como a visão artificial para o estudo do espaço e para a análise do conteúdo, na busca de padrões e códigos, em bibliotecas de processamento de imagem 3D ou em autocodificadores.
O programa mais completo sobre visão artificial espera-o. Complete este programa e entre no futuro da profissão”
Módulo 1. Visão artificial
1.1. Perceção humana
1.1.1. Sistema visual humano
1.1.2. A cor
1.1.3. Frequências visíveis e não-visíveis
1.2. Crónica da Visão Artificial
1.2.1. Princípios
1.2.2. Evolução
1.2.3. A importância da visão artificial
1.3. Composição de imagens digitais
1.3.1. A imagem digital
1.3.2. Tipos de imagens
1.3.3. Espaços de cor
1.3.4. RGB
1.3.5. HSV e HSL
1.3.6. CMY-CMYK
1.3.7. YCbCr
1.3.8. Imagem indexada
1.4. Sistema de captação de imagens
1.4.1. Funcionamento de uma máquina fotográfica digital
1.4.2. A correta exposição para cada situação
1.4.3. Profundidade de campo
1.4.4. Resolução
1.4.5. Formatos de imagem
1.4.6. Modo HDR
1.4.7. Câmaras de alta resolução
1.4.8. Câmaras de alta velocidade
1.5. Sistemas ópticos
1.5.1. Princípios ópticos
1.5.2. Objetivos convencionais
1.5.3. Objetivos telecêntricos
1.5.4. Tipos de autofocagem
1.5.5. Distância focal
1.5.6. Profundidade de campo
1.5.7. Distorção óptica
1.5.8. Calibração de uma imagem
1.6. Sistemas de iluminação
1.6.1. Importância da iluminação
1.6.2. Resposta frequencial
1.6.3. Iluminação led
1.6.4. Iluminação em exteriores
1.6.5. Tipos de iluminação para aplicações industriais. Efeitos
1.7. Sistemas captação 3D
1.7.1. Visão estéreo
1.7.2. Triangulação
1.7.3. Luz estruturada
1.7.4. Time of Flight
1.7.5. Lidar
1.8. Multiespetro
1.8.1. Câmaras multiespetrais
1.8.2. Câmaras hiperespetrais
1.9. Espetro próximo não visível
1.9.1. Câmaras IR
1.9.2. Câmaras UV
1.9.3. Converter de não visível para visível através da iluminação
1.10. Outras bandas do espetro
1.10.1. Raios X
1.10.2. Tera-hertz
Módulo 2. Aplicações e Estado da arte
2.1. Aplicações industriais
2.1.1. Bibliotecas de visão industrial
2.1.2. Câmaras compactas
2.1.3. Sistemas baseados em PC
2.1.4. Robótica industrial
2.1.5. Pick and place 2D
2.1.6. Bin picking
2.1.7. Controlo da qualidade
2.1.8. Presença ausência de componentes
2.1.9. Controlo dimensional
2.1.10. Controlo rotulagem
2.1.11. Rastreabilidade
2.2. Veículos autónomos
2.2.1. Assitência ao condutor
2.2.2. Condução autónoma
2.3. Visão artificial para análise de conteúdo
2.3.1. Filtro por conteúdo
2.3.2. Moderação do conteúdo visual
2.3.3. Sistemas de monitorização
2.3.4. Identificação de marcas e logótipos
2.3.5. Rotulagem e classificação de vídeos
2.3.6. Deteção de mudanças de cena
2.3.7. Extração de textos ou créditos
2.4. Aplicações médicas
2.4.1. Deteção e localização de doenças
2.4.2. Cancro e análise de radiografias
2.4.3. Avanços em visão artificial no Covid-19
2.4.4. Assistência no bloco operatório
2.5. Aplicações espaciais
2.5.1. Análise de imagem por satélite
2.5.2. Visão artificial para o estudo do espaço
2.5.3. Missão a Marte
2.6. Aplicações comerciais
2.6.1. Controlo stock
2.6.2. Videovigilância, segurança doméstica
2.6.3. Câmaras estacionamento
2.6.4. Câmaras controlo população
2.6.5. Câmaras velocidade
2.7. Visão aplicada à robótica
2.7.1. Drones
2.7.2. AGV
2.7.3. Visão em robôs colaborativos
2.7.4. Os olhos dos robôs
2.8. A realidade aumentada
2.8.1. Funcionamento
2.8.2. Dispositivos
2.8.3. Aplicações na indústria
2.8.4. Aplicações comerciais
2.9. Cloud computing
2.9.1. Plataformas de Cloud Computing
2.9.2. Do Cloud Computing à produção
2.10. Investigação e estado da arte
2.10.1. A comunidade científica
2.10.2. O que se está a cozinhar?
2.10.3. O futuro da visão artificial
Módulo 3. Processamento digital de imagens
3.1. Ambiente de desenvolvimento da visão por computador
3.1.1. Bibliotecas de visão por computador
3.1.2. Ambiente de programação
3.1.3. Ferramentas de visualização
3.2. Processamento digital de imagens
3.2.1. Relações entre pixeis
3.2.2. Operações com imagens
3.2.3. Transformações geométricas
3.3. Operações de pixeis
3.3.1. Histogramas
3.3.2. Transformações a partir de histograma
3.3.3. Operações sobre imagens a cores
3.4. Operações lógicas e aritméticas
3.4.1. Adição e subtração
3.4.2. Produto e divisão
3.4.3. And/Nand
3.4.4. Or/Nor
3.4.5. Xor/Xnor
3.5. Filtros
3.5.1. Máscaras e convolução
3.5.2. Filtragem linear
3.5.3. Filtragem não linear
3.5.4.Análise de Fourier
3.6. Operações morfológicas
3.6.1. Erode and Dilating
3.6.2. Closing and Open
3.6.3. Top hat e Black hat
3.6.4. Deteção de contornos
3.6.5. Esqueleto
3.6.6. Preenchimento de orifícios
3.6.7. Convex hull
3.7. Ferramentas de análise de imagens
3.7.1. Deteção de bordas
3.7.2. Deteção de blobs
3.7.3. Controlo dimensional
3.7.4. Inspeção e cor
3.8. Segmentação de objetos
3.8.1. Segmentação de imagens
3.8.2. Técnicas de segmentação clássicas
3.8.3. Aplicações reais
3.9. Calibração de imagens
3.9.1. Calibração de imagem
3.9.2. Métodos de calibração
3.9.3. Processo de calibração num sistema de câmara/robot 2D
3.10. Processamento de imagens em ambiente real
3.10.1. Análise da problemática
3.10.2. Tratamento de imagem
3.10.3. Extração de caraterísticas
3.10.4. Resultados finais
Módulo 4. Processamento digital de imagens avançado
4.1. Reconhecimento óptico de carateres (OCR)
4.1.1. Pré-processamento da imagem
4.1.2. Deteção de texto
4.1.3. Reconhecimento de texto
4.2. Leitura de códigos
4.2.1. Códigos 1D
4.2.2. Códigos 2D
4.2.3. Aplicações
4.3. Pesquisa de padrões
4.3.1. Pesquisa de padrões
4.3.2. Padrões baseados em nível de cinzento
4.3.3. Padrões baseados em contornos
4.3.4. Padrões baseados em formas geométricas
4.3.5. Outras técnicas
4.4. Monitorização de objetos com visão convencional
4.4.1. Extração de fundo
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow
4.5.Reconhecimento facial
4.5.1. Facial Landmark detection
4.5.2. Aplicações
4.5.3. Reconhecimento facial
4.5.4. Reconhecimento de emoções
4.6. Panorâmica e alinhamentos
4.6.1. Stitching
4.6.2. Composição de imagens
4.6.3. Fotomontagem
4.7. High Dinamic Range (HDR) and Photometric Stereo
4.7.1. Aumento da gama dinâmica
4.7.2. Composição de imagens para melhoria de contornos
4.7.3. Técnicas para a utilização de aplicações dinâmicas
4.8. Compreensão de imagens
4.8.1. A compressão de imagens
4.8.2. Tipos de compressores
4.8.3. Técnicas de compressão de imagem
4.9. Processamento de vídeo
4.9.1. Sequências de imagens
4.9.2. Formatos e codecs de vídeo
4.9.3. Leitura de um vídeo
4.9.4. Processamento do fotograma
4.10. Aplicação real de processamento de imagens
4.10.1. Análise da problemática
4.10.2. Tratamento de imagem
4.10.3. Extração de caraterísticas
4.10.4. Resultados finais
Módulo 5. Processamento de imagens 3D
5.1. Imagem 3D
5.1.1. Imagem 3D
5.1.2. Software de processamento de imagens 3D e visualizações
5.1.3. Software de metrologia
5.2. Open 3D
5.2.1. Biblioteca para processamento de dados 3D
5.2.2. Caraterísticas
5.2.3. Instalação e uso
5.3. Os dados
5.3.1. Mapas de profundidade em imagem 2D
5.3.2. Pointclouds
5.3.3. Normais
5.3.4. Superfícies
5.4. Visualização
5.4.1. Visualização de dados
5.4.2. Controlos
5.4.3. Visualização Web
5.5. Filtros
5.5.1. Distância entre pontos, eliminar outliers
5.5.2. Filtro passa alto
5.5.3. Downsampling
5.6. Geometria e extração de caraterísticas
5.6.1. Extração de um perfil
5.6.2. Medição de profundidade
5.6.3. Volume
5.6.4. Formas geométricas 3D
5.6.5. Planos
5.6.6. Projeção de um ponto
5.6.7. Distâncias geométricas
5.6.8. Kd Tree
5.6.9. Features 3D
5.7. Registo e Meshing
5.7.1. Concatenação
5.7.2. ICP
5.7.3. Ransac 3D
5.8. Reconhecimento de objetos 3D
5.8.1. Pesquisa de um objeto na cena 3D
5.8.2. Segmentação
5.8.3. Bin picking
5.9. Análise de superfícies
5.9.1. Smoothing
5.9.2. Superfícies orientáveis
5.9.3. Octree
5.10. Triangulação
5.10.1. De Mesh a Point Cloud
5.10.2. Triangulação de mapas de profundidade
5.10.3. Triangulação de PointClouds não ordenados
Módulo 6. Deep Learning
6.1. Inteligência artificial
6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. A explosão do Deep Learning. Porquê agora?
6.2. Redes neuronais
6.2.1. A rede neuronal
6.2.2. Usos das redes neuronais
6.2.3. Regressão linear e perceptron
6.2.4. Forward Propagation
6.2.5. Backpropagation
6.2.6. Feature vectors
6.3. Loss Functions
6.3.1. Loss Functions
6.3.2. Tipos de Loss Functions
6.3.3. Escolha de Loss Functions
6.4. Funções de ativação
6.4.1. Função de ativação
6.4.2. Funções lineares
6.4.3. Funções não lineares
6.4.4. Output vs. Hidden Layer Activation Functions
6.5. Regularização e normalização
6.5.1. Regularização e normalização
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization Methods: L1, L2 and Dropout
6.5.4. Normalization Methods: Batch, Weight, Layer
6.6. Otimização
6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam
6.7. Hyperparameter Tuning e pesos
6.7.1. Os Hiperparâmetros
6.7.2. Batch Size vs. Learning Rate vs. Step Decay
6.7.3. Pesos
6.8. Métricas de avaliação de uma rede neuronal
6.8.1. Accuracy
6.8.2. Dice Coefficient
6.8.3. Sensitivity vs. Specificity/Recall vs. Precisão
6.8.4. Curva ROC (AUC)
6.8.5. F1-score
6.8.6. Confusão Matrix
6.8.7. Cross-Validation
6.9. Frameworks e Hardware
6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware para a fase de treino
6.10. Criação de uma rede neuronal - treino e validação
6.10.1. Dataset
6.10.2. Construção da rede
6.10.3. Treino
6.10.4. Visualização de resultados
Módulo 7. Redes convolucionais e clasificação de imagens
7.1. Redes neuronais convolucionais
7.1.1. Introdução
7.1.2. A convolução
7.1.3. CNN Building Blocks
7.2. Tipos de capas CNN
7.2.1. Convolutional
7.2.2. Activation
7.2.3. Batch normalization
7.2.4. Polling
7.2.5. Fully connected
7.3. Métricas
7.3.1. Confusão Matrix
7.3.2. Accuracy
7.3.3. Precisão
7.3.4. Recall
7.3.5. F1-score
7.3.6. ROC Curve
7.3.7. AUC
7.4. Principais Arquiteturas
7.4.1. AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet
7.5.Classificação de imagens
7.5.1. Introdução
7.5.2. Análises dos dados
7.5.3. Preparação de dados
7.5.4. Treino do modelo
7.5.5. Validação do modelo
7.6. Considerações práticas para o treino de CNN
7.6.1. Seleção de optimizador
7.6.2. Learning Rate Scheduler
7.6.3. Verificar pipeline de treino
7.6.4. Treino com regularização
7.7. Boas práticas em Deep Learning
7.7.1. Transfer Learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation
7.8. Avaliação estatística de dados
7.8.1. Número de datasets
7.8.2. Número de etiquetas
7.8.3. Número de imagens
7.8.4. Balanceamento de dados
7.9. Deployment
7.9.1. Guardando e carregando modelos
7.9.2. Onnx
7.9.3. Inferência
7.10. Estudo de caso: classificação de imagens
7.10.1. Análise e preparação de dados
7.10.2. Teste do pipeline de treino
7.10.3. Treino do modelo
7.10.4. Validação do modelo
Módulo 8. Detenção de objetos
8.1. Deteção e seguimento de objetos
8.1.1. Deteção de objetos
8.1.2. Casos de utilização
8.1.3. Seguimento de objetos
8.1.4. Casos de utilização
8.1.5. Oclusões, Rigid and No Rigid Poses
8.2. Métricas de avaliação
8.2.1. IOU - Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Precisão
8.2.5. Recall–Precisión Curve
8.2.6. Mean Average Precision (mAP)
8.3. Métodos tradicionais
8.3.1. Sliding window
8.3.2. Viola detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)
8.4. Datasets
8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge
8.5. Two Shot Object Detector
8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN
8.6. Single Shot Object Detector
8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet
8.7. Backbones
8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet
8.8. Objet Tracking
8.8.1. Abordagens clássicas
8.8.2. Filtros de partículas
8.8.3. Kalman
8.8.4. Sorttracker
8.8.5. Deep Sort
8.9. Implantação
8.9.1. Plataforma de computação
8.9.2. Eleição do Backbone
8.9.3. Eleição do Framework
8.9.4. Optimização de modelos
8.9.5. Versão de Modelos
8.10. Estudo: deteção e monitorização de pessoas
8.10.1. Deteção de pessoas
8.10.2. Seguimento de pessoas
8.10.3. Reidentificação
8.10.4. Contagem de pessoas em multidões
Módulo 9. Segmentação de imagens com Deep Learning
9.1. Deteção de objetos e segmentação
9.1.1. Segmentação semântica
9.1.1.1. Casos de utilização de segmentação semântica
9.1.2. Segmentação Instanciada
9.1.2.1. Casos de utilização segmentação instanciada
9.2. Métricas de avaliação
9.2.1. Semelhanças com outros métodos
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)
9.3. Funçõe de custo
9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Outras funções
9.4. Métodos tradicionais de segmentação
9.4.1. Aplicação de limiar com Otsu e Riddlen
9.4.2. Mapas autoorganizados
9.4.3. GMM-EM algorithm
9.5. Segmentação Semântica aplicando Deep Learning: FCN
9.5.1. FCN
9.5.2. Arquitetura
9.5.3. Aplicações de FCN
9.6. Segmentação semântica aplicando Deep Learning : U-NET
9.6.1. U-NET
9.6.2. Arquitetura
9.6.3. Aplicação U-NET
9.7. Segmentação semântica aplicando Deep Learning: Deep Lab
9.7.1. Deep Lab
9.7.2. Arquitetura
9.7.3. Aplicação de Deep Lab
9.8. Segmentação instanciada aplicando Deep Learning: Mask RCNN
9.8.1. Mask RCNN
9.8.2. Arquitetura
9.8.3. Aplicação de um Mas RCNN
9.9. Segmentação em vídeos
9.9.1. STFCN
9.9.2. Semantic Video CNNs
9.9.3. Clockwork Convnets
9.9.4. Low-Latency
9.10. Segmentação de nuvens de pontos
9.10.1. A nuvem de pontos
9.10.2. PointNet
9.10.3. A-CNN
Módulo 10. Segmentação de imagens avançadas e técnicas avançadas de visão por computador
10.1. Base de dados para problemas de segmentação geral
10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset
10.2. Segmentação semântica na medicina
10.2.1. Segmentação semântica na medicina
10.2.2. Datasets para problemas médicos
10.2.3. Aplicação prática
10.3. Ferramentas de anotação
10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Outras ferramentas
10.4. Ferramentas de Segmentação usando diferentes Frameworks
10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Outros
10.5. Projeto Segmentação semântica. Os dados, fase 1
10.5.1. Análise do problema
10.5.2. Fonte de entrada para dados
10.5.3. Análise de dados
10.5.4. Preparação de dados
10.6. Projeto Segmentação semântica. Treino, fase 2
10.6.1. Seleção do algoritmo
10.6.2. Treino
10.6.3. Avaliação
10.7. Projeto Segmentação semântica. Resultados, fase 3
10.7.1. Ajuste fino
10.7.2. Apresentação da solução
10.7.3. Conclusões
10.8. Autocodificadores
10.8.1. Autocodificadores
10.8.2. Arquitetura de um autocodificador
10.8.3. Autocodificadores de eliminação de ruído
10.8.4. Autocodificador de coloração automática
10.9. As Redes Generativas Adversariais (GAN)
10.9.1. Redes Generativas Adversariais (GAN)
10.9.2. Arquitetura DCGAN
10.9.3. Arquitetura GAN Condicionada
10.10. Redes generativas adversariais melhoradas
10.10.1. Visão geral do problema
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN
Este Mestrado tem o conteúdo mais aprofundado e atualizado em Visão Artificial. Não perca esta grande oportunidade e inscreva-se já”