Porquê estudar no TECH?

Desenvolva habilidades essenciais em Robótica e Visão Artificial matriculando-se agora neste Advanced Master da TECH”

##IMAGE##

O crescimento da Inteligência Artificial e da Robótica está transformando o panorama tecnológico, econômico e social em todo o mundo. A capacitação em áreas como Visão Artificial tornou-se crucial para se manter na vanguarda nesta era de avanços rápidos e mudanças disruptivas. A crescente interação entre máquinas e humanos, bem como a necessidade de processar informações visuais de forma eficiente, exigem profissionais altamente capacitados que possam enfrentar esses desafios e liderar a inovação.
Por esta razão, a TECH desenvolveu este Advanced master em Robótica e Visão Artificial, que oferece uma capacitação abrangente nessas disciplinas emergentes, como Realidade Aumentada,

Inteligência Artificial e processamento de informações visuais em máquinas, entre outras. Os alunos se beneficiarão de uma abordagem teórico-prática, aprendendo sobre as últimas novidades em Robótica e Visão Artificial e como aplicar esses conhecimentos em ambientes reais.

Além disso, o programa é 100% online, o que permite aos alunos adaptarem sua aprendizagem às suas circunstâncias pessoais e profissionais, facilitando a compatibilidade do ensino com suas próprias responsabilidades. Os alunos terão acesso a materiais educacionais de alta qualidade, como resumos em vídeo, leituras essenciais e vídeos detalhados, proporcionando uma visão global sobre Robótica e Visão Artificial

Assim, o Advanced Master em Robótica e Visão Artificial é uma oportunidade única para os profissionais de informática que procuram se destacar em um mercado de trabalho altamente competitivo e adquirir habilidades especializadas em um campo com grande potencial de crescimento.

Domine as técnicas de visão artificial e torne-se um especialista em análise de imagens e sistemas de visão 3D”

Este Advanced master de Robótica e Visão Artificial conta com o conteúdo mais completo e atualizado do mercado. Suas principais características são:

  • O desenvolvimento de casos práticos apresentados por especialistas em Informática.
  • O conteúdo gráfico, esquemático e extremamente útil, fornece informações científicas e práticas sobre as disciplinas essenciais para o exercício da profissão
  • Exercícios práticos onde o processo de autoavaliação é realizado para melhorar a aprendizagem
  • Sua ênfase especial em metodologias inovadoras no desenvolvimento de Robôs e Visão Artificial
  • Lições teóricas, perguntas a especialistas, fóruns de discussão sobre temas controversos e trabalhos de reflexão individual
  • Disponibilidade de acesso a todo o conteúdo a partir de qualquer dispositivo, fixo ou portátil, com conexão à Internet

Descubra como a tecnologia robótica pode ser aplicada em diversos campos, como medicina e exploração espacial, fortalecendo significativamente sua proposta de valor”

O corpo docente deste programa abarca profissionais da área de jornalismo, que transferem a experiência do seu trabalho para esta capacitação, além de especialistas reconhecidos de sociedades científicas de referência e universidades de prestigio.

O seu conteúdo multimídia desenvolvido com a mais recente tecnologia educacional, oferece ao profissional uma aprendizagem situada e contextual, ou seja, um ambiente simulado que proporcionará um estudo imersivo e programado para capacitar em situações reais.

Este programa avançado se fundamenta na Aprendizagem Baseada em Problemas, onde o aluno deverá resolver as diferentes situações de prática profissional que surgirem ao longo do programa. Para isso, o profissional contará com a ajuda de um inovador sistema de vídeo interativo, realizado por especialistas reconhecidos nesta área.

Potencialize seus projetos explorando a aplicação de inteligência artificial e aprendizado de máquina na robótica"

##IMAGE##

Aprimore suas habilidades em algoritmos de planejamento e controle para o desenvolvimento de robôs inteligentes e eficientes"

Programa de estudos

O Advanced master em Robótica e Visão Artificial foi projetado com uma estrutura e conteúdo que garantem uma capacitação abrangente e especializada no campo. O programa é desenvolvido ao longo de diversos módulos, começando com conceitos básicos e progredindo gradualmente para tópicos mais complexos e específicos. Os alunos terão a oportunidade de aprender sobre o design, programação e controle de robôs, assim como algoritmos de visão artificial e técnicas de aprendizado de máquina.

##IMAGE##

Aprimore sua aprendizagem por meio de uma abordagem prática e teórica, que permitirá que você enfrente desafios reais no mundo da robótica”

Módulo 1. Robótica. Projeto e modelagem de robôs

1.1. Robótica e Indústria 4.0

1.1.1. Robótica e Indústria 4.0
1.1.2. Campos de aplicação e casos de uso
1.1.3. Subáreas de especialização em Robótica

1.2. Arquiteturas de hardware e software de robôs

1.2.1. Arquiteturas hardware e tempo real
1.2.2. Arquiteturas de software de robôs
1.2.3. Modelos de comunicação e tecnologias de Middleware
1.2.4. Integração de software com Robot Operating System (ROS)

1.3. Modelagem matemática de robôs

1.3.1. Representação matemática de sólidos rígidos
1.3.2. Rotações e translações
1.3.3. Representação hierárquica do estado
1.3.4. Representação distribuída do estado em ROS (Biblioteca TF)

1.4. Cinemática e dinâmica de robôs

1.4.1. Cinemática
1.4.2. Dinâmica
1.4.3. Robôs subatuados
1.4.4. Robôs redundantes

1.5. Modelagem de robôs e simulação

1.5.1. Tecnologias de modelagem de robôs
1.5.2. Modelagem de robôs com URDF
1.5.3. Simulação de robôs
1.5.4. Modelagem com simulador Gazebo

1.6. Robôs manipuladores

1.6.1. Tipos de robôs manipuladores
1.6.2. Cinemática
1.6.3. Dinâmica
1.6.4. Simulação

1.7. Robôs móveis terrestres

1.7.1. Tipos de robôs móveis terrestres
1.7.2. Cinemática
1.7.3. Dinâmica
1.7.4. Simulação

1.8. Robôs móveis aéreos

1.8.1. Tipos de robôs móveis aéreos
1.8.2. Cinemática
1.8.3. Dinâmica
1.8.4. Simulação

1.9. Robôs móveis aquáticos

1.9.1. Tipos de robôs móveis aquáticos
1.9.2. Cinemática
1.9.3. Dinâmica
1.9.4. Simulação

1.10. Robôs bioinspirados

1.10.1. Humanóides
1.10.2. Robôs com quatro ou mais pernas
1.10.3. Robôs modulares
1.10.4. Robôs com peças flexíveis (Soft-Robotics)

Módulo 2. Agentes inteligentes. Aplicação da Inteligência Artificial a Robôs e Softbots

2.1. Agentes Inteligentes e Inteligência Artificial

2.1.1. Robôs inteligentes. Inteligência Artificial
2.1.2. Agentes inteligentes.

2.1.2.1. Agentes hardware. Robôs
2.1.2.2. Agentes software. Softbots

2.1.3. Aplicações na Robótica

2.2. Conexão cérebro e argoritmo

2.2.1. Inspiração biológica da Inteligência Artificial
2.2.2. Raciocínio implementado em algoritmos. Tipologia
2.2.3. Explicabilidade dos resultados em algoritmos de Inteligência Artificial
2.2.4. Evolução dos algoritmos até o  Deep Learning

2.3. Algoritmos de busca no espaço de soluções

2.3.1. Elementos na busca no espaço de soluções
2.3.2. Algoritmos de busca de soluções para problemas de Inteligência Artificial
2.3.3. Aplicações de algoritmos de busca e otimização
2.3.4. Algoritmos de busca aplicados à aprendizagem automática

2.4. Aprendizado de máquina

2.4.1. Aprendizado de máquina
2.4.2. Algoritmos de aprendizagem supervisionada
2.4.3. Algoritmos de aprendizagem não supervisionada
2.4.4. Algoritmos de Aprendizagem por Reforço

2.5. Aprendizagem supervisionada

2.5.1. Métodos de aprendizagem supervisionada
2.5.2. Árvores de decisão para classificação
2.5.3. Máquinas de suporte de vetores
2.5.4. Redes neurais artificiais
2.5.5. Aplicações da aprendizagem supervisionada

2.6. Aprendizagem não supervisionada

2.6.1. Aprendizagem não supervisionada
2.6.2. Redes de Kohonen
2.6.3. Mapas auto-organizados
2.6.4. Algoritmo K-médias

2.7. Aprendizagem por reforço

2.7.1. Aprendizagem por reforço
2.7.2. Agentes baseados nos processos Markov
2.7.3. Algoritmos de Aprendizagem por Reforço
2.7.4. Aprendizagem por Reforço aplicado à Robótica

2.8. Inferência probabilística

2.8.1. Inferência probabilística
2.8.2. Tipos de inferência e definição do método
2.8.3. A inferência Bayesiana como um estudo de caso
2.8.4. Técnicas de inferência não paramétricas
2.8.5. Filtros Gaussianos

2.9. Da teoria à prática: desenvolvendo um agente inteligente robótico

2.9.1. Inclusão de módulos de aprendizagem supervisionada em um agente robótico
2.9.2. Inclusão de módulos de aprendizagem por Reforço em um agente robótico
2.9.3. Arquitetura de um agente robótico controlado por Inteligência Artificial
2.9.4. Ferramentas profissionais para a implementação de agentes inteligentes
2.9.5. Fases na implementação de algoritmos de IA em agentes robóticos

Módulo 3. Deep Learning

3.1. Inteligência artificial

3.1.1. Machine Learning
3.1.2. Deep Learning
3.1.3. A explosão do  Deep Learning. Por que agora?

3.2. Redes Neurais

3.2.1. A rede neural
3.2.2. Usos das redes neurais
3.2.3. Regressão linear e perceptron
3.2.4. Forward propagation
3.2.5. Backpropagation
3.2.6. Feature vectors

3.3. Loss Functions

3.3.1. Loss Functions
3.3.2. Tipos de Loss Functions
3.3.3. Escolha da Loss functions

3.4. Funções de ativação

3.4.1. Funções de ativação
3.4.2. Funções lineares
3.4.3. Funções não lineares
3.4.4. Output x Hidden Layer Activation Functions

3.5. Regularização e normalização

3.5.1. Regularização e normalização
3.5.2. Overfitting and Data Augmentation
3.5.3. Regularization methods: L1, L2 and Dropout
3.5.4. Normalization methods: Batch, Weight, Layer

3.6. Otimização

3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam

3.7. Hyperparameter Tuning e pesos

3.7.1. Os hiperparâmetros
3.7.2. Batch Size x Learning Rate x Step Decay
3.7.3. Pesos

3.8. Métricas de avaliação de uma rede neural

3.8.1. Accuracy
3.8.2. Dice coefficient
3.8.3. Sensitivity x Specificity/Recall x Precisão
3.8.4. Curva ROC (AUC)
3.8.5. F1-score
3.8.6. Matriz de confusão
3.8.7. Cross-validation

3.9. Frameworks e Hardware

3.9.1. Tensor Flow
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware para a fase de treino

3.10. Criação de uma rede neural - treinamento e validação

3.10.1. Dataset
3.10.2. Construção da rede
3.10.3. Treinamento
3.10.4 . Visualização de resultados

Módulo 4. A robótica na automação de processos industriais

4.1. Design de sistemas automatizados

4.1.1. Arquiteturas de hardware
4.1.2. Controladores lógicos programáveis
4.1.3. Redes de comunicação industrial

4.2. Projeto elétrico avançado I: automação

4.2.1. Projeto de painéis elétricos e simbologia
4.2.2. Circuitos de potência e controle. Harmônicas
4.2.3. Elementos de proteção e aterramento

4.3. Projeto elétrico avançado II: determinismo e segurança

4.3.1. Segurança das máquinas e redundância
4.3.2. Relés de segurança e disparadores
4.3.3. PLCs de segurança
4.3.4. Redes seguras

4.4. Funcionamento elétrico

4.4.1. Motores e servomotores
4.4.2. Variadores de frequência e controladores
4.4.3. Robótica industrial de acionamento elétrico

4.5. Acionamento hidráulico e pneumático

4.5.1. Projeto hidráulico e simbologia
4.5.2. Projeto pneumático e simbologia
4.5.3. Ambientes ATEX em automação

4.6. Transdutores em Robótica e Automação

4.6.1. Medição de posição e velocidade
4.6.2. Medição de força e temperatura
4.6.3. Medida de presença
4.6.4. Sensores para visão

4.7. Programação e configuração de controladores lógicos programáveis PLCs

4.7.1. Programação PLC: LD
4.7.2. Programação PLC: ST
4.7.3. Programação PLC: FBD e CFC
4.7.4. Programação PLC: SFC

4.8. Programação e configuração de equipamentos em plantas industriais

4.8.1. Programação de variadores e controladores
4.8.2. Programação de HMI
4.8.3. Programação de robôs manipuladores

4.9. Programação e configuração de equipamentos TI industriais

4.9.1. Programação de sistemas de visão
4.9.2. Programação de SCADA/software
4.9.3. Configuração de redes

4.10. Implementação de automatismos

4.10.1. Projeto de máquinas de estado
4.10.2. Implementação de máquinas de estado em PLCs
4.10.3. Implementação de sistemas de controle analógico PID em PLCs
4.10.4. Manutenção da automação e higiene do código
4.10.5. Simulação de automatismos e plantas

Módulo 5. Sistemas de Controle Automático em Robótica

5.1. Análise e design de sistemas Não linear

5.1.1. Análise e modelagem de sistemas não lineares
5.1.2. Controle com retroalimentação
5.1.3. Linearização por retroalimentação

5.2. Projeto de técnicas de controle para sistemas não lineares avançados

5.2.1. Controle em modo deslizante (Sliding Mode control)
5.2.2. Controle baseado em Lyapunov e Backstepping
5.2.3. Controle baseado em passividade

5.3. Arquiteturas de controle

5.3.1. O paradigma da robótica
5.3.2. Arquiteturas de controle
5.3.3. Aplicações e exemplos de arquiteturas de controle

5.4. Controle de movimento para braços robóticos

5.4.1. Modelagem cinemática e dinâmica
5.4.2. Controle no espaço das articulações
5.4.3. Controle no espaço operacional

5.5. Controle de força em atuadores

5.5.1. Controle de força
5.5.2. Controle de Impedância
5.5.3. Controle híbrido

5.6. Robôs móveis terrestres

5.6.1. Equações de movimento
5.6.2. Técnicas de controle para robôs terrestres
5.6.3. Manipuladores móveis

5.7. Robôs móveis aéreos

5.7.1. Equações de movimento
5.7.2. Técnicas de controle para robôs aéreos
5.7.3. Manipulação aérea

5.8. Controle baseado em técnicas de aprendizagem automática

5.8.1. Controle por aprendizagem supervisionada
5.8.2. Controle por aprendizagem reforçado
5.8.3. Controle por aprendizagem não supervisionada

5.9. Controle baseado em visão

5.9.1. Visual Servoing baseado em posição
5.9.2. Visual Servoing baseado em imagem
5.9.3. Visual Servoing híbrido

5.10. Controle preditivo

5.10.1. Modelagem e estimativa de estado
5.10.2. MPC aplicado a Robôs Móveis
5.10.3. MPC aplicado aos UAVs

Módulo 6. Algoritmos de planejamento de robôs

6.1. Algoritmos de planejamento clássicos

6.1.1. Planejamento discreto: espaço de estados
6.1.2. Problemas de planejamento em Robótica. Modelos de sistemas robóticos
6.1.3. Classificação de planejadores

6.2. O problema de planejamento da trajetória em robôs móveis

6.2.1. Formas de representação do ambiente: grafos
6.2.2. Algoritmos de busca em grafos
6.2.3. Introdução de custos nos grafos
6.2.4. Algoritmos de busca em grafos pesados
6.2.5. Algoritmos com enfoque de qualquer ângulo

6.3. Planejamento em sistemas robóticos de alta dimensionalidade

6.3.1. Problemas de Robótica de alta dimensionalidade: manipuladores
6.3.2. Modelo cinemático direto/inverso
6.3.3. Algoritmos de planejamento de amostragem PRM e RRT
6.3.4. Planejamento para restrições dinâmicas

6.4. Planejamento de amostras otimizado

6.4.1. Problemas dos planejadores baseados em amostras
6.4.2. Conceito de otimização probabilística RRT*
6.4.3. Etapa de reconexão: restrições dinâmicas
6.4.4. CForest. Planejamento paralelo

6.5. Implementação real de um sistema de planejamento de movimentos

6.5.1. Problema de planejamento geral. Ambientes dinâmicos
6.5.2. Ciclo de ação, sensorização. Aquisição de informações do ambiente
6.5.3. Planejamento local e global

6.6. Coordenação em sistemas multi-robô I: sistema centralizado

6.6.1. Problema de coordenação multi-robô
6.6.2. Detecção e resolução de colisões: modificação de trajetória com Algoritmos Genéticos
6.6.3. Outros algoritmos de bioinspiração: enxame de partículas e fogos de artifício
6.6.4. Algoritmo para evitar colisões por escolha de manobras

6.7. Coordenação em sistemas multi-robô II: abordagens distribuídas I

6.7.1. Uso de funções de objetivo complexas
6.7.2. Eficiência de Pareto
6.7.3. Algoritmos evolutivos multiobjetivo

6.8. Coordenação em sistemas multi-robô III: abordagens distribuídas II

6.8.1. Sistemas de planificação de ordem 1
6.8.2. Algoritmo ORCA
6.8.3. Adicionadas  de restrições cinemáticas e dinâmicas na ORCA

6.9. Teoria do planejamento da decisão

6.9.1. Teoria da decisão
6.9.2. Sistemas de decisão sequencial
6.9.3. Sensores e espaços de informação
6.9.4. Planejamento de incertezas em sensoriamento e atuação

6.10. Sistemas de planejamento de aprendizagem por reforço

6.10.1. Obtenção da recompensa esperada de um sistema
6.10.2. Técnicas de aprendizagem por recompensa média
6.10.3. Aprendizagem por reforço inverso

Módulo 7. Visão artificial

7.1. Percepção humana

7.1.1. Sistema visual humano
7.1.2. A cor
7.1.3. Frequências visíveis e não-visíveis

7.2. Crônica da Visão Artificial

7.2.1. Princípios
7.2.2. Evolução
7.2.3. A importância da visão artificial

7.3. Composição da imagem digital

7.3.1. A imagem digital
7.3.2. Tipos de imagens
7.3.3. Espaços de cor
7.3.4. RGB
7.3.5. HSV e HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Imagem indexada

7.4. Sistemas de captação de imagem

7.4.1. Funcionamento de uma câmera digital
7.4.2. A exposição correta para cada situação
7.4.3. Profundidade do campo
7.4.4. Resolução
7.4.5. Formatos de imagem
7.4.6. Modo HDR
7.4.7. Câmeras de alta resolução
7.4.8. Câmeras de alta velocidade

7.5. Sistemas ópticos

7.5.1. Princípios otimizados
7.5.2. Objetivos convencionais
7.5.3. Objetivos telecêntricos
7.5.4. Tipos de autofoco
7.5.5. Distância focal
7.5.6. Profundidade do campo
7.5.7. Distorção ótica
7.5.8. Calibração de uma imagem

7.6. Sistemas de iluminação

7.6.1. A importância da iluminação
7.6.2. Resposta frequencial
7.6.3. Iluminação LED
7.6.4. Iluminação exterior
7.6.5. Tipos de iluminação para aplicações industriais Efeitos

7.7. Sistemas de captação 3D

7.7.1. Estéreo visão
7.7.2. Triangulação
7.7.3. Luz estruturada
7.7.4. Time of Flight
7.7.5. Lidar

7.8. Multi-espectro

7.8.1. Câmeras multiespectrais
7.8.2. Câmeras hiperespectrais
7.9. Espectro próximo não visível
7.9.1. Câmeras IR
7.9.2. Câmeras UV
7.9.3. Conversão de não visível para visível através da iluminação

7.10. Outras bandas do espectro

7.10.1. Raio-X
7.10.2. Teraherzios

Módulo 8. Aplicações e estado da arte

8.1. Aplicações industriais

8.1.1. Bibliotecas de visão industrial
8.1.2. Câmeras compactas
8.1.3. Sistemas baseados em PC
8.1.4. Robótica industrial
8.1.5. Pick and place 2D
8.1.6. Bin picking
8.1.7. Controle de qualidade
8.1.8. Presença de ausência de componentes
8.1.9. Controle dimensional
8.1.10. Controle de etiquetagem
8.1.11. Rastreabilidade

8.2. Veículos autônomos

8.2.1. Assistência ao condutor
8.2.2. Condução autônoma

8.3. Visão artificial para a análise de conteúdo

8.3.1. Filtro por conteúdo
8.3.2. Moderação do conteúdo visual
8.3.3. Sistemas de monitoramento
8.3.4. Identificação de marcas e logotipos
8.3.5. Rotulagem e classificação dos vídeos
8.3.6. Detecção de mudança de cena
8.3.7. Extração de textos ou créditos

8.4. Aplicações médicas

8.4.1. Detecção e localização de doenças
8.4.2. Câncer e análise de raios X
8.4.3. Avanços na visão artificial na Covid-19
8.4.4. Assistência na sala de cirurgia

8.5. Aplicações espaciais

8.5.1. Análise de imagem por satélite
8.5.2. Visão artificial para o estudo do espaço
8.5.3. Missão a Marte

8.6. Aplicações comerciais

8.6.1. Control stock
8.6.2. Vídeo vigilância, segurança doméstica
8.6.3. Câmeras para estacionamento
8.6.4. Câmeras de controle populacional
8.6.5. Câmeras de velocidade

8.7. Visão aplicada à robótica

8.7.1. Drones
8.7.2. AGV
8.7.3. Visão em robôs colaborativos
8.7.4. Os olhos dos robôs

8.8. Realidade aumentada

8.8.1. Funcionamento
8.8.2. Dispositivos.
8.8.3. Aplicações na indústria
8.8.4. Aplicações comerciais

8.9. Cloud Computing

8.9.1. Plataformas de Cloud Computing
8.9.2. Do Cloud Computing a produção

8.10. Pesquisa e estado da arte

8.10.1. A comunidade científica
8.10.2. O que está sendo produzido?
8.10.3. O futuro da visão artificial

Módulo 9. Técnicas de visão artificial em robótica: processamento e análise de imagens

9.1. Visão por computador

9.1.1. Visão por computador
9.1.2. Elementos de um sistema de visão computacional
9.1.3. Ferramentas matemáticas

9.2. Sensores óticos para robótica

9.2.1. Sensores óticos passivos
9.2.2. Sensores óticos ativos
9.2.3. Sensores não óticos

9.3. Aquisição de imagens

9.3.1. Representação de imagens
9.3.2. Espaço de cores
9.3.3. Processo de digitalização

9.4. Geometria das imagens

9.4.1. Modelos de lentes
9.4.2. Modelos de câmeras
9.4.3. Calibração de câmeras

9.5. Ferramentas matemáticas

9.5.1. Histograma de uma imagem
9.5.2. Convolução
9.5.3. Transformada de Fourier

9.6. Pré-processamento de imagens

9.6.1. Análise de ruídos
9.6.2. Suavização de imagem
9.6.3. Aperfeiçoamento de imagem

9.7. Segmentação de imagens

9.7.1. Técnicas baseadas em contornos
9.7.2. Técnicas baseadas em histograma
9.7.3. Operações morfológicas

9.8. Detecção de características na imagem

9.8.1. Detecção de pontos de interesse
9.8.2. Descritores de características
9.8.3. Correspondências entre características

9.9. Sistemas de visão 3D

9.9.1. Percepção 3D
9.9.2. Correspondência de características entre as imagens
9.9.3. Geometria com múltiplas vistas

9.10. Localização baseada na Visão Artificial

9.10.1. O problema da localização de robôs
9.10.2. Odometria visual
9.10.3. Fusão sensorial

Módulo 10. Sistemas de percepção visual de robôs com aprendizagem automática

10.1. Métodos de aprendizagem não supervisionados aplicados à visão artificial

10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similarity and matrix decomposition

10.2. Métodos de aprendizagem supervisionados aplicados à visão artificial

10.2.1. Conceito “Bag of words
10.2.2. Máquinas de suporte de vetores
10.2.3. Latent Dirichlet Allocation
10.2.4. Redes Neurais

10.3. Redes Neurais Profundas: estruturas,  Backbones e Transfer Learning

10.3.1. Camadas geradoras de Features

10.3.1.1. VGG
10.3.1.2. Densenet
10.3.1.3. ResNet
10.3.1.4. Inception
10.3.1.5. GoogLeNet

10.3.2. Transfer Learning
10.3.3. Os dados. Preparação para o treinamento

10.4. Visão artificial com aprendizado profundo I: detecção e segmentação

10.4.1. Diferenças e semelhanças entre YOLO e SSD
10.4.2. Unet
10.4.3. Outras estruturas

10.5. Visão Computacional com aprendizagem profunda II: Generative Adversarial Networks

10.5.1. Super-resolução de imagens usando GAN
10.5.2. Criação de imagens realistas
10.5.3. Scene understanding

10.6. Técnicas de aprendizagem para localização e mapeamento em robótica móvel

10.6.1. Detecção de fechamento de loop e realocação
10.6.2. Magic Leap. Super Point e Super Glue
10.6.3. Depth from Monocular

10.7. Inferência Bayesiana e modelagem 3D

10.7.1. Modelos Bayesianos e aprendizagem "clássica"
10.7.2. Superfícies implícitas com processos gaussianos (GPIS)
10.7.3. Segmentação 3D usando GPIS
10.7.4. Redes neurais para modelagem de superfícies 3D

10.8. Aplicações End-to-End das Redes Neurais Profundas

10.8.1. Sistema End-to-end. Exemplo de identificação de pessoas
10.8.2. Manipulação de objetos com sensores visuais
10.8.3. Geração de movimentos e planejamento com sensores visuais

10.9. Tecnologias na nuvem para acelerar o desenvolvimento de algoritmos de Deep Learning

10.9.1. Uso de GPU para o Deep Learning
10.9.2. Desenvolvimento ágil com Google IColab
10.9.3. GPUs remotas, Google Cloud e AWS

10.10. Implantação de Redes Neurais em aplicações reais

10.10.1. Sistemas embutidos
10.10.2. Implantação de Redes Neurais. Uso
10.10.3. Otimizações de rede na implantação, exemplo com o TensorR

Módulo 11. SLAM Visual. Localização de robôs e mapeamento simultâneo através técnicas de Visão Artificial

11.1. Localização e Mapeamento Simultâneo (SLAM)

11.1.1. Localização e Mapeamento Simultâneo. SLAM
11.1.2. Aplicações SLAM
11.1.3. Funcionamento do SLAM

11.2. Geometria projetiva

11.2.1. Modelo Pin-Hole
11.2.2. Estimativa de parâmetros intrínsecos de uma câmera
11.2.3. Homografia, princípios básicos e estimativa
11.2.4. Matriz fundamental, princípios e estimativa

11.3. Filtros Gaussianos

11.3.1. Filtro de Kalman
11.3.2. Filtro de informação
11.3.3. Ajuste e parametrização dos filtros Gaussianos

11.4. Estéreo EKF-SLAM

11.4.1. Geometria de câmera estéreo
11.4.2. Extração e busca de características
11.4.3. Filtro Kalman para SLAM estéreo
11.4.4. Ajustes de parâmetros de EKF-SLAM estéreo

11.5. Monocular EKF-SLAM

11.5.1. Parametrização de Landmarks em EKF-SLAM
11.5.2. Filtro de Kalman para SLAM monocular
11.5.3. Ajustes de parâmetros EKF-SLAM monocular

11.6. Detecção de fechamento de loop

11.6.1. Algoritmo de força bruta
11.6.2. FABMAP
11.6.3. Abstração usando GIST e HOG
11.6.4. Detecção mediante aprendizagem profunda

11.7. Graph-SLAM

11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM

11.8. Direct Visual SLAM

11.8.1. Análise do algoritmo Direct Visual SLAM
11.8.2. LSD-SLAM
11.8.3. SVO

11.9. Visual Inertial SLAM

11.9.1. Integração de medidas inerciais
11.9.2. Baixo acoplamento: SOFT-SLAM
11.9.3. Alto acoplamento: Vins-Mono

11.10. Outras tecnologias de SLAM

11.10.1. Aplicações além do SLAM visual
11.10.2. Lidar-SLAM
11.10.3. Range-only SLAM

Módulo 12. Aplicação à Robótica das Tecnologias de Realidade Virtual e Aumentada

12.1. Tecnologias imersivas em robótica

12.1.1. Realidade Virtual em Robótica
12.1.2. Realidade Aumentada em Robótica
12.1.3. Realidade Mistas em Robótica
12.1.4. Diferença entre realidades

12.2. Construção de ambientes virtuais

12.2.1. Materiais e texturas
12.2.2. Iluminação
12.2.3. Sons e cheiros virtuais

12.3. Modelagem de robôs em ambientes virtuais

12.3.1. Modelagem geométrica
12.3.2. Modelagem física
12.3.3. Padronização dos modelos

12.4. Modelagem da dinâmica e cinemática dos robôs: motores físicos virtuais

12.4.1. Motores físicos. Tipologia
12.4.2. Configuração de um motor físico
12.4.3. Motores físicos na indústria

12.5. Plataformas, periféricos e ferramentas mais comumente utilizadas em Realidade Virtual

12.5.1. Visores de Realidade Virtual
12.5.2. Periféricos de interação
12.5.3. Sensores virtuais

12.6. Sistemas de Realidade Aumentada

12.6.1. Inserção de elementos virtuais na realidade
12.6.2. Tipos de marcadores visuais
12.6.3. Tecnologias de Realidade Aumentada

12.7. Metaverso: ambientes virtuais de agentes inteligentes e pessoas

12.7.1. Criação de avatares
12.7.2. Agentes inteligentes em ambientes virtuais
12.7.3. Construção de ambientes multiusuários para VR/AR

12.8. Criação de projetos de Realidade Virtual para Robótica

12.8.1. Fases de desenvolvimento de um projeto de Realidade Virtual
12.8.2. Implantação de sistemas de Realidade Virtual
12.8.3. Recursos de Realidade Virtual

12.9. Criação de projetos de Realidade Aumentada para Robótica

12.9.1. Fases de desenvolvimento de um projeto de Realidade Aumentada
12.9.2. Implantação de Projeto de Realidade Aumentada
12.9.3. Recursos de Realidade Aumentada

12:10. Teleoperação de robôs com dispositivos móveis

12.10.1. Realidade mista em dispositivos móveis
12.10.2. Sistemas imersivos utilizando sensores de dispositivos móveis
12.10.3. Exemplos de projetos móveis

Módulo 13. Sistemas de comunicação e interação com robôs

13.1. Reconhecimento da fala: sistemas estocásticos

13.1.1. Modelagem acústica da fala
13.1.2. Modelos ocultos de Markov
13.1.3. Modelagem linguística da fala: N-Gramas, gramáticas BNF

13.2. Reconhecimento da fala: Deep Learning

13.2.1. Redes neurais profundas
13.2.2. Redes neurais recorrentes
13.2.3. Células LSTM

13.3. Reconhecimento da fala: prosódia e efeitos ambientais

13.3.1. Ruído ambiente
13.3.2. Reconhecimento de múltiplos locutores
13.3.3. Patologias na fala

13.4. Compreensão da linguagem natural: sistemas heurísticos e probabilísticos

13.4.1. Análise sintático-semântica: regras linguísticas
13.4.2. Compreensão baseada em regras heurísticas
13.4.3. Sistemas probabilísticos: regressão logística e SVM
13.4.4. Compreensão baseada em redes neurais

13.5. Gestão do diálogo: estratégias heurísticas/probabilísticas

13.5.1. Intenção do interlocutor
13.5.2. Diálogo baseado em modelos
13.5.3. Gestão do diálogo estocástico: redes Bayesianas

13.6. Gestão do diálogo: estratégias avançadas

13.6.1. Sistemas de aprendizagem baseados em reforços
13.6.2. Sistema baseada em redes neurais
13.6.3. Da fala à intenção em uma única rede

13.7. Geração de respostas e síntese da fala

13.7.1. Geração de respostas: da ideia ao texto coerente
13.7.2. Síntese da fala por concatenação
13.7.3. Síntese da fala estocástica

13.8. Adaptação e contextualização do diálogo

13.8.1. Iniciativa de diálogo
13.8.2. Adaptação ao locutor
13.8.3. Adaptação ao contexto do diálogo

13.9. Robôs e interações sociais: reconhecimento, síntese e expressão de emoções

13.9.1. Paradigmas de voz artificial: voz robótica e voz natural
13.9.2. Reconhecimento das emoções e análise dos sentimentos
13.9.3. Síntese de vozes emocionais

13:10. Robôs e interações sociais: interfaces multimodais avançadas

13.10.1. Combinação de interfaces de voz e de toque
13.10.2. Reconhecimento e tradução de linguagem de sinais
13.10.3. Avatares visuais: tradução de voz para linguagem de sinais

Módulo 14. Processamento digital de imagens

14.1. Ambiente de desenvolvimento da visão por computador

14.1.1. Bibliotecas de visão por computador
14.1.2. Ambiente de programação
14.1.3. Ferramentas de visualização

14.2. Processamento digital de imagens

14.2.1. Relações entre píxels
14.2.2. Operações com imagens
14.2.3. Transformações geométricas

14.3. Operações de pixels

14.3.1. Histograma
14.3.2. Transformações a partir de histograma
14.3.3. Operações em imagens coloridas

14.4. Operações lógicas e aritméticas

14.4.1. Adição e subtração
14.4.2. Produto e divisão
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor

14.5. Filtros

14.5.1. Máscaras e convolução
14.5.2. Filtragem linear
14.5.3. Filtragem não linear
14.5.4. Análise de Fourier

14.6. Operações morfológicas

14.6.1. Erode and Dilating
14.6.2. Closing and Open
14.6.3. Top hat e Black hat
14.6.4. Detecção de contornos
14.6.5. Esqueleto
14.6.6. Preenchimento de furos
14.6.7. Convex hull

14.7. Ferramentas de análise de imagens

14.7.1. Detecção de bordas
14.7.2. Detecção de blobs
14.7.3. Controle dimensional
14.7.4. Inspeção de cores

14.8. Segmentação de objetos

14.8.1. Segmentação de imagens
14.8.2. Técnicas de segmentação clássica
14.8.3. Aplicações reais

14.9. Calibração de imagens

14.9.1. Calibração de imagem
14.9.2. Métodos de calibração
14.9.3. Processo de calibração em um sistema câmera 2D/robot

14:10. Processamento de imagens em ambiente real

14.10.1. Análise de problemas
14.10.2. Processamento de imagem
14.10.3. Extração de características
14.10.4. Resultados finais

Módulo 15. Processamento digital de imagens avançado

15.1. Reconhecimento Óptico de Caracteres (OCR)

15.1.1. Pré-processamento de imagens
15.1.2. Detecção de texto
15.1.3. Reconhecimento de texto

15.2. Leitura de códigos

15.2.1. Códigos 1D
15.2.2. Códigos 2D
15.2.3. Aplicações

15.3. Busca de padrões

15.3.1. Busca de padrões
15.3.2. Padrões baseados no nível de cinza
15.3.3. Padrões baseados em contornos
15.3.4. Padrões baseados em formas geométricas
15.3.5. Outras técnicas:

15.4. Rastreamento de objetos com visão convencional

15.4.1. Extração de fundo
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Optical flow

15.5. Reconhecimento facial

15.5.1. Facial Landmark Detection
15.5.2. Aplicações
15.5.3. Reconhecimento facial
15.5.4. Reconhecimento de emoções

15.6. Panorâmica e alinhamentos

15.6.1. Stitching
15.6.2. Composição de imagens
15.6.3. Fotomontagem

15.7. High Dinamic Range (HDR) and Photometric Stereo

15.7.1. Aumento da faixa dinâmica
15.7.2. Composição de imagens para melhoria de contornos
15.7.3. Técnicas para o uso de aplicações em dinâmico

15.8. Compressão de imagens

15.8.1. A compressão de Imagens
15.8.2. Tipos de compressores
15.8.3. Técnicas de compressão de imagem

15.9. Processamento de vídeo

15.9.1. Sequências de imagens
15.9.2. Formatos e codecs de vídeo
15.9.3. Leitura de um vídeo
15.9.4. Processamento do fotograma

15.10. Aplicação real do processamento de imagens

15.10.1. Análise de problemas
15.10.2. Processamento de imagem
15.10.3. Extração de características
15.10.4. Resultados finais

Módulo 16. Processamento de imagens 3D

16.1. Imagem 3D

16.1.1. Imagem 3D
16.1.2. Software de processamento de imagem 3D e visualizações
16.1.3. Software de metrologia

16.2. Open 3D

16.2.1. Biblioteca para processamento de dados 3D
16.2.2. Características
16.2.3. Instalação e uso

16.3. Os dados

16.3.1. Mapas de profundidade em imagem 2D
16.3.2. Pointclouds
16.3.3. Normais
16.3.4. Superfícies

16.4. Visualização

16.4.1. Visualização de dados
16.4.2. Controles
16.4.3. Visualização da web

16.5. Filtros

16.5.1. Distância entre pontos, eliminar outliers
16.5.2. Filtro passa-alto
16.5.3. Downsampling

16.6. Geometria e extração de características

16.6.1. Extração de um perfil
16.6.2. Medição de profundidade
16.6.3. Volume
16.6.4. Formas geométricas 3D
16.6.5. Planos
16.6.6. Projeção de um ponto
16.6.7. Distâncias geométricas
16.6.8. Kd Tree
16.6.9. Features 3D

16.7. Registro e Meshing

16.7.1. Concatenação
16.7.2. ICP
16.7.3. Ransac 3D

16.8. Reconhecimento de objetos 3D

16.8.1. Busca de um objeto na cena 3D
16.8.2. Segmentação
16.8.3. Bin picking

16.9. Análise de superfícies

16.9.1. Smoothing
16.9.2. Superfícies ajustáveis
16.9.3. Octree

16.10. Triangulação

16.10.1. De Mesh a Point Cloud
16.10.2. Triangulação de mapas de profundidade
16.10.3. Triangulação de PointClouds não ordenados

Módulo 17. Redes convolucionais e classificação da imagem

17.1. Redes neurais convolucionais

17.1.1. Introdução
17.1.2. A convolução
17.1.3. CNN Building Blocks

17.2. Tipos de camadas CNN

17.2.1. Convolucional
17.2.2. Ativação
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected

17.3. Métricas

17.3.1. Matriz de confusão
17.3.2. Accuracy
17.3.3. Precisão
17.3.4. Recall
17.3.5. F1 Score
17.3.6. ROC Curve
17.3.7. AUC

17.4. Principais Arquiteturas

17.4.1. AlexNet
17.4.2. VGG
17.4.3. Resnet
17.4.4. GoogleLeNet

17.5. Classificação de imagens

17.5.1. Introdução
17.5.2. Análise dos dados
17.5.3. Preparação dos dados
17.5.4. Treinamento do modelo
17.5.5. Validação do modelo

17.6. Considerações práticas para o treinamento da CNN

17.6.1. Seleção de otimizador
17.6.2. Learning Rate Scheduler
17.6.3. Verificação pipeline de treinamento
17.6.4. Treinamento com regularização

17.7. Boas práticas em Deep Learning

17.7.1. Transfer Learning
17.7.2. Fine Tuning
17.7.3. Data Augmentation

17.8. Avaliação estatística dos dados

17.8.1. Número de datasets
17.8.2. Número de etiquetas
17.8.3. Número de imagens
17.8.4. Balanceamento de dados

17.9. Deployment

17.9.1. Salvamento e carregamento de modelos
17.9.2. Onnx
17.9.3. Inferência

17.10. Estudo de caso: classificação da imagem

17.10.1. Análise e preparação dos dados
17.10.2. Teste de pipeline de treinamento
17.10.3. Treinamento do modelo
17.10.4. Validação do modelo

Módulo 18. Detecção de objetos

18.1. Detecção e acompanhamento de objetos

18.1.1. Detecção de objetos
18.1.2. Casos de uso
18.1.3. Acompanhamento de objetos
18.1.4. Casos de uso
18.1.5. Oclusões, Rigid and No Rigid Poses

18.2. Métricas de avaliação

18.2.1. IOU - Intersection Over Union
18.2.2. Confidence Score
18.2.3. Recall
18.2.4. Precisão
18.2.5. Recall–Precisión Curve
18.2.6. Mean Average Precision (mAP)

18.3. Métodos tradicionais

18.3.1. Sliding window
18.3.2. Viola detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)

18.4. Datasets

18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge

18.5. Two Shot Object Detector

18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN

18.6. Single Shot Object Detector

18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet

18.7. Backbones

18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet

18.8. Object Tracking

18.8.1. Enfoques clássicos
18.8.2. Filtros de partículas
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort

18.9. Implantação

18.9.1. Plataforma de computação
18.9.2. Escolha do Backbone
18.9.3. Escolha do Framework
18.9.4. Otimização do modelo
18.9.5. Versionamento de modelos

18.10. Estudo: detecção e monitoramento de pessoas

18.10.1. Detecção de pessoas
18.10.2. Acompanhamento de pessoas
18.10.3. Reidentificação
18.10.4. Contagem de pessoas em multidões

Módulo 19. Segmentação de imagens com deep learning

19.1. Detecção de objetos e segmentação

19.1.1. Segmentação semântica

19.1.1.1. Casos de uso de segmentação semântica

19.1.2. Segmentação instanciada

19.1.2.1. Casos de uso de segmentação de instâncias

19.2. Métricas de avaliação

19.2.1. Semelhanças com outros métodos
19.2.2. Pixel Accuracy
19.2.3. Dice Coefficient (F1 Score)

19.3. Funções de custos

19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Outras funções

19.4. Métodos tradicionais de segmentação

19.4.1. Aplicação do limiar com Otsu e Riddlen
19.4.2. Mapas auto-organizados
19.4.3. GMM-EM algorithm

19.5. Segmentação semântica aplicando o Deep Learning: FCN

19.5.1. FCN
19.5.2. Arquitetura
19.5.3. Aplicação do FCN

19.6. Segmentação semântica aplicando o Deep Learning: U-NET

19.6.1. U-NET
19.6.2. Arquitetura
19.6.3. Aplicação U-NET

19.7. Segmentação semântica aplicando o Deep Learning: Deep Lab

19.7.1. Deep Lab
19.7.2. Arquitetura
19.7.3. Aplicação de Deep Lab

19.8. Segmentação de instâncias aplicando o Deep Learning: Mask RCNN

19.8.1. Mask RCNN
19.8.2. Arquitetura
19.8.3. Aplicação de um Mas RCNN

19.9. Segmentação em vídeos

19.9.1. STFCN
19.9.2. Semantic Video CNNs
19.9.3. Clockwork Convnets
19.9.4. Low-Latency

19.10. Segmentação de nuvens de pontos

19.10.1. Nuvem de pontos
19.10.2. PointNet
19.10.3. A-CNN

Módulo 20. Segmentação de imagens avançadas e técnicas avançadas de visão computadorizada

20.1. Base de dados para problemas de segmentação geral

20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset

20.2. Segmentação semântica na medicina

20.2.1. Segmentação semântica na medicina
20.2.2. Datasets para problemas médicos
20.2.3. Aplicações práticas

20.3. Ferramentas de anotação

20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Outras ferramentas

20.4. Ferramentas de segmentação usando diferentes Frameworks

20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Outros

20.5. Projeto de segmentação semântica. Os dados, fase 1

20.5.1. Análise do problema
20.5.2. Fonte de entrada de dados
20.5.3. Análise de dados
20.5.4. Preparação dos dados

20.6. Projeto de segmentação semântica. Treinamento, fase 2

20.6.1. Seleção de algoritmos
20.6.2. Treinamento
20.6.3. Avaliação

20.7. Projeto de segmentação semântica. Resultados, fase 3

20.7.1. Ajuste fino
20.7.2. Apresentação da solução
20.7.3. Conclusões

20.8. Autocodificadores

20.8.1. Autocodificadores
20.8.2. Arquitetura de um autocodificador
20.8.3. Autocodificadores de eliminação de ruído
20.8.4. Autocodificador de coloração automática

20.9. Redes Adversárias Generativas (GAN)

20.9.1. Redes Adversárias Generativas (GAN)
20.9.2. Arquitetura DCGAN
20.9.3. Arquitetura GAN condicionada

20.10. Redes adversárias generativas melhoradas

20.10.1. Visão geral do problema
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN

##IMAGE##

Aprimore suas habilidades de design, programação e controle de robôs por meio de algoritmos de visão computacional e aprendizado de máquina”

Advanced Master em Robótica e Visão Artificial

A Robótica e Visão Artificial são duas áreas em constante evolução que revolucionaram a forma como interagimos com a tecnologia hoje. Na TECH Universidade Tecnológica, projetamos um Advanced Master em Robótica e Visão Artificial, em colaboração com a Faculdade de Informática, para preparar profissionais nas últimas tendências e avanços nesses campos. Este programa de estudos virtual oferece uma ampla variedade de conteúdos, desde fundamentos teóricos até a aplicação prática de técnicas e algoritmos no desenvolvimento de sistemas robóticos e visão artificial.

Com uma abordagem interdisciplinar, nosso Advanced Master em Robótica e Visão Artificial capacita os participantes na compreensão dos princípios e conceitos-chave da Robótica e Visão Artificial, bem como na aplicação de técnicas avançadas na resolução de problemas reais. Os participantes terão a oportunidade de explorar temas como percepção visual, navegação autônoma, aprendizado de máquina e interação homem-robô, entre outros. Além disso, nosso programa de estudos conta com um corpo docente altamente qualificado, com experiência na investigação e aplicação da robótica e visão artificial em diversos setores industriais e tecnológicos.