Qualificação universitária
Apresentação do programa
Você aplicará as técnicas mais inovadoras de Deep Learning em seus projetos graças a este Mestrado 100% online”

O TensorFlow se tornou a ferramenta mais importante para implementar e treinar modelos de Deep Learning. Os desenvolvedores usam suas diversas ferramentas e bibliotecas para treinar modelos para executar tarefas de detecção automática de objetos, classificação e processamento de linguagem natural. Na mesma linha, essa plataforma é útil para detectar anomalias nos dados, o que é essencial em áreas como segurança cibernética, manutenção preditiva e controle de qualidade. No entanto, esse uso pode envolver uma série de desafios para os profissionais, entre os quais a seleção da arquitetura de rede neural adequada.
Diante dessa situação, a TECH criou um Mestrado que fornecerá aos especialistas uma abordagem abrangente do Deep Learning. Desenvolvido por especialistas da área, o currículo abordará os fundamentos e princípios matemáticos do Deep Learning. Isso permitirá que os alunos criem redes neurais voltadas para o processamento de informações que envolvem reconhecimento de padrões, tomada de decisões e aprendizagem a partir de dados. Além disso, o conteúdo também irá se aprofundar em Reinforcement Learning levando em conta fatores como a otimização de recompensas e a busca de políticas. O material didático também fornecerá técnicas avançadas para otimização e visualização de resultados.
Quanto ao formato do curso universitário, a metodologia é 100% online para que os alunos possam concluir o programa com conforto. Para acessar o conteúdo acadêmico, basta um dispositivo eletrônico com acesso à Internet, pois os horários e os cronogramas de avaliação são planejados individualmente. Por outro lado, o programa de estudos é baseado no inovador sistema de ensino do Relearning, do qual a TECH é pioneira. Esse sistema de aprendizagem consiste na reiteração dos principais aspectos para garantir o domínio dos diferentes conceitos.
Estude através de inovadores formatos didáticos multimídia que otimizarão seu processo de atualização em Deep Learning”
Este Mestrado em Deep Learning conta com o conteúdo mais completo e atualizado do mercado. Suas principais características são:
- O desenvolvimento de estudos de caso apresentados por especialistas em Data Engineer e Data Scientist
- O conteúdo gráfico, esquemático e extremamente prático que oferece informações técnicas e úteis sobre aquelas disciplinas que são essenciais para a prática profissional
- Exercícios práticos em que o processo de autoavaliação é usado para aprimorar a aprendizagem
- Destaque especial para as metodologias inovadoras
- Aulas teóricas, perguntas a especialistas, fóruns de discussão sobre temas controversos e trabalhos de reflexão individual
- Disponibilidade de acesso a todo o conteúdo a partir de qualquer dispositivo, fixo ou portátil, com conexão à Internet
Deseja enriquecer sua prática com técnicas de otimização de gradiente de última geração? Com este programa, você alcançará seu objetivo em apenas 12 meses”
O corpo docente do curso conta com profissionais do setor, que transferem toda a experiência adquirida ao longo de suas carreiras para esta capacitação, além de especialistas reconhecidos de sociedades de referência e universidades de prestígio.
O conteúdo multimídia, desenvolvido com a mais recente tecnologia educacional, permitirá ao profissional uma aprendizagem contextualizada, ou seja, realizada através de um ambiente simulado, proporcionando uma capacitação imersiva e programada para praticar diante de situações reais.
A estrutura deste programa se concentra na Aprendizagem Baseada em Problemas, através da qual o profissional deverá resolver as diferentes situações de prática profissional que surgirem ao longo do curso acadêmico. Para isso, contará com a ajuda de um inovador sistema de vídeo interativo realizado por especialistas reconhecidos.
Você se aprofundará no Backward Pass para calcular os gradientes da função de perda em relação aos parâmetros da rede"
Graças à metodologia Relearning, você terá a liberdade de planejar seus horários de estudo e cronogramas educacionais"
Plano de estudos
Este Mestrado oferecerá aos alunos uma ampla variedade de técnicas de Deep Learning, o que elevará seus horizontes profissionais ao nível mais alto. Para isso, o itinerário acadêmico se aprofundará na codificação de modelos de Deep Learning. Assim, os alunos poderão traduzir com eficácia os algoritmos e as arquiteturas de redes neurais profundas. Além disso, o programa abordará detalhadamente o treinamento de redes neurais profundas, bem como a visualização dos resultados e a avaliação dos modelos de aprendizagem. Os alunos também analisarão os principais modelos Transformers, a fim de manejá-los para gerar traduções automáticas.
Você aplicará os princípios do Deep Learning em seus projetos para resolver uma variedade de problemas complexos em campos como o reconhecimento de imagens”
Módulo 1. Fundamentos Matemáticos do Deep Learning
1.1. Funções e Derivadas
1.1.1. Funções lineares
1.1.2. Derivadas parciais
1.1.3. Derivadas de ordem superior
1.2. Funções aninhadas
1.2.1. Funções compostas
1.2.2. Funções inversas
1.2.3. Funções recursivas
1.3. Regra da cadeia
1.3.1. Derivadas de funções aninhadas
1.3.2. Derivadas de funções compostas
1.3.3. Derivadas de funções inversas
1.4. Funções com múltiplas entradas
1.4.1. Funções de várias variáveis
1.4.2. Funções vetoriais
1.4.3. Funções matriciais
1.5. Derivadas de funções com múltiplas entradas
1.5.1. Derivadas parciais
1.5.2. Derivadas direcionais
1.5.3. Derivadas mistas
1.6. Funções com múltiplas entradas vetoriais
1.6.1. Funções vetoriais lineares
1.6.2. Funções vetoriais não lineares
1.6.3. Funções vetoriais de matriz
1.7. Criação de novas funções a partir de funções existentes
1.7.1. Soma de funções
1.7.2. Produto de funções
1.7.3. Composição de funções
1.8. Derivadas de funções com múltiplas entradas vetoriais
1.8.1. Derivadas de funções lineares
1.8.2. Derivadas de funções não lineares
1.8.3. Derivadas de funções compostas
1.9. Funções vetoriais e suas derivadas: Um passo além
1.9.1. Derivadas direcionais
1.9.2. Derivadas mistas
1.9.3. Derivadas matriciais
1.10. O Backward Pass
1.10.1. Propagação de erros
1.10.2. Aplicação de regras de atualização
1.10.3. Otimização de parâmetros
Módulo 2. Princípios do Deep Learning
2.1. Aprendizagem supervisionada
2.1.1. Máquinas de aprendizagem supervisionada
2.1.2. Usos de aprendizagem supervisionada
2.1.3. Diferenças entre aprendizagem supervisionada e não supervisionada
2.2. Modelos de aprendizagem supervisionada
2.2.1. Modelos lineares
2.2.2. Modelos de árvores de decisão
2.2.3. Modelos de redes neurais
2.3. Regressão linear
2.3.1. Regressão linear simples
2.3.2. Regressão Linear Múltipla
2.3.3. Análise de regressão
2.4. Treinamento do modelo
2.4.1. Batch Learning
2.4.2. Online Learning
2.4.3. Métodos de Otimização
2.5. Avaliação do modelo: Conjunto de treinamento versus conjunto de teste
2.5.1. Métricas de avaliação
2.5.2. Validação cruzada
2.5.3. Comparação dos conjuntos de dados
2.6. Avaliação do modelo: O código
2.6.1. Geração de predições
2.6.2. Análise de erros
2.6.3. Métricas de avaliação
2.7. Análise das variáveis
2.7.1. Identificação de variáveis relevantes
2.7.2. Análise de correlação
2.7.3. Análise de regressão
2.8. Explicabilidade dos modelos de redes neurais
2.8.1. Modelos interpretáveis
2.8.2. Métodos de visualização
2.8.3. Métodos de avaliação
2.9. Otimização
2.9.1. Métodos de otimização
2.9.2. Técnicas de regularização
2.9.3. Uso de gráficos
2.10. Hiperparâmetros
2.10.1. Seleção de hiperparâmetros
2.10.2. Busca de parâmetros
2.10.3. Ajuste de hiperparâmetros
Módulo 3. Redes neurais como base do Deep Learning
3.1. Aprendizagem profunda
3.1.1. Tipos de aprendizagem profunda
3.1.2. Aplicativos de aprendizagem profunda
3.1.3. Vantagens e desvantagens da aprendizagem profunda
3.2. Operações
3.2.1. Soma
3.2.2. Produtos
3.2.3. Transferência
3.3. Camadas
3.3.1. Camada de entrada
3.3.2. Camada oculta
3.3.3. Camada de saída
3.4. União de Camadas e Operações
3.4.1. Design de arquiteturas
3.4.2. Conexão entre camadas
3.4.3. Propagação para frente
3.5. Construção da primeira rede neural
3.5.1. Design da rede
3.5.2. Definição dos pesos
3.5.3. Treinamento da rede
3.6. Treinador e Otimizador
3.6.1. Seleção do otimizador
3.6.2. Definição de uma função de perda
3.6.3. Definição de uma métrica
3.7. Aplicação dos princípios das redes neurais
3.7.1. Funções de ativação
3.7.2. Retropropagação
3.7.3. Ajuste dos parâmetros
3.8. Dos neurônios biológicos para os artificiais
3.8.1. Funcionamento de um neurônio biológico
3.8.2. Transferência de conhecimento para os neurônios artificiais
3.8.3. Estabelecimento de relações entre ambos
3.9. Implementação de MLP (Perceptron multicamadas) com Keras
3.9.1. Definição da estrutura da rede
3.9.2. Compilação do modelo
3.9.3. Treinamento do modelo
3.10. Hiperparâmetros de Fine tuning de Redes Neurais
3.10.1. Seleção da função de ativação
3.10.2. Estabelecer o learning rate
3.10.3. Ajuste dos pesos
Módulo 4. Treinamento de redes neurais profundas
4.1. Problemas de Gradientes
4.1.1. Técnicas de otimização de gradiente
4.1.2. Gradientes Estocásticos
4.1.3. Técnicas de inicialização de pesos
4.2. Reutilização de camadas pré-treinadas
4.2.1. Treinamento de transferência de aprendizagem
4.2.2. Extração de características
4.2.3. Aprendizagem Profunda
4.3. Otimizadores
4.3.1. Otimizadores de descida de gradiente estocástico
4.3.2. Otimizadores Adam e RMSprop
4.3.3. Otimizadores de momento
4.4. Programação da taxa de aprendizagem
4.4.1. Controle de taxa de aprendizagem automática
4.4.2. Ciclos de aprendizagem
4.4.3. Termos de suavização
4.5. Sobreajuste
4.5.1. Validação cruzada
4.5.2. Regularização
4.5.3. Métricas de avaliação
4.6. Diretrizes práticas
4.6.1. Design de modelos
4.6.2. Seleção de métricas e parâmetros de avaliação
4.6.3. Testes de hipóteses
4.7. Transfer Learning
4.7.1. Treinamento de transferência de aprendizagem
4.7.2. Extração de características
4.7.3. Aprendizagem Profunda
4.8. Data Augmentation
4.8.1. Transformações de imagem
4.8.2. Geração de dados sintéticos
4.8.3. Transformação de texto
4.9. Aplicação prática de Transfer Learning
4.9.1. Treinamento de transferência de aprendizagem
4.9.2. Extração de características
4.9.3. Aprendizagem Profunda
4.10. Regularização
4.10.1. L1 e L2
4.10.2. Regularização por máxima entropia
4.10.3. Dropout
Módulo 5. Personalização de Modelos e Treinamento com TensorFlow
5.1. TensorFlow
5.1.1. Uso da biblioteca TensorFlow
5.1.2. Treinamento de modelos com TensorFlow
5.1.3. Operações com gráficos no TensorFlow
5.2. TensorFlow e NumPy
5.2.1. Ambiente computacional NumPy para TensorFlow
5.2.2. Utilização de arrays NumPy com TensorFlow
5.2.3. Operações NumPy para gráficos do TensorFlow
5.3. Personalização de modelos e algoritmos de treinamento
5.3.1. Construção de modelos personalizados com TensorFlow
5.3.2. Gestão de parâmetros de treinamento
5.3.3. Utilização de técnicas de otimização para treinamento
5.4. Funções e gráficos do TensorFlow
5.4.1. Funções com TensorFlow
5.4.2. Utilização de gráficos para treinamento de modelos
5.4.3. Otimização de gráficos com operações do TensorFlow
5.5. Carregamento e pré-processamento de dados com TensorFlow
5.5.1. Carregamento de conjuntos de dados com TensorFlow
5.5.2. Pré-processamento de dados com TensorFlow
5.5.3. Utilização de ferramentas do TensorFlow para manipulação de dados
5.6. API tf.data
5.6.1. Utilização da API tf.data para processamento de dados
5.6.2. Construção de fluxos de dados com tf.data
5.6.3. Uso da API tf.data para treinamento de modelos
5.7. Formato TFRecord
5.7.1. Utilização da API TFRecord para serialização de dados
5.7.2. Carregamento de arquivos TFRecord com TensorFlow
5.7.3. Utilização de arquivos TFRecord para treinamento de modelos
5.8. Camadas de pré-processamento do Keras
5.8.1. Utilização da API de pré-processamento do Keras
5.8.2. Construção de pipelines de pré-processamento com Keras
5.8.3. Uso da API de pré-processamento do Keras para treinamento de modelos
5.9. Projeto TensorFlow Datasets
5.9.1. Utilização do TensorFlow Datasets para carregamento de dados
5.9.2. Pré-processamento de dados com o TensorFlow Datasets
5.9.3. Uso do TensorFlow Datasets para treinamento de modelos
5.10. Construção de uma Aplicação de Deep Learning com TensorFlow. Aplicação Prática
5.10.1. Construção de uma aplicação de Deep Learning com TensorFlow
5.10.2. Treinamento de um modelo com TensorFlow
5.10.3. Utilização da aplicação para previsão de resultados
Módulo 6. Deep Computer Vision com Redes Neurais Convolucionais
6.1. A Arquitetura do Visual Cortex
6.1.1. Funções do córtex visual
6.1.2. Teorias da visão computacional
6.1.3. Modelos de processamento de imagens
6.2. Camadas convolucionais
6.2.1. Reutilização de pesos na convolução
6.2.2. Convolução 2D
6.2.3. Funções de ativação
6.3. Camadas de agrupamento e implementação de camadas de agrupamento com o Keras
6.3.1. Pooling e Striding
6.3.2. Flattening
6.3.3. Tipos de Pooling
6.4. Arquiteturas CNN
6.4.1. Arquitetura VGG
6.4.2. Arquitetura AlexNet
6.4.3. Arquitetura ResNet
6.5. Implementação de uma CNN ResNet-34 usando o Keras
6.5.1. Inicialização de pesos
6.5.2. Definição da camada de entrada
6.5.3. Definição da saída
6.6. Uso de modelos pré-treinados do Keras
6.6.1. Características dos modelos pré-treinados
6.6.2. Usos dos modelos pré-treinados
6.6.3. Vantagens dos modelos pré-treinados
6.7. Modelos pré-treinados para aprendizado por transferência
6.7.1. Aprendizagem por transferência
6.7.2. Processo de aprendizagem por transferência
6.7.3. Vantagens do aprendizagem por transferência
6.8. Classificação e localização em Deep Computer Vision
6.8.1. Classificação de imagens
6.8.2. Localização de objetos em imagens
6.8.3. Detecção de objetos
6.9. Detecção e rastreamento de objetos
6.9.1. Métodos de detecção de objetos
6.9.2. Algoritmos de rastreamento de objetos
6.9.3. Técnicas de rastreamento e localização
6.10. Segmentação semântica
6.10.1. Aprendizagem profunda para segmentação semântica
6.10.2. Detecção de bordas
6.10.3. Métodos de segmentação baseados em regras
Módulo 7. Processamento de Sequências usando RNN (Redes Neurais Recorrentes) e CNN (Redes Neurais Convolucionais)
7.1. Neurônios e camadas recorrentes
7.1.1. Tipos de neurônios recorrentes
7.1.2. Arquitetura de uma camada recorrente
7.1.3. Aplicações de camadas recorrentes
7.2. Treinamento de Redes Neurais Recorrentes (RNN)
7.2.1. Backpropagation através do tempo (BPTT)
7.2.2. Gradiente descendente estocástico
7.2.3. Regularização no treinamento de RNN
7.3. Avaliação de modelos RNN
7.3.1. Métricas de avaliação
7.3.2. Validação cruzada
7.3.3. Ajuste de hiperparâmetros
7.4. RNN pré-treinadas
7.4.1. Redes pré-treinadas
7.4.2. Transferência de aprendizagem
7.4.3. Ajuste fino
7.5. Previsão de uma série de tempo
7.5.1. Modelos estatísticos para previsão
7.5.2. Modelos de séries temporais
7.5.3. Modelos baseados em redes neurais
7.6. Interpretação dos resultados da análise de séries temporais
7.6.1. Análise de componentes principais
7.6.2. Análise de Cluster
7.6.3. Análise de correlações
7.7. Manejo de sequências longas
7.7.1. Long Short-Term Memory (LSTM)
7.7.2. Gated Recurrent Units (GRU)
7.7.3. Convolucionais 1D
7.8. Aprendizagem de sequência parcial
7.8.1. Métodos de aprendizagem profunda
7.8.2. Modelos generativos
7.8.3. Aprendizagem de reforço
7.9. Aplicação prática de RNN e CNN
7.9.1. Processamento de linguagem natural
7.9.2. Reconhecimento de padrões
7.9.3. Visão por computador
7.10. Diferenças nos resultados clássicos
7.10.1. Métodos clássicos x RNN
7.10.2. Métodos clássicos x CNN
7.10.3. Diferença no tempo de treinamento
Módulo 8. Processamento de Linguagem Natural (PLN) com Redes Neurais Recorrentes (RNN) e Atenção
8.1. Geração de texto usando RNN
8.1.1. Treinamento de uma RNN para geração de texto
8.1.2. Geração de linguagem natural com RNN
8.1.3. Aplicações de geração de texto com RNN
8.2. Criação do conjunto de dados de treinamento
8.2.1. Preparação dos dados para treinamento de uma RNN
8.2.2. Armazenamento do conjunto de dados de treinamento
8.2.3. Limpeza e transformação dos dados
8.3. Análise de sentimento
8.3.1. Classificação de opiniões com RNN
8.3.2. Detecção de temas nos comentários
8.3.3. Análise de sentimento com algoritmos de aprendizagem profunda
8.4. Rede codificador-decodificador para tradução automática neural
8.4.1. Treinamento de uma RNN para tradução automática
8.4.2. Uso de uma rede encoder-decoder para tradução automática
8.4.3. Aumento da precisão da tradução automática com RNN
8.5. Mecanismos de atenção
8.5.1. Aplicação de mecanismos de atenção em RNN
8.5.2. Uso de mecanismos de atenção para melhorar a precisão dos modelos
8.5.3. Vantagens dos mecanismos de atenção em redes neurais
8.6. Modelos Transformers
8.6.1. Uso de modelos Transformers para processamento de linguagem natural
8.6.2. Aplicação de modelos Transformers para visão
8.6.3. Vantagens dos modelos Transformers
8.7. Transformers para visão
8.7.1. Uso de modelos Transformers para visão
8.7.2. Processamento de dados Imagem
8.7.3. Treinamento de modelos transformação para visão
8.8. Biblioteca Transformers de Hugging Face
8.8.1. Uso da Biblioteca Transformers de Hugging Face
8.8.2. Aplicação da Biblioteca Transformers de Hugging Face
8.8.3. Vantagens da Biblioteca Transformers de Hugging Face
8.9. Outras bibliotecas Transformers. Comparativa
8.9.1. Comparação entre as diferentes bibliotecas Transformers
8.9.2. Uso das diferentes bibliotecas Transformers
8.9.3. Vantagens das diferentes bibliotecas Transformers
8.10. Desenvolvimento de um aplicativo de PLN com RNN e atenção. Aplicação Prática
8.10.1. Desenvolvimento de um aplicativo de processamento de linguagem natural com RNN e atenção
8.10.2. Uso de RNN, mecanismos de atenção e modelos Transformers no aplicativo
8.10.3. Avaliação da aplicação prática
Módulo 9. Autoencoders, GANs e Modelos de Difusão
9.1. Representação de dados eficientes
9.1.1. Redução da dimensionalidade
9.1.2. Aprendizagem Profunda
9.1.3. Representações compactas
9.2. Realização de PCA com um codificador automático linear incompleto
9.2.1. Processo de treinamento
9.2.2. Implementação em Python
9.2.3. Utilização de dados de teste
9.3. Codificadores automáticos empilhados
9.3.1. Redes neurais profundas
9.3.2. Construção de arquiteturas de codificação
9.3.3. Uso da regularização
9.4. Autoencoders convolucionais
9.4.1. Design de modelos convolucionais
9.4.2. Treinamento de modelos convolucionais
9.4.3. Avaliação de resultados
9.5. Eliminação de ruído de codificadores automáticos
9.5.1. Aplicação de filtros
9.5.2. Design de modelos de codificação
9.5.3. Uso de técnicas de regularização
9.6. Codificadores automáticos dispersos
9.6.1. Aumentando a eficiência da codificação
9.6.2. Minimizando o número de parâmetros
9.6.3. Utilização de técnicas de regularização
9.7. Codificadores automáticos variacionais
9.7.1. Utilização de otimização variacional
9.7.2. Aprendizagem profunda não supervisionada
9.7.3. Representações latentes profundas
9.8. Geração de imagens MNIST de moda
9.8.1. Reconhecimento de padrões
9.8.2. Geração de imagens
9.8.3. Treinamento de Redes Neurais Profundas
9.9. Redes adversárias generativas e modelos de difusão
9.9.1. Geração de conteúdo a partir de imagens
9.9.2. Modelagem de distribuições de dados
9.9.3. Uso de redes adversárias
9.10. Implementação dos Modelos. Aplicação Prática
9.10.1. Implementação dos modelos
9.10.2. Uso de dados reais
9.10.3. Avaliação de resultados
Módulo 10. Reinforcement Learning
10.1. Otimização de recompensas e busca de políticas
10.1.1. Algoritmos de otimização de recompensas
10.1.2. Processos de busca de políticas
10.1.3. Aprendizagem por reforço para otimizar recompensas
10.2. OpenAI
10.2.1. Ambiente OpenAI Gym
10.2.2. Criação de ambientes OpenAI
10.2.3. Algoritmos de aprendizado por reforço na OpenAI
10.3. Políticas de redes neurais
10.3.1. Redes neurais convolucionais para busca de políticas
10.3.2. Políticas de aprendizagem profunda
10.3.3. Extensão de políticas de redes neurais
10.4. Avaliação de ações: o problema da atribuição de créditos
10.4.1. Análise de risco para atribuição de créditos
10.4.2. Estimativa de rentabilidade de empréstimos
10.4.3. Modelos de avaliação de crédito baseados em redes neurais
10.5. Gradientes de Política
10.5.1. Aprendizagem por reforço com gradientes de política
10.5.2. Otimização de gradientes de política
10.5.3. Algoritmos de gradientes de política
10.6. Processos de decisão de Markov
10.6.1. Otimização de processos de decisão de Markov
10.6.2. Aprendizagem por reforço para processos de decisão de Markov
10.6.3. Modelos de processos de decisão de Markov
10.7. Aprendizagem de diferenças temporais e Q-Learning
10.7.1. Aplicação de diferenças temporais na aprendizagem
10.7.2. Aplicação da Q-Learning em aprendizagem
10.7.3. Otimização de parâmetros de Q-Learning
10.8. Implementar Deep Q-Learning e variantes de Deep Q-Learning
10.8.1. Construção de redes neurais profundas para Deep Q-Learning
10.8.2. Implementação do Deep Q- Learning
10.8.3. Variações do Deep Q- Learning
10.9. Algoritmos de Reinforment Learning
10.9.1. Algoritmos de Aprendizagem por Reforço
10.9.2. Algoritmos de Aprendizagem por Recompensa
10.9.3. Algoritmos de Aprendizagem por Castigo
10.10. Projeto de um Ambiente de aprendizagem por reforço. Aplicação Prática
10.10.1. Projeto de um Ambiente de aprendizagem por reforço
10.10.2. Implementação de um algoritmo de aprendizagem por reforço
10.10.3. Avaliação de um Algoritmo de aprendizagem por reforço
Você poderá estudar no conforto do seu lar e atualizar seus conhecimentos de forma online com a TECH, a maior Universidade Digital do mundo”