Programa do Curso

DIA 1 - REDES NEURONAIS ARTIFICIAIS

Introdução e estrutura das RNA.

  • [Neurónios lógicos e neurónios artificiais.
  • Modelo de uma RNA.
  • Funções de ativação utilizadas em RNAs.
  • Classes típicas de arquitecturas de redes.

[Fundamentos e mecanismos de aprendizagem.

  • Revisitar a álgebra vetorial e matricial.
  • Conceitos de espaço de estados.
  • Conceitos de otimização.
  • Aprendizagem por correção de erros.
  • Aprendizagem baseada na memória.
  • Aprendizagem Hebbiana.
  • Aprendizagem competitiva.

Perceptrões de camada única.

  • Estrutura e aprendizagem dos perceptrões.
  • Classificador de padrões - introdução e classificadores de Bayes.
  • O perceptrão como classificador de padrões.
  • Convergência do perceptron.
  • Limitações de um perceptron.

RNA de alimentação.

  • Estruturas das redes feedforward multicamadas.
  • Algoritmo de retropropagação.
  • Propagação inversa - formação e convergência.
  • Aproximação funcional com propagação inversa.
  • Questões práticas e de conceção da aprendizagem por retropropagação.

Redes de funções de base radial.

  • Separabilidade de padrões e interpolação.
  • Teoria da regularização.
  • Regularização e redes RBF.
  • Projeto e treino de redes RBF.
  • Propriedades de aproximação da RBF.

Aprendizagem competitiva e ANN auto-organizáveis.

  • Procedimentos gerais de agrupamento.
  • Quantização de vectores de aprendizagem (LVQ).
  • Algoritmos e arquitecturas de aprendizagem competitiva.
  • Mapas de características auto-organizáveis.
  • Propriedades dos mapas de características.

Fuzzy Neural Networks.

  • Sistemas neuro-fuzzy.
  • Contexto dos conjuntos e da lógica difusa.
  • Conceção de hastes difusas.
  • Conceção de RNAs fuzzy.

Aplicações

  • Serão discutidos alguns exemplos de aplicações de redes neuronais, as suas vantagens e problemas.

DIA -2 APRENDIZAGEM DE MÁQUINAS

  • O quadro de aprendizagem PAC
    • Garantias para um conjunto de hipóteses finito - caso consistente
    • Garantias para um conjunto de hipóteses finito - caso inconsistente
    • Generalidades
      • Cenários determinísticos Cenários estocásticos
      • Ruído do erro de Bayes
      • Erros de estimativa e de aproximação
      • Seleção de modelos
  • Radmeacher Complexidade e VC - Dimensão
  • Desvio - Desvio de variância
  • Regularização
  • Sobreajuste
  • Validação
  • Máquinas de vectores de suporte
  • Kriging (regressão por processo gaussiano)
  • PCA e Kernel PCA
  • Mapas de auto-organização (SOM)
  • Espaço vetorial induzido por Kernel
    • Kernels de Mercer e métricas de similaridade induzidas por Kernel
  • Reinforcement Learning

DIA 3 - APRENDIZAGEM PROFUNDA

Este dia será leccionado em relação aos tópicos abordados no Dia 1 e no Dia 2

  • Regressão Logística e Softmax
  • Autoencodificadores esparsos
  • Vectorização, PCA e Whitening
  • Aprendizagem autodidata
  • Redes profundas
  • Descodificadores lineares
  • Convolução e Pooling
  • Codificação esparsa
  • Análise de componentes independentes
  • Análise de correlação canónica
  • Demonstrações e aplicações

Requisitos

Compreensão Good de matemática.

[Conhecimentos básicos de estatística.

Não são necessárias competências básicas de programação, mas são recomendadas.

 21 Horas

Declaração de Clientes (2)

Próximas Formações Provisórias

Categorias Relacionadas