Programa do Curso
DIA 1 - REDES NEURONAIS ARTIFICIAIS
Introdução e estrutura das RNA.
- [Neurónios lógicos e neurónios artificiais.
- Modelo de uma RNA.
- Funções de ativação utilizadas em RNAs.
- Classes típicas de arquitecturas de redes.
[Fundamentos e mecanismos de aprendizagem.
- Revisitar a álgebra vetorial e matricial.
- Conceitos de espaço de estados.
- Conceitos de otimização.
- Aprendizagem por correção de erros.
- Aprendizagem baseada na memória.
- Aprendizagem Hebbiana.
- Aprendizagem competitiva.
Perceptrões de camada única.
- Estrutura e aprendizagem dos perceptrões.
- Classificador de padrões - introdução e classificadores de Bayes.
- O perceptrão como classificador de padrões.
- Convergência do perceptron.
- Limitações de um perceptron.
RNA de alimentação.
- Estruturas das redes feedforward multicamadas.
- Algoritmo de retropropagação.
- Propagação inversa - formação e convergência.
- Aproximação funcional com propagação inversa.
- Questões práticas e de conceção da aprendizagem por retropropagação.
Redes de funções de base radial.
- Separabilidade de padrões e interpolação.
- Teoria da regularização.
- Regularização e redes RBF.
- Projeto e treino de redes RBF.
- Propriedades de aproximação da RBF.
Aprendizagem competitiva e ANN auto-organizáveis.
- Procedimentos gerais de agrupamento.
- Quantização de vectores de aprendizagem (LVQ).
- Algoritmos e arquitecturas de aprendizagem competitiva.
- Mapas de características auto-organizáveis.
- Propriedades dos mapas de características.
Fuzzy Neural Networks.
- Sistemas neuro-fuzzy.
- Contexto dos conjuntos e da lógica difusa.
- Conceção de hastes difusas.
- Conceção de RNAs fuzzy.
Aplicações
- Serão discutidos alguns exemplos de aplicações de redes neuronais, as suas vantagens e problemas.
DIA -2 APRENDIZAGEM DE MÁQUINAS
- O quadro de aprendizagem PAC
- Garantias para um conjunto de hipóteses finito - caso consistente
- Garantias para um conjunto de hipóteses finito - caso inconsistente
- Generalidades
- Cenários determinísticos Cenários estocásticos
- Ruído do erro de Bayes
- Erros de estimativa e de aproximação
- Seleção de modelos
- Radmeacher Complexidade e VC - Dimensão
- Desvio - Desvio de variância
- Regularização
- Sobreajuste
- Validação
- Máquinas de vectores de suporte
- Kriging (regressão por processo gaussiano)
- PCA e Kernel PCA
- Mapas de auto-organização (SOM)
- Espaço vetorial induzido por Kernel
- Kernels de Mercer e métricas de similaridade induzidas por Kernel
- Reinforcement Learning
DIA 3 - APRENDIZAGEM PROFUNDA
Este dia será leccionado em relação aos tópicos abordados no Dia 1 e no Dia 2
- Regressão Logística e Softmax
- Autoencodificadores esparsos
- Vectorização, PCA e Whitening
- Aprendizagem autodidata
- Redes profundas
- Descodificadores lineares
- Convolução e Pooling
- Codificação esparsa
- Análise de componentes independentes
- Análise de correlação canónica
- Demonstrações e aplicações
Requisitos
Compreensão Good de matemática.
[Conhecimentos básicos de estatística.
Não são necessárias competências básicas de programação, mas são recomendadas.
Declaração de Clientes (2)
Working from first principles in a focused way, and moving to applying case studies within the same day
Maggie Webb - Department of Jobs, Regions, and Precincts
Curso - Artificial Neural Networks, Machine Learning, Deep Thinking
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.