Aula07 RedesNeurais
Aula07 RedesNeurais
Sistema Nervoso
2
O que é?
É um conjunto complexo de células que
determina o funcionamento e
comportamento dos seres vivos
Engloba o cérebro
Neurônio artificial
Modelo matemático de um neurônio
biológico
Proposto inicialmente por McCulloch & Pitts
(1943)
É uma aproximação útil de um neurônio real
Neurônio Artificial
13
Estrutura básica
Os dendritos são modelados como uma
linha ou canal de transmissão por onde flui
a informação de entrada (xi, i=1, ..., p)
Neurônio Artificial
14
Estrutura básica
A força das conexões sinápticas dos
dendritos é modelada como um fator (peso
sináptico), cujo papel é modular o fluxo de
sinais passando por eles (wi, i=1, ..., p)
Neurônio Artificial
15
Estrutura básica
O corpo celular realiza o acúmulo
energético
Somatório das entradas moduladas pelos pesos
sinápticos: u = x1*w1 + x2*w2 + ... + xp*wp –
ϴ
ϴ : limiar (bias)
Neurônio Artificial
16
Estrutura básica
O axônio funciona como uma função de
ativação (chave ON-OFF)
Indica se o neurônio respondeu ao estímulo
atual
Indica se houve ou não o envio de um potencial
de ação
Aprendizado
Paradigmas de aprendizado
Algoritmos de aprendizado
Conceitos Básicos
18
Unidades de Processamento
Diferentes tipos de neurônios
Estáticosou Dinâmicos
Atemporais ou Temporais
Lineares ou Não Lineares
Conceitos Básicos
19
Topologia
Diferentes quantidades de camadas
Uma camada: Perceptron, Adaline
Multi-camadas: Multi Layer Perceptron (MLP),
Funções de Base Radial (RBF)
Conceitos Básicos
20
Topologia
Diferentes arranjos das conexões
Redesfeedforward: não existem loops de
conexões. É o tipo mais comum
Conceitos Básicos
21
Topologia
Diferentes arranjos das conexões
Redes recorrentes: conexões apresentam loops,
isto é, possuem conexões ligando neurônios de
uma camada a neurônios de camada(s)
anterior(es)
Podem “lembrar” excitações passadas
Conceitos Básicos
22
Topologia
Diferentes arranjos das conexões
Redes em mapas (ou grades): matriz n-
dimensional de neurônios, com relação de
vizinhança espacial
Conceitos Básicos
23
Paradigmas de aprendizado
Indicam como a RNA se relaciona com o
ambiente externo
Principais Paradigmas
Supervisionado
Não supervisionado
Reforço
Conceitos Básicos
24
Algoritmos de aprendizado
Conjunto de regras bem definidas usadas
para ensinar a rede a resolver um certo
problema
Algumas das principais categorias
Correção de Erro
Competitivo
Hebbiano
Regra de Aprendizado
Fornecem a base para o entendimento dos
métodos de treinamento para redes
formadas por várias unidades
Consiste na modificação dos pesos e do
limiar do neurônio
Até que ele resolva o problema de interesse
Ou até que o período de aprendizagem tenha
terminado
Rede Perceptron Simples
28
Regra de Aprendizado
Pesos são inicializados aleatoriamente
Pesos são então ajustados sempre que a
rede classifica equivocadamente um
exemplo de treinamento
Esse processo se repete até que um
determinado critério de parada seja
alcançado
Rede Perceptron Simples
29
Regra de Aprendizado
É um classificador linear ótimo
Sua regra de aprendizagem conduz à
minimização de uma função-custo
Tenta encontrar a melhor fronteira linear que
separa os dados
Possível função-custo
Quantificar a probabilidade média de erros de
classificação
Buscamos minimizar o erro de classificação dos
dados de entrada
Rede Perceptron Simples
30
Treinamento
Treinamento supervisionado
Padrões desejados de saída d
Dado um padrão de entrada x = [x1, ... xp]
tem-se a correção de erro para cada peso (wi,
i=1, ..., p)
w (t+1)
i = wi(t) + ∆wi(t)
Onde
w (t): peso atual
i
Algoritmo de Treinamento
Iniciar todos os pesos wi
Repita
Para cada par de treinamento (x, d)
Calcular a saída y
Se (d ≠ y) Então
Atualizar os pesos dos neurônios
Algoritmo de backpropagation
Uma das mais populares técnicas de
aprendizado para redes MLP
Envolve dois sentidos de propagação de
sinais na rede
Sentido direto (forward)
Sentido inverso (backward)
Backpropagation
49
Algoritmo de backpropagation
Sentido direto (forward):
Cálculo da saída e do erro
Sentido inverso (backward)
Propagação do erro
Envolve o cálculo de derivadas
Backpropagation
50
Propagação do erro
A idéia básica é propagar o sinal de erro
calculado na etapa de treinamento de volta
para todos os neurônios
Coeficientes dos pesos utilizados para propagar
os erros para trás são iguais aos utilizados
durante o cálculo de valor de saída
Apenas a direção do fluxo de dados é alterado
Esta técnica é aplicada em todas as camadas
de rede
Backpropagation
51
Propagação do erro
Sinal de erro é calculado para cada
neurônio
Seuscoeficientes de peso podem ser
modificados
Problema
Derivadas demandam funções
diferenciáveis
Funçõesde ativação dos neurônios
intermediários são descontínuas
Solução
Funções de ativação contínuas
Utilizar aproximações das funções de ativação
Backpropagation
53
Função de ativação
A função de ativação do neurônio artificial é
do tipo Degrau
Não-linearidade dura ou hard
A saída é uma variável do tipo ON-OFF (binária
[0,1] ou bipolar [-1,+1])
Substituímos ela por uma função de ativação
do tipo Sigmoidal
Não-linearidade suave ou soft
A sáida passa a ser uma variável do tipo Real ou
Analógica (qualquer valor entre [0,1] ou [-1,+1])
Backpropagation
54
Função de ativação
Sigmóide Logística
Backpropagation
56
Função de ativação
Tangente Hiperbólica
Backpropagation
57
Overfitting (sobreajustamento)
A partir de um certo ponto do treinamento,
o desempenho da rede piora ao invés de
melhorar
A rede se especializa nos padrões de
treinamento, incluindo suas peculiaridades
Piora a sua capacidade de generalização
Incapacita a rede de reconhecer dados
diferentes dos usados no seu treinamento
Problemas no aprendizado
60
Overfitting (sobreajustamento)
O que fazer nesse caso?
Podemos encerrar treinamento mais cedo
(early stop)
Fazer a poda de conexões e neurônios
irrelevantes (pruning)
Penalizar os valores dos pesos (weight decay)
Problemas no aprendizado
61
Underfitting (subajustamento)
Arquitetura da rede tem poucos parâmetros
O modelo é muito simples
Falta de representatividade das classes
É possível que a rede sequer aprenda o padrão
Baixa capacidade de generalização
Pode-se resolver esse tipo de problema com
um conjunto de treinamento de bom
tamanho
Técnicas de amostragem ajudam
Atualização dos pesos da
62
rede
Existem diversas abordagens para a
atualização dos pesos da rede
Por ciclo (batelada ou batch)
Por padrão (sequencial ou on-line)
Desvantagem
Mais lento
Atualização dos pesos da
64
rede
Por padrão (sequencial ou on-line)
Atualiza os pesos após apresentação de
cada padrão em ordem aleatória
Vantagens
Requer menos memória
Mais rápido
Menos susceptível a mínimos locais
Desvantagens
Podese tornar instável
Requer controle da taxa de aprendizado
Redes RBF
65
Resposta Radial
Presentes em alguns tipos de células
nervosas
Células auditivas possuem maior sensibilidade
a frequências próximas a um determinado tom
Células da retina maior sensibilidade a
excitações luminosas próximas ao centro do
seu campo receptivo
Modelo matemático
Função de Base Radial
Modelo do neurônio RBF
69
Multi-Quadrática Inversa
Chapéu Mexicano
Modelo do neurônio RBF
70
Gaussiana
Modelo do neurônio RBF
71
Multi-Quadrática Inversa
Modelo do neurônio RBF
72
Chapéu Mexicano
Modelo do neurônio RBF
73
Entrada Saída
Função de base
radial
Histórico
74
Redes Hopfield
Modelo de redes neurais auto-associativas
desenvolvidas por J. Hopfield em 1982
Motivação
Sistemas físicos com um grande nº de
elementos
Interaçõesentre estes geram fenômenos
coletivos estáveis
Redes que possuem neurônios que
interagem entre si podem levar a
fenômenos coletivos equivalentes?
Sistemas de neurônios conectados possuem
estados estáveis que são atingidos quando a
rede é estimulada por estados similares
Redes Hopfield
85
Características
Possui uma única
camada de neurônios
totalmente conectada
Utiliza neurônios do tipo
MCP (McCulloch-Pitts)
Unidadede
processamento com saída
em {-1, +1}
Estrutura recorrente
Com feedback
Redes Hopfield
86
Características
Unidades são ao mesmo
tempo de entrada e de
saída
Conjunto de saídas
define o “estado” da
rede
Funcionamento
assíncrono
Redes Hopfield
87
Funcionamento assíncrono
Em um determinado instante de tempo
apenas uma unidade da rede é escolhida
para mudar de estado
Esse processo se repete até que a rede
encontre um ponto de equilíbrio estável
A saída de cada unidade da rede se mantém
constante
Redes Hopfield
88
Funcionamento básico
Etapa de treinamento
A rede memoriza os padrões
Etapa de uso
A rede irá passar por uma sequência de
ativações intermediárias até se estabilizar em
um padrão previamente treinado
Redes Hopfield
89
Funcionamento básico
Etapa de treinamento
Etapa de uso
Redes Hopfield
90
Aplicações
Regeneração de padrões
Redes Hopfield
91
Aplicações
Completar um padrão conhecido
Agradecimentos
92