Aula 2511
Aula 2511
Redes Neurais
– Corpo celular
– Dendritos
– Axônio
– Terminais sinápticos
Funcionamento de um Neurônio
• Por meio dos dentritos, o neurônio recebe sinais de outros
neurônios a ele conectados por meio das sinapses.
X1 W1
W2
X2
. n n
. w x i i
1 if w x
i 0
i i 0
i 0
. Wn
Xn 1 otherwise
Rede de Perceptrons
Valores de Saída
Camada de Saída
Pesos Ajustaveis
Camada de Entrada
Sinais de entrada
Aprendizado de Perceptrons
• Para que um perceptron possa aprender uma função deve-se
mudar o valor dos pesos ajustáveis por uma quantidade
proporcional a diferença entre a saída desejada e atual saída
do sistema.
Saída desejada: t
wi wi wi
x1 x2 ... xn o
wi (t o) xi x1 x2 ... xn t
• t = saída desejada.
• o = atual saída do perceptron.
• = Learning rate.
Aprendizado de Perceptrons
• Regra de aprendizado:
wi wi wi
wi (t o) xi
1 0 0 B -0.1
1 1 1
1 0 0 B 0.0
1 1 1
1 0 0 B 0.1
1 1 1
Camada de Saída
Camadas Ocultas
Camada de Entrada
Redes Multicamadas
• Adicionar uma camada oculta a
rede permite que a rede possa
gerar uma função de convex
hull.
– Sigmoidal:
n
1
y f h w0 1 wi xi ; p h
i 1 1 e p
– Radial (Gausiana):
h2
n
1
y f h ( xi wi ) ; w0
2
e 2 2
i 1 2
Redes Multicamadas
• Unidade Sigmoid
X1 W1
W2
X2
. n
. net wi xi o (net )
1
h
. Wn i 0 1 e p
Xn
Função Sigmoidal
1
f i (neti (t ))
1 e ( neti ( t ) ) /
0.1
-1 1
Função Sigmoidal
1
f i (neti (t ))
1 e ( neti ( t ) ) /
1
-1 1
Backpropagation
• Aprende os pesos para uma rede multicamadas,
dada uma rede com um número fixo de unidades e
interconexões.
• O
“ algoritmo backpropagation emprega a descida do gradiente
para minimizar o erro quadrático entre a saída da rede e os
valores alvos para estas saídas.