neurona and
TRANSCRIPT
-
8/9/2019 Neurona And
1/16
-
8/9/2019 Neurona And
2/16
Un perceptron(2 entradas, 1 salida)
p1
p2
sa
Salida
Entradas
w11
w12
Pesos sinpticosbiasw = 1
-
8/9/2019 Neurona And
3/16
Un perceptron(2 entradas, 1 salida)
p1
p2
sa
Salida
Entradas
s=(w11
*p1+w
12*p
2)+bias
w11
w12
Pesos sinpticosbiasw = 1
-
8/9/2019 Neurona And
4/16
Un perceptron(2 entradas, 1 salida)
x1
x2 sn a
Salida
Entradas
w11
w12
a=hardlim(s)
1 si s > 0hardlim: a = 0 si s =< 0
Pesos sinpticosbiasw = 1
-
8/9/2019 Neurona And
5/16
Un perceptron(2 entradas, 1 salida)
x1
x2 sn a
Salida
Entradas
w11
w12
Entonces cul es el problema ?????Encontrar valores para W
11 y
W12
y para b
Pesos sinpticosbiasw = 1
-
8/9/2019 Neurona And
6/16
Relaciones grficas
x1
x2
e1(0,0)
e2(0,1)
e4(1,1)
-
8/9/2019 Neurona And
7/16
Relaciones grficas
x1
x2
e1(0,0)
e2(0,1)
e4(1,1)
-
8/9/2019 Neurona And
8/16
Relaciones grficas
x1
x2
e1(0,0)
e2(0,1)
e4(1,1)
e3(1,0)
x = - bias / w1,1
-
8/9/2019 Neurona And
9/16
Relaciones grficas
x1
x2
e1(0,0)
e2(0,1)
e4(1,1)
e3(1,0)
x = - bias / w1,1
y = - bias / w1,2
-
8/9/2019 Neurona And
10/16
Relaciones grficas
x1
x2
e1(0,0)
e2(0,1)
e4(1,1)
e3(1,0)
x = - bias / w1,1
y = - bias / w1,2
-
8/9/2019 Neurona And
11/16
Relaciones grficas
x1
x2
e1(0,0)
e2(0,1)
e4(1,1)
e3(1,0)
x = - bias / w1,1
y = - bias / w1,2
-
8/9/2019 Neurona And
12/16
Relaciones grficas
x1
x2
e1(0,0)
e2(0,1)
e4(1,1)
e3(1,0)
Relaciones grficas
Conjunto infinito desoluciones
-
8/9/2019 Neurona And
13/16
Recordando la Funcin OR
x1
x2
e1(0,0)
e2(0,1)
e4(1,1)
e3(1,0)
p1 p2 t
e1 0 0 0
e2 0 1 1
e3 1 0 1
e4 1 1 1
-
8/9/2019 Neurona And
14/16
Las etapas de un NA
Una neurona tiene dos etapas:
Entrenamiento
Operacin
El entrenamiento consiste en encontrar valorespara los pesos sinpticos W y para la ganancia b.
La operacin consiste en aplicar a la red datos deentrada y generar los valores de salida.
-
8/9/2019 Neurona And
15/16
Algoritmo de entrenamiento delperceptron AND
1. Asignar valores aleatorios a los W iniciales
2.Recorrer para para cada uno de los estados. (en AND hay 4estados)
3.Calcular funcin de propagacin: s = (W*P) + b
4. Calcular funcin de activacin: a = hardlim(s)
5.Calcular el error sobre el valor deseado: e = t - a
6. Aplicar el error sobre la entrada: d = e * P
7. Aplicar d sobre W: Wnuevo
= Wanterior
+ d
8. Aplicar el error sobre b: bnuevo
= banterior
+ e
9.Repetir desde el item 2 hasta que todos los estados sean correctos.
-
8/9/2019 Neurona And
16/16
Entrenando el perceptron para OR
Realizaremos el entrenamiento aplicando elalgoritmo de la diapositiva anterior en una hoja declculo.
Lo que sigue en el video se encuentra en el archivo:02 perceptron_and.xls proporcionado en el
material del curso.
NOTA IMPORTANTE: leer el material entregadopara reforzar el aprendizaje.