23
Inteligencia Artificial (W0I9) Sesión: 5 MSc. Ing. José C. Benítez P. Red Adaline

Utp ia_2014-2_s5_adaline

Embed Size (px)

Citation preview

Page 1: Utp ia_2014-2_s5_adaline

Inteligencia Artificial

(W0I9)

Sesión: 5

MSc. Ing. José C. Benítez P.

Red Adaline

Page 2: Utp ia_2014-2_s5_adaline

2

Adaline

� Características.

� Regla de Aprendizaje (LMS). Regla Delta.

� Aplicaciones.

� Clasificación de vectores.

� Tratamiento de Señales.

� Madaline.

Page 3: Utp ia_2014-2_s5_adaline

3

Adaline Características

� En 1960, en la Universidad de Stanford, Bernard

Widrow y Marcian Hoff, introdujeron la red ADALINE

(ADAptive LInear Neuron – ADAptive LINear Element) y

una regla de aprendizaje que llamaron LMS (Least

mean square).

� La adaline es similar al perceptron, sólo que su función

de transferencia es lineal, en lugar del escalón.

� Igual que el perceptrón, sólo puede resolver

problemas linealmente separables.

� ADALINE: ADAptive LINear Element.

� ADALINE: Una única neurona de salida

� MADALINE: Multiple ADALINE

Page 4: Utp ia_2014-2_s5_adaline

4

Adaline Características

Objetivo:� Aplicar los principios de aprendizaje del rendimiento a redes

lineales de una sola capa.

� El aprendizaje Widrow-Hoff es una aproximación del

algoritmo del Descenso por gradiente, en el cual el índice de

rendimiento es el error cuadrático medio.

Importancia del algoritmo:� Se usa ampliamente en aplicaciones de procesamiento de

señales.

� Es el precursor del algoritmo Backpropagation para redes

multicapas.

Page 5: Utp ia_2014-2_s5_adaline

5

Adaline Características

Algoritmo LMS:� Es más poderoso que la regla de aprendizaje del perceptron.

� La regla de aprendizaje del perceptron garantiza convergencia a una

solución que clasifica correctamente los patrones de entrenamiento. Esa

red es sensible al ruido, debido a que los patrones con frecuencia están

muy cerca de las fronteras de decisión.

� El algoritmo LMS minimiza el error cuadrático medio, desplaza las fronteras

de decisión lejos de los patrones de entrenamiento.

� El algoritmo LMS tiene más aplicaciones prácticas que la regla de

aprendizaje del perceptron, especialmente en el procesamiento digital de

señales, como por ejemplo, para cancelar echo en líneas telefónicas de

larga distancia.

� La aplicación de este algoritmo a redes multicapas no prosperó por lo que

Widrow se dedicó a trabajar en el campo del procesamiento digital

adaptativo, y en 1980 comenzó su investigación con la aplicación de las

Redes al control adaptativo, usando backpropagation temporal,

descendiente del LMS.

Page 6: Utp ia_2014-2_s5_adaline

6

Adaline Características

• Tipo de aprendizaje: Supervisado (OFF Line).

• Tipo de aprendizaje: por corrección de error.

• Algoritmo de aprendizaje: Regla del Mínimo Error

Cuadrático Medio (LMS), o regla Delta, o regla de

Widrow-Hoff

• Función de transferencia: lineal (purelin).

• Procesamiento de información analógica, tanto de

entrada como de salida, utilizando una función de

Activación Lineal o Sigmoidal.

• También puede resolver problemas LS.

Page 7: Utp ia_2014-2_s5_adaline

7

Adaline

� Es aplicada a estructuras Lineales:

Idea:

Modificación de Pesos para tratar de reducir la diferencia entre la

salida deseada y la actual (para cada patrón).

� Se denomina LMS (Least mean squares): Minimo Error

Cuadrático Medio sobre todos los patrones de entrenamiento.

Page 8: Utp ia_2014-2_s5_adaline

8

AdalineCálculo de Pesos ÓptimosSea el conjunto de entrenamiento:

(X,D): Patrones de entrada y salidas deseadas.

X : Conjunto de L vectores de dimensión n.

D: Salida Deseada.

Conjunto de L vectores de dimensión m (en este caso m=1).

Y: Salida Obtenida

Conjunto de L vectores de dimensión m ( en este caso m=1).

Se trata de minimizar: Sea Yk la salida obtenida para el patrón k.

Page 9: Utp ia_2014-2_s5_adaline

9

Adaline

Page 10: Utp ia_2014-2_s5_adaline

10

Adaline

Page 11: Utp ia_2014-2_s5_adaline

11

Adaline

Cálculo de W*: Método de Gradiente Descendente.

Diferentes Métodos:

� Buscar por todo el espacio de pesos hasta

encontrar los que hiciesen el error mínimo.

� Realizar una búsqueda aleatoria.

� Realizar una búsqueda Dirigida.

Método:

� Se inicializan los pesos aleatoriamente (pto. de

partida).

� Se determina, la dirección de la pendiente más

pronunciada en dirección hacia abajo.

� Se modifican los pesos para encontrarnos un

poco más abajo en la superficie.

Page 12: Utp ia_2014-2_s5_adaline

12

Adaline

Page 13: Utp ia_2014-2_s5_adaline

13

Adaline

Page 14: Utp ia_2014-2_s5_adaline

14

Adaline

Algoritmo:

1. Inicialización de pesos.

2. Se aplica un patrón de entrada (entradas y salida deseada).

3. Se computa la salida lineal que se obtiene de la red.

4. Se calcula el error cometido para dicho patrón.

5. Se actualizan las conexiones mediante la ecuación obtenida anteriormente.

6. Se repiten los pasos del 2 al 5 para todos los patrones de entrenamiento.

7. Si el error cuadrático medio es un valor reducido aceptable, termina el proceso. Sino se vuelve al paso 2.

Page 15: Utp ia_2014-2_s5_adaline

15

Adaline

Aplicaciones:

� La principal aplicación de las redes tipo Adaline se encuentra

en el campo de procesamiento de señales. Concretamente

en el diseño de filtros capaces de eliminar ruido en señales

portadoras de información.

� Otra aplicación es la de los filtros adaptativos: Predecir el

valor futuro de una señal a partir de su valor actual.

Page 16: Utp ia_2014-2_s5_adaline

16

Adaline

CONCLUSIONES

� Una simple capa de PE lineales pueden realizar

aproximaciones a funciones lineales o asociación de

patrones.

� Una simple capa de PE lineales puede ser entrenada

con algoritmo LMS.

� Relaciones No Lineales entre entradas y salidas no

pueden ser representadas exactamente por redes

lineales. Dichas redes harán aproximaciones lineales.

Otro tipo de redes abordarán la resolución de

problemas no lineales.

Page 17: Utp ia_2014-2_s5_adaline

17

Regla del Perceptron (Rosenblatt)

� Supongamos un PE con una función de transferencia del tipo Hardlimiter y en donde las entradas son binarias o bipolares (mismo que Adaline pero con esas restricciones).

� La regla que rige el cambio de pesos es:

� Wi(t+1) = Wi(t) Si la salida es correcta.

� Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1.

� Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1.

� Sobre la regla anterior se han realizado diferentes modificaciones:

Page 18: Utp ia_2014-2_s5_adaline

18

Regla del Perceptron (Rosenblatt)

� A)

� Wi(t+1) = Wi(t) Si la salida es correcta.

� Wi(t+1) = Wi(t) + µXi(t) Si la salida = -1 y debería de ser 1.

� Wi(t+1) = Wi(t) - µXi(t) Si la salida = 1 y debería de ser -1.

Con µ [0,1], término de control de ganancia y velocidad de aprendizaje.

� B) Otra de las modificaciones propuestas fue sugerida por Widrow and Hoff. Ellos propusieron una regla basada en la regla Delta. (Es la más utilizada).

Tomando las entradas y salidas como bipolares tenemos que el cambio en los pesos se produce de la manera siguiente:

Page 19: Utp ia_2014-2_s5_adaline

19

Regla del Perceptron (Rosenblatt)

Page 20: Utp ia_2014-2_s5_adaline

20

Regla del Perceptron (Rosenblatt)

Page 21: Utp ia_2014-2_s5_adaline

Resumen

Las Tareas que no cumplan las

indicaciones no serán consideradospor el profesor.

21

� Realizar un resumen mediante mapas conceptuales (CMapTools)

de esta diapositiva.

� Serán mejor consideradas los resúmenes que tengan información

extra a esta diapositiva.

� Las fuentes adicionales utilizadas en el resumen se presentarán

en su carpeta personal del Dropbox y deben conservar el nombre

original y agregar al final _S5.

� Las fuentes y los archivos *.cmap deben colocarse dentro de su

carpeta personal del Dropbox, dentro de una carpeta de nombre:

IA_PaternoM_S5

Page 22: Utp ia_2014-2_s5_adaline

Preguntas

El resumen con mapas conceptuales solicitado de la Sesión al

menos debe responder las siguientes preguntas:

1. ¿Cuáles son las características de la red Adaline?

2. Describir el algoritmo de aprendizaje de la red Adaline.

3. Comparar las características del Perceptron y de Adaline.

4. Comparar la regla de aprendizaje del Perceptron y de Adaline.

5. Listar cinco aplicaciones de las redes Adaline/Madaline.

22

Page 23: Utp ia_2014-2_s5_adaline

23

Sesión 5. Redes Adaline

Inteligencia Artificial

http://utpiayse.blogspot.com