Click here to load reader

Warren McCulloch

  • View
    229

  • Download
    2

Embed Size (px)

DESCRIPTION

Warren McCulloch

Text of Warren McCulloch

  • Warren McCullochWalter PittsPor FRANCISCO MARN MIRA

  • Introduccin (I)1899: Nacimiento de Warren Sturgis McCulloch1923: Nacimiento de Walter Pitts1927: McCulloch: Doctorado en psicologa. 1943: Se propone uno de los primeros modelos matemticos de la neurona McCulloch-Pitts. A logical calculus of the ideas immanent in nervous activity1947: McCullch-Pitts. How we know universals: the perception of visual and auditory forms1949: Donald Hebb propone una de las primeras reglas de aprendizaje

  • Introduccin (II)1956: Se acua el trmino de Inteligencia Artificial1957: Frank Rosenblatt present el PerceptrnAos 60: modelos basados en el Perceptrn: Adaline y Madaline1969: Mueren McCulloch y Pitts1969: Back propagationPosteriormente, otros modelos permiten un aprendizaje no supervisado (mapa auto-organizativo de Kohonen, los basados en la Teora de Resonancia Adaptativa (ART) de Grossberg y Carpenter, o los modelos de control motor de Bullock, Gaudiano y Grossberg, entre otros)

  • Introduccin (III)McCulloch y Pitts impulsaron el nacimiento de la I.A. proponiendo la definicin de la neuronaCon estas ideas nace la ciberntica y ms tarde el trmino Inteligencia ArtificialMcCulloch y Pitts. A logical calculus of the ideas immanent in nervous activity:una Mquina de Turing podra ser implementada en una red finita de neuronas formales1947: aproximaciones para disear redes nerviosas para reconocer entradas visuales Las redes neuronales actuales se basan en el modelo de neurona descrito en este artculoCada neurona consta de un conjunto de entradas y una sola salida. Cada entrada est afectada por un coeficiente, denominado peso.La cantidad calculada como la suma del producto de cada entrada multiplicada por su respectivo peso se denomina activacin de la neurona Una de las primeras arquitecturas neuronales donde se aplica es el PerceptrnLos pesos de las neuronas se modifican sometiendo a la red a un entrenamiento, mediante una regla de aprendizaje.

  • La Inteligencia ArtificialSe puede decir que la Inteligencia Artificial empez a surgir en 1943 cuando Warren McCulloch y Walter Pitts propusieron un modelo de neurona del cerebro humano y animal, una abstraccin que proporcion una representacin simblica de la actividad cerebral. Podramos situar el origen de los modelos conexionistas con la definicin de la neurona formal dada por McCulloch y Pitts en 1943 como un dispositivo binario con varias entradas y salidas. Ms adelante, Norbert Wiener elabor con estas ideas junto con otras, dentro del mismo campo, lo que se llam ciberntica. De aqu nacera, sobre los aos 50, la Inteligencia Artificial.

  • McCulloch (I)Warren Sturgis McCulloch( 1899 - 1969 )Naci en Orange, New Jersey el 16 de Noviembre de 1899. Neurofisilogo y CibernticoEstudi en Yale (filosofa y psicologa hasta 1921) y en Columbia (psicologa, graduado en 1923). Recibiendo su doctorado en 1927 en Nueva York.

  • McCulloch (II)Recordado por su trabajo con Dusser de Barenne (en Yale) y despus con Walter Pitts (en Illinois) que posibilit la fundacin de ciertas teoras de la inteligencia en un nmero de artculos clsicos, incluyendo A logical calculus of the ideas immanent in nervous activity (1943) y How we know universals: the perception of visual and auditory forms (1947), ambos en el Bulletin of Mathematical Biophysics. En el artculo de 1943 demostraron que una Mquina de Turing podra ser implementada en una red finita de neuronas formales, donde la neurona es la unidad base lgica del cerebro. En el artculo de 1947 ofrecieron aproximaciones para disear redes nerviosas para reconocer entradas visuales a pesar de los cambios de orientacin o de tamao.

  • McCulloch (III)Desde 1952 trabaj en el Laboratorio de Investigacin de Electrnica del MIT (Instituto de Tecnologa de Massachusetts), principalmente en modelado de Redes Neuronales. Su equipo examin el sistema visual de la rana, en consideracin con el artculo de 1947, descubriendo que el ojo proporciona al cerebro informacin que es, en cierto sentido, organizada e interpretada, en vez de nicamente transmitir la imagen. McCulloch fue miembro de la American Society for Cybernetics y su primer presidente desde 1967 al 1968.

  • McCulloch (IV)Conoci a Alan Turing, que discrep con l llegando a llamarle charlatn. Warren McCulloch tiene un notable rango de intereses y talentos. A parte de sus contribuciones a la ciencia, escribi poesa (sonetos) y dise edificios y un embalse para su granja de Old Lyme, Conneticut. Muri en Cambridge en 1969.

  • Pitts (I)Walter Pitts( 1923 - 1969 )Naci en Detroit el 23 de Abril de 1923.Matemtico que trabaj en el campo de la psicologa cognitiva.Aparentemente escap de su casa a los 15 aos.Aprendi por su cuenta lgica y matemticas y era capaz de leer en numerosos lenguajes, incluyendo Griego y Latin.

  • Pitts (II)Con 12 aos pas tres dias en una biblioteca leyendo Principia Mathematica y mand una carta a Bertrand Russell indicandole lo que l consideraba problemas serios en la primera mitad del primer volumen. Russell se mostr agradecido y le invit a estudiar en el Reino Unido. Aunque esta oferta fue aparentemente rechazada, Pitts decidi estudiar lgica. Acudi a clases de la Universidad de Chicago, sin inscribirse como estudiante. Obtuvo un trabajo en la universidad gracias a un filsofo alemn (Rudolf Carnap) al que le present su propio libro de lgica lleno de correcciones. Pitts por ese tiempo no tena hogar ni ningn ingreso.

  • Pitts (III)Ms tarde Warren McCulloch lleg a la Universidad y, a principios de 1942, invit a Pitts, que segua sin hogar, a vivir con su familia.McCulloch y Pitts trabajaban juntos. Pitts estaba familiarizado con el trabajo en informtica de Gottfried Leibniz y consideraron la cuestin de si el sistema nervioso poda ser considerado un tipo de maquina de computacin universal, como la describida por Leibniz. Esto llev a su determinante artculo de redes neuronales A Logical Calculus of Ideas Immanent in Nervous Activity.En 1943, Jerome Lettvin, con el que Pitts obtuvo una gran amistad en la universidad, le present a Norbert Wiener en el MIT, quien haba perdido a su mano derecha. Su primer encuentro, en el que estuvieron discutiendo el trabajo de Wiener, fue tan bien que Pitts se traslad a Boston para trabajar con Wiener. En 1944 Pitts fue contratado por Kellex Corp., parte del Proyecto de Energa Atmica.

  • Pitts (IV)En 1951 Wiener convenci a Jerry Wiesner para contratar algunos cientficos del sistema nervioso. Un grupo fue estrablecido con Pitts, Lettvin, McCulloch y Pat Wall. Pitts escribi una larga tesis de las propiedades de las redes neuronales conectadas en tres dimensiones. Lettvin le describi como el genio del grupo. Pitts tambin es descrito como un excntrico, negando que su nombre se hiciese pblico. Rechaz todas las ofertas de graduados avanzados o posiciones oficiales en el MIT ya que tendra que firmar con su nombre.

  • Pitts (V)Wiener inesperadamente se puso en contra de McCulloch, a cuenta de su mujer que odiaba a McCulloch, y separ las relaciones con cualquiera que estubiese relacionado con l, incluido Pitts. Esto empuj a Pitts a un suicidio cognitivo, un aislamiento social del que nunca se recuperara. Pitts quem el manuscrito sobre las redes tridimensionales y prest poco ms inters en el trabajo. La nica excepcin fu una colaboracin con Robert Gesteland que produjo un artculo sobre el olfato.

    Pitts muri en 1969.

    El modelo matemtico de una neurona se llama actualmente la neurona de McCulloch-Pitts. La formulacin terica de la actividad neuronal del cerebro es el legado permanente de Walter Pitts y Warren McCullch a las ciencias cognitivas.

  • La Neurona McCulloch-Pitts (I)McCulloch y Pitts propusieron en 1943 uno de los primeros modelos matemticos de una neurona, del que se basan las redes neuronales actuales. En este modelo, cada neurona consta de un conjunto de entradas, Si, y una sola salida Sj. Cada entrada i est afectada por un coeficiente que se denomina peso y que se representa por wij. El subndice i refleja que el peso afecta a la entrada i, y el subndice j que se trata de la neurona j. La cantidad calculada como la suma del producto de cada entrada multiplicada por su respectivo peso se denomina activacin de la neurona xj. La salida Sj de la neurona es una funcin de la activacin de sta. Es decir:xj = Si*wij + QjSj = f(xj) Donde el trmino Qj es un valor umbral y f(xj) es una funcin de la activacin de la neurona.

  • La Neurona McCulloch-Pitts (II)Una de las primeras arquitecturas neuronales donde se aplica es el Perceptrn, que utiliza la siguiente funcin de salida: Sj=0si xj < h Sj=1si xj>=h donde la constante h se denomina umbral. Esta es una funcin de salida de tipo binaria, y existen otras de tipo lineal puro, lineal con umbral, y sigmoidea, entre otras.

  • La Neurona McCulloch-Pitts (III)En este modelo tan sencillo puede verse que la activacin de la neurona depende del valor que tomen los pesos y las entradas, de forma que la variacin de stos origina distintas salidas para la misma entrada a la neurona. En la prctica, los pesos de las neuronas se modifican sometiendo a la red a un entrenamiento, permitiendo que la red realice una funcin determinada. Esta es la caracterstica que diferencia a una red neuronal de una mquina algortmica clsica: una red neuronal no se programa, se educa. La red es capaz de retener y asociar el conocimiento a travs de la adaptacin de los pesos de las neuronas siguiendo una regla de aprendizaje. Estas reglas son ecuaciones expresadas en funcin de las entradas y salidas de las neuronas y describen la forma de variacin de los pesos. En definitiva, son el instrumento empleado por las neuronas para adaptarse a la informacin que se le presenta.

  • La Neurona McCulloch-Pitts (IV)El aprendizaje de una red se puede producir de tres formas: Aprendizaje supervisado: consiste en introducir una serie de patrones de entrada a la red y a su vez mostrar la salida que se quiere tener. La red es capaz de ajustar los pesos de las neuronas de forma que a la presentacin posterior de esos patrones de entrada la red responde con salida memorizada. Aprendizaje no supervisado: se presentan los patrones de entrada a la red y sta los clasifica en categoras segn sus rasgos ms sobresalientes. Aprendizaje autosupervisado: la propia red corrige los errores en la interpretacin empleando una realimentacin. Una de las primeras reglas de aprendizaje fue propuesta por Donald Hebb en 1949.

    Esta se basa en un hecho biolgico constatado: cuando dos neuronas se activan simultneamente su conexin se refuerza.

  • Historia Redes Neuronales (I)

    Partiendo de que las redes neuronales se fundamentan en el sistema nervioso humano deberamos remontarnos a los tiempos de Galeno en los que ya se tena un conocimiento considerable de ste. Sin embargo, los verdaderos avances en neurologa se produjeron a partir de la segunda mitad del siglo XIX. Investigadores ilustres de esta poca son Jackson, Ramn y Cajal y Golgi entre otros.

    Fue en 1943 cuando Warren McCulloch y Walter Pitts propusieron el clsico modelo de neurona en el que se basan las redes neuronales actuales. Seis aos despus, en 1949, en su libro The Organization of Behavior, Donald Hebb presentaba su conocida regla de aprendizaje.

  • Historia Redes Neuronales (II)En 1957, Frank Rosenblatt present el Perceptron, una red neuronal con aprendizaje supervisado cuya regla de aprendizaje era una modificacin de la propuesta por Hebb. El Perceptron trabaja con patrones de entrada binarios, y su funcionamiento, por tratarse de una red supervisada, se realiza en dos fases: una primera en la que se presentan las entradas y la salidas deseadas; en esta fase la red aprende la salida que debe dar para cada entrada.

    La principal aportacin del Perceptron es que la adaptacin de los pesos se realiza teniendo en cuenta el error entre la salida que da la red y la salida que se desea.

    En la fase siguiente, de operacin, la red es capaz de responder adecuadamente cuando se le vuelven a presentar los patrones de entrada. Se crearon grandes expectativas sobre sus aplicaciones, que posteriormente se tornaron en gran decepcin cuando en 1969 Minsky y Papert demostraron las grandes limitaciones de esta red.

  • Historia Redes Neuronales (III)En los aos 60 se propusieron otros dos modelos, tambin supervisados, basados en el Perceptron de Rosenblatt denominados Adaline y Madaline.

    En estos, la adaptacin de los pesos se realiza teniendo en cuenta el error, calculado como la diferencia entre la salida deseada y la dada por la red, al igual que en el Perceptron.

    Sin embargo, la regla de aprendizaje empleada es distinta. Se define una funcin error para cada neurona que da cuenta del error cometido para cada valor posible de los pesos cuando se presenta una entrada a la neurona. As, la regla de aprendizaje hace que la variacin de los pesos se produzca en la direccin y sentido contrario del vector gradiente del error. A esta regla de aprendizaje se la denomina Delta.

  • Historia Redes Neuronales (IV)La era moderna de las redes neuronales artificiales surge con la tcnica de aprendizaje de propagacin hacia atrs o Back Propagation.

    La contribucin de Minsky y Papert fue la de demostrar que una red del tipo Perceptron no es capaz de aprender todas las posibles combinaciones entre entradas y salidas.

    La solucin del problema consiste en aadir capas intermedias de neuronas, introduciendo de esta forma el problema de cmo ensear a estas capas intermedias. Aqu es donde tiene importancia el algoritmo de propagacin hacia atrs.

    En ste se compara la salida real con la salida deseada. La diferencia entre ambas constituye un error que se propaga hacia atrs desde la capa de salida hasta la de entrada permitiendo as la adaptacin de los pesos de las neuronas intermedias mediante una regla de aprendizaje Delta. Sin embargo, tambin tiene sus limitaciones.

    Posteriormente se han desarrollado otros modelos que permiten un aprendizaje no supervisado como el mapa auto-organizativo de Kohonen, los basados en la Teora de Resonancia Adaptativa (ART) de Grossberg y Carpenter, o los modelos de control motor de Bullock, Gaudiano y Grossberg, entre otros.

  • Referencias (I)http://www.wikipedia.orgMcCulloch, Warren S. (1965), Embodiments of Mind, MIT Press, Cambridge, MA.Talking Nets: An Oral History of Neural Networks, Edited by James A. Anderson and Edward Rosenfeld, 1998. The interview with Jerome Lettvin discusses Walter Pitts.Pitts, Walter, MIT Encyclopedia of Cognitive Science. (http://cognet.mit.edu/MITECS/Entry/lettvin1)

  • Referencias (II)

    PERCEPTRN:

    Freund, Y. and Schapire, R. E. 1998. Large margin classification using the perceptron algorithm. In Proceedings of the 11th Annual Conference on Computational Learning Theory (COLT' 98). ACM Press.Gallant, S. I. (1990). Perceptron-based learning algorithms. IEEE Transactions on Neural Networks, vol. 1, no. 2, pp. 179-191.Rosenblatt, Frank (1958), The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Cornell Aeronautical Laboratory, Psychological Review, v65, No. 6, pp. 386-408.Minsky M L and Papert S A 1969 Perceptrons (Cambridge, MA: MIT Press)Novikoff, A. B. (1962). On convergence proofs on perceptrons. Symposium on the Mathematical Theory of Automata, 12, 615-622. Polytechnic Institute of Brooklyn.Widrow, B., Lehr, M.A., "30 years of Adaptive Neural Networks: Peceptron, Madaline, and Backpropagation," Proc. IEEE, vol 78, no 9, pp. 1415-1442, (1990).

  • Referencias (III)Introduccin a las redes neuronales artificiales. Alfredo Catalina Gallego. (www.gui.uva.es/login/login/13/redesn.html)

    PUBLICACIONES:

    Warren McCulloch and Walter Pitts, A Logical Calculus of Ideas Immanent in Nervous Activity, 1943, Bulletin of Mathematical Biophysics 5:115-133.Warren McCulloch and Walter Pitts, On how we know universals: The perception of auditory and visual forms, 1947, Bulletin of Mathematical Biophysics 9:127-147.Howland, R., Jerome Lettvin, Warren McCulloch, Walter Pitts, and P. D. Wall, Reflex inhibition by dorsal root interaction, 1955, Journal of Neurophysiology 18:1-17.Wall, P. D., Warren McCulloch, Jerome Lettvin and Walter Pitts, Effects of strychnine with special reference to spinal afferent fibres, 1955, Epilepsia Series 3, 4:29-40.Jerome Lettvin, Humberto Maturana, Warren McCulloch, and Walter Pitts, What the Frog's Eye Tells the Frog's Brain, 1959, Proceedings of the Institute of Radic Engineers 47: 1940-1959Humberto Maturana, Jerome Lettvin, Warren McCulloch, and Walter Pitts, Anatomy and physiology of vision in the frog, 1960, Journal of General Physiology, 43:129--175Robert Gesteland, Jerome Lettvin and Walter Pitts, Chemical Transmission in the Nose of the Frog, 1965, J.Physiol. 181, 525-529.