David Rumelhart

From Wikipedia, the free encyclopedia

Nacimiento 12 de junio de 1942 Ver y modificar los datos en Wikidata
Wessington Springs (Estados Unidos) Ver y modificar los datos en Wikidata
Fallecimiento 13 de marzo de 2011 Ver y modificar los datos en Wikidata (68 años)
Chelsea (Estados Unidos) Ver y modificar los datos en Wikidata
Causa de muerte Enfermedad de Pick Ver y modificar los datos en Wikidata
Residencia Ann Arbor Ver y modificar los datos en Wikidata
David Rumelhart
Información personal
Nacimiento 12 de junio de 1942 Ver y modificar los datos en Wikidata
Wessington Springs (Estados Unidos) Ver y modificar los datos en Wikidata
Fallecimiento 13 de marzo de 2011 Ver y modificar los datos en Wikidata (68 años)
Chelsea (Estados Unidos) Ver y modificar los datos en Wikidata
Causa de muerte Enfermedad de Pick Ver y modificar los datos en Wikidata
Residencia Ann Arbor Ver y modificar los datos en Wikidata
Nacionalidad Estadounidense
Educación
Educación doctor en Filosofía Ver y modificar los datos en Wikidata
Educado en
Supervisor doctoral William Kaye Estes Ver y modificar los datos en Wikidata
Información profesional
Ocupación Profesor universitario, psicólogo e informático teórico Ver y modificar los datos en Wikidata
Empleador
Miembro de
Distinciones
  • Beca MacArthur
  • CSS Fellow
  • IEEE Neural Networks Pioneer Award
  • Miembro de la Academia Estadounidense de las Artes y las Ciencias
  • AAAI Fellow (1990)
  • Howard Crosby Warren Medal (1993)
  • Premio Grawemeyer (2002) Ver y modificar los datos en Wikidata

David Everett Rumelhart (1942-2011) fue un destacado psicólogo y científico cognitivo estadounidense, conocido principalmente por sus contribuciones a la teoría de redes neuronales y su papel en el desarrollo de modelos de procesa- miento de información en la mente humana. Rumelhart nació el 12 de junio de 1942 en Wessington Springs, Dakota del Sur, y falleció el 13 de marzo de 2011 en Chelsea, Míchigan, tras una larga lucha contra la enfermedad de Pick, una forma de demencia degenerativa (Schwartz, 2011).

Rumelhart comenzó su formación académica en la Universidad de Dakota del Sur, donde obtuvo su licenciatura en 1963. Posteriormente, completó su doctorado en Psicología Matemática en la Universidad de Stanford en 1967, donde empezó a interesarse en el estudio del pensamiento humano y los modelos matemáticos para representarlo. Tras obtener su doctorado, Rumelhart comenzó a trabajar en la Universidad de California, San Diego, donde realizó una gran parte de sus investigaciones iniciales. Fue en esta universidad donde desarrolló sus primeras teorías sobre el procesamiento de información en la cognición humana, especialmente en el reconocimiento de patrones y la memoria (Rumelhart, 1975).

Teoría de Procesamiento Paralelo Distribuido (PDP)

Rumelhart es especialmente reconocido por ser uno de los pioneros de la teoría de Procesamiento Paralelo Distribuido (PDP, por sus siglas en inglés), desarrollada en la década de 1980 junto con James McClelland y el grupo de investigación de la Universidad de California, San Diego. La teoría PDP propone que la cognición humana no sigue un proceso lineal de transmisión de información, sino que la información es procesada en paralelo en múltiples nodos de una red, de manera similar al funcionamiento de las redes neuronales en el cerebro (Rumelhart & McClelland, 1986).

Esta teoría se plasmó en su obra más influyente, Parallel Distributed Processing: Explorations in the Microstructure of Cognition (Rumelhart & McClelland, 1986), en la cual describe cómo los patrones de activación en redes neuronales pueden representar conceptos y estructuras complejas de conocimiento. Este enfoque revolucionó el campo de la psicología cognitiva, ya que proponía un nuevo modelo para explicar el aprendizaje, la memoria y el reconocimiento de patrones, alejándose de las teorías de procesamiento secuencial que habían dominado el campo durante décadas.

Algoritmo de Retropropagación

Una de las contribuciones más influyentes de Rumelhart fue su trabajo en el desarrollo del algoritmo de retropropagación, que describe cómo una red neuronal ajusta los pesos de sus conexiones para minimizar el error de salida. Este algoritmo, publicado en 1986 en colaboración con McClelland y Geoffrey Hinton, es considerado uno de los pilares de las redes neuronales modernas. La retropropagación permitió que las redes neuronales multilayered pudieran aprender patrones complejos mediante el ajuste iterativo de pesos, marcando un antes y un después en el campo de la inteligencia artificial (Rumelhart, Hinton, & Williams, 1986).

Contribuciones en otras áreas

Reconocimientos y legado

Bibliografía

Related Articles

Wikiwand AI