Geoffrey Hinton

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Geoffrey Hinton

Geoffrey E. Hinton (* 6. Dezember 1947 in Wimbledon, Großbritannien) ist ein britischer Informatiker und Kognitionspsychologe, der vor allem für seine Beiträge zur Theorie künstlicher neuronaler Netze bekannt ist.

Leben und Ausbildung[Bearbeiten]

Geoffrey Hinton wurde als Sohn des Insektenkundlers Howard Hinton und als Ururenkel des Logikers George Boole geboren.[1] Er wuchs als Atheist an einer christlichen Schule auf.[2] Angetrieben durch sein Vorhaben den menschlichen Verstand zu begreifen, studierte er von 1967 bis 1970 Experimentalpsychologie an der Universität Cambridge (England), er wechselte jedoch aus Unzufriedenheit mit den Lehrinhalten zwischenzeitlich zur Physiologie und Philosophie. Auch von diesen Disziplinen enttäuscht, beendete er schließlich doch sein Studium mit einem Abschluss in der Psychologie. Erst als Doktorand wurden seine Studien der damals unpopulären neuronalen Netze von seinen Betreuern toleriert. Hinton war fest davon überzeugt, dass neuronale Systeme für die Erklärung und Nachbildung von Intelligenz hinreichend und notwendig sind. Im Jahre 1978 erhielt er seinen PhD in Künstlicher Intelligenz von der Universität Edinburgh (Schottland).[3] Nach Aufenthalten an der Universität Sussex (England), der University of California, San Diego (USA) und der Carnegie-Mellon Universität (Pittsburgh, USA) wurde er 1987 Professor am Computer Science Department der Universität Toronto (Kanada). Von 1998 bis 2001 entstand unter seiner Leitung die Gatsby Computational Neuroscience Unit am University College London, seitdem arbeitet er weiter als Professor an der Universität Toronto. Seit März 2013 arbeitet Hinton neben seiner Arbeit an der Universität Toronto bei Google[4].

Leistungen[Bearbeiten]

Geoffrey Hinton untersucht die Anwendung von künstlichen neuronalen Netzen in den Bereichen Lernen, Gedächtnis, Wahrnehmung und Symbolverarbeitung. Er gehörte zu den Wissenschaftlern, die den Backpropagation-Algorithmus einführten (in einem Nature Aufsatz von 1986 mit David Rumelhart und Ronald Williams) und entwickelte unter anderem die Konzepte der Boltzmann-Maschine und der Helmholtz-Maschine. Leicht verständliche Einführungen in seine wissenschaftliche Arbeit finden sich in seinen Artikeln im Scientific American von 1992 und 1993. 2001 erhielt er den ersten Rumelhart-Preis.

Werke[Bearbeiten]

  • How neural networks learn from experience. In: Scientific American. 9/1992
  • mit D. C. Plaut und T. Shallice: Simulating brain damage. In: Scientific American. 10/1993

Einzelnachweise[Bearbeiten]

  1. http://www.cse.buffalo.edu/~rapaport/111F04/boole.html
  2. https://www.cifar.ca/cifar-reach-spring-2014/$file/CIFAR%20REACH%20BOOK-ENG_r_single.pdf
  3. http://www.thestar.com/news/world/2015/04/17/how-a-toronto-professors-research-revolutionized-artificial-intelligence.html
  4. Wired: Google Hires Brains that Helped Supercharge Machine Learning

Weblinks[Bearbeiten]