Jürgen Schmidhuber

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 5. Oktober 2016 um 22:34 Uhr durch 分液漏斗 (Diskussion | Beiträge) (wl). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen

Jürgen Schmidhuber (* 17. Januar 1963 in München) ist ein deutscher Informatiker und Künstler. Seit 1995 ist er Kodirektor (wissenschaftlicher Direktor) des Schweizer Forschungsinstituts für Künstliche Intelligenz IDSIA.

Leben und Werk

Schmidhuber studierte ab 1983 Informatik und Mathematik an der Technischen Universität München, an der er 1987 sein Diplom erwarb und 1991 bei Wilfried Brauer in Informatik promoviert wurde (Dynamic Neural Nets and the Fundamental Spatio-Temporal Credit Assignment Problem). Als Post-Doktorand war er 1991/92 an der University of Colorado in Boulder. Im Jahre 1993 habilitierte Schmidhuber sich an der TU München (Net Architectures, Objective Functions, and Chain Rule). Er war Oberassistent und ab 1995 Privatdozent an der TU München, bevor er 1995 wissenschaftlicher Direktor von IDSIA in Lugano wurde. Er ist seit 2003 Professor am SUPSI in Manno und seit 2009 ordentlicher Professor an der Universität Lugano. Er war zudem 2004 bis 2009 als außerordentlicher Professor Leiter des Labors für kognitive Robotik an der TU München.

Er veröffentlichte zahlreiche wissenschaftliche Artikel in folgenden Themenbereichen: Maschinelles Lernen, neuronale Netze, Kolmogorow-Komplexität, Digitale Physik, Robotik, Kaum Komplexe Kunst und Theorie der Schönheit.

Die in seiner Arbeitsgruppe entwickelten rekurrenten neuronalen Netze (RNN) lernen in effizienter Weise manche einst unlernbare Aufgabe: Erkennung gewisser kontextsensitiver Sprachen, Robotersteuerung in partiell sichtbaren Umgebungen, Musikkomposition, Aspekte der Sprachverarbeitung, Erkennen von Handschriften. Er erhielt mit seinen neuronalen Netzwerken ab 2009 verschiedene Preise in visuellen Mustererkennungswettbewerben für Maschinenlernen und Künstliche Intelligenz. Sie wurden zum Beispiel in der KI-Forschung von Google angewandt, zum Beispiel auf das Go-Spiel (Alpha Go bei Deep Mind). Einer der Gründer von Google DeepMind studierte bei Schmidhuber in Lugano. Die RNN wurden insbesondere durch eine Idee von Schmidhubers Diplomanden an der TU München Sepp Hochreiter (Professor in Linz) 1991 verbessert, der Implementierung von Long Short-Term Memory (LSTM) im neuronalen Netz, was diesem ermöglichte, weiter beim Lernen in die Vergangenheit zurückzublicken.[1] Schmidhuber bezeichnet seine RNN mit LSTM als Deep Learning Netzwerke.[2]

Seine möglicherweise ambitionierteste Arbeit ist die Gödelmaschine (2003) zur Lösung beliebiger formalisierbarer Probleme. Mit Hilfe eines asymptotisch optimalen Theorembeweisers überschreibt die Gödelmaschine beliebige Teile ihrer Software (samt dem Theorembeweiser), sobald sie einen Beweis gefunden hat, dass dies ihre zukünftige Leistung verbessern wird.

Schmidhuber publizierte auch Arbeiten zur Menge der möglichen berechenbaren Universen. Sein „Großer Programmierer“ implementiert Konrad Zuses Hypothese (1967) der berechenbaren Physik, gegen die bis heute keine physikalische Evidenz vorliegt. Wenn wirklich alles berechenbar ist, welches ist dann das Programm unserer Welt? 1997 wies Schmidhuber darauf hin, dass das einfachste Programm alle Universen berechnet, nicht nur unseres. Ein Beitrag aus dem Jahre 2000 analysierte weiterhin die Menge aller Universen mit limit-berechenbaren Wahrscheinlichkeiten sowie die Grenzen formaler Beschreibbarkeit.

Diese Arbeiten führten ihn zu Verallgemeinerungen der Kolmogorov-Komplexität K(x) einer Bitkette x. K(x) ist die Länge des kürzesten Programms, das x berechnet und hält. Schmidhubers nicht-haltende, doch konvergierende Programme stellen noch kürzere, nämlich die kürzestmöglichen formalen Beschreibungen dar. Sie führen zu nicht-abzählbaren, doch limesberechenbaren Wahrscheinlichkeitsmaßen und zu sogenannten Super-Omegas, bei denen es sich um Verallgemeinerungen von Gregory Chaitins „Zahl aller mathematischen Weisheit“ Omega handelt. All dies hat Konsequenzen für das Problem der optimalen induktiven Inferenz, d.h., der optimalen Zukunftsvorhersage aus bisher beobachteten Daten.

2013 erhielt Schmidhuber den Helmholtz Award der International Neural Networks Society, 2016 den IEEE CIS Neural Networks Pioneer Award, und sein Labor erhielt 2016 den NVIDIA Pioneers of AI Research Award.

Literatur

  • Roman Leipold: Wie ein Blitz in der Weltgeschichte (KI-Serie, Teil 3), Chip, 2016, Nr. 4, pdf

Schriften

  • Schmidhuber: Deep Learning in Neural Networks: An Overview, Neural Networks, Band 61, 2015, S. 85-117

Weblinks

Einzelnachweise

  1. Schmidhuber zum Beitrag Hochreiters
  2. Schmidhuber, My First Deep Learning System of 1991 + Deep Learning Timeline 1960-2013