Neuroinformatik

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Neuroinformatik ist ein Teilgebiet der Informatik und der Neurobiologie, das sich mit der Informationsverarbeitung in neuronalen Systemen befasst, um diese in technischen Systemen anzuwenden. Sie ist zu unterscheiden von der Computational Neuroscience, welche sich als Teilgebiet der Neurobiologie mit dem Verständnis biologischer neuronaler Systeme mittels mathematischer Modelle beschäftigt.

Bei der Neuroinformatik handelt es sich um ein stark interdisziplinäres Forschungsgebiet im Schnittbereich zwischen KI-Forschung und Kognitionswissenschaft.

Im Gegensatz zur künstlichen Intelligenz, deren Ziel es ist, Maschinen zu entwickeln, die sich im Ergebnis „intelligent“ verhalten, geht es der Neuroinformatik mehr um die innere Arbeitsweise des Gehirns. Dessen Arbeitsweise wird untersucht, indem man seine Grundbausteine, Neuronen und Synapsen, und deren Verschaltung simuliert.

Teilgebiete der Neuroinformatik[Bearbeiten]

Neuronale Methoden werden vor allem dann eingesetzt, wenn es darum geht, aus schlechten oder verrauschten Daten Informationen zu gewinnen, aber auch Algorithmen, die sich neuen Situationen anpassen, also lernen, sind typisch für die Neuroinformatik. Dabei unterscheidet man grundsätzlich überwachtes Lernen und unüberwachtes Lernen, ein Kompromiss zwischen beiden Techniken ist das Reinforcement-Lernen. Assoziativspeicher sind eine besondere Anwendung neuronaler Methoden, und damit oft Forschungsgegenstand der Neuroinformatik. Viele Anwendungen für künstliche neuronale Netze finden sich auch in der Mustererkennung und vor allem im Bildverstehen.

Universitäten[Bearbeiten]

Die Neuroinformatik ist ein relativ junger und kleiner Teil der Informatik, dennoch finden sich an vielen Universitäten Institute, Abteilungen oder Arbeitsgruppen für Neuroinformatik.

Biologische Grundlagen neuronaler Netze[Bearbeiten]

Hauptartikel: Neuronales Netz
Dendritische Verzweigungen zweier Neuronen, aus deren Zellkörper jeweils ein Axon abgeht.

Nervenzellen finden sich im Körper aller Gewebetiere und werden als die funktionellen Grundeinheiten ihres Nervensystems aufgefasst. Ein typisches Neuron besteht aus drei Anteilen:

In einem Gehirn bilden die meist graubraunen Nervenzellkörper – als Ansammlung von Perikarya an ähnlichem Ort auch Kerne genannt – die sogenannte graue Substanz, und die helleren myelinisierten Nervenzellfortsätze – als Faserbündel von Axonen mit ähnlichem Verlauf auch Bahnen genannt – die sogenannte weiße Substanz. Die Dendritenbäume sind unterschiedlich stark verzweigt in der Nachbarschaft ausgebreitet und bilden so keinen makroskopisch auffälligen Aspekt.

Neuronen sind über Synapsen miteinander verknüpft als den Stellen, wo die Erregung von einem Neuron auf ein anderes übertragen wird. Das elektrische Signal wird dabei selten direkt weitergegeben, sondern meist mithilfe eines Neurotransmitters über den 20-30 nm synaptischen Spalt getragen. Bei solchen chemischen Synapsen unterscheidet man nach der Antwort der nachgeordneten (postsynaptischen) Zelle erregende exzitatorische von hemmenden inhibitorischen Synapsen. In einer Nervenzelle werden die durch verschiedene Synapsen hervorgerufenen Membranpotentialveränderungen (postsynaptische Potentiale) über dem Zellkörper summiert und am Axonhügel verrechnet. Wird dabei eine bestimmte Reizschwelle überschritten, so wird im Neuron ein Aktionspotential ausgelöst, das über sein Axon weitergeleitet wird.

Modellierung neuronaler Netze[Bearbeiten]

Es gibt viele verschiedene Modelle, um Neuronale Netze zu modellieren. Ein Ansatz ist dabei, eine Reihe von künstlicher Neuronen zu einem Netzwerk zu verschalten. Diese Neuronen können dabei je nach Fragestellung unterschiedlich nah an den biologischen Gegebenheiten orientiert sein. Es gibt aber auch viele andere Arten künstlicher neuronaler Netze:

Netze mit Lehrer
Netze mit Konkurrenz
Netze mit Rückkopplung

Literatur[Bearbeiten]

  • Raúl Rojas: Theorie der neuronalen Netze, Springer-Lehrbuch, Berlin 1996, ISBN 3540563539
  • R. Beale und T. Jackson: Neural Computing an Introduction, Adam Hilger, Bristol 1990
  • IBM will das Gehirn nachbauen. heise. 2008. Abgerufen am 2. April 2014.
  • JA. Hertz, A. Krogh und RG. Palmer: Introduction to the Theory of Neural Computation, Addison-Wesley, 1991
  • P.D. Wassermann: Advanced methods in neural Computing, Van Nostrand Reinhold, New York 1993, ISBN 0442004613
  • A. Zell: Simulation neuronaler Netze, Addison Wesley, 1994, ISBN 978-3486243505
  • B. Lenze: Einführung in die Mathematik neuronaler Netze, Logos Verlag, Berlin 2009, dritte Auflage, ISBN 3897220210
  • Simon Haykin: Neural Networks – A Comprehensive Foundation , Prentice Hall, 6th July 1998, ISBN 0131471392
  • Christof Koch: Biophysics of Computation: Information Processing in Single Neurons, Oxford U. Press, 1999, ISBN 0195181999

Weblinks[Bearbeiten]

  • Beispiele: HTW Dresden – eine Menge studentische Arbeiten zu verschiedenen Themen.