Neuronales Netz

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Neuronal ist eine Weiterleitung auf diesen Artikel. Zur Patientenzeitschrift siehe Neuronal (Zeitschrift).

Ein neuronales Netz ist die abstrakte Struktur eines Nervensystems oder ein Modell mit einer solchen Informationsarchitektur. In Wissenschaft und Technik werden neuronale Netze künstlich nachgebaut beziehungsweise simuliert, siehe künstliches neuronales Netz.

Die Vernetzung der Neuronen[Bearbeiten]

Das Nervensystem von Tieren besteht aus Nervenzellen (Neuronen) und Gliazellen sowie einer Umgebung. Die Neuronen sind über Synapsen miteinander verknüpft, die als Verknüpfungsstellen oder Knoten eines interneuronalen Netzwerks aufgefasst werden können. Daneben findet zwischen den Neuronen und der Neuroglia, insbesondere Oligodendroglia und Astroglia, in chemischer und elektrischer Form ein Austausch statt, der die Gewichtung von Signalen verändern kann.

Die „Schaltungstechnik“ von Neuronen kennt üblicherweise mehrere Eingänge und einen Ausgang. Wenn die Summe der Eingangssignale einen gewissen Schwellenwert überschreitet, „feuert“ das Neuron: Ein Aktionspotential (AP) wird am Axonhügel ausgelöst, im Initialelement gebildet und entlang des Axons weitergeleitet. Aktionspotentiale bzw. Aktionspotential-Serien sind die Ausgangssignale von Neuronen. Aufzweigungen seines Axons können das Signal eines Neurons an mehrere andere Neuronen übermitteln (Divergenz). Ebenso können einem Neuron Signale von unterschiedlichen Neuronen zufließen (Konvergenz), vorwiegend über seine Dendriten als Eingänge. Durch inhibitorische Synapsen kann die Bildung eines AP behindert oder unterdrückt werden. Mit der Verknüpfung erhalten Signale somit ein Vorzeichen und können darüber hinaus an der Verknüpfungsstelle abgeschwächt werden oder verstärkt. Bei häufig wiederholter Übertragung in rascher Folge wird der synaptische Übertragungsmodus länger anhaltend verändert (Langzeit-Potenzierung) und derart geformt (neuronale Plastizität).

Lernen[Bearbeiten]

Über das Lernen in neuronalen Netzen gibt es verschiedene, inzwischen gut standardisierte Theorien. Die erste neuronale Lernregel wurde 1949 von Donald O. Hebb beschrieben (Hebbsche Lernregel); wesentliche Entwicklungen erfolgten u. a. durch Arbeiten des Finnen Teuvo Kohonen Mitte der 1980er Jahre.

Daraus ergaben sich typische Eigenschaften neuronaler Netze, die gleichermaßen für natürliche, wie für künstliche „neuronale Systeme“ gelten. Dazu gehört die Eigenschaft, dass sie komplexe Muster lernen können, ohne dass eine Abstraktion über die diesen Mustern eventuell zugrunde liegenden Regeln stattfindet. Das heißt, dass neuronale Netze nicht den Gesetzen der sog. künstlichen Intelligenz, sondern einer Art von „natürlicher Intelligenz“ folgen. Das heißt insbesondere auch, dass nicht vor dem Lernen erst die Regeln entwickelt werden müssen. Andererseits kann aus dem neuronalen Netz auch nicht nachträglich eine eventuelle Logik ermittelt werden, die dessen Lernerfolg ausmachte.

Das Ganze heißt aber nicht, dass logisches Verhalten und präzise Regeln nicht existieren; nur werden diese nicht „von selbst“ durch Erfahrung erworben, sondern müssen durch langjährige „Schulung“ mehr oder minder mühsam erarbeitet werden. Dagegen lernen neuronale Netze nicht explizit, sondern implizit.

Speziell für die Simulation künstlicher neuronaler Netze in Wissenschaft und Technik gilt:

Das „richtige“ Trainieren eines neuronalen Netzes ist Voraussetzung für den Lernerfolg bzw. für die richtige Verarbeitung eines Musters in einem Nervensystem.

Umgekehrt gilt, dass eine Vorhersage über die „richtige“ Interpretation eines Musters durch ein neuronales Netz nicht präzise möglich ist, solange nicht dieses spezifische Netz mit dieser spezifischen Lernerfahrung angewendet bzw. durchgerechnet wird. Neuronale Netze haben somit das Problem, dass nach dem Lernvorgang Muster, die nicht den Vorbildern ähneln, die in der Lernmenge implementiert sind, stochastisches (d.h. scheinbar „zufälliges“) Verhalten der Ausgangsneuronen hervorrufen. Dies ist die größte Schwierigkeit, weshalb neuronale Netze bisher nur beschränkt zur Mustererkennung verwendet werden können.

Forschung[Bearbeiten]

  • Die Untersuchung der biochemischen und physiologischen Eigenschaften neuronaler Netze ist ein Gegenstand der Neurophysiologie.
  • In der Neuroinformatik wird versucht, neuronale Netze computergestützt durch künstliche neuronale Netze zu simulieren bzw. die Eigenschaften neuronaler Netze für Software-Anwendungen nutzbar zu machen.
  • Eine konzeptionelle Abstraktion neuronaler Netze findet ebenfalls in der theoretischen Biologie statt.
  • Insbesondere werden in der Computational Neuroscience Modellneuronen, die unterschiedliche Abstraktionsgrade von den biologischen Gegebenheiten aufweisen, mithilfe von simulierten Synapsen zu Netzwerken verbunden, um ihre Dynamik und Fähigkeit zur Informationsverarbeitung zu untersuchen. Dies geschieht bei mathematisch einfachen Modellen durch mathematische Analyse, meistens jedoch ebenfalls durch Computersimulationen.
  • In den 1980er und 1990er Jahren sind auch Physiker in dieses Gebiet eingestiegen und haben damals wesentlich zum Verständnis beigetragen. Zurzeit werden neuronale Netze für die Analyse in der Hochenergiephysik, z. B. in der Top-Physik, eingesetzt. Sogenannte multivariate Methoden sind hier ein wichtiger Bestandteil zur Trennung von gefalteten experimentellen Daten.

Alzheimer[Bearbeiten]

Die Alterskrankheit Alzheimer scheint im Wesentlichen auf einer Schädigung des neuronalen Netzes im Gehirn zu beruhen.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • C. W. Eurich: Was sieht eine Katze? [Neural coding and reconstruction], Gehirn & Geist, 3/2003
  • Sven B. Schreiber: Natürliche Intelligenz. Neuronen und Synapsen – alles nur ein organischer Computer? (Teil 1), c't – Magazin für Computertechnik, 1987 (4), S. 98–101.

Weblinks[Bearbeiten]

 Commons: Neural network – Album mit Bildern, Videos und Audiodateien