Neuronales Netz

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Neuronale Netze)
Wechseln zu: Navigation, Suche
Neuronal ist eine Weiterleitung auf diesen Artikel. Modellationen neuronaler Netze werden gesondert im Artikel Künstliches neuronales Netz behandelt
Grundgerüst cortico-corticaler Assoziations- und Kommissurfasern im Konnektom-Modell der menschlichen Großhirnrinde
Neuronale Verknüpfungen im Nervensystem des Fadenwurms Caenorhabditis elegans: Netzwerk aller seiner rund 300 Nervenzellen
Verknüpfung von Neuronen über Synapsen
Neuritische und dendritische Aufzweigungen ihrer Zellfortsätze kennzeichnen die Gestalt von Neuronen, hier des auditiven Cortex (Zeichnung von Cajal, 1898)

Als neuronales Netz wird in den Neurowissenschaften eine beliebige Anzahl miteinander verbundener Neuronen bezeichnet, die als Teil eines Nervensystems einen Zusammenhang bilden, der einer bestimmten Funktion dienen soll. Abstrahiert werden in Computational Neuroscience auch vereinfachte Modelle einer biologischen Vernetzung darunter verstanden.

In der Informatik, Informationstechnik und Robotik werden deren Strukturen als künstliches neuronales Netz nachgebildet, simuliert und abgewandelt.

Die Vernetzung von Neuronen[Bearbeiten | Quelltext bearbeiten]

Das Nervensystem von Tieren besteht aus Nervenzellen (Neuronen) und Gliazellen sowie einer Umgebung. Die Neuronen sind über Synapsen miteinander verknüpft, die als Verknüpfungsstellen oder Knoten eines interneuronalen Netzwerks aufgefasst werden können. Daneben findet zwischen Neuronen und Zellen der Neuroglia, insbesondere Oligodendroglia und Astroglia, in chemischer und elektrischer Form ein Austausch statt, der die Gewichtung von Signalen verändern kann.

Die „Schaltungstechnik“ von Neuronen kennt üblicherweise mehrere Eingänge und einen Ausgang. Wenn die Summe der Eingangssignale einen gewissen Schwellenwert überschreitet, „feuert“ das Neuron (Erregungsbildung): Ein Aktionspotential (AP) wird am Axonhügel ausgelöst, im Initialsegment gebildet und entlang des Axons weitergeleitet (Erregungsleitung). Aktionspotentiale in Serie sind die primären Ausgangssignale von Neuronen. Diese Signale können über Synapsen anderen Zellen vermittelt werden (Erregungsübertragung). An elektrischen Synapsen werden die Potentialänderungen in unmittelbarem Kontakt weitergegeben. An chemischen Synapsen werden diese in ein Transmitter-Quantum als sekundäres Signal umgesetzt, also durch Botenstoffe übermittelt (Transmission).

Schematische Darstellung einer einfachen neuronalen Vernetzung
mit Divergenz: ein Neuron gibt Signale an mehrere andere Neuronen weiter,
und Konvergenz: ein Neuron erhält Signale von mehreren anderen.

Kennzeichnend für Nervenzellen sind ihre Zellfortsätze, mit denen Kontakte zu einzelnen anderen Zellen hergestellt werden. Als Dendriten dienen sie vorrangig der Aufnahme von Signalen anderer Zellen, während Signale an andere Zellen über den Neuriten fortgeleitet werden, auch Axon genannt in der Umhüllung durch Gliazellen. Mit Abzweigungen seines Axons als Axonkollaterale kann das Signal eines Neurons efferent an mehrere andere Neuronen übermittelt werden (Divergenz). Auch können einem Neuron afferent Signale von verschiedenen anderen Neuronen zufließen (Konvergenz), vorwiegend über seine Dendriten als Eingänge.

Während das über die Membran fortgeleitete Aktionspotential bei elektrischen Synapsen prompt als elektrisches Signal übergeben wird, wird es bei chemischen Synapsen zunächst an der präsynaptischen Membranregion eines Neurons umgebildet in ein sekundäres chemisches Signal. Dies geschieht als potentialabhängige neurokrine Sekretion durch Ausschüttung (Exozytose) der in synaptischen Vesikeln vorrätig gehaltenen Moleküle eines Signalstoffs.

Nach Überbrücken des schmalen synaptischen Spalts per Diffusion wirkt dieser Botenstoff als Neurotransmitter – oder daneben als ein neuromodulatorischer Kotransmitter – auf die Membranregion der postsynaptisch zugeordneten Zelle, wenn sie mit passenden Rezeptormolkülen ausgestattet dafür empfänglich ist.

Mit der Rezeptorbindung wird ein Transmitter erkannt und darüber direkt (ionotrop) oder mittelbar (metabotrop) eine vorübergehende regionale Veränderung der Membrandurchlässigkeit veranlasst. Durch die Membran ein- oder ausströmende kleine Ionen rufen also wieder postsynaptisch Potentialänderungen hervor, als lokale elektrische Signale. Die eintreffenden Signale laufen auf der Membran eines Neurons zusammen, werden hier räumlich wie zeitlich integriert und summierend zusammengefasst.

Solche postsynaptischen Potentiale (PSP) prägen sich verschieden aus, abhängig von der Membranausstattung mit Rezeptoren und Ionenkanälen. Sie können als graduierte Potentiale nicht nur unterschiedlich starke Signale sein, sondern zudem qualitativ grundsätzlich anders: exzitatorische (EPSP) regen die Erregungsbildung an; inhibitorische (IPSP) hemmen die Bildung eines Aktionspotentials.

Mit dieser Form synaptischer Verknüpfung als chemischer Transmission erhalten Signale also ein Vorzeichen. Des Weiteren können sie an der Verknüpfungsstelle prozessabhängig gewichtet werden, verstärkt oder abgeschwächt. Bei einer häufig wiederholten Übertragung in rascher Folge kann es zu länger anhaltenden Veränderungen kommen, die als Langzeit-Potenzierung (LTP) die synaptische Übertragung verstärken. Bei geringer Frequenz können in unterschiedlicher Art Veränderungen auftreten, die zu einer dauerhaften Abschwächung als Langzeit-Depression (LTD) führen. Auf diese Weise kann der Signalübertragungsprozess selber den synaptischen Modus formen beziehungsweise überformen (neuronale Plastizität). Die Vernetzung von Neuronen zeigt damit keine starre Verschaltung, sondern eine vom Vorzustand abhängige Gewichtung der Signalwege, die sich durch wiederholten Gebrauch ändert.

Lernen[Bearbeiten | Quelltext bearbeiten]

Über das Lernen in neuronalen Netzen gibt es verschiedene, inzwischen gut standardisierte Theorien. Die erste neuronale Lernregel wurde 1949 von Donald O. Hebb beschrieben (Hebbsche Lernregel); wesentliche Entwicklungen erfolgten u. a. durch Arbeiten des Finnen Teuvo Kohonen Mitte der 1980er Jahre.

Daraus ergaben sich typische Eigenschaften neuronaler Netze, die gleichermaßen für natürliche, wie für künstliche „neuronale Systeme“ gelten. Dazu gehört die Eigenschaft, dass sie komplexe Muster lernen können, ohne dass eine Abstraktion über die diesen Mustern eventuell zugrunde liegenden Regeln stattfindet. Das heißt, dass neuronale Netze nicht den Gesetzen der sog. künstlichen Intelligenz, sondern einer Art von „natürlicher Intelligenz“ folgen. Das heißt insbesondere auch, dass nicht vor dem Lernen erst die Regeln entwickelt werden müssen. Andererseits kann aus dem neuronalen Netz auch nicht nachträglich eine eventuelle Logik ermittelt werden, die dessen Lernerfolg ausmachte.

Das Ganze heißt aber nicht, dass logisches Verhalten und präzise Regeln nicht existieren; nur werden diese nicht „von selbst“ durch Erfahrung erworben, sondern müssen durch langjährige „Schulung“ mehr oder minder mühsam erarbeitet werden. Dagegen lernen neuronale Netze nicht explizit, sondern implizit.

Speziell für die Simulation künstlicher neuronaler Netze in Wissenschaft und Technik gilt:

Das „richtige“ Trainieren eines neuronalen Netzes ist Voraussetzung für den Lernerfolg bzw. für die richtige Verarbeitung eines Musters in einem Nervensystem.

Umgekehrt gilt, dass eine Vorhersage über die „richtige“ Interpretation eines Musters durch ein neuronales Netz nicht präzise möglich ist, solange nicht dieses spezifische Netz mit dieser spezifischen Lernerfahrung angewendet bzw. durchgerechnet wird. Neuronale Netze haben somit das Problem, dass nach dem Lernvorgang Muster, die nicht den Vorbildern ähneln, die in der Lernmenge implementiert sind, stochastisches (d. h. scheinbar „zufälliges“) Verhalten der Ausgangsneuronen hervorrufen. Dies ist die größte Schwierigkeit, weshalb neuronale Netze bisher nur beschränkt zur Mustererkennung verwendet werden können.

Forschung[Bearbeiten | Quelltext bearbeiten]

  • Die Untersuchung der biochemischen und physiologischen Eigenschaften neuronaler Netze ist ein Gegenstand der Neurophysiologie.
  • In der Neuroinformatik wird versucht, neuronale Netze computergestützt durch künstliche neuronale Netze zu simulieren bzw. die Eigenschaften neuronaler Netze für Software-Anwendungen nutzbar zu machen.
  • Eine konzeptionelle Abstraktion neuronaler Netze findet ebenfalls in der theoretischen Biologie statt.
  • Insbesondere werden in der Computational Neuroscience Modellneuronen, die unterschiedliche Abstraktionsgrade von den biologischen Gegebenheiten aufweisen, mithilfe von simulierten Synapsen zu Netzwerken verbunden, um ihre Dynamik und Fähigkeit zur Informationsverarbeitung zu untersuchen. Dies geschieht bei mathematisch einfachen Modellen durch mathematische Analyse, meistens jedoch ebenfalls durch Computersimulationen.
  • In den 1980er und 1990er Jahren sind auch Physiker in dieses Gebiet eingestiegen und haben damals wesentlich zum Verständnis beigetragen. Zurzeit werden neuronale Netze für die Analyse in der Hochenergiephysik eingesetzt. Sogenannte multivariate Methoden sind hier ein wichtiger Bestandteil zur Trennung von experimentellen Daten.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • C. W. Eurich: Was sieht eine Katze? [Neural coding and reconstruction], Gehirn & Geist, 3/2003
  • Sven B. Schreiber: Natürliche Intelligenz. Neuronen und Synapsen – alles nur ein organischer Computer? (Teil 1), c't – Magazin für Computertechnik, 1987 (4), S. 98–101.

Weblinks[Bearbeiten | Quelltext bearbeiten]

 Commons: Neural network – Album mit Bildern, Videos und Audiodateien