Monte-Carlo-Simulation

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Viertelkreis, dessen Fläche durch die Monte-Carlo-Methode angenähert wird. Pi ist genau das Vierfache der Wahrscheinlichkeit, mit der ein Punkt in den Kreis fällt. Damit lässt sich eine Näherung von Pi bestimmen.

Monte-Carlo-Simulation oder Monte-Carlo-Studie, auch MC-Simulation, ist ein Verfahren aus der Stochastik, bei dem sehr häufig durchgeführte Zufallsexperimente die Basis darstellen. Es wird dabei versucht, mit Hilfe der Wahrscheinlichkeitstheorie analytisch nicht oder nur aufwendig lösbare Probleme numerisch zu lösen. Als Grundlage ist vor allem das Gesetz der großen Zahlen zu sehen. Die Zufallsexperimente können entweder – etwa durch Würfeln – real durchgeführt werden oder durch Erzeugung von geeigneten Zufallszahlen. Computergenerierte Vorgänge können den Prozess in ausreichend häufigen Zufallsereignissen simulieren.

Zu den Pionieren der Monte-Carlo-Methode in den 1940er Jahren gehören Stanislaw Ulam, Nicholas Metropolis und John von Neumann.

Überblick[Bearbeiten]

Die Monte-Carlo-Simulation lässt Aussagen bei folgenden Problemgruppen zu

  • Alternative zur analytischen Lösung von Problemen rein mathematischer Herkunft,
    • die Approximation der Zahl Pi mit Hilfe des Buffonschen Nadelproblems oder durch die zufällige „Beregnung“ eines Quadrats auf dem Einheitskreis mit Zufallspunkten (hier ist der Anteil der Punkte, die im Einheitskreis liegen, etwa π/4).
    • in Verallgemeinerung die Berechnung des Integrals einer Funktion über dem Intervall [0;1] (Flächeninhalt) und dann auch höherdimensionaler Integrale (Volumen).
  • Verteilungseigenschaften von Zufallsvariablen unbekannten Verteilungstyps,
    • die Ermittlung der nichtzentralen Verteilung des Korrelationskoeffizienten. Mit Hilfe von Zufallszahlen wird die Realisation beliebig vieler Korrelationskoeffizienten simuliert. Eine Zusammenfassung der Koeffizienten in eine Häufigkeitstabelle ergibt eine empirische Verteilungsfunktion.
    • die Eigenschaften von Schätzfunktionen bei Vorliegen von Ausreißern in Daten. Mit Hilfe der Simulation kann gezeigt werden, dass das arithmetische Mittel nicht mehr ein bester Schätzer für den Erwartungswert ist.
    • die Schätzung von Verteilungsparametern.
  • die Nachbildung von komplexen Prozessen, die nicht direkt analysiert werden können,
    • Produktionsprozesse in einem Fertigungsunternehmen, um Engpässe und Opportunitäten in der Produktion aufzudecken
    • Wetter und Klima der Erde.
    • Rekonstruktionsverfahren in der Nuklearmedizin.

Mit der Monte-Carlo-Methode kann man Probleme mit statistischem Verhalten simulieren. Diese Methode hat deshalb besonders in der Physik wichtige Anwendungen gefunden, und zwei Bücher des Autors Kurt Binder gehören zu den meistzitierten Veröffentlichungen in dieser Wissenschaftssparte.

  • Es lässt sich der Weg eines einzelnen Regentropfens simulieren, der mit zufällig verteilten anderen Tropfen kollidiert. Nach der Simulation von mehreren konkreten Tropfen sind Aussagen über die durchschnittliche Tropfengröße möglich oder auch zu Temperatur und Tröpfchendichte, bei denen Schnee oder Hagel entstehen.
  • Für das Galtonbrett lässt sich die Verteilung der Kugeln auf die Fächer mittels der Gaußverteilung berechnen, falls für die Hindernisse die Wahrscheinlichkeit, dass eine Kugel nach rechts fällt, jeweils genau 50 % ist. Falls dies nicht gegeben ist, lässt sich das Gesamtexperiment in einer Monte-Carlo-Simulation modellieren. Hierzu wird für jedes Hindernis eine geeignete Wahrscheinlichkeit angenommen und eine hohe Anzahl von Kugelwürfen entsprechend dieser Wahrscheinlichkeiten simuliert.
  • Wenn keine analytische Formel für die Bewertung eines Finanzproduktes bekannt ist, lassen sich durch Monte-Carlo-Simulation geeignete Verteilungsannahmen der relevanten Zufallsgrößen finden und auf einfache Art komplexe Finanzkontrakte (wie „exotische“ Optionen) bepreisen.

Geschichte und Herkunft der Bezeichnung[Bearbeiten]

Enrico Fermi hatte in den 1930er Jahren die ersten Ideen zu Monte-Carlo-Simulationen. Ausgeführt wurden diese 1946 von Stanislaw Ulam und dem von ihm deshalb kontaktierten John von Neumann.[1] Dies geschah während der Arbeit an dem damals geheimen Projekt am Los Alamos Scientific Laboratory, für das ein Codename vergeben werden musste. Von Neumann wählte den Namen „Monte Carlo“, in Anlehnung an die Spielbank Monte Carlo, die im gleichnamigen Stadtteil des Stadtstaates Monaco liegt, bei der sich Ulams Onkel Geld zum Spielen leihen würde.[2][3][4]

Mathematik[Bearbeiten]

Mathematisch ist das System ein wahrscheinlichkeitsgewichteter Weg im Phasenraum (allgemein Zustandsraum). Monte-Carlo-Simulationen sind besonders geeignet, um statistische Mittelwerte einer Größe \mathcal{A},

 \left\langle\mathcal{A}\right\rangle = \sum_{x \in \Omega} P(x) \, \mathcal{A}(x),

oder hochdimensionale Integrale (Monte-Carlo-Integration) wie

 \int\limits_{x \in \Omega} \!\! P(x) \, \mathcal{A}(x) \;\mathrm{d}^n x

zu berechnen. P(x) soll in diesem Zusammenhang ein normiertes statistisches Gewicht (etwa ein Boltzmanngewicht) sein. \mathcal{A}(x) ist der Wert der Größe \mathcal{A} im Zustand x. Die Summation bzw. Integration verläuft hier über einen Raum \Omega, also der Phasenraum der Teilchen im System.

Häufig ist der Raum \Omega so groß, dass die Summation nicht vollständig durchgeführt werden kann. Stattdessen erzeugt man nun eine Markow-Kette x_1,x_2,x_3,\ldots von Zuständen in \Omega, deren Häufigkeit wie das vorgegebene Gewicht P(x) verteilt ist. Bereiche des Raumes \Omega mit hohem Gewicht sollen also häufiger in der Markow-Kette vertreten sein als Bereiche mit niedrigem Gewicht. (Man spricht hier von Importance Sampling.) Gelingt dies, so lassen sich die Erwartungswerte einfach als arithmetisches Mittel der Größe \mathcal{A} zu diesen Zuständen der Markow-Kette berechnen, also als

\left\langle\mathcal{A}\right\rangle \approx \frac{1}{N}\sum_{i=1}^N \mathcal{A}(x_i).

Dieser Zusammenhang basiert auf dem Gesetz der großen Zahlen. Je nach physikalischem System kann es schwierig sein, diese Markow-Kette zu erzeugen. Insbesondere muss man sicherstellen, dass die Markow-Kette tatsächlich den gesamten Raum \Omega bedeckt und nicht nur einen Teil des Raumes abtastet. Man sagt, der Algorithmus muss ergodisch sein.

Methoden[Bearbeiten]

Metropolis-Monte-Carlo[Bearbeiten]

Der von Nicholas Metropolis publizierte Metropolisalgorithmus zur Untersuchung statistisch-mechanischer Systeme mittels Computersimulation leitet sich von der Monte-Carlo-Integration ab.

Sequentielle Monte-Carlo-Methode (SMC)[Bearbeiten]

Sequentielle Monte-Carlo-Methoden eignen sich zur Bayesschen Zustandsschätzung von dynamischen Systemen. Ziel ist es, den Systemzustand als Funktion der Zeit auf Basis einer Reihe von Beobachtungen des Systems und A-priori-Kenntnissen der Systemdynamik zu schätzen. Dazu wird die komplizierte Wahrscheinlichkeitsdichte des Zustandes diskret durch eine Menge von Partikeln approximiert. Sequentielle Monte-Carlo-Methoden werden auch Partikelfilter genannt.

Quanten-Monte-Carlo-Methoden (QMC)[Bearbeiten]

Quanten-Monte-Carlo-Methoden werden zur Berechnung von physikalischen Observablen in quantenfeldtheoretischen Modellen benutzt. Beispiele sind Modelle aus der theoretischen Festkörperphysik wie das Hubbard-Modell oder das tJ-Modell.

kinetische Monte-Carlo-Methode[Bearbeiten]

Die kinetische Monte-Carlo-Methode erlaubt es den zeitlichen Fortschritt eines Systems zu simulieren.

Verbreitete Programmpakete mit Monte-Carlo-Methoden[Bearbeiten]

  • PYTHIA ist ein Simulationsprogramm für die Teilchenphysik. Dabei werden möglichst viele verschiedene Äste eines Zerfall-Baumes realisiert, indem man bei jeder Astgabel zufällig einen Ast realisiert.
  • SHERPA ist ein Simulations-Programm für die Hochenergie-Teilchenphysik. Entstanden an der TU Dresden, wird es inzwischen von einer international verteilten Arbeitsgruppe um Frank Krauss entwickelt.
  • SPICE ist ein Simulationsprogramm für analoge, digitale und gemischte elektronische Schaltungen. Mit der Monte-Carlo-Simulation ist es möglich, die Auswirkungen der Streuung der Bauteilewerte innerhalb der angegebenen Toleranz zu berechnen.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Kurt Binder, Monte Carlo methods in statistical physics, Springer, Berlin [u. a.] 1979, ISBN 3-540-09018-5.
  • Kurt Binder, Applications of the Monte Carlo method in statistical physics, Berlin, Springer 1984, ISBN 3-540-12764-X.
  • Metropolis et al.: Equation of State Calculations by Fast Computing Machines. In: The Journal of Chemical Physics. Volume 21, Number 6, Juni 1953, S. 1087–1092.

Weblinks[Bearbeiten]

 Commons: Monte-Carlo-Simulation – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise[Bearbeiten]

  1. Christophe Andrieu, Nando de Freitas, Arnaud Doucet, Michael I. Jordan: An Introduction to MCMC for Machine Learning (PDF, 1,0 MB), In: Machine Learning 2003, Vol. 50, Band 1–2, S. 5–43.
  2. Douglas Hubbard: How to Measure Anything: Finding the Value of Intangibles in Business. John Wiley & Sons, 2007, S. 46.
  3. Charles Grinstead, J. Laurie Snell: Introduction to Probability. American Mathematical Society, 1997, S. 10–11.
  4. H. L. Anderson: "Metropolis, Monte Carlo and the MANIAC. (PDF, 829 kB) Los Alamos Science, Nr. 14, 1986, S. 96–108, 1986.