Maximum-Entropie-Methode

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Maximum-Entropie-Methode oder MEM ist eine Methode der Bayesschen Statistik, die erlaubt, trotz mangelhafter problemspezifischer Information eine A-priori-Wahrscheinlichkeit zuzuweisen. Sie ersetzt frühere Ansätze wie etwa das von Laplace formulierte „Prinzip vom unzureichenden Grunde“.

Ursprung und Vorgehensweise[Bearbeiten]

Die Methode wurde 1957 von Edwin Thompson Jaynes in Anlehnung an Methoden der statistischen Mechanik und der Shannonschen Informationstheorie eingeführt.[1] Grundlage ist, in Abwesenheit von Information die Entropie der A-priori-Wahrscheinlichkeit zu maximieren, da jede andere Zuweisung willkürliche Einschränkungen der betrachteten Situation träfe. Die Maximum-Entropie-Methode legt sich so wenig wie möglich fest. Jaynes zufolge [2] ist dies aber nur der letzte Schritt, um nach Einfüllen aller vorhandenen Information etwaige noch bestehende Lücken zu schließen.

In der statistischen Physik bedeutet dies:„Unter allen Zuständen eines physikalischen Systems, die kompatibel mit dem vorhandenen Wissen über das System sind, ist jener zu wählen, welcher die Entropie maximiert.

Die Methode wird zur optimalen Extraktion von Information aus verrauschten Signalen in Abhängigkeit von dem Signal-Rausch-Verhältnis verwendet. Sie findet in der Spektralanalyse und der digitalen Bildverarbeitung Anwendung.

Anwendungen in den Wirtschaftswissenschaften[Bearbeiten]

Ein relativ neues Anwendungsgebiet der MEM stellt die Makroökonomik dar. Im Rahmen der ökonophysikalischen Strömung, die abseits des wirtschaftswissenschaftlichen Mainstreams verschiedene Methoden der statistischen Mechanik auf die Modellierung der Wirtschaft anwendet, kam es zur Verwendung der MEM.[3]

Anwendungen in der Ökologie[Bearbeiten]

In der Biogeographie wird die Maximum-Entropie-Methode zur Modellierung von Verbreitungsgebieten verwendet. Ein Beispiel dafür ist die Software Maxent. [4]

Literatur[Bearbeiten]

  •  Edwin Thompson Jaynes: Information Theory and Statistical Mechanics. In: The Physical Review. 106, Nr. 4, 15. Mai 1957, S. 620–630 (pdf).
  •  Nailong Wu: The Maximum Entropy Method. Springer, Berlin 1997, ISBN 978-3-540-61965-9.

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1.  Edwin Thompson Jaynes: Information Theory and Statistical Mechanics. In: The Physical Review. 106, Nr. 4, 15. Mai 1957, S. 620–630 (pdf).
  2.  Persi Diaconis: A Frequentist Does This, A Bayesian That. In: SIAM News. 13. März 2004 (volltext, abgerufen am 28. Dezember 2007).
  3. Duncan K. Foley: Statistical Equilibrium in Economics: Method, Interpretation, and an Example (Version vom 8. September 2006 im Internet Archive) In: XII Workshop on “General Equilibrium: Problems, Prospects and Alternatives” 07-1999 New School University, New York.
  4. Steven J. Phillips, Miroslav Dudík, Robert E. Schapire (2006): Maximum entropy modeling of species geographic distributions. Ecological Modelling 190, 231-259. pdf