Ausgleichungsrechnung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Ausgleichungsrechnung (auch Ausgleichsrechnung, Ausgleichung, Parameterschätzung, Anpassung, Regression oder Fit(ting) genannt) ist eine mathematische Optimierungsmethode, um für eine Reihe von Messdaten die unbekannten Parameter ihres geometrisch-physikalischen Modells oder die Parameter einer vorgegebenen Funktion zu bestimmen (zu schätzen). In der Regel werden mit ihr überbestimmte Probleme gelöst.

Ziel der Ausgleichung ist, dass sich das endgültige Modell bzw. die Funktion den Daten und ihren unvermeidlichen kleinen Widersprüchen bestmöglich anpasst. Im Allgemeinen wird die Berechnung mit der Methode der kleinsten Quadrate durchgeführt. Diese Methodik bedeutet, dass an den Parametern kleine Verbesserungen angebracht werden, so dass die Summe der Quadrate aller einzelnen Abweichungen zwischen Mess- und Modelldaten minimal werden soll. Bei zufällig verteilten Modell- oder Messfehlern führt dies zum wahrscheinlichsten Wert für die zu berechnenden Unbekannten. Die verbleibenden kleinen Reste werden Residuen genannt und lassen Aussagen über die Genauigkeit und Zuverlässigkeit des Mess- und Datenmodells zu.

Ausgleichung und Approximationstheorie[Bearbeiten]

Da kleine Widersprüche in allen redundanten, auf Zuverlässigkeit geprüften Daten auftreten (siehe auch Überbestimmung), ist der Umgang mit diesen meist statistisch verteilten Restabweichungen zur wichtigen Aufgabe in verschiedenen Wissenschaften und der Technik geworden. Neben der glättenden Wirkung auf streuende Daten wird die Ausgleichungsrechnung auch zur Milderung von Diskrepanzen etwa in den Sozialwissenschaften verwendet.

Diese Suche nach den naturnahen, wahrscheinlichsten Werten von Systemen oder Messreihen ist in der Sprache der Approximationstheorie die Schätzung von unbekannten Parametern eines mathematischen Modells. Die dabei meist verwendete Methode der kleinsten Quadrate (englisch least mean squares oder kurz least squares) entspricht dem Gauß-Markow-Modell. Im einfachsten Fall hat eine Ausgleichung zum Ziel, eine größere Anzahl empirischer Mess- oder Erhebungsdaten durch eine Kurve zu beschreiben und die Restabweichungen (Residualkategorie) zu minimieren. Eine solche Kurvenanpassung kann auch erstaunlich genau freiäugig-grafisch durch Betrachten der Datenreihe durchgeführt werden, was die naturnahe Charakteristik der Quadratabweichungsminimierung unterstreicht.

Die Ausgleichungsrechnung wurde um 1800 von Carl Friedrich Gauß für ein Vermessungsnetz der Geodäsie und für die Bahnbestimmung von Planetoiden entwickelt. Seither werden Ausgleichungen in allen Natur- und Ingenieurwissenschaften durchgeführt, bisweilen auch in den Wirtschafts- und Sozialwissenschaften. Die Ausgleichung nach dem Gauß-Markow-Modell liefert das bestmögliche Ergebnis, wenn die Residuen zufällig sind und einer Normalverteilung folgen. Unterschiedlich genaue Messwerte werden durch Gewichtung abgeglichen.

Enthalten die Messungen oder Daten allerdings auch systematische Einflüsse oder grobe Fehler, dann ist das ausgeglichene Ergebnis verfälscht und die Residuen weisen einen Trend hinsichtlich der Störeinflüsse auf. In solchen Fällen sind weitere Analysen erforderlich wie etwa eine Varianzanalyse oder die Wahl eines robusten Schätzverfahrens.

Einführung[Bearbeiten]

Im einfachsten Fall handelt es sich um die Ausgleichung der Messabweichungen (Verbesserung, Residuum) nach der Methode der kleinsten Quadrate. Hierbei werden die Unbekannten (die Parameter) des Modells so bestimmt, dass die Quadratsumme der Messabweichungen aller Beobachtungen minimal wird. Die geschätzten Parameter stimmen dann erwartungstreu mit dem theoretischen Modell überein. Alternativ kann die Ausgleichung auch nach einer anderen Residuenbewertungsfunktion erfolgen, z. B. durch Minimierung der Summe oder des Maximums der Beträge der Messabweichungen.

Damit handelt es sich um ein Optimierungsproblem. Die Rechenschritte einer Ausgleichung vereinfachen sich wesentlich, wenn die Beobachtungen als normalverteilt und unkorreliert angesehen werden können. Falls ungleiche Genauigkeiten der Messgrößen vorliegen, kann dies durch Gewichtung berücksichtigt werden. Weitergehende stochastische Eigenschaften der Beobachtungen können in der Regressionsanalyse ergründet werden.

Funktionales und stochastisches Modell[Bearbeiten]

Jeder Ausgleichung geht eine Modellbildung voraus. Hierbei wird im Allgemeinen zwischen funktionalem Modell und stochastischem Modell unterschieden.

  • Ein funktionales Modell beschreibt hierbei die mathematischen Relationen zwischen den bekannten (konstanten), unbekannten und den beobachteten Parametern. Die Beobachtungen stellen dabei stochastische Größen (Zufallsvariable) dar, z. B. mit zufälligen Störungen überlagerte Messungen.
    • Als einfaches Beispiel sei ein Dreieck genannt, in dem überzählige Messungen zu geometrischen Widersprüchen führen (z. B. Winkelsumme ungleich 180°). Das funktionale Modell dazu sind die Formeln der Trigonometrie, die Störungen können z. B. kleine Zielabweichungen bei jeder Winkelmessung sein.
  • Das stochastische Modell beschreibt die Varianzen und Kovarianzen der beobachteten Parameter.

Das Ziel der Ausgleichung ist eine optimale Ableitung der unbekannten Werte (Parameter, z. B. die Koordinaten der Messpunkte) und der Maße für ihre Genauigkeit und Zuverlässigkeit im Sinne einer Zielfunktion. Für letztere wählt man meistens die minimale Summe der Abweichungsquadrate, doch können es für Sonderfälle beispielsweise auch minimale Absolutwerte oder andere Zielfunktionen sein.

Lösungsverfahren[Bearbeiten]

Je nach funktionalem und stochastischem Modell werden verschiedene Ausgleichungsmodelle benutzt.

Das Hauptunterscheidungsmerkmal dabei ist,

  • ob sich alle Beobachtungen als Funktionen von Unbekannten und Konstanten darstellen lassen,
  • ob die Beobachtungen voneinander stochastisch unabhängig oder korreliert sind,
  • ob die Relationen nur Beobachtungen und Konstanten aufweisen, jedoch keinerlei Unbekannte enthalten,
  • ob es unter der Menge der Relationen auch solche gibt, die ausschließlich Beziehungen unter Konstanten und Unbekannten beschreiben und damit Restriktionen zwischen Unbekannten beschreiben.
  • Bei gemischtem Auftreten von sehr verschiedenen Messgrößen – etwa bei geometrischen und physikalischen Messungen – wurden die Methoden der Ausgleichsrechnung von einigen Mathematikern und Geodäten um 1970 zur sogenannten Kollokation erweitert. Sie wird unter anderem für die Geoidbestimmung verwendet, siehe H. Moritz, H. Sünkel und C.C. Tscherning.

Die Ausgleichungsmodelle heißen:

  • Ausgleichung nach vermittelnden Beobachtungen: Die einzelnen Beobachtungen sind Funktionen der unbekannten Parameter.
  • Ausgleichung nach vermittelnden Beobachtungen mit Bedingungen zwischen den Unbekannten: Es bestehen zusätzliche Bedingungen zwischen den unbekannten Parametern.
  • Ausgleichung nach bedingten Beobachtungen (bedingte Ausgleichung): Es werden Bedingungsgleichungen für die Beobachtungen aufgestellt, in denen die unbekannten Parameter nicht vorkommen. Die unbekannten Parameter können dann aus den ausgeglichenen Beobachtungen berechnet werden.
  • Allgemeinfall der Ausgleichung: Es werden funktionale Beziehungen zwischen Beobachtungen und Parametern aufgestellt, in denen die Beobachtungen nicht explizit als Funktion der Parameter vorkommen.

Grafisches Verfahren[Bearbeiten]

Dieselben Messpunkte mit zwei verschiedenen Ausgleichslinien

Während dem mathematischen Lösungsverfahren ein Modell zugrunde gelegt werden muss, ist das grafische Verfahren ohne solche Annahme möglich. Hier wird eine stetig gekrümmte ausgleichende Linie den Messpunkten angenähert. Je nach Hintergrundwissen (Erwartung an den Verlauf) oder persönlicher Bewertung (einzelne Messpunkte als „Ausreißer“) kann die Linie allerdings durchaus unterschiedlich ausfallen.

Unterschiede zwischen Regression und Fit[Bearbeiten]

Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Die fraglichen Angaben werden daher möglicherweise demnächst entfernt. Bitte hilf der Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst. Näheres ist eventuell auf der Diskussionsseite oder in der Versionsgeschichte angegeben. Bitte entferne zuletzt diese Warnmarkierung.
Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Regression und Fit bzw. Methode der kleinsten Quadrate sind nicht synonym und unterscheiden sich in den Problemstellungen und den auszuwertenden Daten.

Regression[Bearbeiten]

Eine Regression untersucht eine mögliche Korrelation zwischen Datenpunkten mit einem angenommenen inneren Zusammenhang (hier zweidimensional (x,y(x))). Dabei haben die Datenpunkte keine Unsicherheiten bzw. Messfehler; sie werden als konstant und fest angenommen. Mit einer angenommenen kontinuierlichen Funktion untersucht die Regression, wie sehr sich die Datenpunkte mit der angenommenen Funktion beschreiben lassen. Die resultierenden Regressionsparameter (bei einem linearen Zusammenhang z. B. a,b) der Regressionsfunktion sind stochastische Größen: \hat y(x)=\hat a\cdot x + \hat b + \epsilon.

Beispiel für Regression: Für die Wertepaare \left(x,y\right) wird ein linearer Zusammenhang (Regressionsgerade) angenommen. Die Stützstellen x_i sind konstant; hingegen unterliegen die Abstände \epsilon_ider y_i einem stochastischen Modell.

Fit[Bearbeiten]

Unter einem Fit wird eine Funktionsanpassung verstanden unter Berücksichtigung von Messfehlern oder Unsicherheiten der Messpunkte \left(x,y\pm\delta_{y}\right). Die resultierenden Funktionsparameter sind dann wie die Messwerte mit einer Unsicherheit behaftet. Die geläufigste Methode eines Fits ist die Methode der kleinsten Quadrate, wobei eine gaußverteilte Messwertunsicherheit angenommen wird. Das Ergebnis eines Fits ist immer eine Kurvenschar, in der der „wahre“ funktionale Zusammenhang mit einer gewissen Wahrscheinlichkeit liegt: Y=\left(A\pm\delta_{a}\right)\cdot X + \left(B\pm\delta_{b}\right)

Genauer: Das Ergebnis zu einer Fitfunktion F\left(x;a,b,\cdots\right) ist ein Satz der wahrscheinlichsten Funktionsparameter und die Kovarianzmatrix mit den Fehlern und Korrelationen der Parameter:

P=\left(\begin{array}{c}A \\ B \\ \vdots\end{array}\right),\qquad\delta_{P}=\left(
\begin{array}{ccc}
\delta_{\color{red}{a}} \delta_{\color{red}{a}} & \delta_{\color{red}{a}} \delta_{\color{blue}{b}} & \cdots\\
\delta_{\color{blue}{b}} \delta_{\color{red}{a}} & \delta_{\color{blue}{b}} \delta_{\color{blue}{b}} & \cdots \\
\vdots                & \vdots                & \ddots
\end{array}\right)

Vergleichbar ist ein einzelner Messwert mit Fehler, hier liegt der „wahre“ Wert mit einer gewissen Wahrscheinlichkeit innerhalb der Fehlerbalken; der zentrale Wert ist hierbei nur der wahrscheinlichste Wert.

Fit mit einem linearen Zusammenhang der Datenpunkte. Die Datenpunkte haben alle den gleichen Fehler. Das Ergebnis des Fits ist mit einer gewissen Wahrscheinlichkeit der „wahre“ funktionale Zusammenhang zwischen den Datenpunkten.
Fit mit einem linearen Zusammenhang. Der Fehler eines Datenpunktes ist hier die Wurzel aus dem Messwert. Obwohl die Zentralwerte der Messpunkte und das zentrale Fitergebnis gleich sind wie im Beispiel zuvor, ist die Kurvenschar aller wahrscheinlichen Funktionen eine andere.

Zusammenfassung[Bearbeiten]

Beide Methoden können in Spezialfällen die gleichen Funktionsparameter liefern, zum Beispiel bei linearen Zusammenhängen mit gleichen Unsicherheiten der Messwerte beim Fit.

Bei Fits ist die Methode der kleinsten Quadrate nur bedingt geeignet, wenn Datenpunkte Fehler haben, die nicht gaußförmig verteilt sind. Auch muss bei einer Transformation von Datenpunkten beachtet werden, dass die Unsicherheiten der Datenpunkte ebenso mittransformiert werden müssen (Beispiel: eine exponentielle Verteilung mit Unsicherheiten soll linearisiert werden).

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

Weblinks[Bearbeiten]