Fehlerfortpflanzung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Bei vielen Messaufgaben ist eine Größe nicht direkt messbar, sondern sie ist indirekt aus mehreren messbaren Größen nach einer festgelegten mathematischen Beziehung zu bestimmen. Da jeder Messwert der einzelnen Größen von seinem richtigen Wert abweicht (siehe Messabweichung[1], älterer Begriff Messfehler), wird auch das Ergebnis der Rechnung von seinem richtigen Wert abweichen. Die einzelnen Abweichungen werden mit der Formel übertragen. Man nennt dieses Fehlerfortpflanzung. Für die Fehlerfortpflanzung existieren Rechenregeln, mit denen die Abweichung des Ergebnisses bestimmt oder abgeschätzt werden kann.

Seit der Unterscheidung zwischen Messabweichung und Messfehler ist der Begriff Fehlerfortpflanzung als überholt anzusehen. Da sich noch kein neuer Begriff etabliert hat, wird zur sprachlichen Einheitlichkeit hier noch der Begriff Fehler beibehalten.

Aufgabe[Bearbeiten | Quelltext bearbeiten]

  • Häufig will man ein Ergebnis aus einer Größe oder im allgemeinen Fall aus mehreren Größen  ,  ,   berechnen. Mit fehlerbehafteter Bestimmung der Eingangsgröße(n) wird auch die Ergebnisgröße falsch berechnet. Nach groben Fehlern muss man neu rechnen. Sonst ist es eher angebracht, nur die Auswirkung des Fehlers bzw. der Fehler auf das Ergebnis zu bestimmen.
  • Mathematisch gesagt: Hat man eine Funktion mit mehreren unabhängigen Variablen , die um ein kleines falsch sind, so wird auch das Ergebnis falsch um ein kleines . Dieses sollte man berechnen können.
  • Messtechnisch gesagt: Hat man ein Messergebnis aus Messwerten verschiedener Größen auszurechnen, wobei diese Messwerte von ihren richtigen Werten abweichen, so wird man ein Ergebnis berechnen, das entsprechend auch vom richtigen Ergebnis abweicht. Die Größe der Abweichung des Messergebnisses sollte man ebenfalls ausrechnen können (im Rahmen des quantitativ Sinnvollen, siehe Fehlergrenze[1]).

Möglichkeiten, Einschränkungen[Bearbeiten | Quelltext bearbeiten]

Systematischer Fehler[Bearbeiten | Quelltext bearbeiten]

Systematische Fehler[1] sind im Prinzip bestimmbar, sie haben einen Betrag und ein Vorzeichen.

Beispiel: Man will die in einem Verbraucher umgesetzte elektrische Leistung berechnen und dazu den Strom durch den Verbraucher messen. Dazu schaltet man einen Strommesser in die Leitung. An dem Messgerät fällt aber eine Spannung ab; dadurch wird die Spannung am Verbraucher kleiner als die Speisespannung; dadurch wird bei einem ohmschen Verbraucher der Strom auch kleiner; man misst etwas zu wenig (negative Rückwirkungsabweichung, die sich bei bekannter Speisespannung und bei bekanntem Messgeräte-Innenwiderstand ausrechnen lässt). Die aus Speisespannung und gemessenem Strom berechnete Leistung wird damit auch zu niedrig angegeben.

Bei systematischen Fehlern der Eingangsgrößen lässt sich mittels der Fehlerfortpflanzungs-Regeln der systematische Fehler der Ausgangsgröße berechnen.

Messgerätefehler[Bearbeiten | Quelltext bearbeiten]

Ferner kann man nicht davon ausgehen, dass die vom Messgerät erfasste Größe ohne Messgerätefehler angezeigt wird. In seltenen Fällen kennt man anhand einer Fehlerkurve zu dem Messwert den zugehörigen systematischen Fehler. Im Allgemeinen kennt man von einem Messgerätefehler nur dessen Grenzwert, die Fehlergrenze.

Beispiel: Kann man den Strom im obigen Beispiel nur mit einer Fehlergrenze von 4 % bestimmen, kann die Fehlergrenze der Leistung nicht niedriger sein.

Bei Fehlergrenzen der Eingangsgrößen lässt sich mittels der Fehlerfortpflanzungs-Regeln die Fehlergrenze der Ausgangsgröße berechnen.

Zufälliger Fehler[Bearbeiten | Quelltext bearbeiten]

Soweit bisher behandelt, hat man mehrere Eingangsgrößen (unabhängige Variable, Messgrößen) und davon jeweils nur einen Wert. Anders ist es bei zufälligen Fehlern[1], die man erkennt, wenn von einer Eingangsgröße mehrere Werte vorliegen – gewonnen durch wiederholte Bestimmung (Messung) unter konstanten Bedingungen. Die Abschätzung zufälliger Fehler führt auf eine Komponente der Messunsicherheit[1][2]. Ihre Bestimmung ist ein Ziel der Fehlerrechnung.

Bei Unsicherheiten der Eingangsgrößen lässt sich mittels der Fehlerfortpflanzungs-Regeln die Unsicherheit der Ausgangsgröße berechnen.

Bei Messgerätefehlern kann man gemäß [1] davon ausgehen, dass der Betrag des zufälligen Fehlers wesentlich kleiner ist als die Fehlergrenze (anderenfalls ist auch der zufällige Fehler bei der Festlegung der Fehlergrenze zu berücksichtigen). Bei voneinander unabhängigen Messwerten, deren Qualität von den Fehlergrenzen der Messgeräte bestimmt wird, ist die Untersuchung zufälliger Fehler dann aber nicht sinnvoll.

Fehler des mathematischen Modells[Bearbeiten | Quelltext bearbeiten]

Die zu berechnende Größe muss durch die mathematische Formel korrekt beschrieben werden. Um leichter rechnen zu können oder mangels vollständiger Kenntnis weicht man aber oft auf Näherungen aus.

Beispiel: Die Speisespannung im obigen Beispiel wird als bekannt angenommen, wie das bei Bezug aus einer Konstantspannungsquelle zulässig ist. Falls die Quelle aber belastungsabhängig ist, ist ihre Kenngröße „Leerlaufspannung“ nicht mehr die Speisespannung; es entsteht ein weiterer Fehler.

Ein Fehler der Ausgangsgröße, welcher aufgrund eines unzureichenden mathematisches Modells für den Zusammenhang mit den Eingangsgrößen entsteht, lässt sich mit Fehlerfortpflanzungs-Regeln nicht berechnen.

Regeln zur Fehlerfortpflanzung[Bearbeiten | Quelltext bearbeiten]

Fehler[Bearbeiten | Quelltext bearbeiten]

Eine fehlerbehaftete Größe[Bearbeiten | Quelltext bearbeiten]

Der Einfluss einer fehlerbehafteten Eingangsgröße auf das Ergebnis kann mittels der Taylorreihe abgeschätzt werden:

.

Bei genügend kleinem kann man die Reihenentwicklung nach dem linearen Glied abbrechen, und man erhält dann die Näherungslösung

Dieses liefert eine Regel zur Fehlerfortpflanzung, wenn man die -Werte als absolute Fehler ansieht.

  • Anwendung bei Proportionalität
Für die Ausgangsgröße enthält deren absoluter Fehler die spezielle Proportionalitätskonstante . Besser rechnet man mit dem relativen Fehler , der unabhängig von ist und stets genauso groß wie der relative Fehler der Eingangsgröße .
  • Anwendung bei umgekehrter Proportionalität (Kehrwertbildung)
Der relative Fehler der Ausgangsgröße hat denselben Betrag wie der relative Fehler der Eingangsgröße, aber entgegengesetztes Vorzeichen.

Mehrere fehlerbehaftete Größen[Bearbeiten | Quelltext bearbeiten]

Bei mehreren voneinander unabhängigen Eingangsgrößen verwendet man die entsprechende Reihenentwicklung bis zum linearen Glied als Näherungslösung für kleine :

: Gesamtfehler des Ergebnisses
: Fehler der Eingangsgröße
:   relativer Fehler der Eingangsgröße
: relativer Fehler des Ergebnisses

Die allgemeine Lösung vereinfacht sich für die vier Grundrechenarten:

* Bei Addition      
* Bei Subtraktion
* Bei Multiplikation  
* Bei Division
Hinweis: Dabei sind Angaben mit ungewissem Vorzeichen (±) keine Angaben von Fehlern; der Unterschied zwischen Fehler und Fehlergrenze ist zu beachten. Bei Fehlergrenzen und Messunsicherheiten gelten andere Sachverhalte, siehe dazu die nächsten Abschnitte.

Die Formeln gelten nur, wenn die tatsächlichen Werte der Fehler mit Vorzeichen bekannt sind. Bei Fehlerfortpflanzung können sich die Fehler mehr oder weniger ergänzen oder aufheben.

Beispiel: Wenn um 2 % zu groß und um 3 % zu groß sind:
Dann wird bei der Multiplikation um 5 % zu groß.
Dann wird bei der Division um 1 % zu klein.
Zur Verdeutlichung eine Primitiv-Anwendung: Wer ausrechnen will, aber im Zähler eine um 2 % zu große Zahl einsetzt und im Nenner eine um 3 % zu große Zahl, berechnet und erhält 0,99. Dieses Ergebnis weicht vom richtigen Wert 1,00 um –1 % ab. Diese Feststellung zum Fehler kann man mit der Formel
= 2 % − 3 %     einfacher bekommen. Und das Minuszeichen vor ist offensichtlich richtig!

Fehlergrenzen[Bearbeiten | Quelltext bearbeiten]

Kennt man nicht die Fehler selber, sondern nur ihre Grenzen, so lässt sich derselbe mathematische Ansatz verwenden, wenn man die -Werte als Fehlergrenzen ansieht. Diese sind vorzeichenlos bzw. als Betrag definiert. Für das Ergebnis lässt sich so auch nur die Fehlergrenze ausrechnen; dazu muss man mit der ungünstigsten Vorzeichenkombination rechnen und Beträge addieren.

: Gesamtfehlergrenze des Ergebnisses
: Fehlergrenze der Eingangsgröße
:   relative Fehlergrenze der Eingangsgröße
: relative Fehlergrenze des Ergebnisses

Die allgemeine Lösung vereinfacht sich bei den vier Grundrechenarten:

* Bei Addition und Subtraktion
* Bei Multiplikation und Division  
Beispiel: Wenn um bis 2 % zu groß oder zu klein und um bis 3 % zu groß oder zu klein sein können:
Dann kann bei der Multiplikation wie bei der Division um bis 5 % zu groß oder zu klein sein.

Messunsicherheiten[Bearbeiten | Quelltext bearbeiten]

Eine fehlerbehaftete Größe[Bearbeiten | Quelltext bearbeiten]

Hat man von der Größe mehrere mit zufälligen Fehlern behaftete Werte mit , so bekommt man nach den Regeln der Fehlerrechnung für Normalverteilung gegenüber dem Einzelwert zu einer verbesserten Aussage durch Bildung des arithmetischen Mittelwertes :[2]

Jeder neu hinzukommende Wert verändert mit seinem individuellen zufälligen Fehler den Mittelwert und macht ihn somit unsicher. Die Unsicherheit , die dem berechneten Mittelwert anhaftet, ist gegeben durch:[2]

Anschaulich sind hier näherungsweise die quadrierten zufälligen Fehler addiert worden. Für große strebt die Unsicherheit gegen null, und bei Abwesenheit systematischer Fehler strebt der Mittelwert gegen den richtigen Wert.

Verwendet man in einer Rechnung zur Fehlerfortpflanzung als Eingangsgröße den Mittelwert , so wirkt sich dessen Unsicherheit auf die Unsicherheit des Ergebnisses aus. Bei genügend kleinem kann dieser Wert für die Fehlerfortpflanzung als in die lineare Näherung der Taylorreihe eingesetzt werden. Dabei muss man beachten, dass Unsicherheiten als Beträge definiert sind:[2]

Mehrere fehlerbehaftete Größen[Bearbeiten | Quelltext bearbeiten]

Voneinander unabhängige fehlerbehaftete Größen[Bearbeiten | Quelltext bearbeiten]

Bei mehreren voneinander unabhängigen Eingangsgrößen seien die Mittelwerte jeweils mit einer Unsicherheit bestimmt worden. Das Ergebnis wird aus den Mittelwerten berechnet. Zur Berechnung seiner Unsicherheit beginnt man wieder mit der linearen Näherung bei mehreren unabhängigen Variablen; allerdings muss man – wie bei der Berechnung der Unsicherheit – die quadrierten Beiträge der Einzel-Unsicherheiten addieren.[2]

Diese Gleichung „wurde früher „Gauß'sches Fehlerfortpflanzungsgesetz“ genannt“.[2][3] „Sie betrifft jedoch nicht die Fortpflanzung von Messabweichungen (früher „Fehler“), sondern die von Unsicherheiten.“

Die Gleichung vereinfacht sich für die vier Grundrechenarten:

* Bei Addition und Subtraktion          
* Bei Multiplikation und Division  

Das Gesetz ist nur anwendbar, wenn sich die Modellfunktion bei Änderungen der Einflussgrößen im Bereich ihrer Standardunsicherheiten hinreichend linear verhält. Ist dies nicht der Fall, ist das Rechenverfahren erheblich aufwändiger. Die Norm DIN 1319[3] und der „Leitfaden zur Angabe der Unsicherheit beim Messen“ geben Hinweise, wie eine unzulässige Nichtlinearität zu erkennen und zu umgehen ist. Außerdem ist Varianzhomogenität vorausgesetzt.

Voneinander abhängige fehlerbehaftete Größen[Bearbeiten | Quelltext bearbeiten]

Bei einer Abhängigkeit (Korrelation) zwischen fehlerbehafteten Größen muss das Gauß'sche Fehlerfortpflanzungsgesetz unter Einbeziehung der Kovarianzen oder der Korrelationskoeffizienten zwischen jeweils zwei Größen zum verallgemeinerten (generalisierten) Gauß'schen Fehlerfortpflanzungsgesetz erweitert werden:[2]

mit der Kovarianz . Für unabhängige Größen fallen die Korrelationsterme weg und es ergibt sich die Formel aus dem Abschnitt für unabhängige Größen. Die relative Unsicherheit einer Größe, die sich aus zwei vollkommen korrelierten Größen ableitet, kann dabei kleiner (besser) werden als die beiden relativen Unsicherheiten der Eingangsgrößen.

Das generalisierte Fehlerfortpflanzungsgesetz kann mit Hilfe des Matrixformalismus kompakt ausgedrückt werden als:[4]

wobei und die jeweiligen Kovarianzmatrizen der Vektoren und sind und die Jacobi-Matrix . Die Unsicherheiten in erhält man nun aus den Wurzeln der Diagonalelemente .

Belege[Bearbeiten | Quelltext bearbeiten]

  1. a b c d e f DIN 1319-1
  2. a b c d e f g DIN 1319-3
  3. a b DIN 1319-4
  4. Roger J. Barlow: A Guide to the Use of Statistical Methods in the Physical Sciences Wiley, Chichester 1989, ISBN 0-471-92295-1, S. 60.