Fehlerrechnung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Es ist grundsätzlich nicht möglich, fehlerfrei zu messen. Die Abweichungen der Messwerte von ihren wahren Werten wirken sich auf ein Messergebnis aus, so dass dieses ebenfalls von seinem wahren Wert abweicht. Die Fehlerrechnung versucht, die Einflussnahme der Messfehler auf das Messergebnis quantitativ zu bestimmen.

Abgrenzung[Bearbeiten]

Der Begriff Fehlerrechnung kann verschieden verstanden werden.

  • Häufig will man ein Messergebnis y\ aus einer Messgröße x\ oder im allgemeinen Fall aus mehreren Messgrößen  x_1 \,,\ x_2 \,,\ \dots\ mittels einer bekannten Gleichung berechnen. Bei fehlerhafter Bestimmung der Eingangsgröße(n) wird auch die Ausgangsgröße falsch bestimmt, denn die Einzelabweichungen werden mit der Gleichung y= y(x)\ bzw. y= y(x_1 \,,\ x_2 \,,\ \dots\ ) übertragen und führen zu einer Abweichung des Ergebnisses. Man nennt dieses Fehlerfortpflanzung. Unter diesem Stichwort werden Formeln angegeben getrennt für die Fälle, dass die Abweichungen bekannt sind als
  1. systematische Fehler bzw. systematische Abweichungen,
  2. Fehlergrenzen oder
  3. Unsicherheiten infolge zufälliger Fehler bzw. zufälliger Abweichungen.
Kennzeichnend ist hier: Man hat im allgemeinen Fall mehrere Größen x_i und zu jeder Größe einen Messwert.
  • Wenn man die Messung einer der Größen x_i unter gleichen Bedingungen wiederholt, stellt man häufig fest, dass sich die Einzelmesswerte unterscheiden; sie streuen. Sie haben dann
zufällige Fehler bzw. zufällige Abweichungen.
Nachfolgend werden Formeln angegeben zur Berechnung eines von diesen Fehlern möglichst befreiten Wertes und zu dessen verbleibender Messunsicherheit.
Kennzeichnend ist hier: Man hat zu einer Größe x_i   mehrere Messwerte.

Normalverteilung[Bearbeiten]

Häufigkeitsverteilung streuender Messwerte

Die Streuung von Messwerten kann man sich in einem Diagramm veranschaulichen. Man teilt den Bereich der möglichen Werte in kleine Bereiche mit der Breite b ein und trägt zu jedem Bereich auf, wie viele gemessene Werte in diesem Bereich vorkommen, siehe Beispiel in nebenstehendem Bild.

Normalverteilung streuender Messwerte

Bei der Gauß– oder Normalverteilung (nach Carl Friedrich Gauß) lässt man die Anzahl der Messungen N → ∞ gehen und zugleich b → 0. Bei dem Diagramm geht der gestufte Verlauf über in eine stetige Kurve. Diese beschreibt

  • die Dichte der Messwerte in Abhängigkeit vom gemessenen Wert und außerdem
  • für eine zukünftige Messung, welcher Wert mit welcher Wahrscheinlichkeit zu erwarten ist.

Mit der mathematischen Darstellung der Normalverteilung lassen sich viele statistisch bedingte natur-, wirtschafts- oder ingenieurwissenschaftliche Vorgänge beschreiben. Auch zufällige Messabweichungen können in ihrer Gesamtheit durch die Parameter der Normalverteilung beschrieben werden. Diese Kenngrößen sind

  • der arithmetische Mittelwert über alle Messwerte, genannt Erwartungswert. Dieser ist so groß wie die Abszisse des Maximums der Kurve. Zugleich liegt er an der Stelle des wahren Wertes.
  • die Standardabweichung als Maß für die Breite der Streuung der Messwerte. Sie ist so groß wie der horizontale Abstand eines Wendepunktes vom Maximum. Im Bereich zwischen den Wendepunkten liegen etwa 68 % aller Messwerte.

Unsicherheit einer einzelnen Messgröße[Bearbeiten]

Das Folgende gilt bei Abwesenheit von systematischen Fehlern und bei normalverteilten zufälligen Fehlern.

Schätzwerte der Parameter[Bearbeiten]

Hat man von der Größe x\ mehrere mit zufälligen Fehlern behaftete Werte v_j \ mit j = 1 ... N, so bekommt man gegenüber dem Einzelwert zu einer verbesserten Aussage durch Bildung des arithmetischen Mittelwertes \bar v

\bar{v}=\frac{1}{N} \sum_{j=1}^N{v_j}

Die (empirische) Standardabweichung s\ ergibt sich aus

 s = \sqrt {\frac{1}{N-1} \sum_{j=1}^N{(v_j-\bar{v})^2}}

Diese Größen sind Schätzwerte für die Parameter der Normalverteilung. Durch die endliche Zahl der Messwerte unterliegt auch der Mittelwert noch zufälligen Fehlern. Ein Maß für die Breite der Streuung des Mittelwertes ist die Unsicherheit u\

u =\frac{1}{\sqrt{N}}\cdot s

Diese wird umso kleiner, je größer N wird. Sie kennzeichnet zusammen mit dem Mittelwert einen Wertebereich \bar {v}-u \ \cdots \ \bar {v}+u , in dem der wahre Wert der Messgröße erwartet wird.

Vertrauensniveau[Bearbeiten]

Diese Erwartung wird nur mit einer gewissen Wahrscheinlichkeit erfüllt. Will man Letztere auf ein konkretes Vertrauensniveau festlegen, so muss man einen Bereich (ein Konfidenzintervall) \bar {v}-t \cdot u \ \cdots \ \bar {v}+t \cdot u festlegen, in dem der wahre Wert mit dieser Wahrscheinlichkeit liegt. Je höher die Wahrscheinlichkeit gewählt wird, desto breiter muss der Bereich sein. Der Faktor t berücksichtigt das gewählte Vertrauensniveau und die Anzahl der Messungen insoweit, als mit einer kleinen Zahl N die statistische Behandlung noch nicht aussagekräftig ist. Wählt man die oben genannte Zahl 68 % als Vertrauensniveau und N > 12, so ist t = 1,0. Für das in der Technik vielfach verwendete Vertrauensniveau von 95 % und für N > 30 ist t = 2,0. Eine Tabelle mit Werten von t (Studentsche t-Verteilung) befindet sich in DIN 1319-3.

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]