GUM (Norm)

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 21. November 2015 um 18:51 Uhr durch JvA43 (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen

GUM ist die Abkürzung für den 1993 veröffentlichten und zuletzt 2008 überarbeiteten ISO/BIPM-Leitfaden „Guide to the Expression of Uncertainty in Measurement“. Maßgebliche deutsche Fassung ist die Vornorm DIN V ENV 13005 (aktuelle Ausgabe:1999-06) Leitfaden zur Angabe der Unsicherheit beim Messen.

Entstehungsgeschichte

Die Anfänge des GUM reichen bis in das Jahr 1978 zurück. Zu jener Zeit hatte eine deutsche Großforschungseinrichtung ein „Seminar über die Angabe der Messunsicherheit“ veranstaltet. Im Rahmen des Seminars wurde deutlich, dass das uns von Carl Friedrich Gauß übergebene Konzept der Fehlerrechnung unvollständig und die Fehlerrechnung damit zu revidieren sei. In der Tat hatte Gauß einen zweiten, von ihm selbst sehr wohl erkannten und diskutierten Fehler, den „unbekannten systematischen Fehler“, nicht in seinen Formalismen zum Tragen gebracht. Vor dem Hintergrund fortgeschrittener Methoden der Metrologie ließ sich diese Maßnahme jedoch nicht länger vertreten.

Es gab bis dahin also kein einheitlich praktiziertes Verfahren, statistische und nicht-statistische Einflussgrößen auf ein Messergebnis gemeinsam in einem geschlossenen Formalismus zu bewerten. Vor diesem Hintergrund wurden der Begriff der Messunsicherheit definiert und teilweise neue Methoden zu seiner Bestimmung entwickelt. Allerdings sah sich der GUM, parallel zu seinem Entstehen in den Folgejahren, stets der Kritik ausgesetzt. 1995 wurde der GUM mit einem Korrekturblatt versehen, 2008 überarbeitet, um ein Beiblatt ergänzt und neu herausgegeben. Das Beiblatt beschreibt die Anwendung der Monte-Carlo-Methode zur Ermittlung der Messunsicherheit.

Eine Revision des GUM wurde im Jahr 2014 begonnen.[1]

Ziel und Methoden

Ziel des Leitfadens ist eine international einheitliche Vorgehensweise beim Ermitteln und Angeben von Messunsicherheiten, um Messergebnisse weltweit vergleichbar zu machen.

Zur Bewertung aller Einflussgrößen auf eine Messung stehen zwei Kategorien von Methoden zur Verfügung, die auch kombiniert werden können:

  • Typ A: Berechnung der Messunsicherheit durch statistische Analyse der Messungen
  • Typ B: Berechnung der Messunsicherheit mit anderen Mitteln als der statistischen Analyse

Dabei wird für jede Einflussgröße angegeben, mit welcher Methode sie bewertet wird und wie stark sie die gesamte Messunsicherheit beeinflusst. Diese Vorgehensweise soll helfen, eine realistische und nachvollziehbare Messunsicherheit zu ermitteln. Bedeutung hat der GUM vor allem beim Kalibrieren gewonnen, er kann und sollte jedoch auf alle Situationen des Messens angewendet werden. Bei Kalibrierscheinen von akkreditierten Kalibrierlaboratorien, beispielsweise im Deutschen Kalibrierdienst (DKD), ist der GUM die verbindliche Grundlage zur Ermittlung der Messunsicherheit.

Gedanken zum und Kritik am GUM

Von seinen Befürwortern wird der GUM als technische Vorschrift gesehen, die helfen soll, Messungen auf einheitlicher Basis quantitativ zu bewerten. Demgegenüber weisen die Gegner des GUM darauf hin, dass Messunsicherheiten „Ordnungshüter“ in Wissenschaft und Technik seien, die die Objektivität der Aussagen gewährleisten. Da der GUM nicht das Ziel verfolgt, die wahren Werte der Messgrößen mit Hilfe von Intervallen einzuschachteln oder zu lokalisieren, sind GUM-Messunsicherheiten keine „Ordnungshüter“. Der Experimentator weiß nicht, ob seine Messunsicherheit den wahren Wert der Messgröße lokalisiert oder nicht. Übertragen auf die Verknüpfung von Messresultaten und die Fehlerfortpflanzung wäre bei Anwendung der GUM damit zu rechnen, dass an sich wohldefinierten physikalischen Konstanten letztlich unphysikalische Werte zugewiesen werden, dass Widersprüche auftreten, die physikalisch nicht existieren und Übereinstimmungen festgestellt werden, die real nicht vorliegen.

Wenn es Aufgabe der Metrologie ist, die Objektivität in Wissenschaft und Technik zu gewährleisten, müssen Verfahren zum Schätzen von Messunsicherheiten wissenschaftlichen Kriterien genügen, sie rein technisch zu sehen und zu handhaben, widerspräche der Aufgabe der Metrologie, Hüterin der Ordnung zu sein.

Kritisch gesehen wird insbesondere die Anwendung des Bayes-Theorems.[2]

Siehe auch

Literatur

Weblinks

Einzelnachweise

  1. News from the JCGM-WG1 PDF-Download. Abgerufen am 14. März 2015.
  2. Kritische Anmerkungen zur Bayes-Schätzung auf der Seite Denkfallen und Paradoxa von Timm Grams