Probably Approximately Correct Learning

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Wahrscheinlich Annähernd Richtiges Lernen (WARL) oder englisch Probably approximately correct learning (PAC learning) ist ein Framework für das maschinelle Lernen, das von Leslie Valiant in seinem Paper A theory of the learnable[1] eingeführt wurde.

In diesem Framework erhält die lernende Einheit Beispiele, die gemäß einer bestimmten Funktion klassifiziert sind. Das Ziel des Trainings ist es, mit großer Wahrscheinlichkeit eine Annäherung dieser Funktion zu finden. Man erwartet von der lernenden Einheit, das Konzept mit einer beliebigen Annäherungsrate, einer beliebigen Erfolgswahrscheinlichkeit und einer beliebigen Verteilung der Beispiele zu lernen.

Definition[Bearbeiten]

Das PAC-Framework erlaubt eine genaue mathematische Analyse von Lernverfahren. H sei der endliche Hypothesenraum. \epsilon sei die gewünschte Genauigkeit des vom Lernverfahren erzeugten Klassifikators bei ungesehenen Daten. \delta sei die Wahrscheinlichkeit, dass das Lernverfahren so einen Klassifikator nicht erzeugen kann. Es gelte 0 < \epsilon < 0.5 und 0 < \delta < 0.5. Einem konsistenten Lernverfahren reichen dann m Trainingsbeispiele aus, um einen Klassifikator mit den Anforderungen von \epsilon und \delta zu lernen. Mit anderen Worten, m Trainingsbeispiele reichen aus, um mit der Wahrscheinlichkeit von 1-\delta ein PAC-lernbares Problem so zu lernen, dass auf neuen Daten eine Fehlerrate von maximal 1-\epsilon zu erhalten. Dabei muss die Laufzeit bis zur Ausgabe des Klassifikators polynomiell in \frac{1}{\epsilon}, \frac{1}{\delta} und m sein. Für m gilt dabei

m\geq\frac{1}{\epsilon}\left(\ln(|H|)+\ln\left(\frac{1}{\delta}\right)\right)

Herleitung[Bearbeiten]

Die Abschätzung für m ist eng mit dem Versionsraum verbunden. Ein konsistentes Lernverfahren gibt definitionsgemäß eine Hypothese aus dem Versionsraum aus. Jede Hypothese im Versionsraum ist konsistent mit den Trainingsdaten, kann jedoch auf ungesehenen Daten Fehler machen. Seien h_1,\ldots,h_\ell die Hypothesen, die einen echten Fehler mit Wahrscheinlichkeit größer \epsilon machen. So eine Hypothese ist mit Wahrscheinlichkeit 1-\epsilon mit einem zufälligen Beispiel und mit Wahrscheinlichkeit (1-\epsilon)^m mit m Beispielen konsistent. Existiert mindestens eine solche Hypothese, dann ist sie Teil des Versionsraums und könnte von einem konsistenten Lernverfahren als Hypothese ausgegeben werden. Die Wahrscheinlichkeit, dass im Versionsraum eine solche Hypothese enthalten ist, ist nach oben beschränkt durch \ell (1-\epsilon)^m. Man benötigt eine Abschätzung in Abhängigkeit von der Anzahl an Trainingsbeispielen. Es gilt \ell (1 - \epsilon)^m \leq |H|(1-\epsilon)^m \leq |H| e^{- \epsilon m}. In mindestens 1-\delta aller Fälle soll nach obiger Forderung keine Hypothese mit echtem Fehler größer als \epsilon im Versionsraum enthalten sein, d.h. 1-|H| e^{-\epsilon m} > 1-\delta. Damit folgt |H| e^{-\epsilon m} \leq \delta und Auflösung nach m ergibt

m \geq \frac{1}{\epsilon}\left(\ln(|H|)+\ln\left(\frac{1}{\delta}\right)\right).

Die Abschätzung für die Anzahl benötigter Beispiele m ist meist sehr grob und in der Praxis reichen weniger Beispiele aus. Dieses Modell wurde noch erweitert, um mit Rauschen, also falsch klassifizierten Beispielen, umgehen zu können.

Referenzen[Bearbeiten]

  1.  L. G. Valiant: A Theory of the Learnable. In: Communications of the ACM. 27(11), 1984, S. 1134-1142.[1] (PDF; 806 kB)

Literatur[Bearbeiten]

  •  M. Kearns, U. Vazirani: An Introduction to Computational Learning Theory. MIT Press, 1994, ISBN 0262111934.
  •  Tom M. Mitchell: Machine Learning. McGraw-Hill Education, 1997, ISBN 0071154671.

Weblinks[Bearbeiten]