„Maschinelles Lernen“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][ungesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
→‎Software: Ergänzung ML.NET, wovon Infer.NET mittlerweile ein Bestandteil ist
Zeile 6: Zeile 6:
Das Thema ist eng verwandt mit „[[Knowledge Discovery in Databases]]“ und „[[Data-Mining]]“, bei dem es jedoch vorwiegend um das Finden von ''neuen'' Mustern und Gesetzmäßigkeiten geht. Viele Algorithmen können für beide Zwecke verwendet werden. Außerdem können Methoden der „Knowledge Discovery in Databases“ genutzt werden, um Lerndaten für „maschinelles Lernen“ zu produzieren oder vorzuverarbeiten, und Algorithmen aus dem maschinellen Lernen finden beim Data-Mining Anwendung.
Das Thema ist eng verwandt mit „[[Knowledge Discovery in Databases]]“ und „[[Data-Mining]]“, bei dem es jedoch vorwiegend um das Finden von ''neuen'' Mustern und Gesetzmäßigkeiten geht. Viele Algorithmen können für beide Zwecke verwendet werden. Außerdem können Methoden der „Knowledge Discovery in Databases“ genutzt werden, um Lerndaten für „maschinelles Lernen“ zu produzieren oder vorzuverarbeiten, und Algorithmen aus dem maschinellen Lernen finden beim Data-Mining Anwendung.


== Symbolische und nicht-symbolische Systeme<ref>{{Literatur |Autor=Pat Langley |Titel=The changing science of machine learning |Sammelwerk=Machine Learning |Band=82 |Nummer=3 |Datum=2011-02-18 |ISSN=0885-6125 |DOI=10.1007/s10994-011-5242-y |Seiten=275–279 |Online=https://link.springer.com/article/10.1007%2Fs10994-011-5242-y |Abruf=2018-12-03}}</ref>==
== Symbolische und subsymbolische Systeme ==
Beim maschinellen Lernen spielen Art und Mächtigkeit der [[Wissensrepräsentation]] eine wichtige Rolle. Man unterscheidet zwischen symbolischen Systemen, in denen das Wissen – sowohl die Beispiele als auch die induzierten Regeln – explizit repräsentiert ist, und subsymbolischen Systemen wie [[Künstliches neuronales Netz|neuronalen Netzen]], denen zwar ein berechenbares Verhalten „antrainiert“ wird, die jedoch keinen Einblick in die erlernten Lösungswege erlauben; hier ist Wissen implizit repräsentiert.
Beim maschinellen Lernen spielen Art und Mächtigkeit der [[Wissensrepräsentation]] eine wichtige Rolle. Man unterscheidet zwischen symbolischen Systemen, in denen das Wissen – sowohl die Beispiele als auch die induzierten Regeln – explizit repräsentiert ist, und nicht-symbolischen Systemen wie [[Künstliches neuronales Netz|neuronalen Netzen]], denen zwar ein berechenbares Verhalten „antrainiert“ wird, die jedoch keinen Einblick in die erlernten Lösungswege erlauben; hier ist Wissen implizit repräsentiert.


Bei den symbolischen Ansätzen werden [[Aussagenlogik|aussagenlogische]] und [[Prädikatenlogik|prädikatenlogische]] Systeme unterschieden. Vertreter der ersteren sind [[ID3]] und sein Nachfolger [[C4.5]]. Letztere werden im Bereich der [[Induktive logische Programmierung|induktiven logischen Programmierung]] entwickelt.
Bei den symbolischen Ansätzen werden [[Aussagenlogik|aussagenlogische]] und [[Prädikatenlogik|prädikatenlogische]] Systeme unterschieden. Vertreter der ersteren sind [[ID3]] und sein Nachfolger [[C4.5]]. Letztere werden im Bereich der [[Induktive logische Programmierung|induktiven logischen Programmierung]] entwickelt.

Version vom 3. Dezember 2018, 09:52 Uhr

Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System auch unbekannte Daten beurteilen (Lerntransfer) oder aber am Lernen unbekannter Daten scheitern (Überanpassung; englisch overfitting).[1][2]

Aus dem weiten Spektrum möglicher Anwendungen seien hier genannt: automatisierte Diagnose­verfahren, Erkennung von Kreditkartenbetrug, Aktienmarkt­analysen, Klassifikation von Nukleotidsequenzen, Sprach- und Texterkennung sowie autonome Systeme.

Das Thema ist eng verwandt mit „Knowledge Discovery in Databases“ und „Data-Mining“, bei dem es jedoch vorwiegend um das Finden von neuen Mustern und Gesetzmäßigkeiten geht. Viele Algorithmen können für beide Zwecke verwendet werden. Außerdem können Methoden der „Knowledge Discovery in Databases“ genutzt werden, um Lerndaten für „maschinelles Lernen“ zu produzieren oder vorzuverarbeiten, und Algorithmen aus dem maschinellen Lernen finden beim Data-Mining Anwendung.

Symbolische und nicht-symbolische Systeme[3]

Beim maschinellen Lernen spielen Art und Mächtigkeit der Wissensrepräsentation eine wichtige Rolle. Man unterscheidet zwischen symbolischen Systemen, in denen das Wissen – sowohl die Beispiele als auch die induzierten Regeln – explizit repräsentiert ist, und nicht-symbolischen Systemen wie neuronalen Netzen, denen zwar ein berechenbares Verhalten „antrainiert“ wird, die jedoch keinen Einblick in die erlernten Lösungswege erlauben; hier ist Wissen implizit repräsentiert.

Bei den symbolischen Ansätzen werden aussagenlogische und prädikatenlogische Systeme unterschieden. Vertreter der ersteren sind ID3 und sein Nachfolger C4.5. Letztere werden im Bereich der induktiven logischen Programmierung entwickelt.

Algorithmische Ansätze

Die praktische Umsetzung geschieht mittels Algorithmen. Verschiedene Algorithmen aus dem Bereich des maschinellen Lernens lassen sich grob nach diesem Schema einteilen:[4]

Überwachtes Lernen (englisch supervised learning)

Der Algorithmus lernt eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt während des Lernens ein „Lehrer“ den korrekten Funktionswert zu einer Eingabe bereit. Ziel beim überwachten Lernen ist, dass dem Netz nach mehreren Rechengängen mit unterschiedlichen Ein- und Ausgaben die Fähigkeit antrainiert wird, Assoziationen herzustellen. Ein Teilgebiet des überwachten Lernens ist die automatische Klassifizierung. Ein Anwendungsbeispiel wäre die Handschrifterkennung.: Es lassen sich noch einige Unterkategorien für Überwachtes Lernen identifizieren, die in der Literatur häufiger erwähnt werden:
  • Teilüberwachtes Lernen (englisch semi-supervised learning) Nur für einen Teil der Eingaben sind die dazugehörigen Ausgaben bekannt.[5]
  • Bestärkendes Lernen (englisch reinforcement learning) Der Algorithmus lernt durch Belohnung und Bestrafung eine Taktik, wie in potenziell auftretenden Situationen zu handeln ist, um den Nutzen des Agenten (d. h. des Systems, zu dem die Lernkomponente gehört) zu maximieren. Dies ist die häufigste Lernform eines Menschen.
  • Aktives Lernen (englisch active learning) Der Algorithmus hat die Möglichkeit für einen Teil der Eingaben die korrekten Ausgaben zu erfragen. Dabei muss der Algorithmus die Fragen bestimmen, welche einen hohen Informationsgewinn versprechen, um die Anzahl der Fragen möglichst klein zu halten.[6]

Unüberwachtes Lernen (englisch unsupervised learning)

Der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein Modell, das die Eingaben beschreibt und Vorhersagen ermöglicht. Dabei gibt es Clustering-Verfahren, die die Daten in mehrere Kategorien einteilen, die sich durch charakteristische Muster voneinander unterscheiden. Das Netz erstellt somit selbständig Klassifikatoren, nach denen es die Eingabemuster einteilt. Ein wichtiger Algorithmus in diesem Zusammenhang ist der EM-Algorithmus, der iterativ die Parameter eines Modells so festlegt, dass es die gesehenen Daten optimal erklärt. Er legt dabei das Vorhandensein nicht beobachtbarer Kategorien zugrunde und schätzt abwechselnd die Zugehörigkeit der Daten zu einer der Kategorien und die Parameter, die die Kategorien ausmachen. Eine Anwendung des EM-Algorithmus findet sich beispielsweise in den Hidden Markov Models (HMMs). Andere Methoden des unüberwachten Lernens, z. B. Hauptkomponentenanalyse, verzichten auf die Kategorisierung. Sie zielen darauf ab, die beobachteten Daten in eine einfachere Repräsentation zu übersetzen, die sie trotz drastisch reduzierter Information möglichst genau wiedergibt.

Des Weiteren unterscheidet man zwischen Batch-Lernen, bei dem alle Eingabe/Ausgabe-Paare gleichzeitig vorhanden sind, und kontinuierlichem (sequentiellem) Lernen, bei dem sich die Struktur des Netzes zeitlich versetzt entwickelt.

Außerdem unterscheidet man zwischen Off-line-Lernen, bei dem alle Daten gespeichert sind und somit wiederholbar zugreifbar sind, und On-line-Lernen, bei dem die Daten nach einmaligem Ausführen und Anpassen der Gewichte verloren gehen. Batch Training ist immer off-line, On-line-Training ist immer inkrementell. Inkrementelles Lernen kann jedoch on-line oder off-line erfolgen.[7]

Software

  • Caffe ist eine Programmbibliothek für Deep Learning.
  • Deeplearning4j ist eine in Java programmierte Open-Source-Software[8], die ein künstliches neuronales Netz implementiert.
  • ELKI ist eine in Java programmierte Open-Source-Software mit Schwerpunkt auf unüberwachtem Lernen und mit Indexunterstützung zur Beschleunigung von Algorithmen.
  • GNU R ist eine auf vielen Plattformen verfügbare, freie Statistiksoftware mit Erweiterungen zum maschinellen Lernen (z. B. rpart, randomForest) und Data-Mining.
  • ML.NET ist eine freie Machine-Learning-Bibliothek von Microsoft für .NET-Sprachen. Bestandteil davon ist Infer.NET, das ein plattformübergreifendes Open-Source-Framework für statistische Modellierung und Online-Lernen darstellt.[9]
  • Keras bietet eine einheitliche Schnittstelle für verschiedene Backends, darunter TensorFlow, Microsoft Cognitive Toolkit (vormals CNTK) und Theano.
  • KNIME ist eine Open-Source-Datamining-, Workflow- und Data-Pipelining-Software.
  • OpenNN ist eine in C++ geschriebene Programmbibliothek, die ein künstliches neuronales Netz implementiert.
  • PyTorch ist eine auf Maschinelles Lernen ausgerichtete Open-Source-Programmbibliothek für die Programmiersprache Python.
  • RapidMiner ist eine operatorbasierte graphische Oberfläche für maschinelles Lernen mit kommerziellem Support, aber auch einer Community-Edition.
  • Scikit-learn benutzt die numerischen und wissenschaftlichen Open-Source-Python-Bibliotheken NumPy und SciPy.
  • Shogun ist eine Open-Source-Toolbox für Kernel-Methoden.
  • TensorFlow ist eine von Google entwickelte Open-Source-Software-Bibliothek für maschinelles Lernen.
  • WEKA ist eine auf Java basierende Open-Source-Software mit zahlreichen Lernalgorithmen.

Siehe auch

Literatur

  • Sebastian Raschka, Vahid Mirjalili: Machine Learning mit Python und Scikit-Learn und TensorFlow: Das umfassende Praxis-Handbuch für Data Science, Predictive Analytics und Deep Learning. MITP-Verlags GmbH & Co. KG, 2017, ISBN 978-3-95845-735-5 (google.com).
  • Andreas C. Müller, Sarah Guido: Einführung in Machine Learning mit Python. O’Reilly-Verlag, Heidelberg 2017, ISBN 978-3-96009-049-6.
  • Christopher M. Bishop: Pattern Recognition and Machine Learning. Information Science and Statistics. Springer-Verlag, Berlin 2008, ISBN 978-0-387-31073-2.
  • David J. C. MacKay: Information Theory, Inference and Learning Algorithms. Cambridge University Press, Cambridge 2003, ISBN 978-0-521-64298-9 (Online).
  • Trevor Hastie, Robert Tibshirani, Jerome Friedman: The Elements of Statistical Learning. Data Mining, Inference, and Prediction. 2. Auflage. Springer-Verlag, 2008, ISBN 978-0-387-84857-0 (stanford.edu [PDF]).
  • Thomas Mitchell: Machine Learning. Mcgraw-Hill, London 1997, ISBN 978-0-07-115467-3.
  • D. Michie, D. J. Spiegelhalter: Machine Learning, Neural and Statistical Classification. In: Ellis Horwood Series in Artificial Intelligence. E. Horwood Verlag, New York 1994, ISBN 978-0-13-106360-0.
  • A.P. Dempster, N.M. Laird, D.B. Rubin: Maximum Likelihood from Incomplete Data via the EM Algorithm. In: Journal of the Royal Statistical Society. Band 39, Nr. 1, 1977, JSTOR:2984875 (mit.edu [PDF]).
  • Richard O. Duda, Peter E. Hart, David G. Stork: Pattern Classification. Wiley, New York 2001, ISBN 978-0-471-05669-0.
  • David Barber: Bayesian Reasoning and Machine Learning. Cambridge University Press, Cambridge 2012, ISBN 978-0-521-51814-7.

Weblinks

Einzelnachweise

  1. Tobias Reitmaier: Aktives Lernen für Klassifikationsprobleme unter der Nutzung von Strukturinformationen. kassel university press, Kassel 2015, ISBN 978-3-86219-999-0, S. 1 (Google books).
  2. Lillian Pierson: Data Science für Dummies. 1. Auflage. Wiley-VCH Verlag, Weinheim 2016, ISBN 978-3-527-80675-1, S. 105 f. (Google books).
  3. Pat Langley: The changing science of machine learning. In: Machine Learning. Band 82, Nr. 3, 18. Februar 2011, ISSN 0885-6125, S. 275–279, doi:10.1007/s10994-011-5242-y (springer.com [abgerufen am 3. Dezember 2018]).
  4. ftp://ftp.sas.com/pub/neural/FAQ.html#questions
  5. Ralf Mikut: Data Mining in der Medizin und Medizintechnik. KIT Scientific Publishing, 2008, ISBN 978-3-86644-253-5, S. 34 (Google books).
  6. Paul Fischer: Algorithmisches Lernen. Springer-Verlag, 2013, ISBN 978-3-663-11956-2, S. 6–7 (Google books).
  7. ftp://ftp.sas.com/pub/neural/FAQ2.html#A_styles
  8. Deeplearning4j on Github
  9. Alexander Neumann: Machine Learning: Microsoft stellt Infer.NET unter Open-Source-Lizenz. In: heise-online.de. 10. Oktober 2018, abgerufen am 15. November 2018.