Diskussion:Unüberwachtes Lernen

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 13 Jahren von Kardan in Abschnitt Komprimierung
Zur Navigation springen Zur Suche springen

Komprimierung[Quelltext bearbeiten]

Also ich find das ja sehr interessant, aber ich versteh das Fachchinesisch nicht. Allerdings hab ich ne ungefähre Ahnung und würde die gerne bestätigt kriegen oder eines besseren belehrt werden: Das Komprimieren und Dekomprimieren dient meines Erachtens dazu, dass komplexe Werte zu einem einfachen Modell reduziert werden, indem Unwichtiges ausgeblendet wird. Das ist die Kompression. An solcherhanden komprimierten Modellen kann dann das Neuronensystem lechter etwas lernen, als an den komplexen Gesamtdaten. Auf diese Weise kommt das System dann sozusagen durch den "Flaschenhals". Zum Schluss werden dann die komprimierten Daten wieder dekompriemiert und das Gelernte wieder an den vollständigen und komplexen Daten überprüft. Sehe ich das richtig so und könnte man vielleicht einen Teil der Beschreibung auf diese oder ähnliche Weise schreiben?

Nicht ganz. Die Kompression ist bei neuronalen Netzen kein Vorverarbeitungsschritt, der nachher wieder rückgängig gemacht wird, sondern durch die geringe "Lernkapazität" der Zwischenschicht geht Information verloren. Der Prozess läuft aber so ab, dass der Unterschied zwischen den Originaldaten und der durch den Informationsverlust reduzierten Daten möglichst gering ist. Daher verliert man (absichtlich) den "unwichtigsten" Teil der Information mit Bezug auf das Maß des Unterschieds (das den Fehler/die Abweichung zwischen Original und reduzierter Information definiert). Man kann somit auch sagen, dass gelernt wird, was wichtig ist, denn der Rest fällt ja weg.

Den im Artikel beschriebenen Prozess der Reduzierung auf das Wesentliche würde ich als Filterung bezeichnen, da er der Definition von Komprimierung widerspricht: "Die Datenmenge wird reduziert, indem eine günstigere Repräsentation bestimmt wird, mit der sich die gleichen Informationen in kürzerer Form darstellen lassen." Nach meinem Verständnis sind alle Wahrnehmungen Konstruktionen auf Basis persönlicher Filter und nicht Kompressionen (Konstruktivistische Didaktik, Konstruktivismus (Lernpsychologie)). --Kardan 17:27, 9. Mai 2010 (CEST)Beantworten

Klassifizierung[Quelltext bearbeiten]

Muss es nicht Klassierung oder Klassenbildung heißen? Auch wenn es auf den ersten Blick als Klugsch..ei aussieht, beim Data Mining z. B. ist das ein nicht unwichtiger Unterschied. (nicht signierter Beitrag von 95.114.248.232 (Diskussion | Beiträge) 02:59, 20. Jan. 2010 (CET)) Beantworten

ich denke die Idee ist, mittels eines Data Mining Verfahrens Cluster zu erhalten, diese als Klassen zu interpretieren und dann damit zu Klassifizieren. Der Artikel sollte aber wirklich mal überarbeitet werden. --Chire 11:34, 21. Mär. 2010 (CET)Beantworten

Abgrenzung zu Data Mining[Quelltext bearbeiten]

Hier wird "Unüberwachtes Lernen" als Maschine Learning dargestellt. Man könnte aber auch sagen, dass Maschine Learning per Definition eigentlich überwacht ist (wobei halt ggf. unüberwachte Methode verwendet und dann nur bewertet werden). Während Data Mining eben genau das Gegenstück dazu ist, das unüberwachte Lernen, ohne eine Zielvorgabe was man denn (wieder-) erkennen will. Leider sind diese Themenbereiche in der Forschung mitunter etwas in zwei Communities zerfallen, die ziemlich aneinander vorbei reden können. --Chire 11:31, 21. Mär. 2010 (CET)Beantworten