Diskussion:Entropiekodierung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Unkategorisierte Fragen[Quelltext bearbeiten]

Dieser Artikel ist leider völlig fehlerbehaftet! Gipfel ist die Aussage: "Es gibt nur sehr wenige Bücher zum Thema Datenkompression." Ein Blick in jedes Buch über Informationstheorie zeigt, was Entropiecodierung wirklich ist! Entropiecodierung ist lediglich ein Sammelbegriff für (verlustfreie) Quellencodierverfahren, welche versuchen eine mittlere Wortlänge der codierten Sequenz nahe ander Entropie der Quellensequenz zu erreichen. Lempel-Ziv gehört auch dazu.


Sorry, leider ist das Beispiel für einen Laien wie mich total unverständlich. Nachdem die Wahrscheinlichkeiten bestimmt worden sind, wählt man demgemäss??... Warum 0 für A? Sind das Binärzahlen oder wirklich zehn und Elf für B und C? --196.3.50.254 13:24, 26. Mär 2004 (CET)

Besser?... Anton 19:12, 9. Apr 2004 (CEST)

"Dieser Artikel scheint in weiten Teilen thematisch dem Art Artikel Shannon-Fano-Code zu gleichen. Scheuen Sie sich nicht, die beiden Artikel inhaltlich an der aus Ihrer Sicht geeigneteren Stelle zusammenzubringen. Kommentieren Sie dann bitte auf der Seite Wikipedia:Artikel zum gleichen Thema den Doppeleintrag als erledigt! -- Milch77 17:04, 16. Apr 2004 (CEST)"

Den Artikel hatte ich auch bemerkt -- nur leider viel später. Einige Sätze übernommen. Anton 17:58, 16. Apr 2004 (CEST)

Meiner Meinung nach sollte die Struktur der Artikel anders sein:

  • Entropiekodierung erläutert das Grundkonzept, daß häufige Zeichen durch kurze Bitfolgen, seltene durch lange folgen dargestellt werden. Es sollte auf Shannon-Fano und Huffman weisen als Algorithmen zur Erstellung der Bitfolgen der gewünschten Länge. Außerdem kann hier der Unterschied zwischen beiden Verfahren erläutert werden.
  • Außerdem sollte gezeigt werden, daß beiden Verfahren im Sinne der Entropie nicht optimal sind und ein optimales Verfahren ein Zeichen mit nicht ganzahliger Anzahl Bits kodieren können muss. Das weisst auf arithmetisches Kodieren und eventuell Multicode Verfahren

Hat jemand etwas daggen, wenn ich die Artikel so umstrukturiere? --Andreas.Roever 12:54, 24. Aug 2004 (CEST)

Genauso war der Konsens bei der Zusammenführung: Sobald hier über Entropiekodierung generell genug steht, wird aus Shannon-Fano wieder ein eigener Artikel. Ich schlage vor, Du erweiterst erst, und wir schauen dann nochmal ob Aufspalten jetzt richt ist. -- Pjacobi 10:02, 26. Aug 2004 (CEST)

Ich habe mir mal erlaubt die obenstehenden Fragen/Beiträge von 2004 der Übersicht halber unter einer Überschrift zusammenzufügen. --ucc 10:52, 15. Sep. 2009 (CEST)[Beantworten]

Dynamisches Modell - Rückwärts dynamisch[Quelltext bearbeiten]

Hier wird vor dem Kodieren ausgezählt, wie oft jedes Zeichen vorkommt. Aus dieser Anzahl lassen sich genaue Wahrscheinlichkeiten ermitteln. Im Laufe des Kodierungsprozesses werden die Anzahlen erniedrigt, sodass gegen Ende die Wahrscheinlichkeiten für die einzelnen Zeichen sehr exakt werden.

Leider ist mir dieser Absatz unverständlich. Warum werden die Wahrscheinlichkeiten durch Verringerung der Anzahlen exakter? Ansonsten vielen Dank für die Fülle an äußerst hilfreichen Artikeln zur Datenkomprimierung/kodierung! -- TripleF 14:16, 27. Sep 2005 (CEST)

- Hast recht. Die "Genauigkeit" der Wahrscheinlichkeiten steigt nicht, nur die Wahrscheinlichkeiten selbst. Ich hab's mal umformuliert. Obwohl: die Genauigkeit der Vorhersage steigt, weil sich die Warscheinlichkeit nur noch auf den noch zu kodierenden Teil bezieht. Am Anfang des Kodierens ist die Warscheinlichkeit, die das letzte Zeichen hat irgend einen kleinen Wert, wogegen ich gegen Ende mit größerer Genauigkeit sagen kann, welches Zeichen als letztes auftauchen wird. Und ganz zum Schluss kann ich es sogar exakt sagen... --Andreas.Roever 12:43, 28. Sep 2005 (CEST)

Beispiel fehlt irgend wie als Überschrift!?

Könnte jemand eins hinzufügen.

Rovanu 20:34, 19. Jun 2006 (CEST)


"Die Shannon-Fano-Kodierung schlägt eine Möglichkeit vor, die die Anzahl der Bits auf ganze Zahlen rundet"

Die Anzahl von Bits ist immer ganzzahlig. Ein halbes Bit ist halt kein Bit.

Der selbstbezügliche Elfenbeinturm[Quelltext bearbeiten]

196.3.50.254 schrieb am 26. Mär 2004 : "Sorry, leider ist das Beispiel für einen Laien wie mich total unverständlich."

Dem kann ich nur zustimmen. Und deshalb grundsätzlich:

Bei vielen mathematisch-naturwissenschaftlichen Wikipedia-Artikel ist es leider so: Der Fachmann versteht sie, braucht sie aber häufig überhaupt nicht, der Laie, dem sie eigentlich nützen sollten, kann meist wegen seiner dürren Abstraktheit ganz und gar nichts damit anfangen. Etwas anschaulicher bitte und damit den selbst-referenziellen Elfenbeinturm verlassen. --77.20.204.75 19:29, 21. Okt. 2008 (CEST)[Beantworten]