Diskussion:G.711

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 17 Jahren von Ralfk in Abschnitt Korrekturvorschlag
Zur Navigation springen Zur Suche springen

Korrekturvorschlag[Quelltext bearbeiten]

Es ist richtig, dass zwar keine Datenkompression nach der Digitalisierung vorgenommen wird (es ist eben PCM, insofern war meine erste Version des Artikel nicht korrekt), sondern doch zumindest eine (Sprach-)Kompression des analogen Signals, oder ? Siehe Beschreibung zu my-law und a-law ? Schließlich bestimmen my-law und a-law im wesentlichen die Kompressionskennlinie. Es sollte hier erwähnt werden, wo eine Kompression stattfindet.

Vorschlag:

Dabei werden zwei verschiedene Kennlinien für die Abtastung und analoge Sprachkompression verwendet: In Europa eine mit a-law bezeichnete, in Nordamerika und Japan eine mit mu-law bezeichnete. Der Frequenzbereich von 300 bis 3.400 Hz wird bei der Digitalisierung nach G.711 codiert, eine Datenkompression des digitalen Signals wird nicht vorgenommen.

--Ralfk 11:33, 27. Aug 2005 (CEST)

analoge Sprachkompression ist mE ebenso mißverständlich und aus fachlicher Sicht auch nicht korrekt, genau wie der Ausdruck Datenkompression. Ich vermute, Du willst in den Artikel bringen, dass die Kennlinie für die Digitalisierung nicht linear ist, und infolgedessen weniger Bandbreite benötigt wird, als wenn sie linear wäre. Sowas detailliertes sollte dann mE eher in den Artikeln zu a-law und mu-law erwähnt werden, am besten mit Abbildungen einer Kennlinie. Da stehen jetzt nur Formeln, und wie die Kurven dazu aussehen, weiss nur der, der es sowieso weiss. Fink 23:16, 27. Aug 2005 (CEST)
Kompression ist vielleicht der falsche Ausdruck. Auf der anderen Seite tritt Kompression eben nicht immer nur verlustbehaftet, sondern auch verlustfrei auf. "compress" wird auch im en-Wiki verwendet. Ich verstehe es so, dass vor der Analog-Digitalwandlung das analoge Signal entsprechend der Kennlinie "gestaucht" wird und im Empfänger wieder nach der Digital-Analogwandlung entsprechend "expandiert". Das ganze ist also meines Erachtens verlustfrei. Ich kenne adhoc kein Wort im Deutschen, was dem englischen "Companding" entspricht. Siehe http://en.wikipedia.org/wiki/Companding. Ralfk 15:42, 28. Aug 2005 (CEST)
HaSee hat die Datenkompression wieder reingenommen: "Der Frequenzbereich von 300 bis 3.400 Hz wird bei der Digitalisierung nach G.711 codiert, dabei wird eine Datenkompression vorgenommen." Vielleicht sollten wir hier in der Diskussion einen gemeinsamen Nenner finden. Die derzeitige Beschreibung scheint noch nicht die beste zu sein. Wir sollten eindeutig erklären, an welchem Punkt der Codierung eine "Kompression" stattfindet (vor/nach Digitalisierung).
ich hab gesehen, dass HaSee die Änderung revertiert hat und wieder "Datenkompression" formuliert. Leider ohne Begründung. Ich halte das einfach für eine schlechte Übersetzung. Ich kenne den Sprachgebrauch, dass beim Quantisieren gemäß Kennlinie Frequenzen "gestaucht" bzw. "expandiert" werden, aber nicht "komprimiert" bzw. "dekomprimiert" werden. Die Übersetzung "Datenkompression" wäre jetzt erstmal nicht so schlimm. Aber der Begriff "Datenkompression" wird in der Fachwelt der Sprach-Telekommunikation nicht einmal bei hocheffizienten Codierungsverfahren aus dem Funk verwendet (zumindest soweit mir bekannt). És gibt natürlich einige Glossare mit zweifelhafter Qualität im Internet, in denen man "Datenkompression" lesen kann, aber die sollten mE ebensowenig Maßstab sein wie die englische Wikipedia. Was da unter http://en.wikipedia.org/wiki/Companding steht ist allerdings schon korrekt: Die gestauchten Teile der Kennlinie (wie natürlich auch der lineare Bereich) gehören zum Analogteil des Codecs. Heute sind fast nur Codecs am Markt, die sowohl a-law als auch µ-law können. Ob der Codec nun a-law oder µ-law macht, hängt davon ab, mit welchen Widerständen und Kondensatoren du ihn beschaltest. Fink 21:46, 29. Aug 2005 (CEST)
Damit haben wir aber immer noch keinen Gegenvorschlag erarbeitet ;-) M.E. sollten wir HaSee noch 1-2 Tage Zeit geben, sich hier zu äußern. Wenn nichts kommt, machen wir noch eine Änderung.--Ralfk 18:47, 30. Aug 2005 (CEST)
Hallo, ich bin erst jetzt auf diese Diskussion gestoßen.
Ich habe mir mittlerweile den (englischen) Text der Recommendation G.711 beschafft, weil ich in die Artikel A-law und Mu-law mal reinschreiben will, was wirklich genormt ist. Also, im Standard werden nur die Begriffe encoding und decoding oder conversion verwendet, compression kommt dort nicht vor.
Jetzt frage ich mich aber: Was ist das, wenn man 13-bit oder 14-bit Daten in acht bit presst? Umgangssprachlich ist das eine Kompression, glaube ich. Und das sollte zum Verständnis für den Normal-Leser auch schon drinstehen. --HaSee 08:27, 7. Sep 2005 (CEST)
Hallo HaSee. Ich denke, dass der Normal-Leser (ohne Abschluss in Nachrichtentechnik) ganz klar davon ausgeht, dass G.711 ohne Kompression ist, da dabei per PCM codiert wird. Und ISDN läuft auch damit, und ISDN hat keine Kompression. Aber auch als Nachrichtentechniker lernt man, dass PCM i.d.R. ohne Kompression auskommt. Ich war jedenfalls im Nachhinein eher verwirrt von dem englischen G.711 Artikel, wo von "compress" die Sprache war. Dass bei G.711 ein paar "Tricks" verwendet werden, um das Signal dann doch irgendwo in der Kette ein wenig zu "stauchen", sollten wir vielleicht erstmal unerwähnt lassen, bzw. es wird ja auch auf A-law und Mu-law verwiesen. Der geneigte Leser kann dann eben in der Spec nachsehen.--Ralfk 18:23, 7. Sep 2005 (CEST)
Ich denke, dass der Normal-Leser, der etwas über G.711 wissen will, zunächst mal von gar nichts ausgeht. Auf jeden Fall findet eine Reduzierung der Daten statt, wenn das nicht Kompression genannt wird, dann ist das wohl eine Frage der Definition. Wie ist Kompression definiert? Von Datenstauchung habe übrigens ich noch nie gehört. Zu weiter oben: Companding ist ein Kunstwort, zusammengesetzt aus Compression und expanding. Versteh mich recht, ich will die Kompression nicht unbedingt drin haben; ich wundere mich nur darüber, dass der Begriff so einfach abgelehnt wird, ohne stichhaltige Begründung - wie ich meine. mfg--HaSee 21:02, 7. Sep 2005 (CEST)
Du hast selbst gesagt, in der Spec nichts von Kompression gefunden zu haben. Ausserdem habe ich weiter oben bereits erläutert, dass ich durchaus meine, dass im Signalweg eine Kompression stattfindet, aber nicht im digitalen Teil. Wenn Du im Artikel genau erklären kannst, wo die Kompression stattfindet, spricht nichts dagegen, das aufzunehmen. Einfach zu sagen, dass eine Kompression stattfindet, verwirrt meines Erachtens. Siehe meine Vorschläge oben in dieser Diskussion. So, mehr zu dem Thema kann ich nicht sagen. Hier müsste ggf. mal jemand ran, dessen Wissen in der Nachrichtentechnik letztendlich besser (weil frischer) ist. --Ralfk 22:48, 7. Sep 2005 (CEST)
um eine sprachlich vertretbare Lösung zu finden, hab ich mir einige Fachbücher in deutscher Sprache zum Thema "Digitalisierung von Audio- und Videosignalen" angeschaut. Vorwiegend digitale Fernsehtechnik (Video-Codecs), weil dort ja ebenfalls auf der analogen Stufe nicht-linear abgetastet wird, und auf der digitalen Stufe zusätzlich eine Datenkompression stattfindet. Dort finde ich den Ausdruck "Dynamikkompression" für die Dimensionierung des Pegelsbereichs des A/D-Wandlers. Weil Dynamik (=Pegelbereich) ein Begriff aus der analogen Welt ist, ist er mE durchaus brauchbar. Man kommt nicht wie bei "Datenkompression" auf die Idee, es wäre ein digitales Kompressionsverfahren. Fink 18:45, 8. Sep 2005 (CEST)
Prima. Ich habe mir noch erlaubt, den PCM-Verweis in "Puls-Code-Modulation" zu ändern, da PCM nur auf eine Abkürzungseite verweist. Na ja, PCM wird jetzt zweimal erwähnt, aber egal. Ausserdem habe ich den Artikel einer Kategorie zugeordnet. --Ralfk 11:51, 10. Sep 2005 (CEST)


Hallo zusammen,

leider bin ich erst jetzt auf diesen Artikel gestoßen und will zum Ausdruck bringen, dass A-Law bzw. µ-Law mE sehr wohl auf Kompressionsalgorithmen sind, und zwar für zuvor linear quantisierte PCM-Datenworte, die mit einer höheren Auflösung ( Wortbreite N = 16 Bit) quantisiert worden sind. Somit stehen bei der linearen Quantisierung Qs = 2 ^16 Quantisierungsintervalle zur Verfügung. Um ein 16 Bitwertiges PCM-Codewort über einen 8 Bit Fernsprech PCM Kanal zu übertragen, wird er nun anhand der linearen A-Law Approximation komprimiert.

Literatur dazu: "Digital Telephony" von Bellamy, ITU G.711 Standard usw.

Zum Beispiel wird bei der Breitbandtelefonie das analoge Signal mit einer Abtastrate von 16 kHz abgesampelt und der linearen Quantisierung zugeführt. Die Auflösung beträgt 16 Bit. Um die herkömmlichen 8 Bit PCM Kanäle nutzen zu können, können die 16 Bit Werte mit den G.711 Algo komprimiert und über den Kanal übertragen werden.

Gruß Tom

Ich habe ja oben schon mal die Frage gestellt: Was ist das, wenn man 13-bit oder 14-bit Daten in acht bit presst?. Antwort: Das sei halt ein wenig gestaucht. Es scheint irgendwie ein Vorurteil zu existieren, G.711 ist ISDN und ISDN ist ohne Kompression. Natürlich gibt es heute sehr viel effektivere Kompressionsverfahren; man muss einfach bedenken, dass dieser Standard auf der Ende der 1960er Jahre verfügbaren Technik basiert.
Aber so ist das Wikiprinzip, wer am lautesten plärrt und am schnellsten revertiert, hat gewonnen. --HaSee 13:27, 7. Feb 2006 (CET)
HaSee, es ging damals nicht um "lautes Plärren" sondern um eine normale Diskussion. Dabei war noch der User Fink im Boot. Bisher habe ich noch keine wirklich eindeutige Erläuterung der verwendeten Kompression hier auf der Seite gefunden. Der gravierende Unterschied zwischen verlustloser und verlustbehafteter Kompression wird auch nicht betrachtet. Bei der Quantisierung (Digitalisierung) geht immer Information verloren. Also müssten eigentlich alle digitalen Verfahren als "mit Kompression" verstanden werden. Entscheidend ist eben, wo eine Kompression (im Audio-Bereich) stattfindet und wie man Kompression definiert. Oben gab es schon den Vorschlag, die Kompression als "Dynamikkompression" zu bezeichnen (ein Ausdruck, der auch im Artikel A-law-Verfahren benutzt wird). Echte "Datenkompession" findet dann bei G.726 etc. statt. Man muss ferner festhalten, dass Wikipedia keine wissenschaftliche Quelle ist bzw. sein sollte. Also, meiner Meinung nach lieber etwas Info weglassen als etwas falsches oder ungenaues schreiben. --Ralfk 11:22, 10. Mär. 2007 (CET)Beantworten
Klar, es bleibt bei Datenstauchung. --HaSee 14:10, 10. Mär. 2007 (CET)Beantworten
Von Datenstauchung steht nichts im Artikel. --Ralfk 10:36, 11. Mär. 2007 (CET)Beantworten
Nachdem ich mir nochmal die Diskussionsseite zum A-law-Verfahren angesehen habe, habe ich mal in meinen alten Uni-Scripten aus den Nachrichtentechnik-Vorlesungen nachgeschaut (von 1995). Dort wurde im Kapitel "Nichtlineare Quantisierer" von Kompandierung gesprochen. Siehe auch Kompander-Artikel. In anderen Sätzen wird dann aber auch von Kompression gesprochen (Kompressionsgewinn). Wir sollten hier also keine Grabenkämpfe austragen. --Ralfk 11:50, 11. Mär. 2007 (CET)Beantworten
Hallo. Als Leser dieses Artikels ohne Nachrichtentechnischen Abschluss interessiert mich das Thema der Kompression durchaus, weil dies ein elementares Unterscheidungsmerkmal von unteschiedlichen Sprachcodecs darstellt. Und nach Studium der Diskussion möchte ich Anmerken, dass ja beispielsweise beim MP3 Kodieren grundsätzlich auch keine Kompression stattfindet (bzw. stattfinden muss). Dennoch wird die gemeine MP3-Datei als *komprimiert* bezeichnet, obwohl ja eigentich nur die für den Menschen nicht hörbaren Frequenzbereiche abgeschnitten werden, und der Rest codiert wird. Ich verstehe unter eurer Definition von "stauchen" grundsätzlich den gleichen Vorgang. Die für die Sprachübertragung nicht relevanten Frequenzbereiche werden abgeschnitten, der Rest wird kodiert. Die ab diesem Punkt digitalen Daten sind dann zwar nicht komprimiert, die Information darin ist es aber schon. Für den Fall, dass ich mit dieser Ansicht nicht komplett falsch liege, hätte ich als Leser des Artikels durchaus erwartet, dass der Punkt Datenkompression zumindest grundlegend Angesprochen wird. --S.Kraus 13:19, 25. Mär. 2007 (CET)