Kanalkopplung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Bei Mehrkanaltonsignalen können durch Kanalkopplung Abhängigkeiten zwischen diesen, zum Zweck einer kompakteren Darstellung, ausgenutzt werden. Entsprechende Verfahren werden in der digitalen Tonverarbeitung als Mittel zur digitalen Audiodatenkompression eingesetzt.

Indem in einen Kanal nur die Information über den Unterschied zu einem vorhandenen oder einem neuen Mittenkanal geschrieben wird, kann die wiederholte Beschreibung gemeinsamer Inhalte vermieden werden.

Am gebräuchlichsten ist auch mit steigender Verbreitung von Mehrkanalsystemen in Zweikanalkonfiguration, also im Bereich der Stereophonie. Entsprechend häufig wird von englisch Joint Stereo (kurz: JS) und ihren Spielarten wie der Pegeldifferenzstereophonie, mid/side stereo (englisch) und dem parametrischen Stereo die Rede sein.

Diese Spielarten haben ihre Entsprechung in der traditionellen Tontechnik, beispielsweise als Intensitätsstereofonie und MS-Stereofonie. Sie gehen teils mit unterschiedlich starken Klangverlusten einher. Viele Anwender kennen nur das verlustfreie MS-Verfahren.

Die Differenzsignale können verlustfrei gespeichert (verlustfreie Kopplung) oder auch quantisiert und entsprechend verlustbehaftet kodiert werden. Das Quantisierungsrauschen fällt dabei ins Zentrum des Stereoklangbildes, wo es gut vom restlichen Signal maskiert wird.

Mid/Side Stereo[Bearbeiten]

Mid/Side Stereo speichert den Mittelwert der beiden Stereokanäle in einem Mittelkanal (englisch „mid channel“) und den jeweiligen Differenzwert in einem Seitenkanal (englisch „side channel“). Damit entfällt das mehrfache Erfassen gemeinsamer Inhalte und das Differenzsignal weist weniger Komplexität auf. Bei digital repräsentierten Signalen reicht daher eine kleinere Datenmenge zur Beschreibung aus, wodurch eine Datenkomprimierung erreicht wird.

Diese Codierung arbeitet prinzipiell verlustfrei; das heißt, aus den vorliegenden Informationen können die Originaldaten (hier der Stereokanäle) exakt rekonstruiert werden. Da in dieser Struktur nun die Rauminformationen separiert in den Differenzsignalen vorliegen, sind diese aber auch besser für Datenreduktion zugänglich. Die Datenreduktion an den Rauminformationen (Seitensignal) gestaltet sich so subjektiv sehr verlustarm, da die im Vergleich tendenziell stärker wahrnehmbaren und meistens auch wichtigeren Informationen im nun separaten Mittensignal davon nicht angetastet werden.

Das Verfahren ist in der Audiodatenkompression bei neueren verlustfreien Audiocodecs wie etwa FLAC wie auch bei verlustbehafteten wie LAME stark verbreitet und findet sich bereits im ursprünglichen MP3-Codec der Fraunhofer-Gesellschaft wieder. Es wird auch im Rundfunk beim FM-Stereo verwendet.

Da bei Stereosignalen in der Regel eine hohe Korrelation beider Stereokanäle vorliegt, ist der Differenzwert oft sehr klein beziehungsweise null und die Information kann effizient etwa in Matrixdarstellung abgespeichert werden.

Die Rekonstruktion der Signale kann nun aus den vorliegenden Informationen erfolgen.

Wenn sich der Mittelkanal folgendermaßen errechnet

\frac{\mathrm{links} + \mathrm{rechts}}{2}

und der Seitenkanal mit dieser Formel

\frac{\mathrm{links} - \mathrm{rechts}}{2}

dann errechnet sich der linke Kanal aus

\mathrm{Mittelkanal} + \mathrm{Seitenkanal}

und der rechte aus

\mathrm{Mittelkanal} - \mathrm{Seitenkanal}

Der vollständige Signalfluss am Beispiel MP3 mit Kanalkopplung wäre dann dieser:

Stereosignal → MS-Kodierung → MP3-Datenreduktion → Medium → MP3-Dekodierung → MS-Dekodierung → Stereoausgabe

Parametrischer Mehrkanalton[Bearbeiten]

Hauptartikel: parametrisches Stereo

Im Falle des stark verlustbehafteten parametrischen Stereo (englisch „intensity stereo“) wird das Signal analysiert und parametrische Beschreibungen gespeichert, aus denen der Dekoder dann zum Beispiel durch entsprechende Anordnung bestimmter Signalanteile auf einer virtuellen Klangbühne einen näherungsweisen Eindruck restaurieren kann.

Es werden lediglich ein Monokanal und Richtungsvektoren zur Rekonstruktion der Stereodaten gespeichert.

Pegeldifferenzstereophonie[Bearbeiten]

Die Pegeldifferenzstereophonie (englisch „intensity stereo“) ist ein einfacher Fall des parametrischen Stereo. Bei ihr wird nur die Pegeldifferenz zwischen den Kanälen festgehalten; die laufzeitenbedingten zeitlichen Verzögerungen bestimmter Signalanteile bleiben außer Acht und Phaseninformationen gehen verloren. Die eventuell auftretende Phasenverschiebung ist jedoch oberhalb einer gewissen Frequenz nicht mehr wahrnehmbar. Dennoch geht die ursprüngliche Stereoinformation verloren; das Verfahren ist verlustbehaftet und eignet sich nach allgemeiner Ansicht nur für niedrige Datenraten, bei denen man statt Monokodierung lieber doch noch etwas Stereoinformation hätte.

In der digitalen Audiodatenkompression wird sie in Encodern meist nur bei sehr niedrigen Datenraten eingesetzt. Sehr viele Encoder entscheiden anhand der gewählten Datenrate, ob sie Intensitätsstereofonie verwenden möchten, jedoch gibt es einige, zumeist ältere Codecs, die ausschließlich auf diese Technik setzen.

Bewertung[Bearbeiten]

Vor allem in der Anfangszeit dieser Komprimierungstechnik wurde von sehr vielen Verfechtern „puren“ Stereos argumentiert, Kanalkopplung zerstöre das Stereogefühl und beeinträchtige so das Hörerlebnis.

Oft wurden jedoch bei solchen Argumentationen MS-Stereo mit Pegeldifferenzstereophonie (oder MS-Stereo mit Datenreduktion des Differenzsignales) in einen Topf geworfen, was teilweise auf der unglücklichen Vereinigung der beiden Techniken unter einem Namen beruht haben dürfte.

Mittlerweile scheint die Anzahl der strikten Ablehner des Algorithmus aber rückläufig; das ist auch auf geschicktere Implementierungen in modernen Audiocodecs zurückzuführen. Vor allem in verlustfreien Algorithmen und bei niedrigeren Datenraten ist die Technik praktisch etabliert.

Im Falle einer Datenreduktion des Differenzkanales und des Mittensignales ergeben sich gegenüber einer getrennten Quantisierung der Kanäle verschiedene klangliche Vor- und Nachteile. Absoluter Vorteil ist die gleichbleibende Richtungsdominanz, die sich bei der Datenreduktion von zwei getrennten Stereo-Kanälen besonders bei niedrigen Datenraten oft als Problem herausstellt, weil sie sich dort durch ein Wandern des Stereobildes von Links und Rechts bemerkbar macht. Da Joint-Stereo jedoch in Mitten- und Seiten-Signal kodiert ist, tritt hier dieser Effekt als Pulsieren der Stereobreite von Mitte zur Seite auf, was tonpsychologisch wesentlich günstiger beziehungsweise eben als deutlich weniger störend empfunden wird, als dass die Stereo-Mitte, die im medialen Mainstream-Bereich den Großteil der wichtigen Signalanteile enthält, nicht eindeutig lokalisierbar ist oder ihre Position wechselt. Nachteil ist, dass im Falle eines leisen Seitensignals, wie zum Beispiel bei Hallräumen, die Tiefenschärfe zu den Seiten leidet. Wenn sich der linke und rechte Kanal stark unterscheiden, ergibt sich mit MS-Stereo außerdem eine Verschlechterung gegenüber der Trennung nach den herkömmlichen Kanälen. Da die Entscheidung, ob Stereo als Links/Rechts- oder Mitte/Seite-Signal kodiert wird, in vielen Audioformaten für einzelne Blöcke (Abschnitte über einige hundert Millisekunden) getroffen werden kann, wählen Encoder für solche Formate die Darstellung, die sich besser kodieren lässt, sofern der Benutzer nicht eine bestimmte Darstellung festgelegt hat.

Literatur[Bearbeiten]

  • Michael Dickreiter: Handbuch der Tonstudiotechnik. 6. Auflage, K.G. Saur Verlag KG, München, 1997, ISBN 3-598-11320-X.
  • Thomas Görne: Tontechnik. 1. Auflage, Carl Hanser Verlag, Leipzig, 2006, ISBN 3-446-40198-9.
  • Hubert Henle: Das Tonstudio Handbuch. 5. Auflage, GC Carstensen Verlag, München, 2001, ISBN 3-910098-19-3.