Diskussion:Direct Stream Digital

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 1 Jahr von 2A02:1210:4EE8:EE00:19C5:5904:93A8:394D in Abschnitt Präzisierung Filter bei PCM
Zur Navigation springen Zur Suche springen

Als Randbemerkung, daher nicht im Artikel:[Quelltext bearbeiten]

Quantisierungsrauschen, genauer ein schlechtes Signal-zu-Rauschverhältnis, entsteht durch eine zu geringe Dynamik, d.h. zu geringen Werteumfang im wertdiskreten (digitalen) Verarbeitungsbereich. Es entsteht nicht durch die Überabtastung per se. Die Überabtastung erweitert für sich nur die Bandbreite nach oben und hat auf das Rauschen zunächst mal keinen Einfluss.

Die eingesetzten Delta-Sigma-Wandler besitzen nur einen einzigen Komperator (=1 Bit ADC) als Quantisierungsstufe. D.h. ein Bit und damit ein SNR von nur rund 6dB. Das ist natürlich ziemlich schlecht. Dieses extrem schlechte SNR kann nun dadurch verbessert werden, indem durch Überabtastung ein sehr grosses Frequenzband abgetastetet wird, und durch funktionell unabhängiges noise-shaping das Quantisierungsrauschen in diesen oberen Frequenzbereich verschoben wird, das ist dieser Rückkopplungszweig bei den Delta-Sigma-Stufen.

Wäre nun keine Überabtastung vorhanden, könnte das Quantisierungsrauschen nicht nach oben verschoben werden. Warum? Ja, weil bei der halben Abtastfrequenz in zeitdiskreten Systemen das Frequenzband zu Ende ist: Deswegen gibt es die Überabtastung mit sehr hoher Abtastfrequenz und somit eine grosse Bandbreite im digitalen System. Dann kann mit den Noise-Shaping-Verfahren im Prinzip Bandbreite (von der Überabtastung) mit dem Quantisierungsrauschen (nur 1 Bit ADC) ausgetauscht werden. Und digital sind eben ein paar MHz Abtastfrequenz bei der Überabtastung mit nur einem 1Bit ADC leichter zu realisieren, als wie spezielle justierte AD-Wandler mit hohen Dynamikbereich, also mit vielen Bits und genauen Quantisierungsstufen. (Bei dem Direct Stream Verfahren fehlt im Prinzip nur noch das im Anschluss vorhandene digitale Filter zum Bandbegrenzen bzw. Downsamplen) -- wdwd 09:38, 6. Jun 2006 (CEST)

Ein wenig Kritik:[Quelltext bearbeiten]

Mich stört der letzte Absatz, ob es Sinn macht oder nicht ist meiner Meinung nach eine persönliche Meinung und hängt stark vom Einsatzgebiet ab. Vielleicht will man ja zum Beispiel bewusst unhörbare Frequenzen aufnehmen die man nicht hören kann um damit bestimmte Dinge wie Tiere oder Wandlerverhalten zu beeindlussen oder Umgebungsgeräusche im freien aufzunehmen und im Labor anschließend analysieren. Ich könnte mir auch vorstellen dass sich grade Frequenzen außerhalb des Hörbereichs super eignen um eine besonders feine analoge Zerrung zu erhalten beim anschliessenden bearbeiten in der Musikproduktion. Weiterhin fehlen sämtliche Infos mit welchen Geräten und zu welchen Zwecken dieses 1Bit Format eingesetzt wird, beispielsweise wird in einigen Tonstudios in dieses Format zum verlustfreien Bearbeiten umgewandelt und anschließend wieder zurückgewandelt. --http://spielleute-schafspelz.com/ (Diskussion) 18:43, 30. Apr. 2012 (CEST)Beantworten

Das DSD dient dazu, möglichst verlustfrei von Digital nach Analog zu kommen, um unsere analogen Geräte einzuschleifen. Das ist bei DSD deshalb so gut möglich, weil:
a) die Wandler sehr einfach linear zu bauen sind, wenig Schwingneigung haben, da nicht 7-pol-Elyptics , sondern 3-5pol Ts taugen
b) es keine Bandbegrenzung durch einen Wandler gibt, sondern nur den durch das Endgerät
c) bei der Wandlung sehr einfach eine PLL aufsynchronisiert werden kann, weil der Datenstrom hochfrequent ist. Bei anderen Ü-Arten ist das Problematischer. S/PDIF z.B: hat erheblich mehr Jitter und selbst I2S kommt (ohne MCLK) mit mehr Jitter. D.j. Die Erfassung des DSD ist sehr einfach und präzise und der späteres ADC, der es wieder digital ausgeben muss, klriegt einen sauberen Takt. Bei S/PDIF oder AES/EBU muss eine PLL dazwischen, die den Jitter reduziert und diese entkoppelt den Takt und den digitalen Ausgabetakt wieder vom Quellsystem. --80.138.160.2 03:43, 17. Dez. 2021 (CET)Beantworten

Mich stört ebenfalls der letzte Abschnitt. Zumal belegt ist, dass "unhörbare" Frequenzen Einfluss auf den hörbaren Bereich haben können. Unhörbar ist nämlich auch der tieffrequente Bereich, und der hat massive Auswirkungen auf die Nachbearbeitung, so kann beispielsweise Wind eine Bearbeitung der Dynamik unmöglich machen. Und was hörbar ist und was nicht, ist dermaßen individuell, dass es sich empfielt, keine Aussagen mit irgendwelchen festgelegten Daten darüber überhaupt zu machen. Denn es stimmen weder die 16 Hz noch die 16.000 Hz auch nur bei der Hälfte der Bevölkerung. Als allgemeinverbindliche Eckwerte würde ich da eher 100-1500Hz annehmen, Werte, die wohl sicher auf 90% der Bevölkerung zutreffen könnten. Diese Mutmaßung meinerseits ist sicher wissenschaftlich weitaus haltbarer als alle anderen derartigen Aussagen. Im Hi-End-Audiobereich sind nach oben hin übrigens so gut wie keine Grenzen gesetzt, da sind durchaus Werte von 500000 Hz bis zu einem Megaherz nicht unüblich - und das bei einem "geraden" Frequenzgang ohne grosse Abweichungen. Geübte und geschulte Hörer können auch da Unterschiede "hören", wieso und weshalb das ist, ist wohl kaum zu klären. (nicht signierter Beitrag von 79.192.99.138 (Diskussion) 11:27, 7. Mär. 2013 (CET))Beantworten

Eckwerte von 100 ... 1500 Hz als den Kern des Hörvermögens der meisten? Bitte? Selbst das Telefon hat bis 3000Hz übertragen und das was schon extrem dumpf! Dann würden die meisten also nur eine Oktave weniger höhren, als den Telefonklang? Ganz sicher nicht. --80.138.160.2 03:37, 17. Dez. 2021 (CET)Beantworten

Habe den letzten Absatz "In der konkreten Anwendung ergibt sich dadurch ein ca. vierfach höherer Speicherplatzbedarf, der mehrlagige Spezial-Datenträger erfordert. Weiterhin ist nicht erwiesen, ob (theoretisch unhörbare) Frequenzen oberhalb 20 kHz einen hörbaren Einfluss auf das Audiosignal haben. Außerdem sind viele Verstärkungs- und Lautsprechersysteme gar nicht in der Lage, nennenswerte Frequenzanteile oberhalb von 20 kHz weiterzuverarbeiten und abzustrahlen. Manche Hersteller verbauen deshalb noch spezielle Hochtonlautsprecher, um diesen Anforderungen gerechter zu werden." gelöscht, da es zum größten Teil völlig irrelevant ist. Die Spezial-Datenträger sind an keiner Stelle notwendig - zumindest nicht heute, die "speziellen Hochtonlautsprecher" sind kein bereicherndes Wissen, das Format wird problemfrei genutzt um verlustfrei Audiomaterial aufzunehmen und bearbeiten zu können. Mag zwar wenig verbreitet sein, aber es wird genutzt und hat seine Vorteile. Wenn es kein anderer macht werde ich irgendwann die englische Wiki hierzu komplett übersetzen, hoffe aber immernoch das arbeitet mal jemand anderes aus. --178.11.4.195 03:25, 8. Dez. 2013 (CET)Beantworten

Korrektur: Die Lautsprecher sind nicht in der Lage, Frequenzen > 20kHz RICHTIG anzustrahlen. Sehr wohl können sie Artefakte produzieren, wenn die Frequenzkomponenten schweben und pulsen. Die Lautsprecher und die Kette davor wirken als Tiefpass der selber schwingt und nur bei perfekter Gleichstromfreiheit, bezogen auf die Komponenten >20k, wirklich auch in den Bereich Null wird. Ansonsten gibt es tieffrequente Komponenten. Ist mit einer einfachen MATLAB-SIM zu zeigen. Mithin passiert also da dasselbe, wie bei DSD ansich: Die hohen Komponenten sind weitgehend gedämpft, die niedrigen sind die letzlichen Nutzdaten. --80.138.160.2 03:35, 17. Dez. 2021 (CET)Beantworten

Der/Das Filter[Quelltext bearbeiten]

Hallo, meines Erachtens wird für die Wikipedia die gewöhnliche deutsche Sprache zugrunde gelegt. Dann muss "Der Filter" geschrieben werden. "Das Filter" ist eine im Deutschen (gemäß weitgehend unverstandenem Klang-Geschlecht) unbegründete Form der Fachsprache. --92.196.29.145 20:25, 22. Jul. 2017 (CEST)Beantworten

Der Duden sagt "Substantiv, maskulin oder Substantiv, Neutrum" (Hervorhebung von mir). Erst später schreibt er "der, fachsprachlich meist: das Filter". Daraus lese ich keine Unterscheidung zwischen einer "gewöhnlichen" und einer ungewöhnlichen deutschen Sprache, geschweige denn eine Aufforderung ab, hier "der" verwenden zu müssen. -- Pemu (Diskussion) 00:54, 23. Jul. 2017 (CEST)Beantworten
PS: Meine Meinung: "Der Filter" filtert Kaffee oder Tabakrauch, "das Filter" hingegen Frequenzen; aber wahrscheinlich sieht das ein Zigaretten- oder Kaffeeexperte anders.
In der Signalverarbeitung ist das Filter gebräuchlich, weil es etwas Abstraktes, virtuelles ist. In der Elektrotechnik (und beim Kaffee) ist es oft auch der Filter, wohl weil es ein anfassbares Objekt ist. Musicproducer (Diskussion) 05:39, 21. Mär. 2020 (CET)Beantworten

Logo und Ursprung[Quelltext bearbeiten]

In der englischen Version steht, dass es sich um ein Format von Sony handele und dort wird auch ein Logo gezeigt. Sollte man wohl einfügen. 87.178.97.192 01:23, 2. Nov. 2017 (CET)Beantworten

Kritik[Quelltext bearbeiten]

Dieser Abschnitt wird geplagt von link-rot und invalide Zeit-Referenzen (Heute). Wir kann der Qualität hier verbessern? Es scheint hier mehr eine Meinugn vertreten zu werden. Theking2 (Diskussion) 18:55, 2. Jun. 2021 (CEST)Beantworten

Ich weiß nicht, was du mit "link-rot" meinst, aber ansonsten stimme ich dir zu. -- H005 (Diskussion) 09:25, 3. Jun. 2021 (CEST){{Beantworten
Dieser Abschnitt kann archiviert werden. --H005 (Diskussion) 08:39, 4. Jun. 2021 (CEST) (Der Abschnitt und einiges mehr wurde gestern überarbeitet.)

Bezug zu Klasse-D-Verstärkern[Quelltext bearbeiten]

Da Klasse-D-Verstärker nichts anderes tun, allerdings in der audiophilen Szene sehr verpönt sind, sollte vielleicht Erwähnung finden.--Ulf 23:46, 28. Jan. 2022 (CET)Beantworten

Präzisierung Filter bei PCM[Quelltext bearbeiten]

"Bei der Digital-Analog-Wandlung werden keine steilflankigen Interpolations- bzw. Anti-Aliasing-Filter benötigt, die bei PCM dazu verwendet werden, Frequenzen oberhalb 20 kHz abzutrennen." - natürlich nur bei 44.1 kHz - bei 96 kHz Rate sind es etwa 47 kHz Grenzfrequenz! --2A02:1210:4EE8:EE00:19C5:5904:93A8:394D 23:58, 5. Dez. 2022 (CET)Beantworten