Diskussion:Mastering (Audio)

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 2 Jahren von Pemu in Abschnitt Mastering bei Streaming
Zur Navigation springen Zur Suche springen

Sorry, aber wo ist da die Begründung für eine Schnellöschung? -- AlexR 01:33, 6. Mai 2004 (CEST)Beantworten


Studioliste und umstrittene Aspekte eines Soundmasterings bspw. durch Kompression[Quelltext bearbeiten]

Die Tonstudioliste in der aktuellen Form hat aus meiner Sich nichts in dem Artikel zu suchen. Das ist einfach nur Werbung ohne nicht-kommerziellen Mehrwert und als solche unerwünscht. Wenn, dann sollten hier wirkliche Klassiker und Spezialisten des (Pre-)Mastering hin, wie Sterling Sound, Bob Katz oder Bernie Grundman. Galaxy ist ein High-End-Full-Service Tonstudio. Und die anderen sind nun sicher keine Adressen mit internationalem Klang. Hier sollte nicht einfach jedes Tonstudio stehen, das auch ein bißchen Mastering abietet. Also - umarbeiten oder raus damit. -- Florian Berger, Leipzig, 25.10.2005

Ich habe die Studios entfernt. Du scheinst dich mit renommierten Masteringstudios auszukennen. Wenn Du hier einen Abschnitt zu wirklich bedeutenden Studios (bitte mit Begründung) beitragen könntest, würde ich das sehr begrüßen. --Trainspotter 15:15, 26. Okt 2005 (CEST)
Gfs sollte man zuvor auch nochmal auf den Sinn des Masterings eingehen sowie die Tatsache, daß dies durchaus umstritten ist. Studios sollten nicht erwähnt werden, weil man damit immer einige zu Unrecht benachteilgt und andere bewirbt. Falls doch ein Studioliste reinkommt, nenne ich gerne einige Studios, mit denen wir arbeiten. Aber: Bei der pauschalen Nennung der o.g. , redet man eigentlich nur der allgemeinen Meinung hinterher und liefert keine sachliche Information, denn kaum jemand hier hat bei denen etwas Mastern lassen und kann die qualität beurteilen. Das geht auch den Musikern so: Häufig wird eine Produktion daher nur in bestimte Studios gegeben um das Renomee zu steigern. Mehr raus kommt dabei nicht unbedingt. Oft genug liegt das aber garn icht mal Können des Studios, sondern der Situaion: Interessant ist da die Haltung von Bob Katz: Er bemängelte unlängst(wieder einmal), daß er auf Kundendruck häufiger gezwungen sei, so zu mastern, wie vorgeben, und das, was er kann, gar nicht zeigen darf. Speziell beim Them overcompression hat B.K. ja eine eher konservative Meinung, die sich nicht mit dem derzeitigen main stream deckt. So gibt er kann, bereits mehrfach Kunden verloren zu haben, weil er sich geweigert hat, Mixes über das musikalisch-tontechische MAss hinaus zu komprimieren. Musicproducer 14:24, 29. Apr 2006 (CEST)
Ich kann dem voll zustimmen. Leider liest sich der Artikel immer noch eher so, dass Mastering in jedem Fall stattfindet, nötig ist und eine Verbesserung bringt. Die Arbeitsabläufe bei CD-Produktionen können - auch Genre-abhängig - sehr unterschiedlich sein. So gibt es Abläufe, wo Mix und Mastering schwer klar voneinander zu trennen sind. Auch gibt es hier genannte Schritte (Stereobild, Frequenzgang), die schon genauso im Mix beachtet werden (müssen).--Zetano 23:49, 3. Jun. 2009 (CEST)Beantworten

Im November 2006 hat eine IP eine neue Studioliste eingefügt. Begründung und Erläuterung für die Auswahl fehlten, so dass die Bedeutung der Studios nicht nachvollziehbar sind. Als Mindestanforderung sollte begründet werden, warum diese bedeutend sind und was diese Studios im Gegensatz zu anderen besonders macht. Hier die Liste:

Einige weltweit tätige Studios:

--Trainspotter 14:07, 9. Nov. 2006 (CET)Beantworten

Beispiel für eine Effektkette beim Mastering[Quelltext bearbeiten]

Folgender Abschnitt enspricht nicht den Anforderungen an eine Enzyklopädie. Bspw. die Ich-Form und die Schritt-für-Schritt-Anleitung mit zahlreichen ungeklärten Fachbegriffen. Die Quintessenz sollte herausgezogen werden und in den vorhandenen Abschnitt eingearbeitet werden, denn einige interessante Infos enthält der Abschnitt sicherlich. --Trainspotter 22:13, 16. Jun 2006 (CEST)

Interessant ist er schon, ich würde ihn hierlassen. Allerdings tauchen hier und da kleine Ungereimtheiten bzw. Flüchtigkeitsfehler auf (wie z. B. „Bitrate“, wo „Auflösung“ gemeint ist). -- Pemu 15:50, 23. Dez. 2006 (CET)Beantworten


Da das oben beschrieben Mastering kein festgelegter Prozess ist, sondern sich immer nach dem Ausgangsmaterial und den Bedürfnissen des jeweiligen Projektes richtet, ist es schwer eine etwas konkretere Beschreibung der einzelnen Schritte aufzulisten. Ich möchte trotzdem versuchen ein Beispiel anzuführen wie es bestimmt häufig angewendet wird, besonders weil oft wenig detaillierte Literatur zu finden ist und manchmal ein Schleier des Geheimnisvollen darüber hängt, den es doch zu lüften gilt, oder? Vorausgesetzt sei eine professionell gemischte, normalisierte Stereospur einer Produktion, z.B. im Popbereich. Hier bieten sich nun folgende Schritte an, wobei zu beachten ist, dass die Eingangs- uns Ausgangspegel am jeweiligen Effekt immer knapp unter 0 dB ausgesteuert sein sollten:

- Equalizing: abhängig vom Ausgangsmaterial wird oft eine so genannte Loudness-Kurve angewandt, die v.a. hohe Höhen und tiefe Bässe hervorhebt. Zur Bereinigung werden oft schmale Frequenzbänder im Bereich 150 - 600 Hz abgesenkt, um einem ungewollten "Dröhnen" vorzubeugen. Im Höhenbereich wird dem Stück "Charakter" verliehen, indem man bestimmte Frequenzbänder anhebt oder absenkt, so dass ein eigener, typischer Sound entsteht. Darüber hinaus werden natürlich viele spezifische Korrekturen vorgenommen, die dem jeweiligen Stück entgegenkommen oder Fehler beim Mischen kompensieren.

- (Vor-)Kompression mittels eines einbandigen Stereokompressors mit z.B. folgenden Werten: Attack-Time: 30ms / Release-Time: 50-120ms / Ratio 1:1,6 / Threshhold: -20dB

- Ein Stereoexpander sorgt dafür, dass die Räumlichkeit stärker betont wird, wobei der Eindruck entsteht, dass Dinge auch noch außerhalb der aufgestellten Lautsprecher erklingen. Dies wird über Laufzeitunterschiede im Höhenbereich erzielt und vermittelt Weite. Meist lässt sich nur die Stärke auf einer vordefinierten Skala einstellen. Vorsicht ist geboten, da Phasenverschiebungen auftreten können, die wiederum die Monokompatibilität einschränken!

- Bei Bedarf kann ein Exciter oder Enhancer verwendet werden, um dem Stück mehr Präsenz zu verleihen. Diese so genannten psychoakustischen Effekte wirken sehr unterschiedlich auf verschiedenes Material. Die Einstellungen variieren stark von Gerät zu Gerät. Generell sei nur gesagt, dass der Effekt oft sehr drastische Wirkung hat und man ihn mit Bedacht einsetzen sollte, da man sich sehr schnell an den neuen Sound gewöhnt und die gesunde Distanz zum Ausgangsmaterial verliert. Gute Resultate lassen sich bei etwas zu dumpf geratenen Mixdowns oder alten Aufnahmen erzielen, denen es an Höhen mangelt.

- Ein Hallgerät wird im Masteringbereich (wenn überhaupt) eher dazu benutz, dem Signal eine gewisse Atmosphäre zu verleihen oder einem sehr „aufdringlichen“ Mix etwas Distanz zu verschaffen. Seltener geht es tatsächlich um die Erzeugung eines virtuellen Raumes. Meistens wird man kurze Einstellungen bevorzugen. Z.B. 5 ms für das Delay / 0,5 bis 1 sek für die Hallfahne / und 5 bis 20 % für das Verhältnis Wet/Dry.

- Hat die bearbeitete Summe ein starkes Grundrauschen oder ähnliche störende Nebengeräusche (Netzbrummen etc), die v.a. an leisen Stellen und in Pausen hervortreten, ist es sinnvoll, einen Expander einzusetzen, der das Signal unterhalb eines gewissen Schwellenwertes absenkt und Störgeräusche so in den Hintergrund stellt. Einstellungen könnten sein: Threshhold: -50 dB (je nach Stärke der Störgeräusche) / Ratio: 1:1,5 / Attack-Time: 50-100 ms / Release-Time: 5 ms.

- Der vermutlich wichtigste Effekt im Mastering-Bereich ist der Multibandkompressor. Sein Prinzip basiert darauf, dass man das Ausgangssignal zunächst in drei bis fünf Frequenzbereiche aufsplittet und dann jeden einzelnen davon getrennt komprimiert. Sinnvoll ist das, da sonst besonders laute Ausschläge z.B. im Bassbereich dazu führen, dass der Kompressor sehr stark anspricht und das Signal mit allen Frequenzen verdichtet was zu einem kurzen "Wegtauchen" ("Pumpen") der Höhen führen würde. Bei mehreren Bändern kann also stärker komprimiert werden, ohne dass die verschiedenen Bereiche sich gegenseitig beeinflussen. Dadurch erhöht sich die Lautheit (subjektiv empfundene Lautstärke) eines Songs deutlich. Es würde zu weit führen auf verschiedene Multibandkompressoren im einzelnen einzugehen. Eine mittlere Einstellung könnte folgendermaßen aussehen: Attack-Time: 10 bis 25 ms / Release-Time: 50 bis 200 ms / Ratio 1:2,5 bis 1:4 oder mehr / Threshhold: -15 dB Bei der Attack-Time sei erwähnt, dass eine Zeit von 30 bis 50 ms zwar wünschenswert ist (da ein ordentlicher Bass-Punch dann noch mit einem Zyklus durchgeht, bevor der Kompressor anspricht), oft aber zu Clipping und damit zu Verzerrungen führt, grade wenn der Multibandkompressor über ein Auto-Makeup verfügt, welches das Gesamtsignal nach der Kompression automatisch anhebt, um immer möglichst nah am 0-dB-Punkt zu bleiben. Abhängig von der Anzahl der Bänder müssen die Frequenzübergänge gewählt werden. Bei drei Bändern ergibt sich oft eine Einteilung in Bässe, Mitten und Höhen. Diese Frequenzübergänge stellen die Schwachstellen des Multibandkompressors dar, da die eingesetzten steilflankigen Entzerrer niemals ganz sauber arbeiten. Man sollte den Übergang also niemals genau auf eine wichtige Frequenz im Song legen (z.B. nicht auf 125 Hz, wenn dort die Basstrommel ihre Hauptfrequenz hat), sondern eher in einen etwas „unwichtigeren“ Bereich. Insgesamt ist zu beachten, dass sich durch das unabhängige Kompressionsverhalten in jedem Band das Gesamtbild eines Songs stark verändern kann. So kann es passieren, dass eine Stimme, die zuvor gut im Mix integriert war plötzlich unangenehm vordergründig wirkt oder ähnliches. Hier müüsen Änderungen der Einstellungen des Multibandkompressors oder sogar Änderungen im eigentlichen Mix Abhilfe leisten. Oft lässt sich auch der Eingangspegel für jedes Band individuell einstellen, um so klangliche Anpassungen vorzunehmen.

Am Ende der Klangbearbeitung steht beim Mastern der Limiter, der nichts anderes darstellt als einen Kompressor mit einer sehr hohen, fest eingestellten Ratio (mind. 1:10). Auch hier gibt es Geräte mit mehreren Bändern, ähnlich wie beim Multibandkompressor. Ziel des Limiting ist es, das Signal nochmals zu verdichten (Maximizing) und außerdem dafür zu sorgen, dass die 0 dB-Marke niemals überschritten wird. Da auch beim Limiter eine Attack-Time eine kurze Verzögerung bis zum Ansprechen des Effektes vorgibt, ist es ratsam die erlaubte Höchstgrenze des Signals auf -0,01 bis -0,1 dB (anstatt genau auf 0 dB) zu legen, um ganz sicher keine Verzerrungen aufkommen zu lassen. Die Einstellungen bewegen sich ungefähr im Bereich von: 1 ms für die Attack-Time / 50 bis 200 ms für die Release-Time / -1 bis -5 dB für den Threshhold. Oft gibt es die Möglichkeit, einen so genannten Softclip vorzuschalten, der ein weicheres Ansprechen des Limiters schon unterhalb des eingestellten Threshhold bewirkt.

Bei einer digitalen Signalbearbeitung sorgt der Dither schließlich dafür, dass beim Umrechnen in eine andere Bitrate keine Quantisierungsfehler entstehen. Wichtig ist, dass die Bitrate immer entsprechend dem gewünschten Endprodukt eingestellt wird. Bei einer Audio-CD-Produktion also auf 16 bit. Wurde die ganze Zeit in 16 bit gearbeitet oder liegt ein analoges Signal vor, ist kein Dithering notwendig. Dieser Effekt hat keine hörbaren Auswirkungen.

Für alle erwähnten Effekte so wie auch für die Reihenfolge gilt, dass dies nur ein Anhaltspunkt sein kann. Jeder hat seine eigenen Vorlieben und Erfahrungen, die letztlich auch eine Vielfalt bei den Resultaten gewährleisten.



Dithering hat sehr wohl hörbare Auswirkungen... wozu sollte er sonst eingesetzt werden? Mit der Formulierung "sie erzeugt auch keine digitalen Artefakte wie Rundungsfehler oder "Dither", die bei digitaler Bearbeitung auftreten" bin ich auch nicht ganz zufrieden. Dither verursacht schließlich keine Artefakte sondern kaschiert sie... 129.132.9.183 10:04, 7. Mai 2010 (CEST) Dither ist meist nicht hörbar, da der Noisefloor von dem extrem viel lauteren Audiomaterial maskiert wird. 129.132.9.183 10:04, 7. Mai 2010 (CEST)Beantworten

Digital- vs. Analog-Mastering[Quelltext bearbeiten]

Mir passt an diesem Abschnitt nicht, dass er einen Hang zur nichtneutralen Sichtweise hat.

Unabhängig davon finde ich die Hinweise auf die Fehler durch mehrfaches AD-DA-Wandeln ein bisschen weltfremd, da sie im Vergleich zu den gewollten Änderungen am Audiosignal wohl verschwindend klein sind, wenn nicht gerade Ramsch benutzt wird. Die Argumentation klingt für mich nach Hifi-Fetischistentum. Und Mastering und Hifi-Fetischistentum sind für mich in gewisser Weise zwei gegensätzliche Ideologien, wenn ich das so sagen darf.

-- Pemu 15:50, 23. Dez. 2006 (CET)Beantworten

bitte-entschuldigung das ich mich hier einmische-aber da stehen mir die haare zu berge.. der artikel analog vs digital ist äußerst unseriös und manipulativ . er erzeugt die meinung analogmastering sei alt und verstaubt und digitalmastering top . was soll diese lobeshymne auf digitalmastering??? dies ist die persönliche meinung des autors , hat nichts mit der realsituation zu tun und sollte deshalb entfern werden.

nur einige beispiele: "im Gegensatz zur analogen Technik fallen bei einem rein digitalen Mastering keine zusätzlichen Artefakte mehr an" - was soll der blödsinn ?

"...ist ein digitales Mastering immer reproduzierbar, was bei einem analogen Masteringprozess schon allein durch das verwendete Bandmaterial nicht zu realisieren ist" - wer behauptet das analogmastering zwingendermaßen mit bandmaterial durchgeführt wird ?

"Eine rein analoge Signalkette, bei der das Material nach der Aufnahme nicht digital zwischengespeichert, sondern voll analog bearbeitet, gemastert und erst zum Schluss in den Rechner überspielt wird, ist heute praktisch nicht mehr anzutreffen." - FALSCH - IN DEN USA WERDEN NOCH JEDE MENGE MIXES AUF BAND GESPIELT

"Für eine Elektro-Produktion mit einem minimalistischen Budget, sollte man lieber 5 Tage Digitales als 2 Tage analoges Mastering wählen." - WAS SOLL DAS NUN WIEDER ? - WAS IST DAS FÜR EINE KINDERGARTENEMPFEHLUNG ?

FRAGE : WENN DEM SO WÄR , WÄREN DOCH DIE TOP MASTERER DIESER WELT ALLESAMT VOLLIDEOTEN , ALL DIE HIGH-END SCHMIEDEN WIE NEVE,SSL,MANLEY,TUBE-TECH USW. WÄREN SCHON LANGE IM KONKURS WEIL KEINER MEHR DEN " ANALOG-SCHROTT" KAUFEN WÜRDE . JEDER DER 5.000 EURO FÜR EINEN 3 HE COMPRESSOR AUSGIBT WÄRE DEMNACH VÖLLIG GEISTESKRANK UND DIE KUNDEN SOLCHER STUDIOS WARSCHEINLICH TAUBSTUMME,......??????

sehr geehrte herren : ich bin tonmeister der salzburger festspiele und besitzer eines masterinstudios , arbeite sowohl mit analogem outboardequipement als auch mit plu-ins und gebe PERMU recht. weiters möchte ich sagen das ich die version vom 24.4.2006 als wesentlich besser halte

Hallo, nichts ist hier in Stein gemeiselt. Wikipedia ist für konstruktive Vorschläge zur Verbesserung der Artikel offen. Ihr könnt auch selbst am Artikel verbessern, insbesondere, wenn Aussagen so offensichtlich falsch zu sein scheinen. Ich werde versuchen, Eure Kritikpunkte aufzugreifen und den Artikel danach anzupassen. Leider bin ich nicht vom Fach, so dass Eure Verbesserungen willkommen sind. --Trainspotter 09:11, 2. Apr. 2007 (CEST)Beantworten
So, hier ist alles, was ich aus dem Artikel rausgeworfen habe. Im wesentlichen ist der Artikel jetzt wieder auf dem Stand April 2006. -Trainspotter 14:12, 2. Apr. 2007 (CEST)Beantworten
„Im Gegensatz zur analogen Technik fallen bei einem rein digitalen Mastering keine zusätzlichen Artefakte mehr an, die durch (Egal wie teuer und gut) Analogwandler immer durch die erneute Wandlung entstehen müssen. Ebenso ist ein digitales Mastering immer reproduzierbar, was bei einem analogen Masteringprozess schon allein durch das verwendete Bandmaterial nicht zu realisieren ist. Gleichfalls gibt es hierbei keine Gleichlaufschwankungen oder Störeinstrahlungen, die selbst bei einer „echten“ (Im Gerät fortgeführten) symmetrischen Signalführung durch Steckkontakte, schlechte, alternde Lötstellen, Ein-/Ausgangstrafos, Kabel etc. entstehen. Das letzte und stichhaltigste Argument für ein digitales Mastering ist, dass sowohl das Ausgangsmaterial (Mixdown) als auch das Endprodukt (Premaster-CD) digital ist und somit eine erneute AD/DA-Wandlung lediglich zu einer Signalverschlechterung durch Quantisierungsfehler führt.
Dem oft angeführten Argument der Wärme und des Drucks bei analogem Mastering kann man bei heutigen, modernen PlugIns auch nur noch bedingt zustimmen. Spezielle PlugIns zur Emulation von Band- und Röhrengeräten bringen ebenso guten „Sound“ wie analoges Mastering, vor allem, wenn man bedenkt, dass der Konsument eher selten über eine Audioanlage, die geeignete Abhörumgebung oder das geschulte Gehör eines Tonmeisters/Masteringingenieur verfügt.
Eine rein analoge Signalkette, bei der das Material nach der Aufnahme nicht digital zwischengespeichert, sondern voll analog bearbeitet, gemastert und erst zum Schluss in den Rechner überspielt wird, ist heute praktisch nicht mehr anzutreffen.
Letzten Endes sollte sowohl das Budget, als auch der Geschmack des Künstlers, als auch der Stil des Ausgangsmaterials entscheidend sein. Für eine Elektro-Produktion mit einem minimalistischen Budget, sollte man lieber 5 Tage Digitales als 2 Tage analoges Mastering wählen.
Anders sieht die Sache allerdings bei analogen Tonbandaufnahmen aus, z.B. bei Wiedervöffentlichungen von Alben, die vor dem Aufkommen digitaler Aufnahme und Abmischung erschienen sind. In diesem Fall garantiert ein rein analoges Mastering eine Wiedergabe, die näher am Klang des Originals ist und nicht digital manipuliert ist. Die Umwandlung in das digitale Endprodukt geschieht dabei gleichzeitig zum Abspielen des Tonbandes und des Masteringvorgangs mit Hilfe der analogen Konsole, aber ohne digitale Zwischenspeicherung. Eine solche Mastering-Technik ist frei von extremen Pegeländerungen (Equalization), Rauschunterdrückung oder digitaler Dynamik-Kompression, und sie erzeugt auch keine digitalen Artefakte wie Rundungsfehler oder "Dither", die bei digitaler Bearbeitung auftreten. In den 1980er und frühen 1990er Jahren wurden die meisten digitalen Tonträger analog gemastert, während im neuen Jahrtausend nur noch wenige, auf audiophile Aufnahmen spezialisierte Plattenfirmen diese aufwendigere Technik verwenden.“

Der Abschnitt ist völlig überholt, sachlich ungenau und z.T. falsch, unübersichtlich, sowie einseitig beschrieben. Das kann eigentlich nicht so stehen bleiben--Zetano 23:49, 3. Jun. 2009 (CEST)Beantworten

Der Abschnitt scheint mir auch nach der Änderung fraglich. Ich bitte darum, insbesondere zu den Rechengenauigkeiten und der Häufigkeit des Hybridmasterings, aktuelle Belege anzugeben, mithilfe von Einzelnachweise. Danke!

Frage[Quelltext bearbeiten]

Habe nur eine Frage: "Aufgrund der stetig steigenden Leistungsfähigkeit der Computertechnik sind inzwischen auch digitale Geräte leicht auf dem Rückzug" Soll das nicht "analoge Geräte" heissen? Der Satz verwirrt mich etwas.

Nein, du hast Dich nicht verlesen. Der Satz ist schon so gemeint, er ist bloß etwas schwammig formuliert. Er meint, das digitale Stand-Alone-Geräte also Hardwaregeräte für Effekte etc. leicht auf dem Rückzug sind, da sich diese mittlerweile oft ausreichend über Software-Plugins realiseren lassen. --Trainspotter 07:53, 11. Dez. 2007 (CET)Beantworten

allgemeines zum Artikel[Quelltext bearbeiten]

der gesamte Artikel bedarf einer kompletten Überarbeitung. Es haben sich im Laufe der vielen Versionen nicht nur etliche Fehler eingeschlichen (seit wann arbeiten DSPs in Echtzeit?), sondern einige Aspekte sind mittlerweile schlicht veraltet.

Natürlich können DSPs in Echtzeit arbeiten. Was du meinst, ist, dass sie nicht verzögerungsfrei arbeiten! Einfach mal schlau machen was Echtzeit überhaupt heißt. Wenn die Bearbeitung des Signals eine Verzögerung von einer Stunde verursacht, dafür aber IMMER nur von einer Stunde (oder weniger), spricht man auch von Echtzeit. Echtzeit != Verzögerungsfreiheit! (nicht signierter Beitrag von 77.188.254.140 (Diskussion) 17:56, 8. Jun. 2010 (CEST)) Beantworten

Das seh ich genau so, der gesamte Artikel ist ein Witz, alleine schon weil man "Mastering" mit "Glasmastering" irgendwie zusammenschmeißt !

Die gesamte Definition des Artikels ist dahin, und ein Leihe geht verwirter raus als informierter !

Was ist denn das für n Quark? Eine Stunde Verzögerung soll Echtzeit bedeuten? Das ist doch Quatsch. Echtzeit bedeutet einfach, dass die Latenz so gering ist, dass sie vom Benutzer kompensiert werden kann. Unabhängig davon was für n Gerät. DSP die auf Puffergrößen von 100-4000 Samples auf 44,1 kHz (weniger als 10 ms) laufen sind definitiv Echtzeit. Wer nun immernoch meint, dass analoge Geräte aber mit 0 ms Latenz arbeiten, irrt gewwaltig. Der Anschlagdauer eines Klaviers beträgt z.B. 20-40ms. Auch analoge Effekte bedienen sich oft einer kleinen Latenz um manche Effekte besser umzusetzen. (nicht signierter Beitrag von 85.179.78.25 (Diskussion) 03:02, 16. Okt. 2013 (CEST))Beantworten

Software[Quelltext bearbeiten]

Vielleicht sind meine Änderungswünsche ja nicht regelkonform, in diesem Falle hat es sich natürlich erledigt: Was ich vermisse, sind Links oder Verweise auf Mixsoftware (oder halt Musiksoftware verlinken), oder sogar ihre Erwähnung im Artikel. Auch in verwandten Artikeln wie Abmischung ist nix zu finden... Den entsprechenden Artikel Musiksoftware fand ich erst nach längerem Suchen. Der Titel ist meiner Meinung zu wenig zu wenig offensichtlich, wenn man spezifische Software sucht, so dass man nicht gleich aufs richtige Lemma kommt... Ausserdem ist es m.M. sehr Relevant für den Artikel, da sie doch Werkzeuge sind, um zu mastern oder abmischen! Gruss Der Albtraum - so what?! 03:25, 25. Jul. 2009 (CEST)Beantworten

Digital vs. Analog-Mastering[Quelltext bearbeiten]

In diesem Abschnitt wird genannt, dass digitales Mastering der Einschränkung unterliegt, dass es nicht echtzeitfähig ist. Nun frage ich mich, wozu die Echtzeitfähigkeit benötigt wird. Denn störend ist die kaum wahrzunehmende Latenz beim Arbeiten ja nicht. -- 85.178.3.228 01:57, 27. Okt. 2010 (CEST)Beantworten

Fehler im Artikel, Ergänzungen und Vorschläge[Quelltext bearbeiten]



"...Alle notwendigen, aus der konventionellen analogen Technik bekannten Geräte stehen hier als virtuelle Maschinen in Form von sogenannten Plugins zur Verfügung.."

Das ist falsch. Es stehen nicht alle Geräte als virtuelle Maschinen zur Verfügung sondern es gibt Software, die manche echten analoge Geräte versucht zu emulieren. Desweiteren gibt es Effekte im Digitalen, die analoge Techniken und Effekte nachempfinden, bzw sie eben über digitale Signalverarbeitung umsetzen. Und es sollte nicht heißen "Plugins", sondern Software/Programme. Hier wird Bezug auf VST,AU und Konsorten genommen, obwohl es nicht zwangsläufig Plugins einer bestimmten Architektur sein muss. Es ist schlicht Software. Wenn der Bezug zu VST/AU etc. hier nötig erscheint, das bitte auch so ausweisen.





"...unterliegt aber gewissen Beschränkungen, vor allem in Sachen Echtzeitfähigkeit, die auch mit der leistungsfähigsten Hardware systembedingt nie vollkommen erreicht werden wird, da gewisse Plugins eine Verzögerung des Signals verursachen. Daher werden in Profistudios bevorzugt externe, DSP-basierte Studiogeräte in den Signalpfad integriert, in denen die Signalbearbeitung in ähnlicher Weise rein mathematisch – aber vollkommen in Echtzeit – abläuft"

Hier werden viele Begrifflichkeiten durcheinander geworfen, die verwirren und Dinge falsch dargestellt. Nicht gewisse Plug-Ins, sondern Audio-Software und Audio-Pipelines in Computer-Systemen arbeiten mit einem Sample-Puffer, die Wahl und Leistung der Hardware spielt keine Rolle. Deswegen haben sie eine einstellbare Latenz, die der Größe des Puffers entspricht. Die Latenz ist echtzeitfähig und keine Beschränkung. Es gibt zwar bestimmte Effekte die mit vernachläßigbaren und/oder aber auch spürbaren Verzögerungen arbeiten, um Effekte besser umzusetzen, diese sind aber in analoger wie auch digitaler Domäne üblich. Zumindest ist der Grund, warum manche Mastering-Engineers (nicht Profistudios) bestimmte externe Technik bevorzugen eher eine Mischung aus Aber- und Irrglaube, Fehlinformation, Inkompetenz, Vorliebe für ein Modell (wegen der Art der Filterung/Dynamikverarbeitung/Sättigung/Verzerrung), Ideologie und Gewohnheit, nicht aber das Software nicht in der Lage wäre die identischen Ergebnisse zu erzielen. Digital-Signalprozessoren arbeiten auch mit einem Sample-Puffer (siehe deutschen Wikipedia-Artikel zu DSP und Echtzeit). Der Verweis auf "ähnlicher Weise rein mathemathisch" ist unnötig und suggeriert, das Software etwas anderes tut. Was soll denn digitale Signalverarbeitung sonst sein? Einfach den Satz weglassen oder richtig stellen. Außerdem finde ich das Kürzel DSP nicht eindeutig. Im englischen (und auch in der deutschen Branche üblich) bedeutet DSP digitale Signalverarbeitung, kann aber im deutschen auch für einen digitalen Signalprozessor stehen.





"...die über hochwertige AD-Wandler, sogenannte Studiowandler, in das digitale Setup heutiger Studios integriert sind..."

Hier wurde vergessen zu erwähnen, dass das nur mit Latenz geschehen kann.




"...Durch die Nutzung echter analoger Geräte umgeht man die teilweise bestehenden Artefakte digitaler Bearbeitung: Einerseits bilden die verwendeten mathematischen Modelle die analogen Komponenten nicht beliebig exakt ab, zum anderen stellen die Algorithmen immer einen Kompromiss zwischen Ausführungsgeschwindigkeit und Genauigkeit dar..."

Hier wird zum einem suggeriert, dass analoge Signalverarbeitung mathemathisch korrekter berechnet als digitale. Das ist schlichtweg falsch. Signalverarbeitung unterliegt im analogen nun mal den Gesetzen der Natur und der Präzision der verwendete Teile. Nicht beliebig exakt. Die Beschränkung durch die ganzen Schaltkreise, Mechanik, schwankenden Spannungen, unterschiedlichen Temparaturen und verwendeten Materialen etc ist dafür verantwortlich, dass analoge Verarbeitung bei weitem nicht so exakt arbeitet wie digitale. Die Möglichkeit zwischen unterschiedliche Techniken/Algorithmen verwenden zu können, stellt kein Artefakt dar, z.B. erzeugt ein instabiler IIR-Filter die gleiche Artefakte analog wie auch digital.





"...Die digitalen Nachbildungen der analogen Geräte haben auch den Vorteil, dass das analoge Rauschen der Original-Hardware nach Belieben ein- und ausgeschaltet werden kann. ..."

Richtig wäre: Manche Emulationssoftware externer Nachbauten ermöglicht dem Nutzer, das Rauschen der analogen Software zu simulieren. Das digitale (ab etwa 4-6 Bittiefe und 44,1 kHz Samplerate nicht hörbare) Grundrauschen kann man höchstens mit Ditherrauschen austauschen/überlagern.




"...Geräten als auch als preiswerte Plugins anbieten. Die Plugins sind dabei..."

Wie oben, es sollte nicht Plugins sondern Software/Programme heißen.





"...Die Plugins sind dabei in vielen Fällen sogar im Vorteil: Beim Offline-Rechnen der Software liefern sie gerade wegen des Fehlens von Echtzeitbeschränkungen ein mathematisch exakteres Ergebnis..."

Wieder wird suggeriert, dass die Genauigkeit des digitalen Ergebnisses in Echtzeit nicht exakt wäre, was eben nicht stimmt. Zum anderen ist der Vorteil des Offline-Renderns, dass die Verarbeitung (durch die Verzögerung des Signals) sozusagen in die Zukunft schauen kann und somit auf Ereignisse in der Gegenwart reagieren kann. Was z.B. oft im Zusammenhang mit Dynamikverarbeitung geschieht. Zusätzlich kommt dazu, dass man eben auf sehr viel leistungsintensivere Algorithmen zurückgreifen kann, die im Echtzeit-Einsatz unnötig, unpraktisch oder zu langsam wären. Z.B. sehr hohes Oversampling um stabilere, komplexere Filter verwenden zu können. Ein weiterer Vorteil von Software und was heute eher der Fall ist, dass das Offline-Rendern schneller als die Echtzeit ist und man so Zeit spart. Desweiten hat Software nur die Limitierung durch die Leistung des Systems (eigentlich nur Speicher) und kann in der Regel somit wesenltich mehr Einheit verarbeiten als z.B. ein analoges Gerät, das eine fixe Anzahl von Ein- und Ausgängen hat.





Man sollte vielleicht auch noch erwähnen, dass im Grunde jede kommerzielle Musik zum Großteil digital gemastert ist, der Loudness War wäre ohne digitale Signalverarbeitung nie auf solche extrem lauten Pegel gekommen.

Und dieses Gerücht mit der Echtzeit. Streicht das mal bitte. Mir erzählen Leute immernoch das sie lieber analog arbeiten, weil es in Echtzeit ist, dann aber n Kasten zu hause stehen haben, der per digitale Signalverarbeitung sein Signal mit nem Puffer von 1024 Samples auf 44,1 kHz verarbeitet. Nur weils n echter Kasten ist, glauben die Leute sie haben was analoges. Höre dabei auch öfters Referenzen auf diesen Artikel, der nicht schlecht diese Misinformationen verbreitet. (nicht signierter Beitrag von 85.179.66.134 (Diskussion) 21:42, 17. Okt. 2013 (CEST))Beantworten

Video-Master?[Quelltext bearbeiten]

Warum gibt es noch keinen Artikel für ein Video-Master? Z. B. ist hier die Rede von einem 4K-Master eines Films. Was genau bedeutet Master im Zusammenhang mit Videoaufnahmen?--Stegosaurus (Diskussion) 14:40, 17. Apr. 2017 (CEST)Beantworten

Digital- und Analog-Mastering / Latenz[Quelltext bearbeiten]

1.[Quelltext bearbeiten]

Im Abschnitt Digital- und Analog-Mastering in der aktuellen version (2019/04/30) habe ich ein großes Problem mit der Behauptung, dass bei der Benutzung von externen digitalen Geräten keine Latenz erzeugt werden würde, und dies ein Vorteil gegenüber der rein computergestützten Bearbeitung mit Plug-ins wäre. Tatsächlich ist es wohl vielmehr umgekehrt. Bestimmte Effekte lassen sich schlichtweg nicht ohne Latenz erzeugen - und im Gegensatz zu einem Masteringplatz mit Expandern bieten die einschlägigen Computerprogramme alle einen automatischen Latenzausgleich, der insbesondere die "parallele" Bearbeitung deutlich erleichtert und auch das arbeiten mit "Stems" erst bequem ermöglicht. --2003:D4:7F29:AB4E:C0B0:24A2:C47F:BEC6 03:11, 30. Apr. 2019 (CEST)Beantworten

2.[Quelltext bearbeiten]

Die Kritik am Autor, er würde "digital" übervorteilen hingegen halte ich für grundfalsch. Was üblich ist, kann man nicht daran messen, was TOP10 Produzenten, Opernhäuser oder reine Masteringsstudios benutzen, sondern nur daran, was nominal weiter verbreitet ist. Man muss also schon die Millionen von Industrie-, Profi- und Hobbyanwendern mitrechnen, die rein digital aufgestellt sind - und dann ist "digital" heute absolut der Normalfall. Was "besser" ist o.ä. steht hier ja nicht zu Debatte. --2003:D4:7F29:AB4E:C0B0:24A2:C47F:BEC6 03:11, 30. Apr. 2019 (CEST)Beantworten

3.[Quelltext bearbeiten]

Ergänzen könnte man vielleicht noch, dass "analog" eher noch beim Audiomastering häufiger anzutreffen ist während "digital" beim technischen Mastering den Ton angibt. (i.e. früher RIAA filter für Vinylschnitt - heute Lautstärkeanpassung und Encoding für Youtube) --2003:D4:7F29:AB4E:C0B0:24A2:C47F:BEC6 03:08, 30. Apr. 2019 (CEST)Beantworten

Mastering bei Streaming[Quelltext bearbeiten]

Ein Mitautor hat – AGF – vermutlich als Disk.-Beitrag einen Link auf mutmaßlich seine Website gestellt:

Oliver Fabel: audio-mastering-service.de/mastering

Hab ich mal hierher verschoben.

Zum Casus Cnaxus: Unabhängig davon, dass ggf. die Eigenarten der unterschiedlichen Vertriebswege bzw. Tonträger berücksichtigt werden müssen, ist IMHO unstrittig, dass (Pre-)Mastering auch digitale Vertriebswege betrifft.

-- Pemu (Diskussion) 22:30, 26. Okt. 2021 (CEST)Beantworten