Die ganze Wahrheit über True Peak Level
Warum die meisten CDs übersteuert sind
Von Friedemann Tischmeyer
True Peak Level – Für mehr Dynamik
Als ich vor über drei Jahren die Parameter und Algorithmen des TT Dynamic Range Meter feinabgestimmt habe, war darin bereits ein vollständiges True Peak Meter mit vierfachem Oversampling eingebaut, so wie es heute nach der EBU- und ITU-Norm (European Broadcasting Union und International Telecommunication Union) Weltstandard ist. Tests ergaben, dass die meisten aktuellen CD-Veröffentlichungen nach diesem Messstandard übersteuert wären. Um jedoch eine Flut an Beschwerden und Nachfragen zu vermeiden, haben wir entschieden, die Regeln für das TT Meter etwas zu lockern, um einerseits auf den kritischen Peak-Bereich aufmerksam zu machen und andererseits nicht mit einem Messgerät zu kommen, das von vielen Anwendern mangels Hintergrundinformationen als falsch interpretiert worden wäre.
Heute, drei Jahre später, hat sich True Peak Level (TPL) mittlerweile zum global anerkannten Standard in der Pro-Audio-Welt gemausert und bereits über 20 Hersteller von professionellen Metering-Lösungen haben echte True Peak Meter auf dem Markt. Ironischerweise sucht man in den Audiostatistiken der gängigen DAWs von Cubase über Logic bis hin zu Pro Tools vergeblich nach TPL-Angaben. Bis auf Pyramix liefern alle DAWs völlig unzureichende Auskünfte in Sachen Peak Level, basierend auf Algorithmen, die im Prinzip nie dazu geeignet waren, Peaks von digitalem Audio richtig zu messen (SPPM). Überdies sind die Erkenntnisse rund um die Peak-Aussteuerung bis heute leider nur sehr lückenhaft in die Welt der Mastering-Ingenieure eingedrungen. Dieser Artikel soll daher ein Anfang sein, dies zu ändern.
PASSEND DAZU
- TBProAudio dpMeter III: Free VST Metering Plugin
- Nugen Audio MasterCheck Pro: Für perfekten Sound bei Spotify & Co.
- Nugen Audio MasterCheck: Lautheit messen, abgleichen und mehr
- MeterPlugs LCAST: Loudness Meter für Windows & Mac OS X
- Audio Mastering am Computer: Peak- und RMS-Pegel
Analoge Messverfahren in der digitalen Welt
Um dies alles zu verstehen, müssen wir das Zeitrad noch weiter zurückdrehen. Wir schreiben das Jahr 1984 und die CD erblickt in Deutschland das Licht der Welt. Zu dieser Zeit wurde noch zu hundert Prozent analog produziert, wobei die analoge Mischung sorgfältig analog gelimitet und auf ein 16-Bit-Mastermedium – in der Regel ein DAT-Recorder – überspielt wurde. In gebührendem Respekt vor möglichen Übersteuerungen wurden diese Analog-Digital-Überspielungen mit drei bis sechs Dezibel Peak Headroom durchgeführt. Allerdings stellte das Aussteuern bei 16-Bit-Auflösung immer einen kritischen Balanceakt zwischen möglicher Übersteuerung und Untersteuerung dar, was zu mangelnder Bitausnutzung führen konnte.
Die digitalisierten Aufnahmen wurden anschließend im Mastering gegebenenfalls noch etwas nachbearbeitet, was anfangs in der Regel mit analogen Geräten erfolgte, da es noch keine guten digitalen EQs und Kompressoren gab. Die finale CD kam schließlich nicht selten mit einem Headroom von einem Dezibel oder mehr auf den Markt und war der Zeit entsprechend noch sehr dynamisch und daher völlig unkritisch in Sachen Peak-Übersteuerungen.
Aus dieser Rückschau wird klar, weshalb die Schöpfer der digitalen Audiowelt den Grad der möglichen Peak-Übersteuerungen, wie sie heute stattfinden, nicht vorhersehen konnten. Damals war man glücklich über ein Medium, das so viel Dynamik wiedergeben kann und es waren keine technischen Möglichkeiten vorhanden, Mischungen sozusagen so gegen die Decke zu nageln, wie es heute die Regel ist. Aus dieser Sicht waren die damals gebräuchlichen Messmethoden (SPPM) also völlig ausreichend. Mit der Etablierung digitalen Limitings und dem Bedürfnis nach immer lauteren Mastern lieferten diese Messmethoden jedoch nur noch unzureichende Ergebnisse, was über ein Jahrzehnt lang fast völlig übersehen wurde.
Um den Grund dafür zu finden und das alles genau zu verstehen, müssen wir zunächst ein wenig in die Geschichte der Messtechnik eintauchen:
Die wichtige Marke der -9 dBFS hat ausgedient
In der Übergangsphase vom Analog- in das Digitalzeitalter wurde in den Studios noch mit QPPM (Quasi Peak Program Metering) gearbeitet, einem Messverfahren aus der Analogzeit, das mit einer Integrationszeit von zehn Millisekunden arbeitet. Die Integrationszeit ist dabei das Messfenster, das vom Meter analysiert wird. Kürzere Werte wären von den mechanischen Nadeln der VU-Meter nicht darstellbar gewesen, was aber nicht weiter schlimm war, da analoge Medien mit einem gewissen Übersteuerungs-Headroom ausgestattet waren. Besonderheit: Das Ergebnis einer QPPM-Messung besitzt dabei einen Underread (zu niedrige Angabe) von bis zu neun Dezibel. Das heißt, dass besonders hochfrequente Transienten, die kürzer als zehn Millisekunden sind, in Wirklichkeit bis zu neun Dezibel höher sein können als der QPPM-Grenzwert von -9 Dezibel. In der Praxis wurde hingegen von einem mittleren Underread-Wert von 4,5 Dezibel ausgegangen, da solch hoch ausgesteuerte Transienten im hohen Frequenzbereich seltener vorkommen. Alles in allem lässt sich also sagen, dass das »Quasi Peak Program Metering«-Verfahren – Nomen est Omen – lediglich Anhaltswerte für den wahren Peak-Wert liefert.
Die Konsequenz: Da in der Analog-Digital-Übergangszeit erst sehr wenige Studios und Rundfunkanstalten mit digitalen Peak-Metern ausgestattet waren, wurde der maximal zulässige (QPPM-)Peak-Wert auf -9 dBFS festgelegt. Eine Aussteuerung bis -9 dBFS hat also erlaubt, dass sich Transienten, die nicht von der QPPM-Messung erfasst werden, in dem Headroom darüber entfalten können, ohne den maximalen Digitalpegel von 0 dBFS (SPPM) zu überschreiten. Dieser Wert von -9 dBFS ist bis heute Broadcast-Standard, der jedoch seit dem 1. Januar 2012 seine Gültigkeit verloren hat, da er gegen das TPL-Verfahren ersetzt wird.
Allerdings hat das absurde und auf unverifizierten Annahmen beruhende Bedürfnis, möglichst laut zu sein, auch vor dem Broadcast-Bereich bekanntermaßen keinen Halt gemacht. Der zulässige Grenzwert wurde daher auch dort sukzessive nach oben verschoben, was mithilfe digitaler Sende-Limiter, etwa von Geräten der Optimod-Serie des Herstellers Orban, mit Leichtigkeit bewerkstelligt werden kann. Dabei werden sämtliche auftretenden Transienten zuverlässig plattgefahren, sobald ein bestimmter Schwellenwert überschritten wurde.
So ist der Standard immer weiter aufgeweicht worden und heute weiß eigentlich keiner mehr genau, in welchem Pegel man nun wirklich an Fernsehstationen liefern soll. An einigen Ausbildungsinstituten wird sogar gelehrt, dass ein Brickwall-Limiter bei -9 dBFS anzuwenden sei, was die Transienten, zu deren Überleben dieser Headroom einst geschaffen war, natürlich vollends abrasiert. In der Praxis ist es heute so, dass viele Studios gar nicht mehr über QPPM-Messtechnik verfügen und DAWs diesen Wert in der Regel auch nicht ausweisen. Studios, die nach der korrekten Intention dieses veralteten Standards ihre Produktion abliefern, werden in Folge dessen sicherlich häufiger zu hören bekommen, dass sie zu leise sind. Das führt uns jedoch auf ein weiteres Thema: Lautheitsnormalisierung nach R128, was wir in einer der nächsten Folgen ausführlich besprechen. Nur soviel dazu an dieser Stelle: Die Tonmeisterei darf sich darüber freuen, dass mit dem neuen EBU-Standard R128 dieses Lautheitskuddelmuddel ein Ende hat.
Das SPPM-Verfahren ist unzureichend
Setzen wir also unsere Messtechnikreise mit dem nächsten Verfahren, dem »Sample Peak Program Metering« (SPPM) fort. Versetzen wir uns dazu noch einmal zurück in das Jahr 1984: Zu dieser Zeit erschien die Ansicht, präzise Ergebnisse durch Analyse jedes einzelnen Samples zu erhalten, durchaus plausibel. Niemand dachte im Traum daran, dass das bislang dynamischste Medium (CD = 96 dB Dynamikumfang) eines Tages dazu verwendet werden wird, die historisch undynamischsten Aufnahmen zu (re-)produzieren, die eine Konzentration musikalischer Ereignisse an der digitalen Aussteuerungsgrenze mit sich gebracht hat, zu deren sauberen Bemessung SPPM völlig unzureichend ist. Bei SPPM wird der Wert jedes einzelnen Samples ausgelesen und der höchste ermittelte Wert repräsentiert den maximalen Peak. So weit so gut. Doch das Problem ist systemimmanent, denn unsere Digitalskala endet bei 0 dBFS, sodass ja prinzipiell keine Werte oberhalb dieser Grenze angezeigt werden können. Messtechnisch ist digitales Audio nach SPPM quasi nicht übersteuerbar, es sei denn, bestimmte Regeln kommen zur Anwendung.
Zeigt das SPPM-Verfahren gelegentlich ein einzelnes Sample an, das die 0-dB-Marke streichelt, so mag das in Ordnung sein. In der Realität sieht das heutzutage jedoch völlig anders aus. So ist bei Analysen auffällig, dass auf vielen CDs bis zu 100 Samples in Folge förmlich gegen 0 dBFS genagelt sind. Selbst das Einbauen eines Sicherheits-Headrooms, bei dem 100 Samples in Folge beispielsweise nur bis -0,3 dB reichen, führt bei der DA-Wandlung zu einer satten Übersteuerung von bis zu sechs Dezibel. Was also in der digitalen Welt richtig ist, muss noch lange nicht für die analoge Seite gelten, in die schließlich jedes Digitalsignal zurückgewandelt werden muss, um in Schallwellen verwandelt werden zu können.
In einem Satz zusammengefasst kann man den Unterschied zwischen digitalen und analogen Signalen so beschreiben: Digitale Signale sind eckig und analoge Signale sind rund. Anders ausgedrückt: Das runde, analoge Signal wird sich nicht davon abhalten lassen, weiter anzusteigen, anstatt brav in der Waagerechten abzuknicken, nur weil die Marke von 0 dBFS erreicht ist. Es steigt weiter an, triggert Übersteuerungsgrenzen und ruft eine analoge Verzerrung hervor, die in vielen Fällen tatsächlich auch deutlich hörbar ist und zu bis zu 700 Millisekunden langen Verzerrungsartefakten führt.
Dieses Problem wurde übrigens schon vor vielen Jahren erkannt, weshalb die SPPM-Messung schließlich um zulässige Grenzwerte erweitert wurde. In professionellen Peak-Metern kann häufig eingestellt werden, wie viele Samples in Folge 0 dBFS haben dürfen, bevor die Over-Anzeige ausgelöst wird. Anfangs waren es neun Samples, doch heute ist bekannt, dass selbst zwei Samples keinen ausreichenden Übersteuerungsschutz vor sogenannten Durchschießern oder Interleaved Sample Overs geben.
Wir haben bei SPPM einen Underread von bis zu 6dB. Das bedeutet, dass SPPM um bis zu 6 dB niedrigere Peak-Werte als die von TPL erkannten Peak-Werte inkl. Interleaved Sample Overs über 0 dBFS anzeigt. Trotzdem bieten fast alle DAWs lediglich Peak-Messungen nach SPPM an, wobei zumeist unklar ist, wie die Regeln für das Triggern einer Übersteuerung festgelegt sind. Dies gilt auch für die Offline-Statistiken, wie sie von vielen DAWs angezeigt werden können. Daher kann man aus heutiger Sicht mit Fug und Recht behaupten, dass SPPM ein völlig unzureichendes Messverfahren für die Evaluierung der maximalen Peak-Werte eines digitalen Audiosignals ist.
Abhilfe soll deshalb das True-Peak-Level-Verfahren schaffen. TPL ist von der ITU im Papier BS 1770 definiert. Die EBU hat diesen Standard übernommen und in die R128 Recommendations einfließen lassen. Daher ist TPL erstmals ein globaler Standard zur Messung von Pegelspitzen. Wie das funktioniert und was TPL ausmacht, soll im Folgenden näher erläutert werden:
Hörbare Verzerrungen selbst bei -0,3 dBFS (SPPM)
Um den Underread der SPPM-Messung abzufedern, arbeitet das TPL-Verfahren im vierfachen Oversampling. Oversampling bedeutet Verdoppelung der Samplefrequenz. Bei vierfachem Oversampling liegt also die 16-fache Samplefrequenz des Audiosignals an. Die interpolierten Werte müssen dabei jedoch so berechnet werden, dass sie ihren analogen Pendants entsprechen, wie in der folgenden Abbildung dargestellt wird. Eine lineare Interpolation würde nicht zum Ziel führen, da die linear interpolierten Samples zwischen zwei vollausgesteuerten Samples ebenfalls 0 dBFS entsprechen würden.
Misst man Signale nun im vierfachen Oversampling mit der gleichen Regel »Maximal ein Sample in Folge darf bis 0 dBFS reichen«, so sind fast alle Durchschießer zu erfassen. Bei vierfachem Oversampling existiert übrigens nur noch ein Underread von 0,5 dB. Dieser Wert halbiert sich dabei mit jedem weiteren Oversampling-Vorgang. Da das Oversampling jedoch sehr rechenintensiv ist, hat man sich darauf geeinigt, es bei vierfachem Oversampling zu belassen und einen maximalen Aussteuerungspegel festzulegen (PML = Permitted Maximum Level). Dieser liegt nun global bei -1 dB TP und gilt zukünftig für den TV-Bereich, später auch für das Radio. Nebeneffekt: Diese Grenze definiert einen zusätzlichen Headroom von 0,5 dB, der bei nachträglicher Datenreduktion, beispielsweise bei der MP3-Encodierung, vor weiteren Überschießern schützen soll.
Die genauen Hintergründe zu erläutern, würde an dieser Stelle zu weit führen. Jeder Mastering-Ingenieur sollte jedoch wissen, dass jede Datenreduktion aus physikalisch leicht nachvollziehbaren Gründen zu Peak-Erhöhungen führt. Konsequenz: Mangelndes Wissen hierüber hat zum historisch schlechtesten Sound in der Radiolandschaft geführt. Das übersteuerte PCM-Master der CD wird für den Sendeserver in MP2 oder MP3 gewandelt, in der Regel ohne zuvor im Pegel reduziert zu werden, wie es richtig wäre. Das nun mit zusätzlichen Verzerrungen versehene »Sendemaster« wird zur Sendung in PCM zurückgewandelt, um dann vom Sende-Limiter noch einmal verzerrt zu werden. Aus diesem Grunde predige ich, dass »laut« im Radio nie besser, sondern immer schlechter ist.
Doch wie sieht es mit TPL im Mastering aus? Es ist kaum zu erwarten, dass CD-Master ab morgen mit einem Dezibel Headroom nach TP gepegelt werden, auch wenn es sicherlich gut wäre. Zu groß ist immer noch der überholte und widerlegte Glaube, dass »laut« besser verkauft. Die Musikindustrie würde jedoch wieder einen gewaltigen Schritt in Richtung Klangqualität machen, wenn Master zukünftig mit 0,5 dB Headroom nach TPL-Norm ausgesteuert werden.
Damit dies gelingt, bieten sich verschiedene Optionen an: Sie brauchen entweder ein Meter, dass TPL anzeigt oder Sie verlassen sich auf einen guten Brickwall-Limiter, der auf -0,5 dBFS eingestellt wird. Ich persönlich empfehle den Sonnox Oxford Limiter, da er im vierfachen Oversampling arbeitet, über eine Funktion verfügt, die Peak-Werte über 0 dBFS anzeigt und somit quasi ein Vorreiter des TPL-Verfahrens ist. Auf jeden Fall sollten Sie vermeiden, dass Samplekolonnen gegen einen Maximalwert laufen, ganz gleich ob dieser bei 0 dBFS oder -1 dBFS liegt, unabhängig davon mit welchem Messverfahren gemessen wird.
Zum Abschluss seien noch ein paar dynamikmotivierende Worte aus meiner Praxis als Mastering-Ingenieur erlaubt: Da ich mich bereits sehr lange für mehr Dynamik im Mastering einsetze, konnte ich viele meiner Kunden davon überzeugen, dass ein sauber nach TPL gepegeltes, maßvoll komprimiertes Master zu besseren Ergebnissen im Radio, auf Download-Plattformen und im Club führt. Tun Sie sich selbst einmal den Gefallen und spielen in einem Club zwei Varianten eines Masters ab: Laut wie üblich und etwas leiser nach TPL ausgesteuert. Sie werden bemerken, dass das leisere Master mehr Druck erzeugt und die Menschen sich davon besser angesprochen fühlen, weil die Transienten sauberer übertragen werden. Führen Sie sich dabei vor Augen, dass Transienten nicht nur ein digitaler Abdruck von analogen Spannungsausschlägen sind, sondern elementare Bestandteile von Klangereignissen, die für unser Gehirn unerlässlich sind, um Schall in wahrnehmbare und für uns verarbeitbare Hörerlebnisse zu verwandeln.
Wichtig: Je entstellter Transienten übertragen, respektive limitiert werden, desto mehr Hirnleistung ist erforderlich, um das Klangereignis als solches wahrnehmen zu können. Dies ist sogar in Studien nachgewiesen worden (z.B. in »Multichannel Fast-Acting Dynamic Range Compression Hinders Performance by Young, Normal Hearing Listeners in a Two-Talker Separation Task«, University of Cambridge von M. Stone, B. Moore & C. Füllgrabe) und belegt eindrücklich , weshalb Hörer unbewusst von hyperkomprimierter Musik leichter genervt sind und sich dem Musikhören unter gewissen Bedingungen schließlich entziehen wollen. Dynamic sells more.
Ich hoffe jedenfalls, Ihnen einen grundlegenden Einblick in die Welt der Peak-Messung gegeben zu haben und Ihnen gleichzeitig einen Anreiz geliefert zu haben, Ihre zukünftigen Masterings nach TPL zu pegeln. Die Hörer werden es Ihnen danken. Im Rahmen der Ausbildung an der Mastering Academy werden die Themenkomplexe Metering und R128 selbstverständlich noch eingehender betrachtet. Mehr dazu erfahren Sie auf www.Mastering-Academy.de