Dienstag, 27. Dezember 2011

FAQ USB-Audio

Man fetzt sich mal wieder über dem Thema USB-Kabel im Hifi-Forum. Das ist eigentlich nichts Neues, denn man kann sich ja bekanntlich über alle Arten von Kabeln fetzen, und ein gestandener Audiophiler läßt sich nun einmal nicht dazu bringen, seine eigenen Hörerlebnisse in Frage zu stellen, auch wenn alle Vernunft gegen sie spricht. Mir wird die Unwissenheit bei diesem Thema hier immerhin zum Anlaß für meinen dritten FAQ-Artikel (nach FAQ Symmetrie und FAQ Digitaltechnik).

Wie ist das nun, ist USB das bessere oder das schlechtere Audiointerface? Zu dieser Frage kursieren die unterschiedlichsten Meinungen!

Das liegt daran, daß es auf diese Frage keine eindeutige Antwort gibt. Es ist hier noch leichter als anderswo, Äpfel mit Birnen zu verwechseln, denn es gibt schon innerhalb von USB mehrere Arten der Audioübertragung (genauer gesagt der Synchronisation), und entsprechende Unterschiede in der Art und Weise, wie ein Hersteller mit den sich daraus ergebenden "Eigenheiten" umzugehen sich entschließt.

Generell gilt aber, daß man mit praktisch jeder Anschlußtechnik einwandfreie Ergebnisse erzielen kann, wenn man es "richtig" macht. Und man kann mit jeder Anschlußtechnik Mist bauen, vorzugsweise wenn man etwas nicht recht verstanden hat.

Dazu kommt noch, daß USB gelegentlich Dinge zur Last gelegt werden, die mit USB an sich gar nichts zu tun haben. Mein Lieblings-Gebiet "Masse" ist so ein Beispiel.

Was sind das für Synchronisationsarten bei USB, und was ist der Unterschied?

Es geht dabei um die Frage, woher letztlich der Takt für das digitale Audiosignal kommt. Drei Alternativen sind bei USB möglich, und die heißen auf Englisch "Synchronous", "Asynchronous", und "Adaptive".

Bei der Betriebsart "Synchronous" wird der Audiotakt direkt am USB-"Herzschlag" von 1 kHz orientiert. Das ganze USB-Protokoll (egal ob Audio oder andere Daten übertragen werden) unterliegt ja einem Raster von 1 kHz, das der Busmaster (also normalerweise der PC) für alle angeschlossenen Geräte vorgibt. Dieses Raster kann man in einem angeschlossenen Audiogerät auch als Grundlage für den Wordclock verwenden. Dazu braucht es eine PLL-Taktsynthesizer, für den das 1 kHz-Signal die Referenz bildet. In diesem Szenario gibt also der PC die Frequenz vor, und das Audiogerät muß sich daran orientieren.

Bei der Betriebsart "Asynchronous" wird der Audiotakt im Audiogerät autonom erzeugt, entweder durch einen eigenen, freilaufenden Oszillator, oder indem ein externer Takt dort eingespeist wird (z.B. ein externer Wordclock). Der PC als USB-Master muß sich daran orientieren. Die Betriebsart heißt so, weil der USB-"Herzschlag" (bzw. USB-Bustakt) nichts mit dem Audiotakt zu tun hat. Die beiden Takte sind voneinander unabhängig und damit asynchron.

Die dritte Betriebsart "Adaptive" schließlich bindet den Audiotakt an die Ankunft der eigentlichen Audiodaten. Der Empfänger der Datenpakete mit den Audiodaten muß aus der Häufigkeit der Pakete auf die Taktfrequenz schließen. Er muß sich also anhand der ankommenden Audiodaten automatisch in der Frequenz anpassen, daher der Name. Dafür braucht's in der Praxis wieder einen PLL-Frequenzsynthesizer; diesmal wird als seine Referenz nicht der USB-Bustakt genommen, sondern die ankommenden Datenpakete.

Was wird denn in der Praxis genommen?

Das ist eben nicht einheitlich. Ein wesentliches Kriterium für den Hersteller eines USB-Audiogeräts ist die Frage nach der Treiberunterstützung. In einem Betriebssystem gibt es meist schon einen fertigen USB-Audiotreiber, aber der kann nicht mit allen beliebigen Varianten umgehen. Der Hersteller muß also entscheiden, ob er eine Variante benutzt, die vom Betriebssystem schon unterstützt wird, oder ob er selber einen Treiber mitliefert. Letzteres ist natürlich aufwendiger und teurer, denn man hat zusätzlichen Entwicklungsaufwand. Außerdem ist es unbequemer für den Kunden, da er einen separaten Treiber installieren muß, weil das Gerät nicht einfach so nach dem Einstecken läuft.

Es kommt noch dazu, daß unterschiedliche Betriebssysteme und Betriebssystem-Versionen sich in den Varianten unterscheiden, die sie unterstützen. Die obige Frage für den Hersteller stellt sich also für jede dieser Versionen getrennt, und ein Hersteller könnte sich veranlaßt fühlen, sich für den kleinsten gemeinsamen Nenner zu entscheiden, den alle Versionen unterstützen. Dabei kommt dann oft eine Entscheidung heraus, die nicht von der Audioqualität bestimmt ist, sondern von Aspekten der Kompatibilität und der Einfachheit der Benutzung.

Bei D/A-Wandlern ist das in der Vergangenheit oftmals auf den "Adaptive"-Modus hinaus gelaufen, und gerade dieser Modus ist am schwierigsten zu beherrschen, was die saubere Takterzeugung angeht.

Darf ich raten? Es läuft wieder auf den Jitter hinaus, stimmt's?

Bingo! Prinzipiell kann man mit allen drei Modi auf niedrigen Jitter kommen, aber mit einem unterschiedlichen Aufwand, und mit unterschiedlichen Kompromissen. Oder aber man scheut den Aufwand und findet sich mit im Einzelfall hohem Jitter ab.

Der für die Takterzeugung einfachste und beste Fall ist bei einem D/A-Wandler (und auch A/D-Wandler), daß der Takt direkt beim Wandler erzeugt wird, und sich die anderen Geräte danach richten. Dann hängt die Qualität des Taktes nicht von einer Taktrekonstruktion durch eine PLL ab, und die Faktoren, die einen Qualitätseinfluß haben, werden minimiert. Diese Art der Takterzeugung würde bei D/A-Wandlern den asynchronen Modus nahelegen.

In diesem Modus muß es aber zusätzlich zum Datenpfad, der vom PC zum D/A-Wandler geht, auch einen Taktpfad in die entgegengesetzte Richtung geben. Der vom Wandler erzeugte Takt muß ja an den PC gehen, damit der die Daten im richtigen Rhythmus schicken kann. Dafür braucht es zusätzliche sog. "Endpoints", was die Implementierung der USB-Funktion in den Geräten geringfügig verteuert. Es gibt also einen Anreiz, wenigstens für die allerbilligsten Implementierungen, hier durch Wahl eines anderen Modus zu sparen.

In den beiden anderen Modi, "synchronous" und "adaptive", kommt der Takt vom PC und muß im D/A-Wandler rekonstruiert werden. Dazu braucht es eine PLL, und deren Auslegung ist Kompromissen unterworfen. Für niedrigen Jitter wäre es wünschenswert, die Regelung "träge" zu machen, um den Jitter besser herauszufiltern. Das geht aber auf Kosten der Zeit, die es braucht, bis die PLL am Beginn der Übertragung eingerastet ist. Das wäre bei "synchronous" nicht ganz so schlimm, denn der Bustakt liegt ja schon vor Beginn der Audioübertragung an, folglich kann man hier meist "vorsorglich" synchronisieren.

Bei "adaptive" ist man aber dazu verdammt, auf die Audiopakete zu warten, bevor man mit der PLL-Regelung anfangen kann, und dann müßte man ja eigentlich schon fertig spielfähig sein. Das läuft zwangsläufig auf einen Zielkonflikt zwischen niedrigem Jitter und schnellem Start hinaus. Hier findet man oft Lösungen, die gute Jitterperformance opfern, um schnell spielfähig zu sein. Es kommt noch erschwerend hinzu, daß hier auch noch die Referenz selbst schlechter ist als beim synchronen Modus, denn der Bustakt kommt am USB-Gerät mit weniger Jitter an als die Audio-Pakete, folglich gibt's im Fall der adaptiven Übertragung auch noch mehr Jitter, den die PLL rausfiltern muß.

Wenn der adaptive Modus der schlechteste ist, wieso gibt's ihn dann überhaupt, bzw. wieso wird er überhaupt genommen?

Es ist für den PC ein bequemer Modus, der Aufwand entsteht schließlich bloß im Audiogerät. Und selbst wenn man im Audiogerät nur einen Minimalaufwand treibt, kommt immerhin für viele Anwendungen ganz brauchbarer Schall raus. Deswegen war das auch der Modus, mit dem die Betriebssysteme am frühesten zurecht kamen.

Ein Problem hat im Übrigen damit hauptsächlich ein D/A-Wandler. Andere Arten von Audiogerät müssen unter Umständen gar keinen Takt rekonstruieren, bzw. haben keine besonderen Jitteranforderungen. Für die reicht "adaptive" ganz locker.

Wieso ist der Jitter überhaupt ein Problem? Schriebst Du nicht schon früher, der sei sowieso nicht hörbar?

Er kann schon hörbar werden wenn er heftig genug wird. Ich habe auf Untersuchungen verwiesen, die herausfinden wollten wieviel Jitter unter welchen Umständen hörbar ist, bzw. ab wann er nicht mehr hörbar ist. Dabei kommen Werte heraus, die nicht besonders schwierig zu erreichen sind. Daraus habe ich eine Einschätzung gewonnen, ab welchem Punkt man davon ausgehen kann, auf der sicheren Seite zu sein. Wenn man aber z.B. im Fall USB-"adaptive" keine besonderen Maßnahmen ergreift, dann kommen da u.U. ziemlich große Jitterwerte zustande, die eben nicht auf der sicheren Seite sind.

Ob man das dann hört ist beileibe nicht sicher, aber eben auch nicht ausgeschlossen. Für anständige Hifi-Geräte sollte man - Hörbarkeit hin oder her - auch anständige Jitterwerte erwarten können.

Woher weiß ich überhaupt, in welchem Modus mein Gerät arbeitet?

Wenn's die Dokumentation des Herstellers nicht hergibt, dann wirst Du auf USB-Analyse-Tools zurückgreifen müssen. Je nach Betriebssystem gibt's da freie und kommerzielle Produkte, aber in aller Regel ist das nichts für den Laien, denn was da angezeigt wird versteht man bloß, wenn man sich mit den USB-Dokumenten und der USB-Technik im Detail vertraut gemacht hat. Ich bin aber selbst für gute Tipps dankbar, denn ich habe auch keinen erschöpfenden Überblick über alles was es da so gibt.

Und wenn ich jetzt tatsächlich mit dem "asynchronous"-Modus arbeite, heißt das dann die Qualität ist besser als bei anderen Schnittstellen, wie z.B. S/P-DIF?

Die Voraussetzungen für guten D/A-Wandler-Takt sind in der Tat besser, denn der kommt bei "asynchronous" aus dem USB-Audio-Gerät selbst, während er in aller Regel bei S/P-DIF aus dem ankommenden Signal rekonstruiert werden muß. Wie gut er dann schlußendlich ist, kann nur eine Messung klären.

Ein guter Takt ist aus dem S/P-DIF-Signal normalerweise leichter zu extrahieren als bei USB-"synchronous" oder USB-"adaptive", weil die Signalquelle üblicherweise schon weit weniger jittert. Wollte ich eine Hierarchie für D/A-Wandler aufmachen, nicht der tatsächlichen Taktqualität, sondern der Schwierigkeit für den Hersteller, eine gute Taktqualität zu erreichen, dann würde die von einfach nach schwierig so aussehen:
  • USB-"asynchronous"
  • S/P-DIF
  • USB-"synchronous"
  • USB-"adaptive"
Die tatsächliche Taktqualität hängt von den konstruktiven Lösungen im Gerät ab und muß daher nicht dieser Reihe folgen, vielmehr kann man mit allen Alternativen einen guten Takt erzeugen, wenn man es darauf anlegt.

Hängt das dann auch vom Kabel ab?

Das ist in der Praxis ziemlich unwahrscheinlich, wenn auch nicht völlig ausgeschlossen. Wenn es Einflüsse gibt, dann haben die normalerweise ziemlich profane Gründe, die z.B. mit der Masse zusammenhängen, nicht aber mit USB. Eine USB-Verbindung stellt immer auch eine Masseverbindung her, und darauf reisen oft Störströme. Der PC ist in aller Regel ja auch als elektrische Störquelle bekannt. Für ein USB-Audiogerät stellt sich das Problem, wie man solche Störungen, die unweigerlich auf der Masse-Leitung und der Stromversorgung (USB transportiert ja auch noch eine 5 V Versorgung) daher kommen, aus den empfindlichen Schaltungsteilen heraus hält.

Die empfindlichen Schaltungsteile sind dabei insbesondere die analogen Schaltungsteile nach dem eigentlichen D/A-Wandler, aber es gehört auch die Takterzeugung und -aufbereitung dazu. In beiden Fällen besteht eine elektrische Verbindung zur digitalen Masse auf dem USB-Kabel, und damit zum PC.

Ich habe es z.B. schon erlebt, daß man auf diese Weise im USB-Audiosignal die PC-Festplatte hat arbeiten hören, aber das hat mit USB im Grunde nichts zu tun, sondern mit der Tatsache, daß die Festplatte auf die Stromversorgung Einfluß hat, und sich das über das USB-Kabel in das angeschlossene Audiogerät fortpflanzen kann. Und es hat was damit zu tun ob und wie man solchen Problemen im Audiogerät konstruktiv entgegen getreten ist.

Ein USB-Kabel kann auf diese Situation einen Einfluß haben, weil die Masse-Verbindung unterschiedliche Impedanzen haben kann, und weil höherfrequente Störungen bei manchen Kabeln durch Ferrithülsen bekämpft werden (das sind diese Verdickungen im Kabel in der Nähe der Stecker).

Ein Grund für die Anschaffung von "High-End"-Kabeln ist das aber nicht. Mit Geld ist da nicht viel ausgerichtet, zumal die Wirkungsweise solcher Kabel völlig im Dunkeln liegt, und davon auszugehen ist, daß die behaupteten Wirkungen frei erfunden sind.

Besser ist man dran, wenn man sich die generelle Topologie der Masseverkabelung genauer anschaut, Masseschleifen aufspürt, und nach Möglichkeit unterbindet. S/P-DIF bietet in dieser Hinsicht einen Vorteil gegenüber USB, weil es leicht galvanisch zu trennen ist, besonders wenn man die optische Variante nimmt. Dieser Vorteil kann in der Praxis weitaus größere Bedeutung haben, als die Unterschiede zwischen den einzelnen Modi bei USB.

Das erinnert mich an Deinen Artikel über die Netzwerkkabel.

Zurecht! USB ist in dieser Hinsicht einem Netzwerk ähnlich. Im Gegensatz zu Ethernet ist bei USB aber keine galvanische Trennung drin, man kann also nicht auf einfache Weise wie mit einem ungeschirmten Patchkabel die Massen trennen. Bei USB ist immer eine Masseverbindung mit drin, da kommt man bloß mit hohem Aufwand drum herum.

Das kommt daher, daß USB nicht für größere Entfernungen ausgelegt ist, und die kleinen Entfernungen nicht als problematisch in Sachen unterschiedliche Massepotenziale angesehen wurden. Für die meisten Fälle stimmt das auch, aber bei Audio kommt es leicht zu ausgedehnten Massenetzen, besonders über Schutzleiter und/oder Antennenerdung, und das führt immer wieder zu Problemen. Eine galvanische Trennung zwischen der Computerwelt und der Audiowelt wäre da in vielen Fällen sehr nützlich. Mit Ethernet und optischem S/P-DIF geht das sehr einfach, mit USB oder HDMI aber nicht.

Mit der eigentlichen Datenübertragung hat das also nichts zu tun?

Nein. Die Bits kommen immer noch unverändert an. Wenn's mal so schlimm wird, daß das nicht mehr gesichert ist, dann resultieren deutlichere Störungen als eine subtile Klangänderung.

Wenn Daten falsch ankommen werden sie übrigens nicht nochmal geschickt. Da gibt's anscheinend bei vielen Leuten ein falsches Verständnis. USB unterscheidet zwischen "Bulk"-Daten und "Isochronous"-Daten. Erstere werden gesichert, und die Übertragung wird im Fehlerfall wiederholt. Letztere werden nicht gesichert und auch nicht wiederholt, denn es wird davon ausgegangen daß es für so etwas gar keine Zeit gibt. Man nimmt an, daß "Isochronous"-Daten sofort gebraucht werden, und daß ein nochmaliges Verschicken im Fehlerfall ohnehin zu spät käme. Audiogeräte arbeiten aus nachvollziehbaren Gründen mit "Isochronous"-Daten, während z.B. ein Speicher-Stick mit "Bulk"-Daten arbeitet.

Jetzt weiß ich zwar viele Details, ich weiß aber immer noch nicht was ich konkret bevorzugen soll. Was würdest Du denn nehmen?

Ich habe einen Vorteil, denn ich kann im Zweifel messen ob mir die gebotenen Eigenschaften reichen.

Hätte ich das nicht, dann würde ich in den meisten Fällen erst einmal auf eine klar eingegrenzte Masseverkabelung achten, und das kann schnell den Ausschlag zugunsten S/P-DIF oder genereller zugunsten einer galvanisch getrennten Schnittstelle geben. Wenn's eine USB-Lösung sein soll, dann würde ich in Abwesenheit genauerer Information auf den asynchronen Modus Wert legen, was möglicherweise mit einem eigenen Treiber des Herstellers einher geht. Die Qualität des Treibers wird dann ohnehin eine wichtige Rolle bei der Kaufentscheidung spielen. Wenn das Gerät die Möglichkeit bietet, einen externen Wordclock entgegen zu nehmen, was generell wünschenswert ist, dann ist der asynchrone Modus sowieso der einzig sinnvolle Modus.



Für Kommentare gilt das Übliche.

Samstag, 24. Dezember 2011

Brummen oder Brennen?

Es ist ja schon schlimm genug wenn das von "wohlmeinenden Tippgebern" in einem Forum kommt, aber wenn's ein Hersteller quasi offiziell im Handbuch seines Produktes empfiehlt, dann wird's kriminell.

Es geht um die Bekämpfung von Brummschleifen durch Aufhebung der Schutzleiterverbindung.

Wer in seiner Audioanlage Geräte mit Schutzleiterverbindung hat, den trifft mit einer relativ großen Wahrscheinlichkeit auch das Problem der Brummschleife. Ich habe schon mehrfach über dieses mit der Masse zusammenhängende Problem geschrieben und werde das hier nicht wiederholen. Leider kursieren als Abhilfe immer wieder Tipps, man solle es bei einem oder mehreren Geräten eben mit dem Auftrennen der Schutzleiterverbindung probieren. Dazu gehört das Abkleben der Schutzleiterkontakte am Stecker, oder Manipulationen in den Steckern oder in den Geräten. Und das hilft ja oftmals auch gegen das Brummen, denn dadurch wird die Schleife tatsächlich aufgetrennt.

Beseitigt hat man dabei aber auch die Schutzfunktion, für die der Schutzleiter da ist. Man hat eine Unannehmlichkeit durch eine Gefahr ersetzt. Eine Gefahr nicht bloß für sich selbst, was man vielleicht noch moralisch vertretbar finden könnte, sondern eine Gefahr für unbeteiligte Dritte. Deswegen ist so etwas auch verboten, und falls tatsächlich was passieren sollte sieht man auch bei etwaigen Schadenersatzforderungen und Haftungsfragen ziemlich schlecht aus.

Im Hifi-Forum findet sich bei solchen Tipps zum Glück schnell jemand, der den Tippgeber rüffelt. Insofern ist da das Risiko gering, daß jemand zu illegalen und gefährlichen Handlungen angeleitet wird, ohne daß er sich dessen bewußt würde.

Anders ist das wenn ein Hersteller das in einer Bedienungsanleitung empfiehlt. Dort findet man auf der sechsten Seite folgenden Hinweis:
"However, if capacitors or directly coupled output is used, then only one connection to the safety earth is required, otherwise ground loop may occur. This means that either DAC or (say) amplifier should use a 3-lead /3-pin earthed connection, but not both."
Der Autor scheint zu glauben, daß die Sicherheit auch dann gewährleistet ist, wenn nur ein Gerät mit dem Schutzleiter verbunden ist, weil die anderen Geräte, z.B. über die Masse einer Cinch-Verbindung, dann indirekt ebenfalls am Schutzleiter hängen.

Das ist aber ein schwerer Irrtum!

Ich fürchte der Irrtum ist relativ häufig, weswegen eine Erklärung hier wohl angebracht ist.

Der Schutzleiter ist dazu da, zu verhindern daß der ahnungslose Benutzer eines fehlerhaften Gerätes mit Netzspannung in Berührung kommen kann, und dadurch zu Schaden kommt. Es ist wichtig, sich klar zu machen welche Fehlerszenarien dadurch abgedeckt werden sollen, denn dadurch erkennt man wie der Schutzleiter wirken soll, und warum der Hinweis des Herstellers falsch und gefährlich ist.

Ein Audiogerät hat üblicherweise ein metallisches Gehäuse, und das kann Strom leiten. Wenn durch einen Defekt im Gerät ein Draht, der Netzspannung führt, mit dem Gehäuse in Kontakt kommt, dann liegt die Netzspannung frei berührbar am Geräteäußeren und stellt eine Gefahr dar. Es gibt zwei verschiedene Arten wie man dieser Gefahr begegnet:
  • Ein schutzisoliertes Gerät enthält intern verstärkte Maßnahmen, um die Isolation der Netzspannung vom Gehäuse zu gewährleisten. Eine Schuzleiterverbindung ist dann nicht nötig und auch gar nicht erlaubt. Dieser Fall ist der übliche Fall bei Hifi-Anlagen. Die Geräte haben meist einen flachen 2-poligen "Eurostecker".
  • Das Gehäuse des Gerätes ist mit dem Schutzleiter verbunden, so daß bei Kontakt der Netzspannung mit dem Gehäuse ein Kurzschluß entsteht, und durch den entstehenden Stromfluß eine Sicherung auslöst, wodurch die Netzspannung unterbrochen wird. Die Schutzleiterverbindung ist bei so einem Gerät Pflicht, und der Stecker ist 3-polig (die beiden seitlichen Kontakte beim Schuko-Stecker zählen als eine Verbindung).
Daraus sieht man, daß die Schutzleiterverbindung den Strom aushalten können muß, der zum Auslösen der Sicherung nötig ist. Deswegen ist vorgeschrieben, daß die Schutzleiterverbindung mit einem Draht gemacht sein muß, der mindestens so dick ist wie die anderen Drähte im Netzkabel. In Deutschland sind die meisten Steckdosen mit 16 A abgesichert, das heißt der Schutzleiter muß 16 A vertragen können.

Das ist aber nicht der Fall wenn die Schutzleiterverbindung über ein Cinch-Kabel geht. Wenn man Glück hat ist da genug Kupfer drin daß die Masseverbindung so einen Strom aushält, aber es gibt viele Kabel bei denen es bei weitem nicht reicht. Was dann im Fehlerfall passieren kann ist schnell beschrieben: Das Cinch-Kabel wird heiß und fängt im Extremfall an zu brennen. Die Sicherung löst nicht aus, stattdessen brennt das Kabel durch, und es liegt jetzt tatsächlich Netzspannung am Gehäuse an. Die Schutzleiterverbindung hat sich selbst deaktiviert, anstatt die Gefahr zu beseitigen, und ist sogar selbst zur Gefahr geworden.

Und es gibt noch einen weiteren Grund warum der Tipp des Herstellers gefährlich ist: Wenn manche Geräte auf diese Weise indirekt geerdet sind, dann ist es einfach, sie am Netz zu lassen während die Schutzleiterverbindung unterbrochen wird. Man braucht ja bloß die NF-Leitung abzuziehen, schon ist der Schutz weg, ohne daß gleichzeitig auch die Netzverbindung aufgehoben wäre. Man konstruiert die Netzstecker ja nicht umsonst so, daß die Schutzleiterverbindung immer automatisch hergestellt wird, wenn man einsteckt. Sie wird sogar durch voreilende Kontakte beim Einstecken zuerst hergestellt, und beim Ausstecken zuletzt getrennt. Wenn die Verbindung über separate Leitungen und Stecker geht, dann ist es mit diesem Automatismus vorbei. Damit wird es in der Praxis viel zu einfach, daß man den Schutz verliert, ohne daß es auffällt.

Bei den ganzen elektrischen Schutzmaßnahmen ist das dahinter stehende Prinzip, daß man vom Desaster immer mindestens zwei voneinander unabhängige Schritte entfernt sein will. Wenn ein Fehler reicht um die Katastrophe auszulösen, dann ist es eine Frage der Zeit bis sie eintritt. Der Schutzleiter ist ein Beispiel für diese zweite Barriere, die dann auf den Plan tritt wenn ein Fehler passiert ist. Das heißt aber auch daß man das Fehlen der zweiten Barriere nicht bemerkt, so lange alles in Ordnung ist. Fehlt sie aber, dann hindert nichts mehr, daß sich ein Fehler in Sekundenbruchteilen von einer harmlosen Kleinigkeit zu einem echten Problem größeren Ausmaßes entwickelt.

Deswegen sind solche faulen Tipps so problematisch: Sie suggerieren, daß alles in Ordnung ist, und wenn sie auch noch das Brummen beseitigen, dann scheint der Zustand sogar verbessert worden zu sein. In Wirklichkeit hat man einen Sicherheitsmechanismus unterlaufen, dessen Fehlen zum Verhängnis führen kann.

Für mich ist so etwas ein Killer-Kriterium für einen Hersteller, da können seine sonstigen Leistungen sein wie sie wollen.



Für Diskussionen gibt's wie üblich diesen Thread.

Sonntag, 11. Dezember 2011

Gottesmarketing

Gerade als in meinem Thread im Hifi-Forum über die Rolle der Presse im Lautheitskrieg diskutiert wird, rauscht ein anderes Thema durch den Blätterwald, an dem meiner Meinung nach die Mechanismen der Medienlandschaft noch besser aufgezeigt werden können.

Es brodelt die Gerüchteküche, daß das CERN in Kürze den Nachweis des schon lange gesuchten Higgs-Bosons verkünden könnte. Oder zumindest einen deutlichen Hinweis auf dessen Existenz. Für die Physik ist das eine außerordentlich wichtige Nachricht. Das für mein heutiges Thema Interessanteste dabei ist aber, daß sich in der allgemeinen Medienlandschaft inzwischen praktisch niemand mehr verkneifen kann, beim Higgs-Boson vom sogenannten "Gottesteilchen" zu reden. Egal ob Spiegel, Süddeutsche oder Bild, ob Deutschlandfunk oder Heise, keiner widersteht der Versuchung.

Was aber hat dieses Teilchen mit Gott zu tun?

Der Ursprung dieser Bezeichnung ist schnell erzählt: Der Physiker und Nobelpreisträger Leon Lederman veröffentlichte 1993 mit einem populärwissenschaftlichen Coautor zusammen ein Buch über das Higgs-Boson und seine Rolle im physikalischen Weltmodell. Angeblich wollte Lederman das Teilchen ursprünglich "that goddamn particle" nennen, aber da war sein Lektor dagegen. Stattdessen wurde es dann zum "god particle", was in der Retrospektive eine wirtschaftlich gesehen clevere Wahl war, denn wie man sieht hängt der Begriff bis heute in den Hirnen der Journalisten und ihrer Leser fest.

Das Teilchen hat also genau das mit Gott zu tun, daß Gott auf dem Umschlag eines populärwissenschaftlichen Sachbuches eine umsatzsteigernde Wirkung hat, besonders wenn der Autor ein Physiker mit Nobelpreis ist.

Mehr ist da nicht.

Der Begriff "Gottesteilchen" ist damit nichts Anderes als eine "Urban Legend", ein sich aus sich selbst heraus weiter verbreitendes Gerücht, ein "Mem", das die Hirne in unserer Medienwelt befällt und sie dazu bringt, es zu vervielfältigen. Die vom Begriff suggerierte Verbindung zwischen Physik und Metaphysik existiert dabei aber gar nicht, der Begriff ist leer, eine Mogelpackung ohne Inhalt. Es ist ein Trick des Marketings, um im umkämpften Sachbuchmarkt auf die vorderen Plätze zu kommen. Wer da in den entsprechenden Ranglisten nicht in die ersten 10 Plätze vorstößt, der taucht bei vielen Leuten gar nicht erst auf dem Radar auf. Einen Begriff zu erfinden, der etwas suggeriert das das Buch hinterher dann gar nicht einlöst, gehört da noch zu den harmloseren Finten.

Aber warum machen die ganzen Journalisten dabei mit? Sicher nicht um Lederman und seinem Verlag zu mehr Umsatz zu verhelfen! Worin besteht die Faszination und die Wirkung dieses Begriffs, der doch eigentlich gar nichts aussagt (und das was er suggeriert ist gelogen), und bloß als Verkaufshilfsmittel erfunden wurde?

Nun ist es sicher so, daß der Begriff "Higgs-Boson" in der Überschrift eines Zeitungsartikels weniger Leser anziehen wird, als das Wort "Gottes-Teilchen". Aber da gäbe es noch andere Möglichkeiten, die zum gleichen Ergebnis führen würden. Wie wär's zum Beispiel mit: "Teufels-Teilchen", "Todes-Teilchen", "Phantom-Teilchen", "Sex-Teilchen" oder "Märtyrer-Teilchen"? Wenn es nur darum geht Aufmerksamkeit zu erregen, ohne Rücksicht auf den damit transportierten Inhalt, dann ist es doch völlig egal, mit welchem reißerischen Hohlwort man das Teilchen verbindet! Dann hätte auch der Begriff "Gottverdammtes Teilchen" funktioniert, den der Lektor damals abgelehnt hatte.

Aber ich denke unter all diesen Alternativen ist es nicht zufällig der Begriff "Gottes-Teilchen" geworden. Es ist derjenige Begriff, der am ehesten "geht". Warum?

Es gibt unbestreitbar ein großes unterschwelliges Bedürfnis, die Naturwissenschaften, und speziell auch die Physik, mit dem Metaphysischen in Verbindung und in Einklang zu bringen. Gerade die Physik hat sich auf der einen Seite immer weiter von der Vorstellungswelt eines "normalen" Menschen entfernt, andererseits tritt sie im Gebiet der "Welterklärung" gegen die Religionen an, und kann für sich geradezu spektakuläre Erfolge verbuchen, die immer auch als Niederlage der Religion aufgefaßt werden können. Wenn der Nachweis des Higgs-Bosons nun gelungen sein sollte, dann wäre das ein weiterer spektakulärer Erfolg der Physik.

Das zu würdigen fällt einem als physikalisch nicht entsprechend vorgebildetem Mensch zusehends schwerer, angesichts des sich von der normalen Erfahrungswelt immer weiter entfernenden Themas. Vielleicht ist es daher nicht ganz überflüssig wenn ich das kurz einzuordnen versuche. Beim Higgs-Boson geht es nicht um Gott, und ich habe auch wenig Verständnis für die Metapher, das Teilchen würde das Universum zusammen halten. Das Teilchen hält eine wissenschaftliche Theorie, ein Erklärungsmodell zusammen. Es ist gewissermaßen der Schlußstein in diesem Modell und damit seine Bestätigung.

Vergleichen kann man das mit dem Periodensystem der Elemente, das im 19. Jahrhundert als Theorie aufgestellt wurde. Diese Theorie hat das Verständnis, wie Materie aufgebaut ist, entscheidend voran gebracht. Das hat viele Anwendugen, besonders auch in der Chemie, erst möglich gemacht, und hat auch das Verständnis vom Aufbau der Atome befördert. Aus der Theorie folgten aber auch Vorhersagen über die Existenz von Elementen, die bis dahin noch nicht bekannt waren, für die es aber im Periodensystem einen Platz gab.

So etwas ist für die wissenschaftliche Arbeit extrem wichtig, denn es bietet eine Möglichkeit, die Theorie zu testen. Wenn man aus der Theorie die Existenz von etwas bisher Unbekanntem folgern kann, dann kann man experimentell nach diesem Unbekannten suchen, denn aufgrund der Theorie kann man genauer sagen was für Eigenschaften das Gesuchte haben müßte. Wenn es daraufhin gefunden wird, dann ist das eine überzeugende Bestätigung für die Theorie. Wenn man es nicht findet, muß man eine plausible Erklärung finden warum man das Gesuchte nicht finden konnte, ansonsten sieht die Theorie alt aus.

Beim Periodensystem hat das ausgezeichnet geklappt. Schon Mendelejew, einer der beiden Entdecker des Periodensystems, postulierte auf dessen Basis die Existenz dreier bis dahin unbekannter Elemente, weil im Periodensystem an diesen Stellen Lücken auftraten. Alle drei Elemente (Gallium, Scandium und Germanium) wurden daraufhin gefunden.

Das Higgs-Boson ist das einzige Teilchen aus der als "Standardmodell der Elementarteilchenphysik" bekannten Theorie, für welches man bisher noch keinen Nachweis hatte. Higgs und ein paar andere Physiker haben schon vor Jahrzehnten vorausgesagt, daß es ein solches Teilchen geben müßte wenn das Standardmodell stimmt. Es ist die gleiche Situation wie damals bei den Lücken im Periodensystem: Wenn man das findet was in die Lücken reingehört, dann ist das eine schlagende Bestätigung für die Theorie.

Das Wichtige ist also nicht das Teilchen, sondern die Theorie. Ohne die Theorie hätte man gar keinen Grund nach dem Teilchen zu suchen, und keinen Anhaltspunkt wie und wonach man suchen müßte. Und man hätte auch keine Rechtfertigung für das viele Geld, das man dafür ausgeben muß. Die Wichtigkeit dieser Frage kann man daran erkennen, wieviel Geld man in den Bau des Apparates hineingesteckt hat, mit dem man so ein Teilchen suchen kann. Es wirkt zugegebenermaßen etwas paradox, daß man immer größere Anlagen bauen muß, um immer kleinere Teilchen aufzuspüren, aber das ist wohl der Gang der Physik.

Wenn also das Higgs-Boson nun zu einem erneuten Triumph der Physik werden sollte, dann ist das so weit von Gott entfernt wie es nur sein könnte. Gott hat weder etwas mit der Entstehung der zugrunde liegenden Theorie zu tun, aufgrund derer die Existenz des Teilchens vorhergesagt wurde, noch mit der Suche nach einem experimentellen Nachweis. Higgs selbst glaubt nicht an Gott, so wenig wie wahrscheinlich die Mehrheit seiner Fachkollegen. Das Teilchen erklärt einen Aspekt der physikalischen Realität, für den man nun keine religiöse Erklärung mehr braucht; es hat damit Gott um ein ganz klein wenig überflüssiger gemacht.

Eigentlich sollte sich damit die Notwendigkeit reduziert haben, auf Metaphysik zurückzugreifen, aber erstaunlicherweise führt es dazu, daß mal wieder die metaphysischen Assoziationen ins Kraut schießen, gerade so als wäre die nackte Wissenschaft unerträglich, und müßte in eine Art religiöser Watte gepackt werden.

Ich meine, den beteiligten Wissenschaftlern kann das nicht recht sein. Ich verstehe auch nicht wirklich, warum sich ein Lederman von seinem Verlag so manipulieren läßt. Seine Botschaft wird dadurch jedenfalls verfälscht, und er gibt sich als Kronzeuge für etwas her, das gar nicht Seines ist. Ich empfinde hier die Religion als ein Kuckucksei im naturwissenschaftlichen Gelege, das von den Wissenschaftlern mit ausgebrütet wird. Um ihres eigenen Marketingerfolges willen betreiben sie das Geschäft derer, die ganz andere Ziele haben: Gottesmarketing. Und wie es beim Kuckuck so ist, könnte es sein daß am Ende die eigenen Küken aus dem Nest geschmissen werden.


Kommentare wie üblich bitte hier.

Freitag, 2. Dezember 2011

Der Fluch der besseren Technik

Wenn heute jemand behauptet, Analog klänge besser als Digital, dann muß ich ihm in gewisser Weise sogar recht geben. Eine CD beispielsweise klingt nicht selten heutzutage beschissener als das gleiche Material auf der LP. Und auch im Radio hat die Digitaltechnik anscheinend eher zu einer Verschlechterung als einer Verbesserung der Klangqualität geführt. Haben die alten Analog-Verfechter am Ende doch recht behalten? Was ist faul an der Digitaltechnik?

Nun, technisch gesehen ist nix daran faul. Technisch gesehen ist die Digitaltechnik eindeutig besser. Die meisten angeblichen Vorteile der Analogtechnik basieren auf teilweise grobem Unverstand der Digitaltechnik. Die Digitaltechnik ist das Opfer ihres eigenen Erfolges, und ihrer Möglichkeiten, geworden. Auch diese Revolution hat mal wieder ihre Kinder gefressen.

Das klingt erst einmal paradox, aber wenn man sich die Entwicklung der letzten 30 Jahre anschaut, erkennt man den roten Faden und die Triebkräfte. Ein sehr wichtiger Faktor war dabei der Lautheitskrieg.

Als die CD auf der Bildfläche erschien, gab es zwar schon einen Lautheitswettbewerb bei Analogmedien, wie z.B. der LP, aber die damaligen technischen Möglichkeiten waren noch recht bescheiden. Zum Lautmachen braucht man technische Hilfsmittel, allen voran die sog. Dynamikkompressoren, die den Unterschied zwischen laut und leise verkleinern. Dadurch kann man die durchschnittliche Lautheit anheben, ohne daß die gelegentlichen Pegelspitzen die technischen Grenzen des Mediums sprengen. Solche Dynamikprozessoren gab es zwar schon als Analoggeräte, aber mit vergleichsweise einfachen Möglichkeiten.

Die Grenzen des Mediums sind dabei bei Analogmedien weniger scharf definiert als bei der Digitaltechnik. Das Analogband fängt z.B. an der Pegelgrenze zunehmend an zu verzerren, aber ein hartes Limit gibt's nicht. Letztlich wirkt das Analogband selbst als eine Art Dynamikkompressor, und es ist auch schon früh zu genau diesem Zweck eingesetzt worden. Bei der LP ist das anders, da gibt's aber ebenfalls keine scharfe Grenze. Es steigt lediglich bei steigendem Pegel die Wahrscheinlichkeit, daß die Nadel aus der Rille fliegt. Man würde also riskieren, daß eine steigende Zahl von Käufern sich beschweren und das Produkt umtauschen will. Bei UKW-Rundfunk gibt's eine von der damaligen Post als der für die Sender verantwortlichen Behörde überwachte Modulationsgrenze. Heutzutage ist die Bundesnetzagentur dafür zuständig, die Modulationsgrenze ist nach wie vor die gleiche. Diese Grenze wird durch einen hart einsetzenden Limiter erzwungen, eine technische Grenze gibt es dagegen in dieser Form nicht. Das Limit ist hier also ein rechtliches, und kein technisches Limit wie bei den anderen Medien.

Bei der Digitaltechnik ist die Situation einfacher, denn die Codierung der Abtastwerte als Zahl bedingt eine Grenze, die durch den maximalen und minimalen Zahlenwert definiert ist. Diese Grenze ist hart und absolut. Da gibt's keinen allmählichen Übergang, entweder die Zahl paßt in den vorgesehenen Bereich, oder eben nicht. Wenn nicht, dann liegt Übersteuerung vor, und dann wird die Zahl auf den Maximalwert begrenzt, was mit dem Begriff Clipping beschrieben wird.

Technisch gesehen ist sowohl das analoge als auch das digitale Übersteuern unerwünscht, denn die Klangqualität leidet. Bei digitalem Clipping leidet sie wegen dem scharfen Einsatz und der damit verbundenen spektralen Auswirkungen weitaus mehr. Deswegen war schon den Digitaltechnik-Pionieren vor 30 Jahren klar daß Clipping unbedingt zu vermeiden ist, und man deshalb mit großzügigem Headroom arbeiten muß.

Diese technisch wohlbegründeten Ansichten passen aber schlecht zum Lautheitskrieg, wo die Triebfeder ja gerade die ist, innerhalb der technischen Möglichkeiten eine möglichst hohe Lautheit hinzukriegen.

Die Folge war also, daß jeder technische Fortschritt im Bereich der Dynamikprozessoren dahingehend genutzt wurde, um die Lautheit immer weiter zu steigern. Und gerade die Digitaltechnik hat im Bereich der Dynamikprozessoren einiges an zusätzlichen Möglichkeiten eröffnet, die im Analogzeitalter außer Reichweite waren.

Die Multibandkompressoren sind so eine Entwicklung, die zuerst Eingang in die Rundfunkanstalten fand. Das lange Zeit dominante Produkt ist der berühmt-berüchtigte Optimod der Firma Orban. Der Name deutet schon an, daß es darum ging, die erlaubten Modulationsgrenzen möglichst optimal auszunutzen. Die Überlegung dahinter ist, daß ein so bearbeitetes Signal beim "Durchkurbeln" der Sender am Radio lauter und druckvoller klingt, und daß ein Hörer so leichter bei diesem Sender hängen bleibt, als bei anderen, leiser wirkenden Sendern. Zudem steigt die Reichweite eines solchen Senders etwas an, also die Entfernung, in der er noch brauchbar zu empfangen ist. Beides sind insbesondere für kommerzielle Radiosender wichtige Argumente, denn sie wirken sich direkt auf die Werbeeinnahmen aus, aus denen der Sender sich finanziert. Es wird daher wenig überraschen, daß die kommerziellen Sender die Vorreiter beim Einsatz solcher Geräte waren. Letztlich haben sie dadurch aber auch die restlichen Sender in Zugzwang gesetzt.

Eine solche Signalbearbeitung ist nicht qualitätsneutral. Eine gemäßigte Dynamikbearbeitung kann die empfundene Signalqualität verbessern, aber es liegt im Naturell eines aus Konkurrenz gespeisten Wettbewerbs, daß die Sache nicht gemäßigt bleibt, sondern auf die Spitze getrieben wird. So lange die Hörerschaft nicht in Scharen flieht wird es immer einen Sender geben, der den Optimod noch etwas radikaler einstellt, und den daraus resultierenden kaputten Klang in Kauf nimmt. Die Wirkung ist dabei vor allem auf den vordergründigen Effekt ausgelegt, das Signal springt einen regelrecht an und wirkt daher sehr druckvoll, wird aber auch sehr schnell nervig und ermüdend, und wirkt bei allem Druck leblos, atemlos und verstopft.

Die Möglichkeiten eines Optimod sind natürlich auch bei der Musikproduktion nicht unbemerkt geblieben, und bei der Werbebranche erst recht nicht. Auch wenn man da nicht unbedingt die gleichen Geräte wie im Rundfunk benutzt, so wurden doch die gleichen technischen Möglichkeiten herangezogen, um im Rahmen dessen was das Medium CD hergibt die Lautheit zu maximieren. So lange die CD noch ein Medium für eine qualitätsbewußte Minderheit war, also in den 80ern, war das nicht so prominent, aber in den 90ern, als die CD zum Massenmedium wurde und die LP in den Minderheitsstatus drängte, war der Lautheitskrieg auch da in vollem Gang.

Als Motivation fehlt zwar da die Vorstellung vom Hörer, der die Sender "durchkurbelt" und am lautesten Sender hängen bleibt. Es gab aber immer auch schon Kompilationen von Titeln mehrerer Interpreten aus den Charts auf einer CD, und fast nie wurde dafür noch eine eigene Pegelanpassung gemacht, damit alle Titel gleich laut erscheinen. Das wäre zu viel Arbeit gewesen. Stattdessen hat man einfach die betreffenden Titel ohne weitere Bearbeitung zusammengestellt (was mit der Digitaltechnik besonders einfach wurde), und wenn sie unterschiedlich laut produziert wurden, dann war das auf dem Kompilat eben so zu merken. Es liegt auf der Hand, daß mindestens einmal bei denjenigen Musiksparten, zu deren Vermarktung solche Kompilationen ("Sampler") üblich sind, der Lautheitskrieg tobte. Kein Musikproduzent wollte auf einem Sampler gegen die "Konkurrenz" verlieren, weil das direkt die Verkaufszahlen beeinflußt hätte. So jedenfalls die verbreitete Überzeugung. Die Konsequenz ist eine seit Anfang der 90er stetig steigende Lautheit der CD-Produktionen, die inzwischen ein absurdes Ausmaß erreicht hat, das auch sehr auffällige Klangprobleme in Kauf nimmt.

Da die LP inzwischen nicht mehr das Massenmedium ist, ist dort der Druck zum Lautmachen weitgehend weggefallen. Ironischerweise hat das dazu geführt, daß die empfundene Klangqualität trotz der schlechteren technischen Ausgangslage in vielen Fällen heute besser ist als bei der entsprechenden CD.

Das war auch mal eine Zeitlang für alternative digitale Medien wie DVD-A und SACD der Fall. Die Hoffnung war, daß man für den qualitätsbewußten Teil des Marktes damit ein anderes Medium etablieren kann, für das auch ein besseres Mastering zu höherer empfundener Qualität führt. Dem Marketing folgend, hat ein großer Teil der Kundschaft die besseren technischen Daten dieser Medien für den besseren Klang verantwortlich gemacht, also z.B. die höhere Abtastfrequenz, aber die wirklichen klanglichen Vorteile gehen auf ein anderes Mastering zurück, das auf eine kompromißlose Maximierung der Lautstärke verzichtet, und nicht auf die besseren technischen Daten gegenüber der CD.

Diese Rechnung ging aber nicht auf, und diese neueren Formate konnten sich nicht auf dem Markt etablieren. Meiner Meinung nach gibt es dafür mehrere Gründe:
  • Die neueren Formate hatten einen Kopierschutz, und die Kundschaft hatte die wohl nicht unberechtigte Befürchtung, daß damit auch der Preis hoch gehalten werden sollte. Zudem hatte man begonnen, die Vorteile eines frei kopierbaren Formates wertzuschätzen, z.B. indem man sich eine Kopie für's Auto anfertigt, oder den Computer zur Jukebox macht. Solche Bequemlichkeiten wären mit einem Kopierschutz gleich mit entfallen. Zudem hatte man den Ruf eines Kopierschutzes mit ein paar mißglückten Versuchen bei der CD nachhaltig ruiniert.
  • Da man sowieso eine CD herstellen muß, verdoppelt sich der Aufwand, denn nun hat man den Produktionsaufwand für die CD und das neue Format. Zudem ist bei der SACD die Möglichkeit einer CD-kompatiblen Schicht vorhanden. Wenn man aber bei der CD-Schicht einfach das Material von der kriegerisch lauten Normal-CD nimmt, dann sieht die SACD-Schicht im Vergleich dazu schlecht aus. Man müßte also auch die SACD-Schicht entsprechend laut machen, oder die CD-Schicht anders produzieren als die Normal-CD, was den Aufwand auf das Dreifache steigern würde.
  • Parallel dazu steigt der Kostendruck bei Musikproduktionen immer weiter an, so daß das Budget für den zusätzlich entstehenden Aufwand immer knapper wird. Das führt dazu, daß man qualitative Kompromisse macht, die den Vorteil der DVD oder SACD schmälert, und ihre Attraktivität weiter verringert.
Ob dem aktuellen erneuten Versuch mit der Audio-Blu-ray gelingen kann, aus diesem Dreieck zu entkommen, bleibt abzuwarten. Ich bin nicht besonders optimistisch. Auch da wird erneut der Fehler gemacht, daß man versucht dem Kunden die größere Abtastrate und/oder Wortlänge als wesentlichen Vorteil zu verkaufen. Das ist aber nicht das entscheidende Problem, denn die tatsächliche Klangqualität der CD liegt aufgrund des Lautheitskrieges ja auch erheblich unter den technischen Möglichkeiten. Es käme darauf an, zu zeigen wie man das bei einem anderen Format vermeiden will.

Im Zusammenhang mit dem Lautheitskrieg muß aber auch noch die Rolle der Werbebranche erwähnt werden. In Radiosendern, die sich ganz oder zum Teil aus Werbeeinnahmen finanzieren, hat es seit jeher Diskussionen über die Lautheit der Werbespots gegeben. Die Werbekunden wollen üblicherweise mit ihrem Spot möglichst viel Aufmerksamkeit erregen, und das versuchen sie - wer hätte es gedacht - über die Lautheit zu erreichen. Der Spot soll lauter als das umgebende Programm sein, und am besten auch lauter als andere Spots davor oder danach. Wenn also schon der Lautheitskrieg bei den Sendern selbst eingesetzt hatte, so tobte er noch schärfer bei den Werbespots. Dort werden Kompression und Übersteuerung noch radikaler eingesetzt, ohne Rücksicht auf den höchst nervenden Effekt.

Das Verhältnis zwischen den Werbekunden und den Sendern ist dabei ein ganz eigenes Problem. Der Werbekunde zahlt für den Spot. Er hat daher kein Interesse daran daß ein Tontechniker im Sender den zu lauten Spot einfach herunterregelt. Und der Sender hat kein Interesse an einer juristischen Auseinandersetzung darüber ob der Spot nun zu leise gesendet wurde oder nicht, und er hat schon gar kein Interesse daran den Werbekunden zu verlieren. Also werden die Werbespots mit einer genau definierten, für alle Spots gleichen Reglerstellung abgespielt. Gegen die lautmacherischen Tricks der Werbekunden hat man folglich keine praktische Handhabe. Wenn man mit seinem eigenen Programm nicht abfallen will und hohe Pegelsprünge in Kauf nehmen will, die Hörerbeschwerden hervorrufen würde, dann muß man in diesem Spiel mitmachen. Da ja außerdem auch die Musiktitel von der CD dem gleichen Phänomen unterworfen sind, bleibt einem fast nichts Anderes übrig, als die Lautstärkeunterschiede durch eine entsprechende Einstellung des Optimod am Ende der Signalkette zu nivellieren. Das bedeutet noch mehr Kompression, und einen entsprechenden Verlust an Klangqualität für das ganze Programm, und nicht bloß die Werbung.

Das Ganze ist eine Spirale, und sie führt abwärts. Die Digitaltechnik liefert für diesen Krieg immer ausgefeiltere Waffen, die aus der technischen Sicht zwar auch für die Verbesserung der Klangqualität eingesetzt werden könnten, de facto aber zum genauen Gegenteil benutzt werden. Von Qualität wird geredet, der Lautheitskrieg wird gemacht.

Inzwischen ist den meisten Leuten klar, daß hier großflächig verbrannte Erde hinterlassen wird, was dem vielleicht etwas drastisch empfundenen Begriff des Krieges weitere Rechtfertigung gibt. Die Qualitätsprobleme bei Radio, Fernsehen und Musikproduktion haben ein Ausmaß erreicht, das auch unkritischen Verbrauchern anfängt, auf die Nerven zu gehen, von der qualitätsbewußten Minderheit ganz zu schweigen. Mein eigener CD-Konsum hat schon seit Längerem drastisch abgenommen, und das hat rein gar nichts mit illegalem Kopieren zu tun. Auch bei Radiosendern gibt's nur noch wenige die ich länger als eine halbe Stunde ertragen kann, und es sind nicht zufällig die, wo keine Werbung läuft. Man könnte es mit dem Alter abtun, aber ich bin mir sicher daß da mehr dahinter steckt, daß da wirklich die (Digital-)Revolution ihre Kinder frißt.

Aber vielleicht hatte Hölderlin ja recht als er dichtete: "Wo aber Gefahr ist, wächst das Rettende auch!". Für den Rundfunk und das Fernsehen könnte das Rettende in Form der EBU-Empfehlung R128 kommen. Was da so technisch daher kommt, könnte der Hebel sein, mit dem man diese Abwärts-Spirale aufbrechen kann.

Wie soll das gehen? Nun, R128 baut auf einem relativ neuen technischen Verfahren auf, mit dem die Lautheit eines Audiosignals bestimmt werden kann. Die Lautheit ist etwas Anderes als der Pegel, das sollte aus dem schon Gesagten klar geworden sein. Die Lautheit ist an der menschlichen Empfindung orientiert, nicht an der elektrischen Signalstärke. Es finden darin Erkenntnisse Verwendung, die aus psychoakustischen Forschungen resultieren. Das entsprechende Lautheits-Meßverfahren ist als ITU-R BS.1770 genormt, und die EBU-Empfehlung besagt, daß man dieses Verfahren verwenden solle, um die gesendeten Beiträge auf eine einheitliche Lautheit zu bringen.

Das könnte zwar auch ein menschlicher Toningenieur machen, wenn man ihn denn ließe. Der Vorteil des neuen Verfahrens ist aber, daß die Gefahr juristischer Auseinandersetzungen mit den Werbekunden vermieden werden kann. Menschlicher Eingriff kann immer als willkürlich angegriffen werden, aber ein wohldefiniertes Verfahren hat einen objektiven und unparteiischen Charakter. Zudem hat man im Zuge der Umstellung auf Selbstfahrer-Studios die separaten Tontechniker im Radio überflüssig gemacht. Der Moderator regelt selbst, und könnte die dauernde Anpassung ohnehin nicht leisten.

Wenn also eine Rundfunkanstalt sich auf die Empfehlung R128 festlegt, dann kann die Werbebranche wenig dagegen einwenden, denn diese Entscheidung ist ja für alle gleich. Wenn der eigene Werbespot nun um 1 dB lauter produziert ist als der der Konkurrenz, dann führt R128 dazu daß er entsprechend leiser ausgestrahlt wird. Der Lautstärkevorteil ist dahin, aber der dadurch entstehende kaputte Klang bleibt. Was zuvor ein Vorteil war, wird so zum Nachteil. Die dadurch veränderten technischen Randbedingungen verursachen für die Werbebranche eine stark veränderte Interessenlage, und man hofft daß dies der Klangqualität zugute kommt.

Ob das auch auf die Musikproduktion einen positiven Einfluß haben wird ist weniger klar. Die CD-Produktion und das damit zusammenhängende Download-Geschäft ist von dieser Empfehlung erst einmal nicht betroffen. Trotzdem hofft man, daß man dadurch letztlich auf eine weniger krasse Einstellung der Optimod-Prozessoren zurück gehen kann, und so auch die Qualität des ganzen Programms wieder besser wird.

Ob das alles so eintreffen wird, bleibt zu sehen. Die Rundfunkanstalten scheinen aber wenigstens in Europa stark motiviert zu sein, sich diese Möglichkeit nicht durch die Lappen gehen zu lassen. Die ARD hat zum Beispiel angekündigt, ab dem neuen Jahr im Fernsehen für die Produktion und die Werbung die R128-Empfehlung anzuwenden. Einige Staaten haben sogar zu gesetzgeberischen Mitteln gegriffen, oder wollen zu ihnen greifen, um entsprechende Regelungen für Radio und/oder TV zwingend zu machen. Allenthalben merkt man Erleichterung, daß nun eine objektive Handhabe besteht, die man zur Grundlage solcher verbindlichen Regeln machen kann.

Spannend ist es jetzt, zu sehen welche Tricks den Werbeproduzenten nun einfallen, um sich unter den neuen Umständen einen Vorteil zu verschaffen, und ob das dann weniger nervt als bisher. Und ich frage mich auch, wie's mit der Musikproduktion weiter geht. Dort ist der Antrieb für den Lautheitskrieg nicht beseitigt, und ob die veränderte Lage beim Funk darauf einen signifikanten Einfluß hat kann bezweifelt werden.

Immerhin: Es ist neue Digitaltechnik, die das Problem beheben soll, was mir die Hoffnung gibt daß man mittelfristig den Eindruck vermeiden kann, die Digitaltechnik sei das Problem, und die Analogtechnik besser.


Eure Meinung ist wie immer hier gefragt.