Sonntag, 5. Juni 2011

FAQ Digitaltechnik

Vor einem Jahr gab's von mir schon mal einen FAQ-Artikel, und ich habe das Gefühl es wird Zeit für den zweiten. Die Digitaltechnik ist im Hifi-Sektor mit der Entwicklung der CD vor 30 Jahren endgültig angekommen gewesen, obwohl sie schon ein paar Jahre zuvor im professionellen Bereich angefangen hatte Fuß zu fassen. Man sollte sich immer wieder vor Augen halten wie lange das schon her ist, dann bekommt man ein Gefühl dafür wie blödsinnig die Vorstellungen mancher Audiophiler sind, die alle möglichen Rätsel und unverstandenen Probleme darin entdecken. Die meisten dieser Rätsel wären keine wenn man nur mal verstehen würde was man auch vor 30 Jahren schon über die Digitaltechnik wußte.

Ich mache mir zwar keine Illusionen daß mein Fix Abgehandelter Quatsch (=FAQ) hier an den Vorstellungen dieser Leute etwas ändern wird, denn die sind für ihre Lernresistenz bekannt. Vielleicht hilft's aber Anderen, die das Denken noch nicht verlernt haben.

1. Analog wird immer besser sein als digital. Bei Digitaltechnik ist die Bitanzahl beschränkt, weshalb man beim Wandeln immer (Rundungs-)Fehler bekommt, dagegen ist das Signal bei Analogtechnik kontinuierlich und unendlich fein aufgelöst.

Hier wird eine theoretische Analogtechnik, wie sie in der Praxis gar nicht möglich ist, mit der praktischen Digitaltechnik verglichen. Es fällt aus dem Text nicht unbedingt auf, es ist aber ein schiefer Vergleich.

Analogtechnik hat es in der realen Welt immer mit Rauschen zu tun. Rauschen ist eine physikalische Realität, um die man nicht herum kommt. Dieses Rauschen begrenzt die Auflösung des analogen Signals genauso wie durch die begrenzte Bitanzahl die Auflösung des digitalen Signals begrenzt wird.

Es ist sogar so daß bei einem korrekt arbeitenden Digitalsystem die Fehler, die durch das Runden beim Wandeln entstehen, dem analogen Rauschen genau entsprechen. Die Auswirkungen auf das Nutzsignal sind genau die gleichen, egal ob wir im digitalen oder analogen Bereich sind. Analog ist daher nicht besser als digital, das Argument ist falsch.

2. Moment mal, hat man uns nicht immer versucht weiszumachen, Digitaltechnik sei rauschfrei und "perfekt"?

Wer das so pauschal behauptet hat, hat die Sache vielleicht selbst nicht ganz verstanden gehabt. Es gibt durchaus etwas bei der Digitaltechnik, was man mit einigem Recht als "perfekt" bezeichnen kann, und das ist das Übertragen, Speichern und Kopieren des Signals. Bei der Digitaltechnik geht das ohne jeden Verlust, bei der Analogtechnik ist dagegen immer ein gewisser Qualitätsverlust damit verbunden.

Das soll aber nicht heißen daß an der Digitaltechnik alles "perfekt" wäre. Schon einfache Signalbearbeitung läuft auf Rechenschritte hinaus, die Rundungsfehler hervorrufen. Das kann man nicht mehr wirklich perfekt nennen. Man kann sich der Perfektion allerdings annähern, und dazu hat man bei der Digitaltechnik weitaus bessere Voraussetzungen als bei der Analogtechnik, denn man kann auf einfache Weise durch Vergrößerung der Rechengenauigkeit, also durch Rechnen mit mehr Bits, den Fehler beliebig klein machen. Man ist da keinen physikalischen Grenzen unterworfen wie bei der Analogtechnik.

Das heißt aber auch: Der Entwicklungsingenieur, der ein Audiogerät baut oder eine Audio-Software schreibt, muß sich überlegen welche Rechengenauigkeit oder welche Bitanzahl er braucht um den Fehler in seinem System in allen realistischen Situationen klein genug zu halten. Es gilt eine Entscheidung zu treffen. Der daraus resultierende Kompromiß braucht nicht unbedingt Jedem zu gefallen. In der Anfangszeit der Digitaltechnik war das ein weitaus schwierigeres Problem als heute, denn damals waren solche Entscheidungen potenziell teuer, heute dagegen ist Rechenleistung und Digitalhardware so billig geworden, daß man bequem überdimensionieren kann ohne daß die Kosten davon merklich betroffen wären.

Die Entscheidung für 16 Bit bei der CD war zur damaligen Zeit von vielen Leuten auch schon als Überdimensionierung gesehen worden. Aus der Sicht vieler Leute hätten für ein Distributionsmedium für den Massenmarkt auch 13 bis 14 Bits gereicht, und wenn man sich aus heutiger Sicht ansieht was für ein totkomprimierter Schrott auf CD gepreßt wird, dann bekommt man das Gefühl daß sogar das noch überdimensioniert gewesen wäre. Beim DAT-Recorder wurde, manch einer wird das vielleicht noch wissen, damals auch ein Long-Play-Modus eingeführt, der mit einer nichtlinearen 12-bit-Kodierung arbeitete (und mit 32 kHz Abtastung), und wer so etwas ausprobiert hat wird sagen können daß der Unterschied oftmals nicht zu merken ist. Die Einsparung von ein paar Bits wurde bei der CD aber wohl als nicht hinreichend lohnend angesehen, so daß es schließlich 16 bit wurden.

3. Aber 16 bit sind doch nicht genug um der Analogtechnik Paroli zu bieten!

Kommt darauf an. Bei der Speicherung von Audiosignalen ist es bereits mehr als genug um der Analogtechnik Paroli zu bieten. Kein analoges Speichermedium, egal ob Schallplatte oder Band, kann diesbezüglich mit der Digitaltechnik mithalten. Bei den Bandmaschinen im professionellen Bereich kam man unter erheblichem Aufwand (Dolby-Rauschreduktionsverfahren) noch am nächsten, aber letztlich war schon sehr früh klar daß die analoge Speichertechnik keine Chance gegen die Digitaltechnik haben würde. Die Speicherung war der eigentliche Motor, der die Digitaltechnik in der Anfangszeit befördert hat, weil gerade da die Analogtechnik ihre größten Probleme hat.

Bei der Übertragung und Bearbeitung der Signale ist die Analogtechnik weitaus besser als bei der Speicherung, und wenn man damit auf der Digitalseite gleich ziehen will, dann braucht man mehr Bits als 16. Das ist der Grund warum man z.B. bei der AES/EBU-Schnittstelle (und der damit verwandten S/P-DIF-Schnittstelle) von Anfang an Platz für 24 Bit vorgesehen hatte. Das ist also keineswegs ein Problem das man erst im Nachhinein gefunden hätte. Es war den Verantwortlichen von Beginn an klar daß für ein Digitalsignal, das von der Qualität her den analogen Möglichkeiten ebenbürtig sein sollte, 16 bit nicht reichen würden.

Die 16 bit der CD sind eine (auch heute noch) richtige Wahl für ein Distributionsformat gewesen, also ein Format das nach aller Signalbearbeitung kommt, und bloß noch wiedergegeben wird. Für ein Format im Studio, während der Signalbearbeitung, war das zu wenig, und deswegen gab es auch schon frühzeitig größere Genauigkeit in Mischpulten, bei Mehrspurrecordern und in Effektgeräten.

4. Woher soll ich wissen ob 24 bit genug sind? Du behauptest ja sogar daß 16 bit genug sind für so etwas wie die CD. Heißt das Du hältst die DVD oder die BR-Scheiben mit ihren hochauflösenden Formaten für überflüssig?

Als Distributionsformat halte ich 24 bit in der Tat für überflüssig. Im Studio sind 24 bit dagegen sehr wohl angebracht. Letztlich ist es einfach eine Frage des Dynamikumfangs des Formates, und was man damit praktisch anfangen kann.

16 bit bieten genug Dynamikumfang für die Wiedergabe, einfach weil der Maßstab dort die Fähigkeiten des menschlichen Gehörs sind, und die akustische Situation beim Hören. Gemessen an diesem Maßstab sind die Möglichkeiten, die sich aus 16 Bit bieten, mehr als ausreichend.

24 bit bieten genug Dynamikumfang für die Signalbearbeitung, weil dort der Maßstab durch die in der Analogtechnik erreichbare Signalqualität gegeben ist. Das hat nichts mit den menschlichen Hörfähigkeiten zu tun, oder mit der Situation im Wohnzimmer. Man will ganz einfach mindestens so gut sein wie die analoge Elektronik, und das ist bei 24 bit weitgehend der Fall.

Das Ganze läuft letztlich bloß auf eine Betrachtung der Rauschwerte im System hinaus. Mehr ist da nicht.

5. Dann glaubst Du wohl auch daß höhere Abtastfrequenzen nichts bringen, stimmt's?

Ja, da sieht's ganz ähnlich aus. Die Abtastrate bei der CD ist zwar mit ihren 44100 Hz ein wenig krumm geworden, aber das hat damit zu tun daß man in der Anfangszeit der CD für die Produktion auch ein Aufnahmemedium gebraucht hat, das man als "Masterband" bei der CD-Fabrik abgeben konnte, so daß die daraus die CD fabrizieren konnten. Statt ein völlig neues Magnetbandsystem aus dem Boden zu stampfen hat man sich dafür entschieden, ein Bandaufzeichnungssystem für Video zu zweckentfremden. Man hat einen sog. PCM-Adapter gebaut, mit dem man das Audiosignal digitalisieren und in ein Signal umformen konnte, das für den Videorecorder so aussah als wäre es ein Videosignal. Für relativ kurze Zeit konnte man sich das sogar als ambitionierter Hifi-Kunde anschaffen wenn man wollte.

Das ist heute alles Schnee von vorgestern, aber die Abtastfrequenz der CD ist als Relikt davon noch übrig geblieben, denn diese Signalumformung hat es damals erfordert daß die Zeilenfrequenz des Videosignals und die Abtastfrequenz in einem bestimmten festen Verhältnis zueinander standen. Der Rest der Digital-Audio-Welt hätte lieber eine weniger krumme Frequenz genommen, wie z.B. 48000 Hz oder 50000 Hz, aber es herrschte Einigkeit daß die Frequenz in diesem Bereich liegen muß um die Hörfähigkeiten des Menschen abzudecken.

Da sich die Hörfähigkeiten seither nicht geändert haben, ist die Entscheidung heute so richtig wie damals. Seit den Untersuchungen von Nyquist ist ja klar gewesen daß man die Abtastfrequenz wenigstens doppelt so hoch wählen muß als die höchste interessierende Signalfrequenz. Und es war ebenfalls klar daß man in der Praxis kein beliebig steiles Filter bauen kann welches die uninteressanten, aber störenden Frequenzen abschneidet, folglich brauchte man einen Übergangsbereich in dem so ein Filter vom Durchlaßbereich in den Sperrbereich übergeht. Je nachdem wieviel Platz im Frequenzspektrum man diesem Filter zugestehen will, ergibt sich eine Wunsch-Abtastfrequenz.

6. Du hältst es also für ausgemacht daß der menschliche Hörbereich bei 20 kHz endet.

Wo er genau endet ist eine etwas akademische Frage. Die Menschen unterscheiden sich in dieser Hinsicht voneinander, und es ändert sich ja bekanntlich auch mit dem Lebensalter. Es kann schon sein daß manche, vor allem junge, Leute über 20 kHz hinaus kommen. Es sind aber nur sehr wenige, und ich bin überzeugt davon daß es eine Menge Leute gibt die zwar glauben sie hörten solche hohen Frequenzen, die das aber nie ordentlich nachgeprüft haben. Es ist ein Unterschied ob man die hohen Frequenzen direkt hört, oder ob man Mischprodukte hört, die aufgrund von Nichtlinearitäten aus den höheren Frequenzen entstehen.

Aber egal wie nun die Hörfähigkeiten im Einzelnen aussehen mögen halte ich diese hohen Frequenzen auch für musikalisch und klanglich irrelevant. In diesen Frequenzen ist nichts enthalten was eine musikalische Darbietung besser, authentischer oder "livehaftiger" machen würde. Es sind höchstens Nebeneffekte die zur Musik nichts beitragen, sonst wären ja die Mehrzahl der Leute, die vielleicht bloß noch bis 16 kHz hören, schon außen vor.

Ich würde also durchaus sagen daß 20 Hz bis 20 kHz ein bereits großzügig bemessener Frequenzbereich ist, innerhalb dessen sich alles abspielt was für die Musikdarbietung relevant ist. Es gibt keinen vernünftigen Grund warum man für ein Distributionsformat mehr brauchen würde.

7. Da ist es wieder: "Distributionsformat". Im Studio hältst Du also höhere Frequenzen für sinnvoll?

Jein. Es gibt Fälle in denen es sinnvoll sein kann. Das hat etwas mit Spiegelfrequenzen zu tun, die dann entstehen wenn man ein Signal nicht ordentlich bandbegrenzt. Manche Leute glauben, daß das bloß ein Problem bei der Wandlung zwischen analog und digital ist ("Aliasing"). Es kann aber auch im digitalen Bereich selbst ein Problem sein, nämlich immer dann wenn das Signal nichtlinear verarbeitet wird.

Nichtlineare Bearbeitung ist hier im mathematischen Sinne zu verstehen; nichtlineare Bearbeitungen erzeugen neue Frequenzen, während lineare Bearbeitung nur die relative Stärke schon vorhandener Frequenzen ändert. Ein einfaches Beispiel für nichtlineare Bearbeitung ist das Clipping, bei dem Signalspitzen abgeschnitten werden, z.B. als Folge einer Übersteuerung. Das Resultat sind harmonische Verzerrungen, und die gehen mit der Erzeugung von Frequenzen einher die Vielfache der Signalfrequenzen sind, zudem können Mischprodukte entstehen. Diese entstehenden Frequenzen machen im Digitalsystem nicht an der halben Abtastfrequenz halt, die höheren Anteile werden einfach nach unten gespiegelt und tauchen als Spiegelfrequenzen im "Basisband" wieder auf. Das hat dann mit "harmonisch" nichts mehr zu tun.

Das bedeutet, daß nichtlineare Bearbeitungsfunktionen im Digitalbereich mit besonderer Sorgfalt zu implementieren sind, damit keine Frequenzprodukte daraus über eine Spiegelung im hörbaren Bereich auftauchen. Das gilt egal ob die nichtlineare Funktion nun absichtlich und bewußt, oder unabsichtlich erfolgt. Neben dem Clipping betrifft das vorwiegend die Dynamikbearbeitung, also Kompressoren, Limiter, usw.

Wenn man dafür sorgen würde daß alle diese Bearbeitungen ordentlich und ohne Spiegelfrequenzen ablaufen, dann bräuchte man auch keine höheren Abtastfrequenzen. Wenn man das aber nicht sicherstellt, dann tut man besser daran eine höhere Abtastrate zu benutzen, denn dann wird ein guter Teil der gespiegelten Frequenzen im unhörbaren Bereich landen, und der Fehler umso weniger auffallen. Hat man nur die unbedingt nötige Abtastfrequenz gewählt, dann landet fast aller gespiegelte Müll im hörbaren Bereich, und verfärbt im Extremfall den Klang merklich. Das ist z.B. einer der Gründe warum sich digitale Übersteuerung schlechter anhört als analoge Übersteuerung.

Kurz gesagt hilft die höhere Abtastfrequenz im Studio dabei, die negativen Auswirkungen unsauberer Bearbeitungen besser zu kaschieren. Besser wäre es zwar, die Unsauberkeiten gleich von vorn herein zu vermeiden, aber es ist das Endergebnis was zählt, und wenn dazu eine höhere Abtastfrequenz hilft soll's mir recht sein. Bei der Übertragung auf das Distributionsmedium ganz am Schluß der Verarbeitungskette kann man ja auf die niedrigere Abtastfrequenz konvertieren, und wird dabei den Müll los der sich eventuell im Ultraschallbereich angesammelt hat.

8. Das hört sich gerade so an als bräuchten vor allem die schlechten Toningenieure die höheren Frequenzen.

Da ist was dran. Im Radio und Fernsehen, wenigstens dem qualitätsbewußteren Teil davon, versucht man ja nach Möglichkeit, bei der Bearbeitung den nötigen Headroom einzuhalten, und Schweinereien zu vermeiden. Bei Filmvertonung ebenso. Dort reicht überall 48 kHz als Abtastfrequenz, über höhere Frequenzen denkt da kaum einer ernsthaft nach. Bloß in der Musikproduktion wird alles gedreht was man drehen kann, und seit man alles auf dem PC bearbeiten kann ist eine Schwemme von Leuten in der Musikproduktion zu Gange die im Grunde keine Ahnung haben was sie da tun.

Da reicht als Argument oft schon daß 96 eben höher ist als 44,1 und es deswegen halt auch besser sein muß. Ungefähr so wie ein 200 Watt Verstärker ja auch besser als ein 100 Watt Verstärker ist.

9. Was ist dann von den Leuten zu halten die von Unterschieden berichten zwischen CD und DVD, zwischen 44,1 kHz und 96 kHz?

Da ist erst einmal die Frage was die da überhaupt vergleichen. Woher wollen sie wissen ob auf beiden Medien das Gleiche drauf war, abgesehen von Abtastfrequenz und Bitrate? Oftmals ist das Material für die beiden Medien separat gemastert worden, und der Unterschied hat nichts mit dem Medium zu tun, sondern mit dem unterschiedlichen Mastering.

Angesichts der Schwemme an übersteuerten CDs ("Loudness War") kommt noch dazu, daß die Auswirkungen der Übersteuerung anders ausfallen können je nachdem mit welcher Abtastfrequenz man arbeitet. Das hat wieder mit den Spiegelfrequenzen zu tun. Die beiden unterschiedlichen Formate mögen daher auf unterschiedliche Art falsch klingen. Das ist nicht unbedingt ein Vorteil für irgendeine Seite.

Für einen fairen Vergleich müßte man das hochauflösende Format (also z.B. 24/96) als Ausgangspunkt nehmen, und es z.B. mit einem guten Abtastratenwandler auf das andere Format konvertieren (z.B. 16/44,1), wobei man darauf achten muß, Übersteuerungen zu vermeiden. Es wird also u.U. nötig sein, die Pegel auf beiden Seiten zu reduzieren. Wenn mal einer auf diese Weise sorgfältig gearbeitet hat, und dann immer noch Unterschiede nachweislich hört, dann erst wird's interessant.

Bloß wird's die Luft da auch sehr dünn, und ich warte noch auf eine Untersuchung die diesen Fall wirklich überzeugend klären würde. Bis dahin gehe ich davon aus daß die "traditionellen" Ansichten zum nötigen Frequenzbereich gelten.

10. Und die Leute, die mit der zeitlichen Auflösung argumentieren, sind das Spinner? Die Abtastwerte liegen ja mehr als 20 µs auseinander, das reicht doch nicht für das Gehör!

Diese Leute haben nicht verstanden daß der zeitliche Abstand der Abtastwerte keine Grenze darstellt für den zeitlichen Abstand zweier Signale in verschiedenen Kanälen. Es ist kein Problem, auf der CD ein Signal aufzuzeichnen, das zwischen dem linken und dem rechten Kanal z.B. einen Zeitunterschied von 5 µs hat. Das mag manchen überraschen, läßt sich aber relativ leicht demonstrieren.

Klar geht das nicht indem man einfach das Signal vom einen Kanal um einen Schritt verzögert. Man muß schon ein bißchen mehr Aufwand treiben. Beispielsweise könnte man das so lösen daß man das Signal in eine höhere Abtastrate wandelt, in der die gewünschte Verzögerung in ganzen Schritten darstellbar ist, also im Falle von 5 µs z.B. 200 kHz. Dann verzögert man auf einfache Weise in ganzen Schritten, und wandelt das Ergebnis zurück in die ursprüngliche Abtastfrequenz.

Man kann den Erfolg überprüfen indem man das Resultat ins Analoge wandelt und z.B. auf dem Oszilloskop betrachtet. Linker und rechter Kanal sind dann um z.B. unsere 5 µs gegeneinander verschoben, obwohl die zeitlichen Abstände der Abtastwerte viel größer sind. Die ganze Argumentation mit der zeitlichen Auflösung beruht also auf einem Denkfehler, den man durch relativ einfache Experimente als solchen entlarven kann.

Es gibt immer wieder Versuche, die Grundlagen der Digitaltechnik in Zweifel zu ziehen und zu suggerieren daß damit etwas nicht stimmt. In Wirklichkeit stimmt in solchen Fällen sehr wahrscheinlich etwas mit der Argumentation nicht. Diese Grundlagen sind schon seit ziemlich langer Zeit bekannt und theoretisch ziemlich gut durchdrungen. Nyquist gilt, wer glaubt das in Zweifel ziehen zu können muß schon ausgesprochen sattelfest sein. So einer muß mir erst noch begegnen. Stattdessen begegne ich immer wieder Leuten, die offensichtlich nicht verstanden haben was Bandbegrenzung bedeutet, also die eine Grundvoraussetzung nicht verstehen auf der die Funktion der Digitaltechnik in der Signalverarbeitung beruht.

11. Was ist denn so schwierig daran?

Gute Frage. Die Nyquist-Regel ist einfach und eindeutig, aber sie sagt etwas im Frequenzbereich aus. Das gedanklich in den Zeitbereich zu übertragen fällt vielen schwer. Daher kommen vermutlich die ganzen Verständnisprobleme. Besonders auffällig ist das wenn mit Impulsen oder Rechtecksignalen hantiert wird. Da ist eigentlich grundsätzlich erhöhte Wachsamkeit angeraten, weil einem damit unterschwellig oftmals eine Verletzung des Bandbreitenkriteriums von Nyquist untergejubelt werden soll. Aus falschen Voraussetzungen folgen aber nicht immer richtige Schlüsse.

Wer zum Beispiel die zeitliche Auflösung in Zweifel ziehen will hat mit dem Rechteck ein anschauliches Mittel dazu, denn man kann ein "digitales Rechteck" nicht um eine halbe Abtastperiode verschieben. Das Auflösungsvermögen für digitale Rechtecke ist tatsächlich durch die Abtastfrequenz beschränkt.

Das hat aber nichts zu sagen, denn das Rechteck ist selbst schon eine Verletzung des Nyquist-Kriteriums. Korrekt bandbegrenzte Signale hingegen haben dieses Problem nicht. Sie haben keine abrupten Sprünge wie ein Rechteck, und sie lassen sich um Bruchteile einer Abtastperiode verschieben ohne daß sich dazu die rekonstruierte Signalform ändern würde. In dem Moment in dem man die Regeln einhält ist das Problem verschwunden.

12. Bedeutet das, daß die Digitaltechnik prinzipielle Probleme mit Impulsen hat?

Kommt darauf an was Du damit meinst. Ein idealer Impuls hat eine unendlich steile Flanke, und so etwas gibt's schon analog nicht. Wenn Du es also am theoretischen Idealfall mißt, dann hat schon die Analogtechnik Probleme damit, da braucht man gar nicht erst zur Digitaltechnik überzugehen. Es sieht vielleicht bei der Digitaltechnik eher so aus, weil man dort durch einen Sprung zwischen zwei Abtastwerten so etwas wie die Illusion eines unendlich steilen Sprunges haben könnte. Er ist aber schon deswegen nicht unendlich steil weil von einem Abtastwert zu nächsten ja eine gewisse Zeit vergeht. Allein das ist schon eine Grenze für die maximale Steilheit. Die eigentliche Grenze ergibt sich aber aus der Bandbegrenzung, aus der nicht bloß eine maximale Signalsteilheit folgt, sondern auch die Bedingung daß es keine Ecken im Signal geben darf.

Letzlich definiert die Bandbreite des Systems wie "scharf" ein Impuls sein kann, egal ob dieses System analog oder digital arbeitet. Beide Technologien sind damit in dieser Hinsicht gleich gestellt. Bei Hifi ist es bloß so daß analoge Geräte oftmals eine größere Bandbreite haben als digitale Systeme. Das ist deswegen so weil man für die Begrenzung der Bandbreite extra Aufwand betreiben müßte, den man sich auch sparen kann. So hat dann ein Verstärker gern mal eine Bandbreite von >100 kHz, also ein Mehrfaches dessen was er für Audio eigentlich bräuchte. Das heißt er verstärkt auch noch Signale, die man nicht hört, aber das wird nicht als Problem aufgefaßt und hat den Nebeneffekt daß Impulse "sauberer" verstärkt werden. Wenn man sich das Ergebnis auf dem Oszilloskop betrachtet sieht es dann so aus als wäre das analoge Gerät besser als das digitale, wenn man die "Impulstreue" als Maßstab nimmt.

Ob man das hören kann steht auf einem ganz anderen Blatt. Besonders schmunzeln lassen mich immer wieder die Behauptungen, die Impulstreue "im Baßbereich" sei besser geworden. Der Baßbereich besteht ja aus den tiefen Frequenzen, und wenn es dort Impulse gibt, dann sind sie derart harmlos daß sich die Anstiegssteilheiten derart weit weg von den Grenzen auch des digitalen Systems befinden, daß ein eventueller Klangunterschied sicherlich damit überhaupt nichts zu tun haben kann. Ob diese Leute jemals die Signalform gesehen haben die aus einer Kickdrum herauskommt? Oder aus einer Baßgitarre?

Die "Impulse", mit denen man es in der Musik real zu tun hat, sind auch für die Bandbreite eines digitalen Systems langsam genug. Und auch das Gehör ist für noch schnellere Anstiegszeiten schlecht gerüstet. Solche steilen Flanken werden schon von der Luft gedämpft, und auch das schräge Auftreffen oder Abstrahlen von Membranen in Mikrofonen, Lautsprechern, und auch dem Trommelfell des Ohrs, sorgt dafür daß Impulse verschliffen werden. Es ist also schlicht kein für die Realität relevantes Problem.


Kommentare bitte im inzwischen gewohnten Thread.

Sonntag, 29. Mai 2011

Gleiche Bits, und gleichere Bits

Inzwischen hat die Aufregung ja wieder nachgelassen, vielleicht ist das die richtige Zeit um diese Akku-Farce ein wenig aufzuarbeiten. Mit ein bißchen Distanz sieht man die Dinge vielleicht klarer, und eine kleine Chronik ist für den bequemeren Überblick der Nachwelt vielleicht auch nicht schlecht.

Was bisher (nach meinen Recherchen) geschah:
  1. Im "Colorfly-Thread" des OEF kam Otwin Maas ("lotusblüte") in Beitrag #46 mit der Anregung, gerippte Dateien miteinander zu vergleichen, und zwar zwischen Versionen die mit Akkuversorgung gerippt wurden, und solchen die mit Netzstromversorgung gerippt wurden. Er bekam sogleich Unterstützung von "Sam", der dazu einen kleinen Blindtest durchgeführt haben wollte. Wohlgemerkt: Es geht um das Rippen, also um den Transfer der Audiodaten von der CD auf Dateien im Rechner. Später abgehört, sollen sich deutliche Unterschiede vernehmen lassen, mit einer deutlichen Präferenz für die mit Akku gerippte Variante.
  2. Man beachte wie schnell die eigentlich selbstverständliche Erwiderung, daß zwei gleiche Dateien auch gleich klingen müssen, sofort in den Vorwurf mündet man wolle in Persönliches abgleiten und einen Thread kaputtmachen. Beliebigen unausgegorenen Unsinn zu posten ist in diesem Forum ok, Erwiderungen darauf müssen aber jeden Anflug von Kritik vermeiden, besonders wenn man daraus ablesen kann daß man die gehörten Phänomene für eingebildet hält. Ganz speziell wenn der Betroffene auch noch als Moderator am Drücker sitzt.
  3. Einen entsprechenden, bestätigenden Bericht verfaßte dann Franz im AHF und startete dadurch eine parallele Diskussion. Wichtiges Detail hier: Er fragte ausdrücklich die "Fachleute" nach "sachlichen" Erklärungen für dieses Phänomen. Für Leute, die mit diesen audiophilen Figuren noch nicht vertraut sind, wäre noch zu bemerken, daß sich gerade bei Franz solche Spielchen schon seit Jahren wiederholen, ohne daß auch nur ein Funke eines Erkenntniszuwachses zu verzeichnen wäre. Er hätte sonst wissen müssen daß eine solche Frage an die Techniker ziemlich sinnlos ist, so lange keine Anstrengung unternommen wurde, das Phänomen auch als real zu demonstrieren. Was es dazu bräuchte müßte auch ihm seit Jahren bekannt sein, zum Beispiel daß man in so einem Fall erst einmal überprüft ob die Dateien bitidentisch sind. Ansonsten erntet man die vorhersehbare Antwort: "Entweder Du hast beim Rippen Mist gebaut, oder Du hast Dir den Unterschied eingebildet". Bloß daß eben Franz diese absolut auf der Hand liegende Antwort genauso absolut nicht haben will. Und die Farce nimmt ihren Lauf...
  4. Bemerkenswert auch, wie z.B. Franz mit dem Begriff Blindtest umgeht. Er behauptet einfach so, Blindtests durchgeführt zu haben, ohne auch nur im Mindesten Auskunft darüber zu geben was er da getan hat und wie er vorgegangen ist. Die Möglichkeiten sind gleich Null, nachzuvollziehen ob das Ganze Hand und Fuß hat. Dabei täte man gerade bei Franz gut daran, ihm in solchen Sachen genau auf die Finger zu schauen. Zu dieser Verballhornung des Blindtest-Begriffs gibt's hier im Blog schon einen Artikel.
  5. Das Thema metastasiert. Im Colorfly-Thread selbst hört man nun auch Unterschiede zwischen verschiedenen Speicherkärtchen, ein eigener Thread zum Thema "bitgenau" beginnt mit den tiefenphilosophischen Worten "Mir fällt es jedoch schwer, zwischen bitgenau und bitgenau eine Grenze zu sehen". (Das muß ein echtes Wahrnehmungsproblem sein, meine Anerkennung für den Mut, das offen zuzugeben!). Auch in anderen Foren wird man auf das Thema aufmerksam, z.B. im Hifi-Forum, in meinem Blog-Thread, und in einem Thread über Software-Klang, der sich (zufällig?) in etwa zur gleichen Zeit aufgrund eines Artikels in der STEREO ergab. Genauso im österreichischen Pendant, wo ebenfalls im Rahmen eines Threads über den STEREO-Artikel die Akku-Rip-Thematik entdeckt wurde. Später dann noch im Forum Multichannel Professional, und womöglich an weiteren Stellen* die mir entgangen sind (Tips willkommen!).
  6. Ein "Blindtest" wird angedacht, und nach beträchtlichem hin und her gibt's dann auch Ergebnisse. Es fällt aus wie zu erwarten war, und die Reaktionen darauf auch. Das hin und her selbst ist allerdings ebenfalls interessant, weil auch Leute die sonst jedes harte Wort gegenüber Audiophilen dreifach wägen, in diesem Fall aus der Haut fahren. Und in die Falle tappen: Wer den Holocaust erwähnt, verliert. Egal wie recht er damit auch hat.
Abgesehen vom etwas morbiden und zynischen Vergnügen, das man bei der Lektüre dieser Farce hat, können wir daraus auch etwas lernen?

Mir fallen ein paar Dinge ein:
  • Wer seine eigene Wahrnehmung über alles stellt, der wird auch nicht vor den einfachsten mathematischen Tatsachen halt machen, wenn er sich seine "Realität" so zusammenbastelt daß sie diese Wahrnehmung stützt. Wenn die Wahrnehmung suggeriert daß 1+1=3 ist, dann deklariert man eben daß das "1+1=2" der bisherigen Mathematik noch nicht das letzte Wort ist. Da hilft kein Appell an den gesunden Menschenverstand, der Wahn ist stärker, selbst wenn es um eigentlich völlig selbstverständliche Dinge geht.
  • Wer seine eigene Wahrnehmung über alles stellt, der lernt nichts dazu. Alles Wissen was er sich aneignen könnte, trägt die Gefahr in sich daß es mit späteren Wahrnehmungen kollidiert und dann wieder aufgegeben (oder "relativiert") werden muß. Da kann man das Lernen gleich bleiben lassen, die Wahrnehmung ist sowieso wichtiger. Entsprechend sinnlos ist es, solchen Leuten etwas beibringen zu wollen. Selbst wenn sie eine Weile lang den Eindruck machen als würden sie die Erkenntnisse aufnehmen und integrieren, so werden sie doch bereitwillig den ganzen geistigen Plunder wieder über Bord werfen wenn sie eine neue Wahrnehmung machen. Auch das Umgekehrte kommt vor, daß sie eine unzureichend verstandene Wahrheit verallgemeinern, und an den unpassendsten Stellen zur Geltung bringen, wobei die Autosuggestionsfähigkeit die Wahrnehmung passend hinbiegt.
  • Wer seine eigene Wahrnehmung über alles stellt muß auch sein Selbstwertgefühl darauf aufbauen, und dabei kommt schnell jedes Korrektiv abhanden, was einen normalerweise auf dem Teppich hält. Was Wunder daß es dann zu so grotesken Überspitzungen kommt wie dem schon tragikomischen Extrem-Elitarismus des Highender1980 im Hifi-Forum (der allem Anschein nach mit Otwin Maas bzw. lotusblüte identisch ist). Das schlägt sogar die väterliche Großspurigkeit von Charly.
  • Wer seine eigene Wahrnehmung über alles stellt ist ein Problem für jede Moderation. Er bringt Andere mühelos zur Weißglut, einfach durch völlige Argumentations- und Erkenntnisresistenz, und braucht dazu in seinen eigenen Beiträgen keinerlei anstößigen Formulierungen zu benutzen. "Powertrolling" hat so etwas mal jemand im Hifi-Forum genannt, und ich vermute daß sich diese Masche weiter verbreiten wird, nachdem sie sich als wirksam herausstellt. Und wirksam ist sie in allen den Fällen wo die Moderation es nicht als ihre Aufgabe ansieht, eine vernünftige Diskussion zu gewährleisten, sondern lediglich zu verhindern daß es zu Unflätigkeiten kommt. Siehe den Artikel den ich kürzlich zu diesem Thema geschrieben habe. Die Hilflosigkeit der Moderation ist in meinem Blog-Thread deutlich zu spüren. Der Thread ist auf moderiert gesetzt, wird aber nicht wirklich moderiert. Es ist lediglich erkennbar daß sich die Moderatoren seeehr viel Zeit lassen bis ein Beitrag freigegeben wird, das kann fast einen Tag lang dauern.
Aber ich bin auch daran interessiert was Euch so als "die Moral von der Geschicht'" einfällt. Euer individuelles Fazit könnt Ihr hier verfassen, ich hoffe Ihr laßt Euch von der Trägheit der Moderation nicht abschrecken.

* Weitere Stellen, die mir inzwischen bekannt geworden sind: Das Piega-Forum.

Sonntag, 8. Mai 2011

Schöne Rechtecke

Audiosignale kann man im Zeitbereich oder im Frequenzbereich darstellen. Im Zeitbereich sieht man einen Wellenzug, wie man ihn typischerweise auf dem Schirm eines Oszilloskops sehen würde, oder in der Anzeige eines Sound-Editors auf dem PC. Im Frequenzbereich sieht man ein Spektrum, wo einzelne Töne als senkrechte Linien über einem Rauschteppich erscheinen.

Die beiden Darstellungen sind Sichtweisen auf die gleiche Realität, so unterschiedlich sie auch aussehen mögen. Viele Leute haben Schwierigkeiten sich die Verbindung zwischen diesen beiden Darstellungen vor dem geistigen Auge zu vergegenwärtigen. Was bedeutet eine bestimmte Wellenform für das Spektrum? Wie wirken sich Änderungen im Spektrum auf die Wellenform aus? Was hat das alles zu tun mit dem was man hört?

Solche Fragen sind sehr wichtig für das Verständnis der diversen Diagramme und Meßbildchen die man im Zusammenhang mit der Audiotechnik antrifft. Sogar Leute die immer wieder betonen daß es ihnen nur auf den Klang ankäme arbeiten überraschend oft mit solchen Darstellungen. Es hilft also nicht bloß Fachleuten wenn man sich über die Zusammenhänge ein paar Gedanken macht. Meßdiagramme findet man eben auch in Testzeitschriften, selbst wenn die im Vergleich zu den Klangbeschreibungen bloß wenig Platz einnehmen.

Darstellungen im Zeitbereich haben auf der waagrechten Achse eine Zeitskala. Für ein Sinussignal von 1 kHz braucht man eine Millisekunde um eine ganze Periode darzustellen. Eine entsprechende Darstellung werden viele Leute kennen. Ein Beispiel aus Wikipedia zeigt eine solche Periode als mathematische Funktion, auf dem Oszilloskop sieht das ganz ähnlich aus.

Im Frequenzbereich zeigt die waagrechte Achse Frequenzen. Meist ist die Darstellung logarithmisch, das heißt daß für den Bereich von 100 Hz bis 1 kHz genauso viel Platz ist wie für 1kHz bis 10 kHz. Für den Audiobereich von 20 Hz bis 20 kHz bedeutet das, daß die Mitte bei logarithmischer Darstellung etwa bei 600 Hz ist, während sie bei linearer Darstellung etwa bei 10 kHz ist. Ein Sinussignal von 1 kHz ist in der Spektraldarstellung eine vertikale Linie bei der 1 kHz-Markierung. Das sieht etwa so aus. Auffällig ist dabei daß man nicht nur eine vertikale Linie sieht, sondern eine glockenförmige Kurve. Was dahinter steckt, dazu kommen wir später. In der Theorie wäre es nur eine senkrechte Linie.

Wichtig ist, daß man sich klar macht daß beide Darstellungen das gleiche bedeuten, so unterschiedlich sie auch aussehen mögen. Das bedeutet im positiven Sinn, daß man sich für jeden Fall diejenige Darstellung aussuchen kann, durch welche das konkrete Problem besser zu erkennen und zu begreifen ist. Umgekehrt kann man das Verständnis aber auch verkomplizieren indem man eine unpassende Darstellung wählt. Erfahrenene Ingenieure haben das so weit verinnerlicht, daß sie zwischen den Bereichen nahtlos wechseln, oft ohne sich dessen bewußt zu sein. Ein Laie hat dann womöglich Probleme zu folgen, wenn nicht klar wird welcher Bereich jetzt gemeint ist. Wer von einem Spektrum redet meint üblicherweise den Frequenzbereich. Wenn jemand von Phase redet hat er üblicherweise den Zeitbereich im Sinn.

Was hat das alles mit dem zu tun was man hört?

Man muß dazu erst mal das Ohr selbst ansehen, und wie es arbeitet. Es arbeitet durchaus nicht wie ein Mikrofon, das die als Druckschwankungen in der Luft ankommenden Wellenzüge direkt in elektrische Wellenzüge verwandelt. Das Ohr produziert zwar ebenfalls elektrische Signale in den Nerven, aber die sehen völlig anders aus. Vor der Umwandlung in Nervenreize werden die Frequenzen räumlich voneinander getrennt, und zwar in der Gehörschnecke. Die Gehörschnecke ist eine Art mechanischer Spektrumanalysator, und die Sinneshärchen darin, die die Vibrationen erkennen und in Nervenimpulse umwandlen, sind dadurch jeweils auf ihre Frequenz spezialisiert. Wenn man das auf Diagramme im Frequenzbereich überträgt, dann könnte man sagen daß die waagrechte Achse eines solchen Diagramms in der Gehörschnecke aufgewickelt ist. Die tiefen Frequenzen sind weit innen zu finden, die hohen Frequenzen am Anfang der Schnecke.

Das bedeutet daß die Darstellung im Frequenzbereich näher am Ohr ist als die Darstellung im Zeitbereich. Wenn es um die Hörbarkeit oder generell um den Einfluß auf den Höreindruck geht, dann sind Darstellungen besser, die die Frequenz auf der waagrechten Achse haben. Darstellungen im Zeitbereich sind wesentlich problematischer, was den Bezug zum Gehör angeht.

Nicht umsonst sind daher viele Diagramme zu Audiogeräten im Frequenzbereich dargestellt. Bei Lautsprechern oder Mikrofonen wird der Pegel über die Frequenz aufgetragen (der "Frequenzgang"), so daß man gleich sieht ob bestimmte Frequenzen bevorzugt werden, und sich dadurch eine klangliche Charakteristik ergibt. Bei vielen Geräten trägt man über die Frequenz auf was sich aus einem Sinussignal ergibt, weil man so leicht sieht ob harmonische Verzerrungen vorhanden sind. Im Zeitbereich würde das weit schwieriger zu sehen sein.

Dummerweise ist die Darstellung im Frequenzbereich schwieriger zu kriegen wie die im Zeitbereich. Es ist heutzutage wesentlich einfacher als vor ein paar Jahrzehnten, aber auch heute ist noch das Oszilloskop, oder ähnliche Mittel, die solche Kurven anzeigen können, das bevorzugte Hilfsmittel, um Audio optisch darzustellen und zu messen. Gerade auch im Hobby-Bereich findet man schnell mal ein Oszilloskop-Bild, aber daß mal jemand einen Frequenzgang oder ein Verzerrungsspektrum mißt ist immer noch deutlich seltener.

Nun will ich bestimmt nicht gegen das Oszilloskop argumentieren. Für einen Selbstbauer wie für einen Ingenieur ist das Oszi nach dem Multimeter und dem Lötkolben immer noch und mit vollem Recht das wichtigste Arbeitsgerät auf dem Labortisch, aber das liegt daran daß es sehr gut dazu taugt in einer Schaltung Probleme aufzuspüren und herauszufinden warum sie nicht wie erwartet funktioniert. Mit klanglichen Fragen hat das erst einmal gar nichts zu tun. Klar gibt es klangliche Effekte die auch auf dem Oszilloskopschirm ihre Spuren hinterlassen, und klar gibt's in etlichen Fällen die Möglichkeit aus einem Schirmbild auf dem Oszi auf ein klangliches Problem zu schließen, aber meine Erfahrung und mein Argument ist, daß das alles andere als einfach ist, und daß dazu einige Erfahrung nötig ist, die man von Laien oder Anfängern nicht erwarten kann.

Wenn Klangdiskussionen mit Oszilloskopbildern untermauert werden ist daher immer Vorsicht oder gar Skepsis angebracht. Auf diesem Gebiet verarschen sich Leute regelmäßig selbst, oder sie verarschen Andere.

Nach dieser langen Einleitung bin ich damit bei meiner Überschrift angekommen, denn dieses Problem findet man nirgends deutlicher und eindeutiger als bei der Diskussion um die Wiedergabe von Rechtecksignalen. Egal ob es um D/A-Wandler, um Verstärker oder um andere Geräte geht, man findet fast unweigerlich Leute die mit Rechtecksignalen auf die Suche nach Problemen gehen, die sie dann für klangliche Eigenheiten verantwortlich machen. Während man mit Sinussignalen oft nichts Erwähnenswertes findet, findet man mit einem Rechtecksignal eigentlich fast immer etwas "Auffälliges". Entweder sind die Flanken, die eigentlich maximal steil sein sollten, mehr oder weniger "verschliffen", oder es gibt Überschwinger, oder die horizontalen Strecken sind schräg oder gebogen.

Die "Fehler" sehen oft ziemlich drastisch aus, und für einen Laien wird praktisch unmittelbar klar daß das erhebliche klangliche Einflüsse haben muß, wenn die Wellenform derart verbogen wird. Da ist eigentlich gar keine weitere Erklärung nötig, die bildliche Darstellung zwingt einen fast zur entsprechenden Schlußfolgerung. Sie ist aber meist falsch.

Mit verschliffenen Flanken assoziiert man z.B. gerne Probleme im Impulsverhalten oder der "Präzision" oder der "Schnelligkeit" der Anlage. Einfach weil das nahe zu liegen scheint. Es gibt aber keine "hard facts" die das bestätigen würden. Es ist eine "Selbstverständlichkeit", die sich aus der optischen Darstellung nahelegt, aber nicht aus dem Klang selbst. Die suggestive Kraft des Bildes wirkt da, mit dem Ohr hat es nichts zu tun.

Ein schönes Rechteck braucht vor allem eine große Bandbreite. Die Beziehung zwischen dem Zeitbereich und dem Frequenzbereich wird mathematisch beschrieben durch die Fouriertransformation. Wenn man die für ein Rechtecksignal ausführt stellt man fest daß im Rechtecksignal nicht bloß die Grundfrequenz drin ist, sondern auch die "ungeraden Oberwellen" bis ins Unendliche (siehe hier z.B. eine Darstellung eines Spektrumanalysators, diesmal mit linearer Frequenzachse anstatt der üblichen logarithmischen Darstellung, weil damit die Oberwellen gleiche Abstände voneinander haben). Also die dreifache Frequenz, die fünffache, und so weiter. Das Rechtecksignal hat ein unendliches Spektrum, und da ein reales physikalisches System immer eine begrenzte Bandbreite hat kann ein ideales Rechtecksignal nicht physikalisch realisiert werden. Je näher man ihm kommen will, desto größere Frequenzbereiche muß man abdecken, und schnell ist man weit jenseits des Bereiches der für Audio eigentlich nötig wäre. Das Ohr hat für solche Frequenzen einfach keine zuständigen Sinneshärchen mehr, ob sie da sind oder nicht spielt folglich keine praktische Rolle. Es geht dann um reine Rechteckkosmetik.

Während man bei einem Verstärker noch relativ problemlos "überschüssige" Bandbreite spendieren kann, ohne daß das großen Aufwand oder große Probleme zur Folge hätte, macht die Sache bei der digitalen Audiotechnik wesentlich größere Schwierigkeiten. Die digitale Audiotechnik basiert auf dem Prinzip daß die Signalbandbreite auf den Audiobereich begrenzt ist. Diese Bedingung ist absolut fundamental für die Technik, und beruht auf Gesetzmäßigkeiten die lange vor der praktischen Anwendbarkeit schon theoretisch durchdrungen und bekannt waren. Mehr als die halbe Abtastfrequenz ist nicht drin, in der Praxis sogar etwas weniger. Darum ist z.B. bei der CD mit ihren 44100 Hz Abtastfrequenz nicht viel mehr als 20 kHz drin, egal was man macht.

Unter solchen Bedingungen ist die bestmögliche Annäherung an ein Rechtecksignal dadurch zu erreichen daß man angefangen mit der Grundwelle alle ungeraden Oberwellen im richtigen Verhältnis kombiniert, und unterhalb der halben Abtastfrequenz abbricht. Ein Rechteck mit 1 kHz würde dann aus einer Addition der folgenden Sinuskurven bestehen: 1 kHz, 3 kHz, 5 kHz, 7 kHz ... 21 kHz. Wirklich rechteckig ist das noch nicht. Besser geht's aber nicht, und alle Versuche dem Rechteck noch näher zu kommen enden in Verstößen gegen das Grundgesetz der Digitaltechnik. Für das Gehör hat das auch keine Relevanz. Auch Phasenverschiebungen zwischen den Oberwellen können die Wellenform stark verbiegen, ohne daß das einfach so hörbar wäre.

Eben deswegen sind Rechteck-Oszillogramme so populär bei Befürwortern der NonOS-D/A-Wandler, die im Grunde nichts richtig machen außer daß sie schöne Rechtecke für das Oszilloskop ausspucken. Für das Oszilloskop, wohlgemerkt, und nicht für das Ohr. Das Ohr hat keinen Sinn für Rechtecke. Nur ein Beispiel aus vielen, wo Rechtecksignale zur Verteidigung und Rechtfertigung von NonOS-Wandlern benutzt werden ist hier zu finden (runterscrollen bis etwa zur Mitte der Seite). Es ist auch die einzige Möglichkeit, NonOS-Wandler meßtechnisch in einem guten Licht darzustellen, denn andere Messungen, die relevanter für Audio wären, fallen übel aus. Das Beispiel zeigt auch gleich noch die suggestive Argumentation die sich daran anschließt. Unmittelbar nach dem Oszilloskopbild liest man:
"So the idea behind all this is, that if the transients are more precise in time and not smeared around, the stereo image will be more in focus and more pin point."
Den Rest erledigt dann der "Confirmation Bias", denn die dergestalt "informierten" Nutzer achten verstärkt auf den Fokus des Stereobildes, und weil sie mehr darauf achten kommt es ihnen auch so vor als wäre er nun besser. Was dann wiederum als Beweis dafür hergenommen wird daß die "Idee" stimmt. Die Idee hat sich in eine selbsterfüllende Prophezeihung verwandelt.

Bevor ich angefangen habe den Artikel zu schreiben ging mir deshalb als Überschrift der Begriff "Rechtecklüge" durch den Kopf. Reißerischer wäre er gewesen, und oft genug dienen die Rechtecke ja auch genau dazu, eine Lüge zu untermauern, aber noch öfter ist es einfach eine Täuschung, der man erliegt weil der Blick auf etwas gerichtet wird, das nicht die Bedeutung hat die man aus der bildlichen Darstellung vermuten würde. Ich will auch nicht so weit gehen und das Streben nach sauberen Rechtecken in Audiogeräten prinzipiell zu verdammen. Ein Gerät, das ein Rechteck sauber überträgt, kann vom Frequenzgang her nicht gar so weit daneben liegen. In den Händen von Fachleuten kann es daher nützlich sein, mit Rechtecksignalen zu messen um bestimmte Aspekte des Gerätes zu studieren und ggf. zu verbessern. Vor den Augen des Laien haben solche Bildchen aber nichts zu suchen, denn die werden sie falsch interpretieren. Genau deswegen werden sie von den Scharlatanen der Branche so gern gezeigt.

Bevor ich hier Schluß mache ist noch ein Wort zu den Spektraldarstellungen angesagt, speziell warum die nicht einfach vertikale Linien haben, sondern glockenartige Kurven. In der Regel ist das ein Artefakt der Meßmethode. Je genauer man eine Frequenz messen will, desto feiner muß man filtern, oder desto länger muß man messen. Eine ideale vertikale Linie für eine bestimmte Frequenz im Spektraldiagramm würde eine unendliche Meßdauer erfordern. So viel Geduld haben die meisten Leute nicht, und für reale Meßaufgaben ist solche Perfektion auch gar nicht nötig. In die Breite der Glockenkurve spielen etliche Faktoren hinein, und es wäre interessant das im Detail aufzudröseln, weil man dabei auch was über die Meßmethoden und die dahinter stehenden physikalischen Gesetzmäßigkeiten erfährt, aber für diesen Artikel hier wäre das stark übertrieben. Ob ich dazu in einem späteren Artikel Lust habe wird sich zeigen müssen.


Für Eure Kommentare gilt das Übliche.

Freitag, 29. April 2011

Bullshit-Multiplikatoren

Mein Blog ist unwichtig, vernachlässigbar, nicht ernstzunehmen. Man brüstet sich, ihn entweder gar nicht erst zu lesen, oder spätestens nach drei Absätzen gelangweilt aufzuhören. Und zur Bekräftigung kürzt man sogar mein Pseudonym auf den ersten Buchstaben ab, was aber immer noch als zu viel betrachtet wird.

In der Folge meines letzten Artikels im Blog hier bemühen sich ein paar Teilnehmer nun schon auf der vierten Seite eines Threads im AHF, mein Blog nicht zu diskutieren. Was sich aber offenbar als schwierig erweist. Wer eigentlich lieber Tiefschläge austeilen würde, der kann sich offenbar nur schwer an seinen eigenen Rat halten, zu schweigen.

Da werden die übelsten psychologischen "Expertisen" zu meiner Person vorgestellt, und es wird über die kommunikative Metaebene geschwafelt, auf der man, wenn man das ganze aus einer nüchternen Distanz betrachten würde zu der dort kaum einer fähig zu sein scheint, deutlich sehen würde daß dort Projektionen und grobschlächtigste Immunisierungsversuche fröhliche Urständ feiern. Die Hauptsache scheint zu sein: Sich ja nicht mit dem Inhalt des Blogs beschäftigen! So tun als gäbe es gar keinen Inhalt, oder wenigstens keinen von irgendeiner Relevanz! Am Besten man beschuldigt mich genau der Niederträchtigkeiten die man selbst im Begriff ist zu begehen.

Eine bessere Bestätigung daß ich mit meiner Kritik auf einen wunden Punkt getroffen habe hätte ich kaum bekommen können. Das Pfeifen im Walde ist nicht zu überhören.

Ich könnte zufrieden sein, daß die Sachlage dadurch so deutlich geworden ist, aber ich möchte noch den Blick darauf lenken wie viele Meinungs-Multiplikatoren an dieser Komödie beteiligt sind. Von den Leuten die da meinen Charakter so unvorteilhaft portraitieren sind mindestens drei als Redakteur oder Chefredakteur an der Zeitschrift Hifi-Stars beteiligt. Und obwohl unberechtigterweise mir der Vorwurf gemacht wird, ich würde die Foren abgrasen, sind es die dortigen Teilnehmer denen man regelmäßig in den verschiedensten Foren begegnet. Auch hier wirft man mir vor was man in Wirklichkeit selbst betreibt.

Nun will ich die Bedeutung und den Einfluß von Hifi-Stars nicht überbewerten, es ist ein Nischenblättchen, aber dennoch handelt es sich um Multiplikatoren, und wenn man sich ansieht was für eine Argumentation diese Leute gerade im aktuellen Fall abliefern, dann ist schon die Frage ob man so einen Bullshit auch noch multipliziert haben will.

Nehmen wir mal Winfried Dunkel, den Chefredakteur, und lassen wir mal die Auslassungen zu meiner Person gnädigerweise beiseite. Was übrig bleibt ist immer noch verantwortungloser Mist, der einem Chefredakteur eigentlich zur Unehre gereichen sollte:
"Wer Jitter nicht bemerkt, dürfte noch nie Musik live erlebt, niemals ein Instrument real gesehen und gehört haben. "Toll, wie die auf den Geigen blasen" - das scheint mir der musikalische Background der P-Blogger zu sein... Sollen sie doch weiter ihre erkenntnisfreien geistigen Abwässer runtertippen - uns muß das nicht berühren."
Abgesehen davon daß er zeigt daß Ihn das eben doch berührt, ist das ein derart lächerlich unlogischer Stuß daß man sich fragt ob der Mann noch bei Trost ist.

Es scheint ihm nicht aufzugehen daß Jitter bei Livemusik überhaupt nicht auftritt. Wie sollte man da dann Jitter bemerken? Oder will er damit sagen daß ein Unterschied zwischen dem Klang von Livemusik und dem von Konservenmusik immer auf Jitter zurückzuführen ist? Das wäre genauso unsinnig. Was Dunkel da zusammentippt ist ein derart verständnisloser und ressentimentgeschwängerter Kopfsalat, daß zu wünschen wäre daß die Hifi-interessierte Öffentlichkeit davon verschont bleibt, und das sogar auch in seinem eigenen Interesse, wenngleich er das vielleicht nicht so wahrnimmt.

Dunkel ist eines der Beispiele des Phänomens aus meinem letzten Artikel, wo Leute davon überzeugt sind daß sie wüßten wie Jitter klingt. Dabei würde ich jederzeit wetten daß Dunkel noch kein einziges Mal tatsächlich Jitter gehört hat, also etwas gehört hat wo die Klangverfälschung die er gehört haben will tatsächlich den Jitter als Ursache hat. Ich behaupte daher: Er hat in Wirklichkeit keine Ahnung wie Jitter klingt. Er hat keine Ahnung ob das was er gehört hat tatsächlich etwas mit Jitter zu tun hat. Er hat noch keine Anstrengungen unternommen, diesen Zusammenhang auch wirklich nachzuweisen, und andere Ursachen auszuschließen. Er hat wahrscheinlich auch keinen Jitter gemessen. Er hat allenfalls Geräte vergleichsgehört, von denen er geglaubt hat daß ihr Jitter unterschiedlich ist (weil z.B. der Hersteller das so angibt), und weil diese Hörtests wohl kaum glaubwürdig verblindet waren, kann er noch nicht einmal sicher sein ob die Klangunterschiede überhaupt vorhanden waren. Und sollten sie wirklich vorhanden gewesen sein weiß er nicht sicher ob es dafür nicht eine andere Ursache gegeben hat als den Jitter. Seine Überzeugung beruht offenbar auf Glaube und audiophiler Hybris, und er hat anscheinend sogar Probleme das Phänomen Jitter in eine halbwegs schlüssige Argumentation zu integrieren, jedenfalls wenn man seine oben zitierten Aussagen als Maßstab nehmen will.

Wäre er ein einfacher Privatmann, der seine Ansichten in Foren, Blogs, Leserbriefen oder dergleichen unter's Volk bringt, dann wäre das ein vergleichsweise kleines Problem. Er ist aber ein Multiplikator in der Branche und hätte seiner größeren Wirkung entsprechend auch eine größere Verantwortung. Davon ist aber nichts zu merken.

In so einem Zusammenhang wird dann auch die im letzten Artikel angesprochene Verantwortung des Technikers größer. Seine Fehlleistungen werden unter solchen Umständen ziemlich schnell auch noch über seinen unmittelbaren Einflußbereich hinaus multipliziert. Der Redakteur der Hifi-Postille legitimiert seinen eigenen Stuß mit dem Stuß des Fachmannes. Im Grunde ist das ähnlich wie die Sache damals mit den Verstärkermessungen von Stereoplay, wo man auch mit allen Mitteln versucht hat eine schon im Ansatz unsinnige Messung seriös aussehen zu lassen, indem man sich auf die Fachleute im Meßlabor abgestützt hat.

Zwei Parteien ergänzen sich so auf eine ziemlich unselige Weise, nämlich die der "audiophilen Techniker", und die der "audiophilen Multiplikatoren". Dem Laien gegenüber versucht man damit mit einigem Erfolg eine Seriosität vorzugaukeln, die in Wirklichkeit nicht vorhanden ist. Der so produzierte Bullshit wird dann gleich noch multipliziert. Von den Redakteuren bin ich das gewohnt, das gehört inzwischen anscheinend zu ihrem Selbstverständnis, aber ich habe immer noch Probleme damit wenn "Techniker" als Zulieferer für diese Farce auftreten, die es eigentlich besser wissen könnten und müßten


Hier könnt Ihr kommentieren, wenn Ihr wollt.

Freitag, 22. April 2011

Techniker im audiophilen Soziotop

Daß man als "Techniker" von audiophiler Seite "vereinnahmt" wird ist sogar mir selbst schon passiert, trotz meiner eher konfrontativen Art. Charly versuchte z.B. mal eine Weile lang, mich quasi als Kabelklang-Kronzeugen heranzuziehen, weil ich mal einen Artikel schrieb in dem ich für Kabelklang die Störströme verantwortlich machte, die durch Masseschleifen zustande kommen können. Tenor von Charly: Kabelklang gibt's doch, seht her, selbst pelmazo bestätigt das!

Daß ich mit diesem Artikel damals zeigen wollte daß es sich eben nicht um Kabelklang handelt, sondern daß die Ursache ganz woanders liegt, fiel dabei unter den Tisch. Ich weiß seither wie dringend manche Audiophilen bestrebt sind, ihre eigenen Hirngespinste dadurch zu "rechtfertigen" daß sie nach Technikern suchen, die sie "adoptieren" können. "Gute" Techniker also, die die eigenen Ansichten zumindest scheinbar bestätigen, im Gegensatz zu "schlechten" Technikern, die sie widerlegen.

Nicht allen ist eine solche Adoption allerdings so zuwider wie mir. Manche sind dafür vielleicht einfach zu harmoniebedürftig, und lassen den Audiophilen lieber ihr Pläsir anstatt gegen die verzerrten Darstellungen einzuschreiten. Manchen ist es anscheinend wichtiger, von einer kleinen Schar audiophiler Anhänger gebauchpinselt zu werden, als ihre eigene Seriösität aufrechtzuerhalten. Manchen geht's wohl auch einfach darum, ein Geschäft zu machen.

Anschauungsmaterial dazu gab's in jüngerer Zeit wieder mal reichlich, am Beispiel von "fortepianus" und seiner Tuningmaßnahme an einem Streaming-Player, mit der die leidige Jitter-Diskussion wieder neue Nahrung bekommen hat. Zum Jitter-Thema habe ich technischerseits hoffentlich schon genug geschrieben, z.B. hier und hier, und im Grunde ist das beschriebene Tuning auch nichts Anderes als das was so gut wie jeder Tuner tut, nämlich eine Mücke zum Elefanten aufzublasen und dann zu behaupten daß das Ergebnis per Gehör erfaßt werden müsse und sich der Meßbarkeit entzieht. Eine kleine Schar von Anhängern findet sich eigentlich immer, die das dann auch tatsächlich deutlich gehört haben wollen.

Ich will das nicht nochmal durchkauen, stattdessen soll hier interessieren, worin wohl die Motivation eines "Technikers" besteht, sich auf so etwas einzulassen. Schließlich kann man sich damit auch höchst lächerlich machen.

Man kann fortepianus ein recht gutes Verständnis der Jitterthematik kaum absprechen, was ihn aber nicht daran hindert ziemlichen Unsinn von sich zu geben. Die für mich spannende Frage ist bei so etwas immer wieder, wie weit dem Betreffenden das bewußt ist, also ob er sich damit selbst täuscht oder die Anderen.

So schreibt er in einer Liste von Thesen zu Jitter nach 3 im Wesentlichen korrekten Punkten im vierten Punkt dies:
"4. Wackelt dieser Takt z. B. mit einer Frequenz von 50Hz, wird jeder Ton, der vom DAC analog rausgeschrieben wird, ein Seitenband bei seiner Frequenz plus 50Hz und minus 50Hz haben. Zu deutsch: Einem reinen Sinus mit 1kHz wird zusätzlich ein Sinus von 1,05kHz und einer mit 0,95kHz zur Seite gestellt. Was nicht gerade harmonisch klingt. Die Größe der Nebentönchen hängt direkt von der Amplitude des Jitters ab. Je mehr Jitter, desto mehr Nebendreck. Da der Jitter in der Regel keine feste Frequenz hat, sondern ein ganzes Spektrum, gesellt sich zu einem ins Analoge gewandelten Ton eine Art Hof drum rum - das ist der typische verpönte Digitalklang, unsauber, scharf, verzischte Sibilanten, flach."
Das mit den Seitenbändern stimmt, aber was den klanglichen Effekt angeht ist er völlig im Wilden. Zwar gibt er keine Größenordnungen an, aber eine Modulation mit 50 Hz in einem Taktgeber wie man ihn in normalen Digitalgeräten findet ist zwangsläufig sehr gering. Dagegen müßte aufgrund der gehörmäßigen Maskierungseffekte die Amplitude der Modulation in diesem Fall sogar recht groß sein um bemerkbar zu sein. Gerade bei "Nebentönchen", die derart nahe am Grundton liegen, ist also die Hörbarkeit besonders gering. Das bedeutet daß das Gehör für niederfrequenten Jitter weitaus unempfindlicher ist als für höherfrequenten Jitter. Das ergibt sich sowohl aus theoretischen Überlegungen als auch aus praktischen Versuchen.

Zudem weiß man ebenfalls aus theoretischen Überlegungen wie aus praktischen Versuchen, daß man Jitter noch am ehesten bemerkt, wenn man speziell dafür optimierte Testsignale benutzt, und eben nicht wenn man einfach Musik nimmt. Benjamin/Gannon fanden in ihrer Untersuchung beispielsweise heraus, daß nur wenige Musikbeispiele dafür überhaupt brauchbar waren, allesamt von Soloinstrumenten, und daß selbst da der Jitter zehn mal stärker sein mußte um hörbar zu werden als bei speziellen Sinus- und Jittersignalen.

Dagegen will fortepianus von irgendwoher wissen daß gerade daraus der angeblich typische Digitalklang resultieren soll. Ich glaube er hat nicht die geringste Vorstellung davon wieviel Jitter es braucht bis er selbst hört daß ein Musikstück dadurch unsauber, flach und scharf wird. Ich wette er hat das genausowenig seriös ausprobiert wie die vielen anderen seiner Diskussionspartner, die auch genau zu wissen vorgeben wie Jitter klingt. Fujak ist z.B. so ein Kandidat, der hier sogar mit Zahlen aufwartet, ohne daß erkenntlich wäre woher sie kommen, realistisch sind sie jedenfalls nicht.

Der nächste Punkt ist auch nicht besser:
"5. Der Jitter muss also vor dem DAC weg. Dazu gibt's allerlei Verfahren der Neutaktung. Wie auch immer diese durchgeführt wird (wenn überhaupt), hat sich das Problem herauskristallisiert, dass man den Jitter mit diesen Methoden (Neutaktung durch z. B. Big Ben, asynchrone Sampleratenkonverter etc.) leider nie ganz weg kriegt. Der Grund ist, dass der Takt eine recht hohe Frequenz im MHz-Bereich hat - jedes Stückchen Draht, jede Leiterbahn und jedes Bauteil wirkt als eine kleine Antenne, die sowohl senden wie auch empfangen kann. Das nennt man Übersprechen. Auch wenn man neu taktet, wird also der alte Wackeltakt auf den neuen etwas übersprechen. Was den neuen Takt wieder etwas wackeln lässt, wenn auch weniger, als den alten - gesetzt den Fall, dass der neue Takt besser ist als der alte."
Das ist ein roter Hering. Es gibt ohnehin keinen jitterfreien Takt, der Versuch einen jitterfreien Takt zu erzeugen oder wiederzugewinnen ist also von vorn herein vergeblich. Es ist aber auch gar nicht nötig. Wichtig ist, ob der Jitter niedrig genug ist für die gegebenen Anforderungen. Und das kriegt man auf die verschiedensten Arten hin, einschließlich der Neutaktung, auch im Beisein von Übersprechen. Was zählt ist was hinten rauskommt.

Charakteristisch bei solchen Argumentationsweisen ist die Vermeidung jeder quantitativen Diskussion, und damit die Beförderung der Suggestion beim unbedarften Leser, die erwähnten Effekte müßten bedeutend sein und schwierig zu beherrschen. So ist das aber nicht. Klar gibt es alle diese Effekte, wie Übersprechen und datenabhängiger Jitter. Die Existenz streitet niemand ernsthaft ab. Es geht immer um die Größenordnungen, ab denen die Effekte relevant werden, denn einen irrelevanten Wert noch weiter zu verbessern ist aus klanglicher Sicht unnütz, wenngleich er den technischem Ehrgeiz noch immer herausfordern kann.

Diesen technischen Ehrgeiz kann ich gut nachvollziehen, und ich habe insofern auch mit fortepianus eine gewisse Sympathie. Mein eigener Ansatz geht aber eher dahin, wie weit man solche Faktoren wie Jitter in einem gegebenen System verbessern kann, auch über das nötige Maß hinaus, ohne daß man es dadurch merklich teurer macht. Das ist in meinen Augen die eigentliche Ingenieurskunst. Klotzen kann jeder, und wenn man sinnlos klotzt wird's peinlich.

Was ich dagegen nicht nachvollziehen kann, und worauf ich allergisch reagiere, ist diese zur Schau getragene Sicherheit was die klanglichen Auswirkungen angeht. Keiner prüft auch nur ansatzweise nach inwiefern die Effekte tatsächlich auf den Jitter zurückzuführen sind, noch nicht einmal die bloße Einbildung wird glaubwürdig ausgeschlossen, und das allen über Jahre hinweg bis zum Erbrechen durchdiskutierten Einflußfaktoren zum Trotz. Diese systematische Verdrängung und Verweigerung ist vielleicht das eindeutigste Indiz dafür wenn jemand, ob ansonsten "Techniker" oder nicht, die professionelle Vorsicht ad acta legt und sich den audiophilen Hirngespinsten hingibt.

Aber vielleicht ist das auch nur so weil es sich lohnt. Im Falle der Tuningmaßnahmen von fortepianus scheint der Hype inzwischen groß genug zu sein um diesen Faktor nicht ganz unbedeutend erscheinen zu lassen, besonders wenn stimmt was schon im Januar geschrieben wurde, nämlich daß bereits über 50 solcher Tunings durchgeführt worden sein sollen. Bei Einzelkosten von mehreren Hundert Euro macht das einen Gesamtumsatz der nicht mehr so recht als reines Hobby durchgeht.

Ob sich das genug lohnt um seine Seriösität dafür auf's Spiel zu setzen ist eine andere Frage.


Hier ist der Platz für Kommentare.

Sonntag, 3. April 2011

Strahlen und Reflexe

Es ist viel passiert seit meinem letzten Beitrag hier im Blog. Die Bilder der Naturkatastrophe in Japan haben mich ziemlich erschüttert, aber nach einer Weile geht der Verstand dann doch wieder in den Normalbetrieb über, und die emotionale Überwältigung macht Platz für nüchternere Gedanken darüber was da eigentlich passiert ist und noch passiert, was das für uns und für die Welt bedeutet, und welche Schlüsse man daraus ziehen soll.

Für's Erste aber scheint mir daß anstatt der nüchternen Überlegung eher die Reflexe Hochkonjunktur haben. Schon ehe die Erde in Japan bebte war mir das auf den Senkel gegangen, denn ich hatte es mit Leuten zu tun, die bei der Lektüre meines letzten Blog-Beitrags nicht über den ersten Satz hinaus gekommen waren, und offenbar meinten das reiche schon für eine Beurteilung.

Das wurde dann schnell von größeren Fragen überschattet, als die Katastrophe über Japan hereinbrach. Wie im Kleinen so im Großen, zumal in der Politik. Wieder Reflexe wo man hinschaut. Wobei ich die aus dem Volk diesmal für gar nicht so besorgniserregend halte wie die aus der Politik. Es hat zwar eine ziemlich heftige Gewichtsverschiebung bei den kürzlichen Landtagswahlen gegeben, aber wenn man sich die Ergebnisse genauer anschaut, dann scheint das Ausschlaggebende gewesen zu sein daß eine größere Zahl von Leuten zur Wahl gegangen sind, die letztes Mal nicht hin gegangen waren. Die Wähler, die von einer Partei zur anderen gewechselt haben waren viel weniger.

Das paßt zur Tatsache daß in Deutschland auch schon vor dem Erdbeben in Japan eine mehrheitliche Ablehnung der Kernkraft da war, und daß wohl viele Leute einfach an der Politik verzweifelt sind, die nicht dazu zu kriegen war die Energiewende auch konsequent anzupacken. Kaum hatte man mal (nach Jahrzehnten der Diskussion!) einen konkreten Ausstiegsplan, und der Ersatz durch alternative Energiequellen ging sogar besser voran als gedacht, da dreht eine neue Regierung das Rad wieder zurück und gewährt Laufzeitverlängerungen. Daß sich da Leute von der Politik und von Wahlen abwenden wundert mich nicht. Fukushima hat daher womöglich im Volk gar kein so großes Umdenken bewirkt, aber es hat Leute mobilisiert, ihrem auch vorher schon vorhandenen, frustrierten Willen mehr Geltung zu verschaffen. Man sollte nicht vergessen daß das Thema in Deutschland seit über 30 Jahren köchelt.

Ich denke das ist der Hintergrund für die Reflexe, die man besonders bei den Regierungsparteien in Stuttgart und Berlin in den letzten Wochen beobachten konnte. Aber sie haben sich damit eben auch keinen Gefallen getan, denn sie haben damit demonstriert wie zynisch sie mit dem Wählerwillen umgehen. Daß sie in Sachen Kernkraft viele Jahre lang gegen den expliziten Willen des Volkes agiert und entschieden haben, und der Wille des Volkes in diesem Themengebiet bloß in Sonntagsreden vorkam. Und daß ihnen das klar war zeigt die hektische 180°-Wende auch. Sie wußten daß das Thema zu weit nach vorn gerückt war um von anderen Themen überschattet zu werden, und daß sie mit der bisherigen Strategie nicht mehr würden reussieren können.

Ich meine sie wären besser beraten gewesen sie hätten dem Reflex widerstanden und hätten den bisherigen Kurs erst einmal beibehalten. Sie hätten die Wahlen vielleicht noch ein wenig krasser verloren, aber hätten sich wenigstens einen Rest Glaubwürdigkeit bewahrt oder auf längere Frist gar zurückerobert.

Jetzt müssen sie auf Teufel komm raus eine neue Faktenlage postulieren, die es im Grunde überhaupt nicht gibt. Jedenfalls keine neue sicherheitstechnische Faktenlage, und genau damit wurde ja das dreimonatige Moratorium begründet. Die Kernkraftwerke sind so sicher oder unsicher wie vorher auch. Und man kann nicht so tun als wäre es einem erst jetzt eingefallen nach Szenarien zu suchen in denen die bisher vorgesehenen Sicherheitsmechanismen versagen. Gerade in Deutschland diskutiert man darüber schon seit Beginn der Auseinandersetzungen um die Atomkraftwerke. Wir wissen schon lange daß es Szenarien gibt, bei denen unsere eigenen Kraftwerke versagen würden. Die interessante Frage ist eher, welche dieser Szenarien gesellschaftlich toleriert werden können und welche nicht.

Eine neue Faktenlage liegt höchstens beim Thema dieser Toleranz vor. Man könnte behaupten daß mit dem Unglück in Japan eine Verschiebung der gesellschaftlichen Toleranz eingetreten ist. Aber selbst das würde ich in Frage stellen. Ich glaube die Gesellschaft hat auch schon vor dem Fukushima-Unglück keine Toleranz für solche Risiken gehabt. Fukushima hat bloß vorgeführt, daß die Risiken real sind, und nicht bloß eine abstrakte Zahl auf dem Papier irgend einer Studie.

Es kann daher gut sein daß der Moratoriums-Reflex außer der Glaubwürdigkeit der Politiker auch noch einen Haufen Geld kosten wird, denn wenn ein Gericht entscheidet daß es keine ausreichende Änderung der Faktenlage gegeben hat, dann steht den Kraftwerksbetreibern Schadenersatz zu, und den muß letztlich die Allgemeinheit zahlen.

Mehr noch als das macht mir jedoch Sorgen, daß mit der Moratoriums-Argumentation im Grunde der Versuch verbunden ist, das Thema Reaktorsicherheit - wie schon so oft - zu einem technischen Problem zu erklären. An dieser Stelle trifft sich die Sache mit einem anderen Reflex in der Gesellschaft, der das Versagen einer technischen Anlage gleich zum Versagen der Technik (oder gar der Wissenschaft) erklären will. Ich halte das für fatal, und geradezu für eine Ursache solcher Probleme. Und zwar nicht deswegen weil ich Technik und Wissenschaft für fehlerfrei halten würde, das sind sie bestimmt nicht, sondern weil man dadurch dazu neigt, die Augen vor noch viel wichtigeren Problemen zu verschließen. Und bei der Kernkraft sind diese anderen Probleme in meinen Augen viel wichtiger.

Reaktorsicherheit ist zwar durchaus auch ein technisches Problem. Aber bei der ganzen Diskussion muß man sich im Klaren sein daß selbst simple technische Systeme nicht völlig sicher sein können. Es gibt bei Allem ein "Restrisiko", von dem man oft noch nicht einmal genau sagen kann wie groß es ist. Z.B. leben wir in Deutschland wohl fast alle in Häusern, die ein Beben wie das in Japan nicht überstehen würden. Würde so etwas bei uns passieren, dann hätten wir es mit Sicherheit mit zahlreichen Todesopfern zu tun. Wir glauben aber dieses "Restrisiko" eingehen zu können, weil wir in einer seismisch weniger problematischen Region leben. Vorher wissen kann man's aber nicht, wie man immer wieder sieht.

Man könnte natürlich erbebensicherer bauen, das wäre eine technische Lösung für das Problem. Man muß dazu bloß festlegen, für welchen Fall man die Häuser auslegen will, und kann dann für diesen Fall das Haus ausreichend stabil machen, so daß es stehen bliebt und die Leute darin nicht umbringt. Im Grunde bedeutet das, daß man das Haus für ein "Größtes Anzunehmendes Beben", ein GAB, sicher macht.

Daran machen sich zwei sehr wichtige Dinge fest, die man bei jeder Diskussion um technische Sicherheit im Auge behalten muß, die aber offenbar in der öffentlichen Diskussion nicht zur Geltung kommen - ich habe sogar oftmals den Eindruck daß damit sogar die Journalisten überfordert sind:
  • Die Entscheidung darüber, was man als die maximale "Belastung" annimmt für die man die technische Konstruktion auslegen will, ist willkürlich. Es gibt keine natürliche Grenze die sich automatisch anbieten würde. Irgendwo muß man bewußt die Grenze ziehen, und das heißt auch daß sie irgendwer ziehen muß. Dieser Irgendwer hat Interessen, und diese Interessen werden zwangsläufig in die Entscheidung einfließen.
  • Technische Sicherheitsmaßnahmen kosten Geld. Womöglich sogar sehr viel Geld. Da Geld nicht beliebig vermehrbar ist, stellt sich immer die Frage der möglichst sinnvollen Verwendung der vorhandenen Mittel. Das Geld was man an einer Stelle investiert, hat man an anderer Stelle nicht mehr zur Verfügung. Geld das man in Sicherheitstechnik investiert hat produziert erst einmal nichts. Ein Haus das für ein Beben der Stärke 9.0 ausgelegt wird, ist viel zu teuer wenn so ein Beben niemals auftritt. Bis zu welchem Punkt kann man da von jemandem verlangen daß er sein Geld auf diese Weise "unproduktiv" ausgibt? Produktiv wird das Geld im Grunde nur dann wenn der "Auslegungsfall" auch tatsächlich eintritt, was weder wünschenswert noch besonders wahrscheinlich ist.
Man hätte die japanischen Reaktoren bestimmt auch so bauen können daß sie das jüngste Erdbeben und den darauf folgenden Tsunami überstanden hätten. Sie hätten dann bloß wesentlich mehr Geld gekostet. Für mich bedeutet das, daß die Reaktorsicherheit letztlich eben kein technisches Problem ist, sondern ein gesellschaftliches Problem. Man tut sich überhaupt keinen Gefallen wenn man es in der Diskussion zu einem technischen Problem macht. Und dazu noch tut man der Technik bzw. den Technikern damit unrecht.

Ein GAU ist der "größte anzunehmende Unfall", was darauf hindeutet daß es ein Fall ist mit dem man rechnet, und für den man die Anlage technisch auslegt. Die Katastrophe ist das folglich noch nicht.
Erst ein noch größerer Unfall bringt dann die Katastrophe, und den nennt man hierzulande salopp den "Super-GAU", ein Begriff der nicht auf ungeteilte Gegenliebe stößt. Egal wie man's nennt: Diese zwei Begriffe, bzw. das was sie bedeuten, trennt eine Linie die irgendwer einmal mehr oder weniger willkürlich gezogen hat. Wo diese Linie hingehört, ist meiner Meinung nach eine zu wichtige Frage als daß man es Gutachtern und Spezialisten überlassen könnte, denn das ist keine technische Frage, sondern eine der gesellschaftlichen Akzeptanz und gehört vor diesem Hintergrund diskutiert.

Wer das liest könnte dem Reflex verfallen, ich wäre ein Kernkraftbefürworter. Daß man mir das zutrauen würde bezweifle ich nicht, schließlich texte ich ja auch sonst öfter gegen den Trend und die "politische Korrektheit". Aber ich bin schon vor 30 Jahren in Menschenketten gegen Atomkraft gestanden und habe meine Meinung seither auch nicht wesentlich geändert. Die technische Sicherheit oder Unsicherheit der Reaktoren steht dabei für mich allerdings nicht im Vordergrund, Tschernobyl und Fukushima zum Trotz, die sich beide seither ereignet haben. Ich lehne die Kernkraftnutzung vor allem aus zwei Gründen ab, die mit der Technik eher indirekt zu tun haben:
  • Die Problematik der radioaktiven Abfälle. Ich halte dieses Problem nicht für zufriedenstellend lösbar, und ich halte es für unverantwortlich die Nachwelt mit so etwas zu belasten.
  • Ich halte diese Technik für gesellschaftlich nicht tragbar.
Während ich zum ersten Punkt nichts weiter zu sagen brauche, muß ich den zweiten wohl etwas genauer erklären:

Man kann bei jeder technischen Anlage zwar ein bestimmtes Maß an Sicherheit oder Robustheit gegenüber abnormen Belastungen einbauen. Das macht die Anlage aber nicht automatisch sicher. Es kommt immer auch darauf an wie sich die Betreiber der Anlage verhalten. Damit meine ich das Betriebspersonal, aber durchaus auch die Besitzer der Anlage, und das Management.

Das Betriebspersonal verliert womöglich über die Jahre, wenn die Routine sich einschleift, den Blick für die Risiken, und es schleichen sich Unvorsichtigkeiten, Schlamperei und Bequemlichkeit ein. Prozeduren werden "abgekürzt", Fehler weniger ernst genommen als es nötig wäre, Vorschriften werden "kreativ" ausgelegt. Wer sich Berichte über in der Vergangenheit stattgefundene Unglücke und Störfälle genauer ansieht wird regelmäßig finden daß solche Faktoren dabei eine nicht unwesentliche Rolle gespielt haben.

Das Management steht unter dem Druck, den Gewinn des Anlagenbetriebs zu maximieren. Das ist nicht unbedingt bloße Gier und Eigeninteresse, denn die Firmen sind in der Regel Aktiengesellschaften, und der Gewinn wird von den Aktionären schlicht und einfach eingefordert. Dazu gehören in der Regel auch eine ganze Menge von Kleinaktionären aus dem normalen Volk, die direkt und über Aktienfonds daran mitverdienen. Das heißt es wird am Betriebspersonal gespart so weit es geht, sei es indem man die Zahl der Leute minimiert, oder an ihrer Qualifikation und Ausbildung spart. Und es wird an den Betriebskosten gespart, indem man Reparaturen hinausschiebt, und indem man generell kreativ dabei ist den Spielraum auszunutzen, den die Vorschriften bieten.

Um so etwas zu verhindern, muß man unabhängige Kontrollen einführen, und ein Kräfteverhältnis schaffen das die nötigen Maßnahmen auch wirksam erzwingen kann. Das Problem dabei ist, daß auch diese Struktur einer gewissen Erosion unterworfen ist. Schon bei der Einrichtung der Kontrollbehörden sind ja Interessen im Spiel, und diejenigen die kontrolliert werden sollen versuchen Einfluß darauf zu nehmen, was die Kontrolleure dürfen und was nicht. Zusätzlich bleibt es nicht aus daß sich Kontrolleure und Kontrollierte kennenlernen und sich eine gewisse Verfilzung ergibt, zumal es dabei ja auch um viel Geld gehen kann. Es reicht schon wenn eine Kontrolle auf diese Art im Voraus rechtzeitig beim Kontrollierten bekannt wird, und schon kann diese Kontrolle nutzlos sein.

Eine kerntechnische Anlage wird für eine Gebrauchsdauer von mehreren Jahrzehnten gebaut, und das bedeutet daß die beteiligten Personen sich ggf. über ihr gesamtes persönliches Berufsleben hindurch kennen. Zudem hat eine Regierung, die für die effektive Kontrolle der Anlage zuständig sein sollte, in der Regel selbst ein Interesse daran daß die Anlage läuft, und ist daher womöglich geneigt ein oder zwei Augen zuzudrücken. Dazu muß man noch keine Korruption unterstellen, das ist schon aufgrund der Interessenlage so. Umso mehr noch ist die Unabhängigkeit in Frage gestellt wenn Korruption noch hinzu kommt, was angesichts der in Frage stehenden Summen nicht ganz so unwahrscheinlich ist wie man es wohl gern hätte.

Es ist daher gar nicht so einfach, eine gesellschaftliche Kontrolle der Reaktorsicherheit zu installieren, die über die Betriebsdauer der Anlagen hinweg ausreichend wirksam bleibt. Ich bin der Überzeugung daß wir hier in Deutschland einen relativ sicheren Betrieb der Anlagen haben, nicht etwa weil diese technisch auf einem hohen Stand wären, wie immer wieder suggeriert wird, sondern weil entsprechender gesellschaftlicher Druck vorhanden ist, wie er in vielen anderen Ländern fehlt. Und wenn sie tatsächlich technisch sicherer sein sollten als anderswo, dann ist das ebenfalls diesem gesellschaftlichen Druck geschuldet, und nicht etwa besseren technischen Fähigkeiten der Ingenieure hierzulande. Um es salopp auszudrücken: Nicht Siemens macht die Reaktoren sicherer, sondern die Atomkraftgegner.

Wir können uns aber nicht dauerhaft als Gesamtgesellschaft vom Vorhandensein einer solchen kritischen und aktivistisch ausgerichteten Protestszene abhängig machen. Die gesellschaftliche Akzeptanz der teils recht militanten Protestaktionen hängt ja ebenfalls an einem seidenen Faden, und man muß es schon als einen Glücksfall ansehen daß über die langen Jahre dieses Thema genug im breiten Volk verankert geblieben ist, daß die Protestbewegung eben nicht einfach vom Tisch gewischt werden konnte, wie das eine Menge von Industriemanagern und Politikern liebend gerne getan hätten. Vielleicht ist es an dieser Stelle daher angebracht mal inne zu halten und sich bewußt zu werden was wir dieser Protestbewegung eigentlich verdanken, und wie viel näher wir ohne sie an dem wären was im Augenblick die Japaner plagt.

Vielleicht ist es auch angebracht, hier die Querbeziehung zu knüpfen zu einem anderen Thema, das in den 1980er Jahren groß in der Diskussion war: Der Datenschutz. Der war als Folge durch die daraufhin geschaffenen Gesetze auf einem im internationalen Vergleich sehr hohen Niveau. Bloß ist das öffentliche Interesse daran ziemlich zurückgegangen, mit der Folge daß inzwischen auf diesem Feld vieles im Argen liegt. Teils ist das darauf zurückzuführen daß damals der Datenschutz als ein Konfliktthema zwischen dem Bürger und der Obrigkeit aufgefaßt wurde, und das Verhältnis zwischen Konsument und den Unternehmen kaum beachtet wurde. Wäre das Thema aber präsenter geblieben in der Diskussion, hätte man sicher auch eher nachgebessert. Diese Thematik zeigt daß Sicherheitsdenken und Kontrollstrukturen wesentlich schneller erodieren können, wenn das gesellschaftliche Interesse nachläßt, als man wegen der Lebensdauer der betroffenen Strukturen wollen würde.

In einem Satz: Selbst wenn die Reaktoren nach bestem technischen Können sicher wären, gesellschaftlich sind sie nicht sicher zu kriegen. Angesichts des Ausmaßes in dem die Öffentlichkeit und Umwelt beeinträchtigt wird, wenn es schief geht, ist so etwas gesellschaftlich nicht tragbar.

Und noch ein Aspekt ist wichtig, der seinen Einfluß hat, auch wenn überhaupt nichts schief geht:

Die Kernkraft ist eine Technik, deren Eigenschaften es im Grunde erzwingen daß sie als Großtechnologie betrieben wird. Mehr noch: Die Gesellschaft wird immer für die Restrisiken haften müssen, darum wird auch kein Versicherer eine Haftpflichtversicherung für so ein Kraftwerk anbieten können. Der Versicherungsfall kann ja, wie man sieht, eine Dimension erreichen die eine ganze Volkswirtschaft vor große Probleme stellt. In Deutschland wird ebenfalls deutlich daß auch im Normalfall der Staat herangezogen wird, um den Betrieb sicherzustellen. Die Polizei wird z.B. für die Sicherung der Castor-Transporte beschäftigt.

Letzlich heißt das, daß ein Kernkraftbetreiber ein Druckmittel in der Hand hat, das er gegen den Staat, die Gesellschaft und die Bürger einsetzen kann, was eine andere Technologie nicht in dieser Form auslösen würde. Und es heißt, daß unvermeidlicherweise die Gesellschaft einen Teil des Risikos tragen muß für etwas, woraus der Kraftwerksbetreiber den Profit macht. Das ist keine gesunde Situation, und als Bürger müßte man eigentlich ein starkes Interesse daran haben daß man solche Abhängigkeiten möglichst vermeidet. Ich bin überzeugt davon daß die großen Schwierigkeiten, die man hierzulande hat, die Politik dazu zu bringen die Kernkraftnutzung zu beenden, mit genau diesem Abhängigkeitsszenario zu tun hat.

In Japan hat man diese Abhängigkeiten zwischen Kraftwerksbetreiber und Regierung plastisch vorgeführt bekommen. Es war schon fast körperlich spürbar wie sehr die Regierung und mit ihr das ganze Volk letztlich von einer Firma abhängig war und noch ist, ohne die sie noch nicht einmal zuverlässig erfahren konnte wie die Lage ist. Eine Firma zudem, die nicht den Eindruck macht als ob eine offene und halbwegs vollständige Information der Regierung, geschweige denn der Öffentlichkeit, überhaupt in ihrem Interesse liegt. Und es ist anzunehmen daß das im Ernstfall in Deutschland kein bißchen besser wäre. Vertuschung und Verharmlosung sind auch hierzulande keine Unbekannten, wie schon das Beispiel Vattenfall zeigen dürfte.

Völlig unabhängig von CO2-Bilanzen und der Klimadiskussion ist der wichtigste Grund pro erneuerbare Energien für mich daher der, daß es dezentralere Formen der Energiegewinnung sind, die weniger anfällig für Monopolistengehabe und Kollektivhaftung sind. Also ein struktureller, gesellschaftlicher Grund, und wieder nicht ein technischer Grund.

Ich fände daher daß es an der Zeit ist, die eigentlich wichtige Frage zu diskutieren, nämlich ob und in welcher Form wir die Nutzung der Kernkraft mit ihren gesellschaftlichen Implikationen akzeptieren können. Die Frage der technischen Sicherheit ist trotz der Ereignisse in Fukushima dabei ein ziemlich begrenztes Einzelproblem. Dazu gehört daß man mal die verständlichen Reflexe aller Beteiligten etwas beiseite schiebt, und nicht mehr auf Kernschmelzen und Strahlenwerte glotzt, nicht mehr glaubt mit Moratorien und Sicherheitsdiskussionen weiter zu kommen, und stattdessen darüber redet wie man sich seine Gesellschaft eigentlich vorstellt, und ihre Energieversorgung. Man könnte dabei zum Schluß kommen, daß nicht bloß Kernkraftwerke ein Auslaufmodell sind, sondern mit ihnen gleich auch staatlich protegierte börsennotierte Energiemonopolisten, für die man im Ernstfall ja doch die Kohlen (oder die Brennstäbe) aus dem Feuer holen müßte.


Für Kommentare, Ihr wißt schon...

Montag, 7. März 2011

Das Trollunwesen

Meine Güte was ein Arschloch! Erstaunlich wie viele Teilnehmer sich trotzdem noch bemühen, eine zivilisierte Diskussion daraus zu machen. Warum tut man sich das an? Masochismus? Training für die Aufnahmeprüfung ins buddhistische Kloster?

Dieser Kerl hat die Stirn, einen Thread anzufangen der bereits im Titel eine handfeste Provokation enthält (den Vorwurf der Lüge, ganz pauschal in die Runde gestreut), und bezichtigt dann einen auch für seine Verhältnisse ziemlich zivil antwortenden -scope- sogleich des "Bashings" und maßregelt ihn von oben herab. Da weiß man eigentlich gleich wo der Hase lang läuft, und im Beitrag #5 sieht man auch die Erwartungshaltung offen dastehen:
"Ich halte das garnicht für so schwierig, falls man von Natur aus mit ausreichend großen Hoden ausgestattet ist, um sich einer antizipierten Trollphalanx zu stellen Selbst wenn man schon zuvorkommend so einen Thread in der Voodoo-Ecke startet ist es eh zu erwarten, daß man größtenteils vollgetrollt wird."
Er wußte vorher schon was ihn erwartet ("Trollphalanx"), gibt sich die allergrößte Mühe genau diese erwartete Reaktion zu provozieren, und hält sich für ausreichend behodet um mit dieser Reaktion auch angemessen umzugehen. Was natürlich an dieser Stelle schon klar macht daß sein inhaltliches Thema bloß ein Vorwand ist. Das eigentliche Motiv ist die pyromanische Lust, und das Ziel ist es, ein paar von ihm so genannte "Schreihälse mit Pavlov-Dog-Syndrome" herauszufordern und vorzuführen.

Mit anderen Worten, sein eigenes Verhalten ist geradezu ein Musterbeispiel für das was er Anderen unterstellt: Es ist Trolling.

Wie wenig er an den scheinbar inhaltlichen Fragen die er zu Beginn stellt interessiert ist, wird im Verlauf des Threads mehr als offensichtlich. Er zeigt keinerlei Neigung, seine behaupteten Eindrücke auch nur einer rudimentär systematischen Nachprüfung zu unterziehen, erwartet aber von seinen Diskussionspartnern sachdienliche Hinweise zu ihrer Erklärung. Und fährt ihnen dann übel über's Maul wenn ihm die Antworten nicht in den Kram passen.

Der Thread scheint nach ein paar Dutzend Beiträgen im Sande zu verlaufen, was darauf hindeutet daß das Nichtfüttern des Trolls hier mal funktioniert hat. Wenn mein Blogbeitrag ihn nicht wieder hochpuscht. Es ist mir klar daß ich mit meinem Beitrag hier genau das tue was er will: Aufmerksamkeit erregen. Trotzdem muß das Problem mal angesprochen werden:

Man muß sich im Hifi-Forum anscheinend alle paar Tage mal von einem neuen Idioten einen Thread gefallen lassen, in dem er seinen Frust darüber, daß er in der sachlichen Argumentation kein Land sieht, dadurch abreagiert, daß er durch blanke Unverschämtheiten seine Diskussionsgegner zu Grobheiten herausfordert.

Man sollte solche Leute eigentlich hochkant aus dem Forum befördern, denn wenn schon beim ersten Beitrag so klar wird worauf das hinaus laufen soll, dann braucht man nicht auch noch eine Bühne dafür zu bieten. Bloß führt das mit Sicherheit zu Sekundärdiskussionen um Zensur und Moderationsverhalten, die nicht weniger hysterisch, scheinheilig und abgedreht ablaufen wie die Originaldiskussion verlaufen wäre. Wenn jemand destruktiv sein will, dann findet er einen Weg, egal wie die Regeln auch immer ausfallen mögen.

Im Hifi-Forum ist zu diesem Thema wohl schon so gut wie alles ausprobiert worden. Halten sich die Moderatoren eher zurück, dann eskaliert die Diskussion weil nicht jeder normale Teilnehmer es fertigbringt, den Troll zu ignorieren. Machen die Moderatoren aktiv mit, dann müssen sie sich Belehrungen darüber gefallen lassen wie sich ein Moderator in so einer Diskussion gefälligst zu verhalten habe, und zwar gerade von denjenigen Leuten die selber jede Freiheit zu Provokation nutzen.

Im erwähnten Thread findet man vielleicht noch die beste Methode damit umzugehen: Man versucht sachlich zu bleiben, und die Provokationen ins Leere laufen zu lassen. Das muß man erst einmal nervlich durchstehen. Aber selbst wenn man das schafft, dann erreicht man damit leider daß dem Troll der Anschein einer Ernsthaftigkeit zuteil wird, die er keineswegs verdient.

Die Gratwanderung, zu der man gezwungen wird, besteht darin daß man das destruktive Verhalten des Trolls klar benennt und sichtbar macht, ohne sich in das Spiel hineinziehen zu lassen, in dem man unweigerlich als Täter hingestellt werden wird (was ein Hauptziel des Trolls ist). Dazu braucht's ein Ausmaß an Abgebrühtheit und Distanz zu dem ich auch selber nicht immer in der Lage bin.

Bei allem Ärger gibt's aber auch eine gute Seite an dem ganzen Trollunwesen: Es zeigt daß die Subjektivisten ins Hintertreffen gekommen sind. Wer so deutlich vorführt wie blank er da steht wenn's um vernünftige Argumente geht, so daß er sich auf rein destruktive Diskussionspraktiken verlegt, der verschafft sich dadurch vielleicht eine gewisse Genugtuung wenn er wieder mal ein paar "Schreihälse mit Pavlov-Dog-Syndrome" geärgert hat, aber er hat sich damit gleichzeitig als ernstzunehmender Faktor in der Sache eliminiert.


Kommentare wie üblich hier.

Montag, 28. Februar 2011

Gorilla-Blindheit

Ich wundere mich seit geraumer Zeit wieso der unsichtbare Gorilla eine so große Rolle in Blindtestdiskussionen spielt. Inzwischen finde ich aber einen gewisse, hintersinnige Relevanz darin: Die Diskussion selbst (und nicht der Blindtest) ist nämlich ein Beispiel wie diese "Unaufmerksamkeitsblindheit" praktisch genutzt werden kann.

Aber der Reihe nach.

Im Zusammenhang mit Blindtests scheint das Argument zu sein, daß Unaufmerksamkeitsblindheit dafür verantwortlich sein könnte daß die Tester manche Dinge nicht hören von deren Hörbarkeit sie überzeugt sind. Und daß es sich dabei auch durchaus um sehr deutliche und eigentlich offensichtliche Dinge handeln kann. Das sekundäre Argument ist deshalb, daß aus der Tatsache, daß in einem Blindtest etwas nicht gehört wurde, nicht geschlossen werden kann, daß der Effekt nicht vorhanden oder allenfalls sehr klein gewesen sein kann. Es könnte, so die Analogie, ein akustischer Gorilla gewesen sein, der einem da durch die Lappen gegangen ist.

Dieses Argument hat den Charakter einer "Deepity". Es gibt eine eher offensichtliche und auch offensichtlich richtige Bedeutungsebene, die aber recht trivial ist. Und es gibt eine tiefere Bedeutungsebene, die alles andere als offensichtlich oder gar offensichtlich richtig ist.

Schon klar: Die Konzentration auf eine Sache verbessert zwar die Fähigkeit, diese Sache zu entdecken, aber vermindert gleichzeitig die Fähigkeit, eine ganz andere, unerwartete Sache zu bemerken. Letztlich ist das ganz einfach das Wesen der Konzentration. Man konzentriert sich ja nicht einfach ganz allgemein, sondern man konzentriert sich auf etwas ganz Bestimmtes. Das ist gewollt, exakt deswegen konzentriert man sich ja.

Im Grunde wußten wir das auch schon vor den Gorilla-Videos. Man wundert sich bei aller Selbstverständlichkeit höchstens wie groß ein Objekt oder ein Effekt werden kann und trotzdem noch unbemerkt bleibt.

Der Zusammenhang mit den Blindtests ist allerdings eher fragwürdig. Ich finde wer dieses Argument auf sie anwendet hat nicht recht verstanden wofür Blindtests eigentlich da sind.

Niemand würde Blindtests veranstalten um bisher unbekannte Effekte zu finden. Man testet ja gerade deswegen blind um die Konzentration zu fokussieren und alle sachfremden Einflüsse so gut es geht auszuschließen. Schon die Vorstellung, das sei irgendwie gegen die Hörtester gerichtet, also eine Art Schikane, ist eigentlich ein Blödsinn. Der Ausschluß dieser sachfremden Einflüsse macht das Ergebnis außerdem glaubwürdiger, ich hoffe ich muß nicht mehr ausführen wieso.

Mit anderen Worten, die Konzentration ist beim Blindtest ausdrücklich erwünscht, und zwar in vollem Bewußtsein daß dadurch auch Unaufmerksamkeitsblindheit auftreten kann. Der Effekt nach dem man sucht muß wenigstens in Form einer Hypothese vor dem Test bekannt sein, und man muß die Testgestaltung und die Auswahl des Testmaterials daran ausrichten. Das Ergebnis bestätigt dann diese Hypothese oder eben nicht.

Wer nach bisher unbekannten Effekten sucht, sollte daher erst einmal eine testbare Hypothese entwickeln, bevor diese dann in einem Blindtest untersucht werden kann. Und er sollte sich vorher überlegen wie Test und Testmaterial aussehen müssen, um die besten Aussichten zu haben daß der Test ein aussagefähiges Ergebnis liefert.

Ich finde daher daß bei genauerer Betrachtung das Gorilla-Argument alles andere als angemessen ist, wenn es um Blindtests geht. Es offenbart ein verkehrtes Blindtest-Verständnis.

Wenn ich mir allerdings ansehe wie die Blindtest-Diskussion läuft, mit welcher Hartnäckigkeit und Hysterie man da versucht, Blindtests zu diskreditieren, und bei gemachten Tests auch noch die absurdesten Argumente herauszieht, um sie in Zweifel zu ziehen, dann sehe ich den Gorilla an einer ganz anderen Stelle.

Der Gorilla, der sich so auffällig ins Bild drängt, und den man partout nicht sehen will, ist die Autosuggestion. Wenn man den schon nicht aus dem Bild herausbekommt, dann versucht man die Aufmerksamkeit auf irgendwelches Klein-Klein zu richten, damit man wenigstes so tun kann als wäre er nicht da. Um beim Gorilla-Video zu bleiben: Es wäre analog dazu daß man nicht bloß dauernd einen Ball im Kreis herum spielt, sondern darum auch noch ein möglichst großes Spektakel macht. Und sobald man merkt, daß jemand in Richtung Gorilla guckt, spielt man ihm unter großem Tamtam einen Ball zu damit er erstmal abgelenkt ist.

Das kann schon ein gültiges Argument sein, das man da in die Runde wirft, wie z.B. die durchaus sinnvolle Diskussion der Frage, welche Schlußfolgerung man aus einem gemachten Test ziehen kann und welche nicht. Oder auch die Feinheiten der Statistik kann man sinnvollerweise diskutieren. Mir ist bloß der Ablenkungseffekt dieser Nebendiskussionen ein bißchen zu offensichtlich als daß ich dahinter reine und lautere Ziele voraussetzen kann. Es gibt schon auch Mäuse, und sie sind nicht immer unbedeutend, aber man sollte sie nicht zum Gorilla aufblasen um den wirklichen Gorilla zur Maus schrumpfen zu lassen.


Für Kommentare gibt's den bekannten Thread im Hifi-Forum.

Samstag, 12. Februar 2011

Hobby: Unterschiedhören

Komisch, nicht? Man argumentiert gegen die verbreitete Desinformation, die Quacksalberei und den Schwindel in der Hifi-Branche, und schon bekommt man vorgeworfen, man mache das Hobby kaputt. Man sollte doch denken daß es viel angenehmer ist wenn man es mit ehrlichen, kompetenten und uneigennützigen Gesprächspartnern zu tun hat. Daß dann auch das Hobby mehr Spaß macht.

Ich jedenfalls fühle mich nicht besonders wohl in einem Laden, in dem ich merke daß da ein gewiefter Verkäufer zwar wenig technische Ahnung, aber dafür umso mehr Standes- und Umsatzbewußtsein hat, und dazu wenig Skrupel. Es ging bei mir so weit daß ich ein Dutzend Jahre lang mit dem Hifi-Zirkus nichts mehr zu tun haben wollte. Keine Zeitschriften, keine Ladenbesuche beim Edelgerätehändler, bloß noch Tonträger, und das auch weniger als vorher. Mir wurde das Hobby vergällt durch genau das was ich jetzt anprangere. Und ich bin mir sicher daß es vielen Anderen genauso ergangen ist und noch ergeht.

Es kann sich also, würde ich meinen, nicht um das gleiche Hobby handeln.

Jetzt wird zwar oft behauptet es gehe um das Musikhören, aber wenn es darum wirklich so unmittelbar und ausschließlich gehen würde, was tun diese Leute dann in Forendiskussionen über Geräte, Zubehörteile und in Voodoo-Streitereien? Wäre es nicht viel sinnvoller wenn man einfach Musik hören würde und sich allenfalls noch an Diskussionen über Musik beteiligen würde? Es kann mir niemand erzählen daß man für den Spaß an der Musik das ganze High-End und Voodoo-Gedöns braucht! Ich hatte Spaß an Musik in Live-Gigs mit beschissenem Sound, und ich habe den Fußwippfaktor in Mono mit der Klangqualität eines Küchenradios erlebt.

Gute Musik groovt weitgehend unabhängig vom Klang, und mit die wichtigste Voraussetzung daß der Funke überspringt liegt im eigenen emotionalen Zustand.

Klar ist eine gute Anlage geil, aber es soll mir doch keiner weismachen daß man sie zum Musikhören brauche. Es ist ein Luxusartikel, und so schön es ist ihn zu haben, nötig ist er nicht. Auch zum Musikhören nicht. Es ist wie mit allen Luxusartikeln, man schafft sie sich an weil man es sich leisten kann (zuweilen auch um zu zeigen daß man sich's leisten kann), und weil es ein gutes Gefühl ist, etwas Edles zu haben.

Ich hab das ja auch, ich will gar nicht im Ruf stehen daß ich gegen Luxus wäre, oder gegen den Genuß. Ich hab kein Problem damit wenn jemand was kauft einfach für's gute Gefühl, was "amtliches" zu haben. Etwas, was über der Kritik steht. Nicht so gut wie halt nötig, sondern so gut wie's geht. Ja, ich kann das verstehen, und ich hab das auch. Aber kann man denn nicht erwarten daß man dabei ehrlich ist mit sich selbst und gegenüber Anderen? Muß man sich dafür irgend einen Mist einreden? Einreden lassen?

Daß ich etwas von der Technik verstehe macht es mit in dieser Branche nicht einfacher, sondern schwieriger. Gerade die teuren und angeblich "hochwertigen" Geräte kommen sehr oft mit ziemlich zweifelhaften technischen Lösungen daher, und fast immer mit einem Marketing das mich mit seiner Verlogenheit anwidert. Hochwertigkeit wird da mit teuren Materialien (möglichst viel davon), und mit zweifelhaften Konstruktionsprinzipien (anders als die Anderen = besser) gerechtfertigt.

Was ist also das Hobby das angeblich in Gefahr ist wenn man wie ich das Maul aufmacht? Musik hören kann's nicht sein. Freude an hochwertiger Technik kann's auch nicht sein.

Ich habe meine Theorie: Das Hobby heißt: Unterschiedhören.

Wer dieses Hobby hat braucht keine technische Perfektion, denn die führt zu weniger hörbaren Unterschieden. Der braucht keine Blindtests, denn damit hört man keine Unterschiede. Der braucht kein technisches Verständnis, denn das könnte höchstens die gehörten Unterschiede in Zweifel ziehen. Der braucht die Musik zum Hören der Anlage, und nicht die Anlage zum Hören von Musik.

Wenn man das Unterschiedhören als das eigentliche Hifi-Hobby auffaßt dann ergibt plötzlich der ganze Irrsinn einen Sinn. Wenn zwei Hifi-Geräte gleich klingen dann ist der Hifi-Anhänger im Wortsinn (HiFi = High Fidelity) beruhigt, denn es können nicht zwei Geräte gleichzeitig High-Fidelity sein wenn sie unterschiedlich klingen. Der Unterschiedhörer aber ist enttäuscht. Die Unterschiede sind der Sinn des Ganzen, also wozu sollen unterschiedliche Geräte gut sein wenn sie nicht unterschiedlich klingen?

Von daher ist auch das Argument verständlich, das wohl schon so manches Gesicht in Verzweiflung in den Händen begraben hat: "Wenn alles gleich klingt, warum gibt's dann überhaupt so viele verschiedene Geräte?" Der Unterschiedhörer bringt das im völligen Ernst vor, überzeugt ein schlagendes Argument gefunden zu haben, das sein Gegenüber zum Denken bringen muß.

Dieses Argument hat für den Unterschiedhörer eine selbstverständliche Logik, so hoffnungslos bescheuert es für den Rest der Welt auch klingen mag. Zugleich ist es ein eindeutiges Erkennungszeichen für einen Unterschiedhörer. Niemand sonst wäre in der Lage so ein Argument zu äußern ohne das Gesicht zu verziehen.

Die "Fachpresse" hat sich aus leicht einsehbarem Grund auf die Seite des Unterschiedshörers geschlagen. Das hat über die letzten Jahre und Jahrzehnte dazu geführt daß sich das Unterschiedhören als die vorherrschende Form des Hobbies in der öffentlichen Wahrnehmung durchsetzen konnte. Mit dem Ergebnis daß sich inzwischen Unterschiedshörer oft als die einzig legitimen und wahren Vertreter des Hobbies empfinden. Andersdenkende™ werden als "Techniker" und "Meßfetischisten" verunglimpft, in Verkennung der Tatsache daß sie damit diejenigen Leute schmähen die ihnen das Hobby erst ermöglicht haben.

Doch inzwischen verschaffen sich die Vertreter der anderen Hobby-Spielarten vermehrt Gehör, mit der Folge daß die Unterschiedshörer von apokalyptischen Visionen geplagt werden und ihr Hobby untergehen sehen. Das stellt die "Fachpresse" vor interessante Herausforderungen. Man muß inzwischen zugleich für und gegen Blindtests sein. Es ist spannend zu sehen welche Konzepte zur Bewältigung dieses Dilemmas gefunden werden.

Eine verhältnismäßig neue Spielart ist es, so zu tun als würde man "selbstverständlich" blindtesten, dabei aber so gut wie nichts einhält was gemeinhin zu Blindtests gehört, sofern man überhaupt etwas über die Modalitäten der Durchführung erfährt. Nichts wirklich Neues, denn es hatte sich ja auch eingebürgert, so bei den Messungen zu verfahren. Der angestrebte Effekt ist dabei wie immer, daß die Kundschaft unter den Unterschiedhörern das Gefühl kriegt, daß das Hobby unverändert Bestand hat und die alten Wahrheiten weiterhin Gültigkeit haben - also daß es nur auf die Unterschiede ankommt.

Beispiel gefällig? Bei der Audio ist man kundenbewußt und blindtestet Unterschiedshörer-kompatibel. Mir bleibt nur, die Frage in den Raum zu stellen was wohl an diesem Test "blind" war?!


Der inzwischen übliche Spruch: Kommentare hier.