Wenn es eine typische Grundhaltung eines Laien geben sollte, dann wäre das "Viel hilft viel" bestimmt einer der aussichtsreichsten Kandidaten. Es gehört ja geradezu zur Definition des Begriffs "Laie", daß ihm für eine differenziertere Sichtweise der Sachverstand fehlt. Man kann sich dann halt bloß auf allgemeingültige Lebensweisheiten verlassen, die instinktiv Sinn zu machen scheinen. Das wird in der Hifi- und Audiophilen-Szene weidlich genutzt, auffälliger vielleicht noch als auf vielen anderen Gebieten.
Bei der Tätigkeit von Ingenieuren geht es dagegen um etwas Anderes. Die Sachkenntnis eines Ingenieurs läuft in der Regel darauf hinaus daß er sich bewußt darüber ist, daß "viel" nicht bloß hilft, sondern auch kostet, und zwar nicht nur im finanziellen Sinn. Es geht darum das richtige Maß zu finden, den besten Kompromiß zwischen einander widersprechenden Faktoren. Immer dann wenn man sich dazu hinreißen läßt, z.B. bei der Entwicklung von Hifi-Geräten, einfach "zur Sicherheit" das teurere Bauteil, oder das größere Bauteil, oder die engere Toleranz zu wählen, hat man im Grunde den Ingenieurs-Pfad verlassen und den Laien-Pfad beschritten. Man gibt damit zu, nicht zu wissen wieviel man an dieser Stelle wirklich braucht, und ab welchem Punkt ein "Mehr" keinen relevanten "Mehrwert" mehr hat.
Das wäre in vielen Fällen noch tolerabel wenn nicht noch hinzu käme daß man dabei gerne die Augen davor verschließt welche Nachteile das "Mehr" mit sich bringt. Die Audioszene ist gespickt voll mit Beispielen, mit denen man zeigen kann wie auf diese Weise das "rechte Maß" völlig aus dem Blickfeld verschwindet, und das Ergebnis de facto schlechter geworden ist. Nebenbei kann man zeigen daß ein "viel hilft viel" in den allermeisten Fällen eben nicht vernünftig ist, und man gut daran tut den verschwiegenen Nachteil zu suchen wenn jemand so eine Lösung anpreist. Die Wahrscheinlichkeit ist ziemlich groß daß jemand, der eine bestimmte Designentscheidung bei seinem Gerät besonders herausstellt, darüber völlig übersieht (oder verschweigt) welcher Nachteil damit verbunden ist.
Es ist dabei auch oft das Ziel des Marketing, der Kundschaft den geistigen Blick auf die propagierten Vorteile zu fixieren, und dafür zu sorgen daß er nicht auf die Nachteile fallen kann. Das funktioniert erstaunlich oft, wie man immer wieder daran sehen kann wenn Leute ohne eigenes wirtschaftliches Interesse in Foren auftauchen und sich dort wie ein Sprachrohr einer Firma aufführen. Sie haben offenbar die Propaganda völlig verinnerlicht und sich die Scheuklappen aufsetzen lassen, die sie daran hindern zu erkennen welche Nachteile es geben kann. Bei Lautsprechern ist das besonders auffällig, wenn z.B. bestimmte Konstruktionsprinzipien als das Nonplusultra propagiert werden, seien es Koaxialsysteme, Elektrostaten, bestimmte Membranmaterialien, oder was auch sonst.
Mein Beispiel hier soll aber etwas anderes sein: Die Bandbreite. Man kann sich prächtig darüber streiten welche Bandbreite z.B. ein Verstärker haben soll, aber im Grunde wird die Diskussion bloß dann sinnvoll wenn man es im Kontext des ganzen Wiedergabesystems betrachtet, und dem Zweck den dieses erfüllen soll.
Die Bandbreite eines Systems ist der Frequenzbereich, den es praktisch ungeschwächt übertragen kann, also gewissermaßen der "Nutzbereich". Bei einer Hifi-Anlage ist das der Frequenzbereich den man auch hören kann, denn auf den ersten Blick bringt es nichts, Frequenzen zu übertragen die man ohnehin nicht hört.
Man könnte also im ersten Ansatz sagen: Das Gehör hat eine Bandbreite, und die ist letztlich maßgebend für die Bandbreite, die die Wiedergabeanlage haben muß.
Diese Betrachtungsweise ist nicht so selbstverständlich wie sie sich anhört. In den Frühzeiten der Elektronik und Audiotechnik fand man, daß es erstmal auch reicht wenn man diejenigen Frequenzen überträgt, die musikalisch relevant sind. Man dachte sich: Der Mensch kann zwar (wenigstens in jungen Jahren) Frequenzen im Bereich von etwa 20Hz bis 20kHz hören, aber in der Musik (das war damals noch zu fast 100% "konventionelle" und nicht elektronisch erzeugte Musik) kommt es kaum einmal vor daß weniger als 40 Hz oder mehr als 15 kHz gebraucht werden. Und wenn es nur um Sprache geht, wie z.B. beim Telefon oder in Durchsageanlagen, dann reicht auch noch wesentlich weniger.
Man hat also bis in die zweite Hälfte des vergangenen Jahrhunderts hinein die Technik am konkreten Zweck ausgerichtet, und nicht an den Grenzen des Gehörs. Die "technischen Daten" des UKW-Rundfunks stammen z.B. aus diesen Zeiten. Und wie man weiß kann man damit bei guten Empfangsbedingungen und mit einer guten Produktion ein Qualitätsniveau erreichen das mit der Langspielplatte konkurrieren kann, die ja im Grunde aus der gleichen Zeit stammt und noch heute bei Audiophilen in großem Ansehen steht.
Ein Verstärker braucht in einer Denke wie dieser keine wesentlich größere Bandbreite als es für die Signale von der Quelle nötig ist. Die Idee ist daß gerade so viel Bandbreite geboten werden sollte daß keine zusätzlichen Beeinträchtigungen entstehen. Je nach konkreter "Philosopie" hat man Verstärkern eine Bandbreite spendiert die nach oben hin irgendwo im Bereich von 20 bis 100 kHz zuende war. Verstärker mit noch mehr Bandbreite gab es, es waren aber Exoten.
Das hat zwar unter anderem damit zu tun daß mehr Bandbreite auch technisch anspruchsvoller ist, wichtiger aber war daß man abgesehen davon daß man es für unnötig hielt es auch für potenziell problematisch hielt.
Die Frage ist dabei was denn die eigentlich unhörbaren höheren Frequenzen bewirken. So lange sie gar nicht erst auftreten, weil die Quelle sie gar nicht erst liefert, sollte eigentlich alles in Ordnung sein, aber höhere Frequenzen können eventuell auf Umwegen ins System kommen. Schon bei 30kHz beginnt offiziell der Langwellen-Bereich im Rundfunk, und ganz normale Radiosender beginnen bei etwa 150 kHz. Das Zeitsignal der PTB wird auf 77,5 kHz gesendet. Solche Signale können durchaus irgendwie von einem Kabel aufgefangen werden und mit dem Audiosignal in einen Verstärker gelangen.
Wenn die Bandbreite des Verstärkers groß genug ist, wird er solche Signale ebenfalls verstärken. Das würde für sich genommen noch nichts ausmachen, denn man hört sie ja auch verstärkt noch immer nicht. Das würde aber voraussetzen daß es keine Nichtlinearitäten im System gibt, an denen durch Intermodulation oder Demodulation Mischprodukte entstehen, die in ihren Frequenzen in den hörbaren Bereich fallen können. Das muß nicht im Verstärker passieren, auch im Lautsprecher selbst kann so etwas vorkommen.
Wer die Bandbreite eines Verstärkers nicht zu großzügig auslegt vermeidet solche Probleme, denn dann werden die Radiosignale nicht mehr verstärkt, sondern im Idealfall sogar weggefiltert, und können damit auch im Lautsprecher keine Effekte mehr haben. Die Beschränkung der Bandbreite auf Werte irgendwo unterhalb von 100kHz galt daher den meisten Verstärkerbauern der "alten Zeit" als eine sehr nützliche Maßnahme.
Am besten ist es dabei wenn man die Bandbreite direkt am Verstärkereingang beschränkt, der Verstärker intern aber eine deutlich höhere Bandbreite hat. Auf diese Weise bewirkt man ein sehr kontrolliertes Verhalten, das nicht mehr von den Eigenschaften des Verstärkers abhängt, sondern bloß noch von ein paar Filterbauteilen an dessen Eingang. Und der eigentliche Verstärker hat es nicht mehr mit Signalen zu tun, für die er "nicht schnell genug" ist, und auf die er unter Umständen mit Intermodulation reagieren würde.
Noch eher als den Verstärker sollte man aber den Lautsprecher von Frequenzen verschonen mit denen er nicht umgehen kann. Bei hohen Frequenzen über der Hörgrenze führen sie im günstigsten Fall nur dazu daß die Schwingspule des Hochtöners vorgewärmt wird. In ungünstigeren Fällen führen Nichtlinearitäten im Hochtöner zu potenziell hörbaren Intermodulationen. Im Tieftonbereich gibt's auch Probleme. Tiefere Frequenzen als sie der Lautsprecher noch gut wiedergeben kann führen besonders bei höheren Lautstärken zu merklichen Effekten, wie z.B. Windgeräusche an Baßreflexöffnungen, große Membranhübe mit damit verbundenen nichtlinearen Verzerrungen, Dopplereffekte.
Man könnte versuchen, in der Weiche zusätzlich Filter einzubauen die solche für den Lautsprecher nicht hilfreichen Frequenzen unterdrücken, aber der zusätzliche Aufwand wird gescheut, und mit Sicherheit von der audiophilen Szene auch nicht goutiert. In den Verstärker kann man eine entsprechende Filterung ebenso kaum einbauen, denn man weiß ja nicht im Voraus wo beim angeschlossenen Lautsprecher die Grenzen liegen werden. Am besten dran sind die Aktivlautsprecher, wo man die Filterung im Verstärker optimal an die Eigenschaften des Lautsprechers anpassen kann.
Selbst wenn wir annehmen daß wir Radiosignale durch entsprechende Verkabelung und Schirmung ausgeschlossen haben, und daß der Verstärker daher auf eine Begrenzung der Bandbreite verzichten kann, müssen wir uns immer noch ansehen was von der Quelle kommt.
Wir haben gesehen daß in der "alten Zeit" bei rein analogen Quellen wie dem UKW-Radio oder der LP schon die Quelle keine Frequenzen von sich gegeben hat die oberhalb des Hörbereiches liegen. Genauer gesagt hat sie gelegentlich schon solche Frequenzen geliefert, aber nicht unbedingt absichtlich. Bei der LP kann das z.B. bei Knacksern sein oder wenn sich der empfindliche Tonabnehmer Radiosignale einfängt. Außerdem hat auch das unvermeidliche Rauschen Komponenten bei hohen Frequenzen. Damit müßte man im Grunde schon im Phono-Vorverstärker umgehen.
Bei neueren Quellen, vor allem digitalen, wächst jedoch der Anteil an Energie oberhalb des hörbaren Bereiches deutlich an. Zum Einen gibt es die Leute die höhere Abtastraten befürworten, und damit letztlich auch eine höhere nutzbare Bandbreite schon im Quellmaterial. Bei einer Abtastrate von 192kHz geht die nutzbare Audiobandbreite schon bis knapp unterhalb von 100kHz. Zum Anderen erzeugt ein D/A-Wandler immer auch höhere Frequenzen durch Aliasing (Spiegelfrequenzen), die durch ein nachgeschaltetes Filter wieder unterdrückt werden müssen. Nicht wenige Leute meinen, darauf verzichten zu können weil die nachgeschaltete "Kette" das sowieso irgendwie filtert, und wenn das erst im Ohr sein sollte. Einige SACD-Wandler sind z.B. dafür bekannt, daß sie ziemlich viel Rauschenergie im unhörbaren Bereich absondern und das dann dem Verstärker zumuten.
Das wäre natürlich kein besonderes Problem wenn der Verstärker am Eingang eine Bandbreitenbegrenzung hätte, wie ich es oben beschrieben habe. Das gilt aber als unaudiophil. So werden eins nach dem anderen die Sicherheitsmaßnahmen eliminiert, die einer negativen Auswirkung "unnützer" Frequenzen bisher im Weg gestanden sind.
Es kann dabei passieren daß sich auf diese Weise "Unterschiede" ergeben, die vom begeisterten Audiophilen prompt als Anzeichen dafür fehlinterpretiert werden, daß der Mensch (genauer gesagt: Er selbst --> Goldohrbeweis) eben doch oberhalb von 20kHz was hört, und daß viel Bandbreite demzufolge auch viel hilft.
Das ist dann die Krönung der Ironie: Ausgerechnet die negativen Auswirkungen dessen werden als Bestätigung einer Ansicht verstanden die schon von vorn herein falsch war.
Donnerstag, 31. Dezember 2009
Samstag, 19. Dezember 2009
Die Masse, das unbekannte Wesen
Immer wieder scheint es mir, als wäre die Masse das was an der ganzen Audioelektronik am wenigsten verstanden wird. Das betrifft nicht bloß die Benutzer, von denen man das wohl auch kaum anders erwarten kann, sondern durchaus auch die Hersteller, Händler und Journalisten. Meiner bescheidenen Ansicht nach sind Masseprobleme der Grund Nummer 1 warum eine Anlage schlechter spielt als sie könnte. Die üblichen Verdächtigen des High-End spielen dagegen eine nur sehr untergeordnete Rolle.
Das Problem dabei ist, daß die Symptomatik sogar für viele Fachleute ziemlich undurchsichtig sein kann. Viele der Probleme kommen auch überhaupt erst zutage wenn man mehrere Geräte zusammensteckt, und finden daher weder bei den Messungen des Herstellers, noch bei Zeitschriften-Tests irgendeine Beachtung. Ein- und dasselbe Gerät kann so auf dem Labortisch ein einwandfreies Bild abgeben, und in der Anlage dennoch Probleme machen. Wer weiß, vielleicht ist das ja auch eine der Ursachen dafür daß viele Leute davon reden, man müsse eine Anlage "abstimmen". Wenn eine Anlage ein Masseproblem hat, dann kann beim Austausch einzelner Komponenten sich das Fehlerbild fast beliebig ändern, auch beliebig subtil.
Da die Masse immer verbunden ist, sogar wenn ein Gerät ausgeschaltet ist, hängt im Grunde alles mit allem zusammen, und Dinge können einen Einfluß haben an die kaum jemand denken würde. Umso mehr, je mehr Geräte da zusammengesteckt werden.
Das Problem hat unmittelbar damit zu tun, daß in der Hifi-Technik praktisch durchgehend unsymmetrische Verbindungen verwendet werden. Und die verwendet man vor Allem aus historischen Gründen. Sie sind zwar auch ein bißchen billiger als die symmetrischen Verbindungen, aber das würde einen Umstieg nicht verhindern. Der Hauptgrund dafür warum man bei unsymmetrischen Verbindungen bleibt, ist die Kompatibilität zu bisherigen Geräten. So gut wie alle Geräte haben Cinch-Anschlüsse, und daher wird erwartet daß auch alle neuen Geräte damit ausgerüstet sind. Man ist de facto als Hersteller gezwungen, die problematische Technik beizubehalten.
Eine unsymmetrische Verbindung hat zwei Kontakte, und sie heißt deswegen unsymmetrisch weil diese beiden Kontakte sehr unterschiedliche Rollen spielen. Es gibt einen Kontakt für's Signal, und einen für die Masse. Wenn es mehrere Signale gibt, die zugleich übertragen werden, dann kann man den Masseanschluß für diese Signale auch gemeinsam machen. Das passiert unter Anderem beim Klinkenstecker, z.B. an Kopfhörern, oder beim Mini-Klinkenstecker der bei PC-Soundkarten so verbreitet ist. Auch die alten DIN-Stecker (auch Diodenstecker genannt) haben für alle Signale einen gemeinsamen Masseanschluß.
Die unsymmetrische Übertragung geht davon aus daß alle beteiligten Geräte auf dem gleichen Massepegel liegen, und der Sinn der Masseverbindung ist es, diese Grundbedingung herzustellen. Die Qualität der Signalübertragung hängt davon ab wie gut die Übereinstimmung der Massepegel im konkreten Fall ist, denn jeder Unterschied wirkt als Störung auf das Audiosignal.
Auf den ersten Blick scheint das kein Problem zu sein. Man verbindet die Massen der Geräte per Kabel, damit sind sie auch auf dem gleichen Pegel. Auf einem Schaltplan scheint es ebenso einfach zu sein, da hat man für die Masse ein Symbol, und alle diese Symbole sind als untereinander verbunden zu denken. Die Masse (daher auch der Name) wird als metallener Klumpen betrachtet, der überall einen einheitlichen Spannungspegel hat, und daher auch als Bezugspunkt für die Audiosignale in Frage kommt. Man tut so als wäre jeder Punkt im weitverzweigten Massenetz einer Anlage mit jedem anderen Punkt des Massenetzes austauschbar.
In der Praxis ist es aber nicht immer so. Es gibt diverse mögliche Ursachen dafür daß Ströme in diesem Massenetz kursieren, die nichts mit dem Audiosignal zu tun haben. Und da die Widerstände bzw. Impedanzen in diesem Massenetz nicht gleich Null sind, ergeben sich daraus auch Differenzen in den Massepegeln an verschiedenen Punkten (Ohm'sches Gesetz). Und damit Audiostörungen.
Diese Störungen können sehr unterschiedlich stark sein, je nach den konkreten Umständen. In einem Fall ist es vielleicht bloß meßtechnisch nachweisbar, in anderen Fällen brummt oder rauscht es kräftig. Das sind normalerweise keine Einstrahlungen, es ist ein gänzlich anderer Mechanismus der solche Störungen produziert. Man spricht von einer Kopplung durch eine gemeinsame Impedanz. Die gemeinsame Impedanz, das ist in diesem Fall die Impedanz der Masseverbindung, durch die sowohl der Signalstrom als auch der Störstrom fließt.
Das läßt schon erkennen, daß man diese Störungen z.B. dadurch bekämpfen kann, indem man die Impedanz der Masse so klein macht wie es geht. Dadurch löst man allerdings das Problem nicht prinzipiell, sondern man verringert es nur. Und als Gerätekäufer hat man auch nur begrenzte Möglichkeiten dafür. Man kann zwar Kabel mit sehr niederohmiger Masseverbindung einsetzen (das bedeutet in der Regel ein großzügig dimensioniertes Schirmgeflecht), aber an den Verhältnissen in den Geräten selbst, speziell den Impedanzen der Masseverbindungen darin, ändert man damit nichts. Wenn die Impedanzen im Gerät schon größer als im Kabel sind, dann bringt ein noch stärkeres Kabel nichts mehr.
Wer verstehen will was sich da abspielt mit den Störströmen, der kommt meist nicht recht auf einen grünen Zweig wenn er sich gedanklich mit den Spannungspegeln beschäftigt. Besser ist es man denkt in Strömen, und dem Weg den sie nehmen. Für viele Elektriker und Elektroniker ist das eine ungewohnte Betrachtungsweise. Vielleicht ist das der Grund warum in dieser Sache so viel Unverstand herrscht.
Die meisten Gegenmaßnahmen gegen die Kopplung über eine gemeinsame Impedanz versuchen zu erreichen, daß es keine gemeinsame Impedanz menr gibt. Das heißt daß die Störströme nicht mehr den gleichen Weg nehmen wie die Signalströme. Eine ganze Reihe von unterschiedlichen Maßnahmen und Tricks laufen letztlich auf diese Zielsetzung hinaus.
Zum Beispiel die sternförmige Masseführung. Wenn Störströme und Signalströme auf verschiedenen "Strahlen" des Sterns fließen, dann treffen sie sich bloß im Sternpunkt, haben aber keinen gemeinsamen Weg. Damit fällt auch die Kopplung praktisch aus. Problem ist bloß: Man kann zwar die Masseverdrahtung innerhalb eines Gerätes sternförmig organisieren, wenn mehrere solche Geräte aber zusammengesteckt werden, dann ist das Gesamtgebilde in vielen Fällen nicht mehr sternförmig, und der Trick versagt. Innerhalb eines Gerätes entscheidet der Entwickler über die Masseführung, und wenn keine Schrauben abfallen oder Tuner rangelassen werden, dann bleibt das auch so. über das Zusammenstecken entscheidet dagegen der Kunde, und der weiß in der Regel weder über die Masseproblematik Bescheid, noch kennt er die interne Signalführung der Geräte. Das Ergebnis ist daher meist unabsehbar.
Zudem nutzt der Stern auch bloß, wenn wirklich der Signalstrom und der Störstrom auf verschiedenen Strahlen fließen. Das kann man beim Zusammenstecken von Geräten aber nicht immer garantieren.
Eine andere Taktik ist, die Masseanschlüsse aller Cinch-Buchsen direkt mit dem Metallgehäuse des Gerätes zu verbinden, und das Gehäuse somit als einheitliche Massefläche zu behandeln. Das hat erhebliche Vorteile wenn es um die Abschirmung gegen eindringende Funksignale geht, aber unser Problem mit der gemeinsamen Impedanz wird dadurch nicht unbedingt gelöst. Immerhin trennt sich so typischerweise schon direkt an der Buchse der Störstrom vom Signalstrom, und eine solide Masseverbindung im Kabel (ein dicker Schirm) hilft dann tatsächlich. Im Gerät kann man so aber die Masse nicht mehr sternförmig verkabeln, man muß sich also überlegen wie man mit unterschiedlichen Massepegeln umgeht, und erreicht daß alle Störströme im Gehäuse fließen und nicht durch die Schaltung.
Die konsequenteste Lösung ist die symmetrische Verbindung, denn da spielt die Masse nicht mehr die Rolle einer Referenz für das Signal. Damit ist es auch nicht mehr wichtig daß im ganzen Massenetz der gleiche Pegel herrscht. Die Störströme dürfen in der Masse fließen, ohne daß es einen Einfluß auf die davon getrennte Signalverkabelung zu haben braucht. Dazu ist aber nötig daß man nicht den Fehler begeht und dem Störstrom in der Masse wieder einen Pfad durch die Geräteelektronik ebnet. Um das zu gewährleisten muß man in der Praxis sauber unterscheiden zwischen der Schirmungs- und Gehäuse-Masse, in der die Störströme fließen dürfen, und der Signalmasse, die sauber bleiben muß. Das kann man bei der symmetrischen Verbindung auch, denn man braucht die Signalmasse nur innerhalb eines Gerätes. Für die Verbindung zu einem anderen Gerät ist sie nicht nötig und sollte daher auch gar nicht auf einen externen Anschluß geführt werden. Leider findet man bei vielen Geräten die Signalmasse an den symmetrischen Anschlüssen, wo sie eigentlich nichts zu suchen hätte. Das bildet nur ein mögliches Einfallstor für Störströme, die dann in der Elektronik herumvagabundieren und oftmals dort im Gerät ein Stück gemeinsamen Weg mit einem Audiosignal finden, wodurch wir wiederum die bekannte Kopplung haben.
Bei symmetrischen Verbindungen gilt also die Regel: Masseverbindungen und Schirmung sind immer die Gehäuse-Masse, die Signalmasse taucht gar nicht auf. Pegelunterschiede in der Masse zwischen den Geräten sehen für das empfangende Gerät dann so aus wie ein Gleichtaktsignal, und das wird durch die Differenzbildung unterdrückt, die zum symmetrischen Funktionsprinzip gehört.
Aber so sinnvoll und richtig es auch wäre, symmetrische Verbindungen hat man bei der Hifi-Technik so gut wie gar nicht. Man muß mit der unsymmetrischen Technik auskommen, und da gibt es keine Taktik, die man generell anwenden kann um Probleme zu vermeiden. Alles was man tun kann hat auch wieder irgendwelche Nachteile die in bestimmten Konstellationen dann wieder Probleme machen können.
Dem Ideal einer universellen Taktik noch am nächsten kommt der Einsatz von Übertragern zur galvanischen Trennung. Ein Übertrager trennt den Störstromkreis auf und überträgt nur das Nutzsignal. So weit wenigstens das Idealbild; in der Praxis ist ein Übertrager kein ideales Bauteil, was sich auf der einen Seite als Verzerrungen des Audiosignals äußern kann, auf der anderen Seite führen parasitäre Kapazitäten dazu daß hochfrequente Störströme nicht komplett unterdrückt werden. Leider ist die Tendenz bei Übertragern daß die besseren Modelle auch deutlich teurer sind. Generell aber werden Übertrager unterschätzt, und sie bieten auch heute noch oft die beste, einfachste und wirkungsvollste Lösung eines Störungsproblems.
Wo die Übertrager hin müssen hängt davon ab wo die Störströme in der Masse fließen, und damit sind wir beim Punkt wo diese Störströme eigentlich her kommen.
Die heftigsten Störströme kommen dann zustande, wenn man die Anlage an ein Massenetz anschließt, das sich noch weit über die eigentliche Anlage hinaus erstreckt. Damit ein Störstrom durch die Anlage fließen kann muß es zwei solche Verbindungen geben, eine einzige bildet noch keinen Pfad. In vielen Anlagen, in denen dieses Problem auftaucht, sind diese zwei Verbindungen der Schutzleiter der Netzstromversorgung auf der einen Seite, und der Schirm der Antennen- oder Kabelanlage auf der anderen Seite. Beide sind irgendwo im Gebäude geerdet, aber oft nicht an der gleichen Stelle. Damit gehört zum weitverzweigten Massesystem, zu dem jetzt die Anlage dazugehört, so gut wie die ganze elektrische Hausinstallation, und Differenzen in den Massepegeln treiben Ströme an, die durch die Hifi-Anlage fließen.
Die Antriebskraft für solche Störströme ist oft der Induktionseffekt. Dabei entsteht ein Strom in einer geschlossenen Leiterschleife, wenn ein magnetisches Wechselfeld durch die Schleife hindurch geht. Umgekehrt erzeugt ein Wechselstrom in einer Schleife genau so ein Wechselfeld. Die elektrische Verkabelung in den Häusern erzeugt also solche Felder, und die werden durch benachbarte Leitungen auch wieder in Ströme umgewandelt. Es funtioniert wie ein Transformator, aber mit einem sehr schlechten Wirkungsgrad. Je mehr Stom wir verbrauchen desto stärker werden die Wechselfelder, und desto mehr Störstrom bekommen wir auch in der Masseverkabelung.
Gegen solche magnetische Wechselfelder kann man nur sehr schlecht abschirmen. Zumindest gilt das für die niedrigen Frequenzen wie man sie im Stromnetz findet. Es hilft wenn man die von der Leiterschleife umschlossene Fläche so klein wie möglich macht, dann kann auch entsprechend wenig Feld auf die Schleife wirken. Am besten ist das Verdrillen der Hin- und Rückleitung. Da aber die Massekabel aus unserem Beispiel schon in den Wänden liegen hat man darauf keinen Einfluß.
Wer ein Multimeter hat, das einen Meßbereich für Wechselstrom hat, der kann probehalber den Strom messen, der fließt wenn man die Masse der Antennenanlage bzw. Kabelanlage an einer Antennensteckdose verbindet mit dem Schutzleiter einer benachbarten Steckdose. Dieser Strom würde durch eine Hifi-Anlage fließen, wenn man sie an beide anschließt. Das können schnell einige zig oder 100 mA werden. Das ist der Strom, der zum bekannten Brummen führt, das allgemein als "Brummschleife" bekannt ist. Die Schleife führt in diesem Fall durch's ganze Haus, bis zu dem Punkt an dem sich die Erdung der Antennenanlage und die Erdung des Stromnetzes treffen.
Wenn dieser Strom nicht durch die Masseverbindungen der Anlage fließen soll, dann darf die Anlage nicht gleichzeitig mit der Antennenanlage und mit dem Schutzleiter verbunden sein. Manche Oberschlaue unterbrechen die Schutzleiterverbindung, aber das ist nicht umsonst verboten, denn es ist gefährlich, weil es eine Zeitbombe installiert, die bloß auf einen weiteren Fehler warten muß um zu einem Unfall zu werden. Die bessere Lösung ist die Verwendung eines sog. Mantelstromfilters in der Antennenleitung, was wieder ein Übertrager sein könnte, der eine galvanische Trennung bewirkt. Das geht aber nicht bei Satellitenanlagen, wo in der Antennenleitung eine Speisespannung geführt wird, die durch einen Mantelstromfilter unterbrochen würde.
Was auch funktionieren kann ist, wenn man eine Netzleiste benutzt die auch für die Antennenleitung einen "Filter" eingebaut hat. Der entscheidende Punkt ist hier nicht der Filter, sondern daß in der Leiste der Schutzleiter mit der Masse der Antennenbuchse verbunden ist. Der Störstrom kann dann durch diese Verbindung fließen, und nicht mehr durch die Anlage. Dazu muß die gesamte Anlage durch diese Leiste versorgt werden, oder wenigstens die Geräte, die einen Schutzleiteranschluß haben.
Wegen dieses Problems werden Hifi-Geräte meistens als schutzisolierte Geräte gebaut, die keinen Schutzleiteranschluß brauchen (und auch gar nicht haben dürfen). Für viele Fälle beschränkt sich damit die Verbindung zu einer größeren Massestruktur auf den Antennenanschluß, und wir haben gesehen daß eine Verbindung allein noch kein Problem darstellt.
Das wird aber in dem Moment hinfällig, in dem ein PC an die Anlage angeschlossen wird, denn PCs haben fast grundsätzlich Schutzleiteranschluß. Aus diesem Grund fängt bei Vielen das Brummen in dem Moment an in dem ein PC zur Anlage dazu kommt.
Aber auch ohne PC kann es Probleme geben, selbst wenn eigentlich bloß eine Masseverbindung nach "außen" existiert, und das kommt davon daß Störströme auch kapazitiv übertragen werden können, also ohne direkte Drahtverbindung. Das funktioniert umso besser je höher die Frequenzen werden, weshalb es bei 50 oder 100 Hertz, wie im Stromnetz, meist noch kein nennenswertes Problem gibt. Da aber auch bei Hifi immer mehr Schaltnetzteile verwendet werden (bei PC's und TV-Geräten sowieso), sind neuerdings viel höhere Frequenzen im Spiel, und die kommen viel leichter durch irgendwelche Kapazitäten, die entweder parasitär in einem Transformator existieren, oder gewollt in einem Netz-Entstörfilter.
Letztlich heißt das, daß unter Umständen genug Kapazität vorhanden ist, um auch ohne Schutzleiterverbindung einem merklichen Störstrom zuzulassen. Je mehr Geräte zusammengeschaltet sind, je eher kann es zu einem Strom kommen der stark genug ist um sich bemerkbar zu machen. Das bedeutet daß es keine komplette Problemlösung ergibt, wenn die Geräte schutzisoliert sind. Es hilft, aber es ist unter Umständen nicht die ganze Miete.
Die kapazitiv übertragenen Ströme können auch ohne Antennenverbindung noch zu Problemen führen, wenn sie stark genug sind. Kein Brummen oder Rauschen, aber meßbare und im Extremfall hörbare Störungen.
Die unsymmetrische Verbindung war bei weitem ausreichend als sie eingeführt wurde, in Zeiten von Mono-Dampfradios und Schellack-Platten. In der Zwischenzeit sind auf der einen Seite die technischen Daten immer besser geworden, und eine Anlage umfaßt immer mehr Geräte. Zudem gab es damals kaum geerdete Antennenanlagen, und schon gar keine Satellitenanlagen oder Kabelanlagen. Und der Stromverbrauch im Haushalt war viel geringer, entsprechend geringer auch die Felder. Schließlich gab's auch keine Schaltnetzteile im Haushalt. All das hat einzeln gesehen nur geringfügige Bedutung, aber es summiert sich. Es führt dazu daß es heute ziemlich schwierig sein kann dafür zu sorgen daß eine größere Anlage auch die technischen Daten ausspielen kann, die jedes einzelne Gerät für sich genommen haben sollte.
Es ist auffällig, daß High-End-Geräte, gerade auch die von kleineren Herstellern, überdurchschnittlich oft einen Schutzleiteranschluß haben. Das ist auch nicht weiter verwunderlich, denn ansonsten müßten sie schutzisoliert sein. Im Zusammenhang mit unsymmetrischen Cinch-Verbindungen führt das aber schnell zu Brummschleifen. Ich finde daher, daß Geräte mit unsymmetrischen Anschlüssen schutzisoliert sein sollten, andernfalls muß man damit rechnen in Übertrager investieren zu müssen. Genau genommen finde ich daß es langsam an der Zeit wäre, zu symmetrischen Verbindungen überzugehen, aber das wird kaum durchzusetzen sein.
Die Kosten wären gar nicht das Problem. Aber außer dem Problem mit der Rückwärtskompatibilität mit den letzten 60 Jahren müßte man dafür noch mit dem High-End-Vorurteil fertig werden daß symmetrische Verbindungen schlechter sein sollen, weil man dazu mehr Verstärkerstufen braucht. Dabei müßte man schon sehr schlampig arbeiten um eine Verstärkerstufe so schlecht zu machen daß sie sich hier bemerkbar machen würde.
Eher schon wird die Lösung aus der digitalen Ecke kommen. Eine Toslink-Verbindung ist automatisch störunanfällig und bewirkt eine galvanische Trennung. Wenn sie mechanisch zuverlässiger wäre gäbe es wenig zu kritisieren. Eine Ethernet-Verbindung beinhaltet immer auch Übertrager und damit eine galvanische Trennung. Wenn die Übertragung drahtlos wird dann sowieso. Das könnte irgendwann das Problem durch die Hintertür lösen.
Wenn es dann noch Audiomaterial gibt, das sich störungsfrei abzuspielen lohnt.
Das Problem dabei ist, daß die Symptomatik sogar für viele Fachleute ziemlich undurchsichtig sein kann. Viele der Probleme kommen auch überhaupt erst zutage wenn man mehrere Geräte zusammensteckt, und finden daher weder bei den Messungen des Herstellers, noch bei Zeitschriften-Tests irgendeine Beachtung. Ein- und dasselbe Gerät kann so auf dem Labortisch ein einwandfreies Bild abgeben, und in der Anlage dennoch Probleme machen. Wer weiß, vielleicht ist das ja auch eine der Ursachen dafür daß viele Leute davon reden, man müsse eine Anlage "abstimmen". Wenn eine Anlage ein Masseproblem hat, dann kann beim Austausch einzelner Komponenten sich das Fehlerbild fast beliebig ändern, auch beliebig subtil.
Da die Masse immer verbunden ist, sogar wenn ein Gerät ausgeschaltet ist, hängt im Grunde alles mit allem zusammen, und Dinge können einen Einfluß haben an die kaum jemand denken würde. Umso mehr, je mehr Geräte da zusammengesteckt werden.
Das Problem hat unmittelbar damit zu tun, daß in der Hifi-Technik praktisch durchgehend unsymmetrische Verbindungen verwendet werden. Und die verwendet man vor Allem aus historischen Gründen. Sie sind zwar auch ein bißchen billiger als die symmetrischen Verbindungen, aber das würde einen Umstieg nicht verhindern. Der Hauptgrund dafür warum man bei unsymmetrischen Verbindungen bleibt, ist die Kompatibilität zu bisherigen Geräten. So gut wie alle Geräte haben Cinch-Anschlüsse, und daher wird erwartet daß auch alle neuen Geräte damit ausgerüstet sind. Man ist de facto als Hersteller gezwungen, die problematische Technik beizubehalten.
Eine unsymmetrische Verbindung hat zwei Kontakte, und sie heißt deswegen unsymmetrisch weil diese beiden Kontakte sehr unterschiedliche Rollen spielen. Es gibt einen Kontakt für's Signal, und einen für die Masse. Wenn es mehrere Signale gibt, die zugleich übertragen werden, dann kann man den Masseanschluß für diese Signale auch gemeinsam machen. Das passiert unter Anderem beim Klinkenstecker, z.B. an Kopfhörern, oder beim Mini-Klinkenstecker der bei PC-Soundkarten so verbreitet ist. Auch die alten DIN-Stecker (auch Diodenstecker genannt) haben für alle Signale einen gemeinsamen Masseanschluß.
Die unsymmetrische Übertragung geht davon aus daß alle beteiligten Geräte auf dem gleichen Massepegel liegen, und der Sinn der Masseverbindung ist es, diese Grundbedingung herzustellen. Die Qualität der Signalübertragung hängt davon ab wie gut die Übereinstimmung der Massepegel im konkreten Fall ist, denn jeder Unterschied wirkt als Störung auf das Audiosignal.
Auf den ersten Blick scheint das kein Problem zu sein. Man verbindet die Massen der Geräte per Kabel, damit sind sie auch auf dem gleichen Pegel. Auf einem Schaltplan scheint es ebenso einfach zu sein, da hat man für die Masse ein Symbol, und alle diese Symbole sind als untereinander verbunden zu denken. Die Masse (daher auch der Name) wird als metallener Klumpen betrachtet, der überall einen einheitlichen Spannungspegel hat, und daher auch als Bezugspunkt für die Audiosignale in Frage kommt. Man tut so als wäre jeder Punkt im weitverzweigten Massenetz einer Anlage mit jedem anderen Punkt des Massenetzes austauschbar.
In der Praxis ist es aber nicht immer so. Es gibt diverse mögliche Ursachen dafür daß Ströme in diesem Massenetz kursieren, die nichts mit dem Audiosignal zu tun haben. Und da die Widerstände bzw. Impedanzen in diesem Massenetz nicht gleich Null sind, ergeben sich daraus auch Differenzen in den Massepegeln an verschiedenen Punkten (Ohm'sches Gesetz). Und damit Audiostörungen.
Diese Störungen können sehr unterschiedlich stark sein, je nach den konkreten Umständen. In einem Fall ist es vielleicht bloß meßtechnisch nachweisbar, in anderen Fällen brummt oder rauscht es kräftig. Das sind normalerweise keine Einstrahlungen, es ist ein gänzlich anderer Mechanismus der solche Störungen produziert. Man spricht von einer Kopplung durch eine gemeinsame Impedanz. Die gemeinsame Impedanz, das ist in diesem Fall die Impedanz der Masseverbindung, durch die sowohl der Signalstrom als auch der Störstrom fließt.
Das läßt schon erkennen, daß man diese Störungen z.B. dadurch bekämpfen kann, indem man die Impedanz der Masse so klein macht wie es geht. Dadurch löst man allerdings das Problem nicht prinzipiell, sondern man verringert es nur. Und als Gerätekäufer hat man auch nur begrenzte Möglichkeiten dafür. Man kann zwar Kabel mit sehr niederohmiger Masseverbindung einsetzen (das bedeutet in der Regel ein großzügig dimensioniertes Schirmgeflecht), aber an den Verhältnissen in den Geräten selbst, speziell den Impedanzen der Masseverbindungen darin, ändert man damit nichts. Wenn die Impedanzen im Gerät schon größer als im Kabel sind, dann bringt ein noch stärkeres Kabel nichts mehr.
Wer verstehen will was sich da abspielt mit den Störströmen, der kommt meist nicht recht auf einen grünen Zweig wenn er sich gedanklich mit den Spannungspegeln beschäftigt. Besser ist es man denkt in Strömen, und dem Weg den sie nehmen. Für viele Elektriker und Elektroniker ist das eine ungewohnte Betrachtungsweise. Vielleicht ist das der Grund warum in dieser Sache so viel Unverstand herrscht.
Die meisten Gegenmaßnahmen gegen die Kopplung über eine gemeinsame Impedanz versuchen zu erreichen, daß es keine gemeinsame Impedanz menr gibt. Das heißt daß die Störströme nicht mehr den gleichen Weg nehmen wie die Signalströme. Eine ganze Reihe von unterschiedlichen Maßnahmen und Tricks laufen letztlich auf diese Zielsetzung hinaus.
Zum Beispiel die sternförmige Masseführung. Wenn Störströme und Signalströme auf verschiedenen "Strahlen" des Sterns fließen, dann treffen sie sich bloß im Sternpunkt, haben aber keinen gemeinsamen Weg. Damit fällt auch die Kopplung praktisch aus. Problem ist bloß: Man kann zwar die Masseverdrahtung innerhalb eines Gerätes sternförmig organisieren, wenn mehrere solche Geräte aber zusammengesteckt werden, dann ist das Gesamtgebilde in vielen Fällen nicht mehr sternförmig, und der Trick versagt. Innerhalb eines Gerätes entscheidet der Entwickler über die Masseführung, und wenn keine Schrauben abfallen oder Tuner rangelassen werden, dann bleibt das auch so. über das Zusammenstecken entscheidet dagegen der Kunde, und der weiß in der Regel weder über die Masseproblematik Bescheid, noch kennt er die interne Signalführung der Geräte. Das Ergebnis ist daher meist unabsehbar.
Zudem nutzt der Stern auch bloß, wenn wirklich der Signalstrom und der Störstrom auf verschiedenen Strahlen fließen. Das kann man beim Zusammenstecken von Geräten aber nicht immer garantieren.
Eine andere Taktik ist, die Masseanschlüsse aller Cinch-Buchsen direkt mit dem Metallgehäuse des Gerätes zu verbinden, und das Gehäuse somit als einheitliche Massefläche zu behandeln. Das hat erhebliche Vorteile wenn es um die Abschirmung gegen eindringende Funksignale geht, aber unser Problem mit der gemeinsamen Impedanz wird dadurch nicht unbedingt gelöst. Immerhin trennt sich so typischerweise schon direkt an der Buchse der Störstrom vom Signalstrom, und eine solide Masseverbindung im Kabel (ein dicker Schirm) hilft dann tatsächlich. Im Gerät kann man so aber die Masse nicht mehr sternförmig verkabeln, man muß sich also überlegen wie man mit unterschiedlichen Massepegeln umgeht, und erreicht daß alle Störströme im Gehäuse fließen und nicht durch die Schaltung.
Die konsequenteste Lösung ist die symmetrische Verbindung, denn da spielt die Masse nicht mehr die Rolle einer Referenz für das Signal. Damit ist es auch nicht mehr wichtig daß im ganzen Massenetz der gleiche Pegel herrscht. Die Störströme dürfen in der Masse fließen, ohne daß es einen Einfluß auf die davon getrennte Signalverkabelung zu haben braucht. Dazu ist aber nötig daß man nicht den Fehler begeht und dem Störstrom in der Masse wieder einen Pfad durch die Geräteelektronik ebnet. Um das zu gewährleisten muß man in der Praxis sauber unterscheiden zwischen der Schirmungs- und Gehäuse-Masse, in der die Störströme fließen dürfen, und der Signalmasse, die sauber bleiben muß. Das kann man bei der symmetrischen Verbindung auch, denn man braucht die Signalmasse nur innerhalb eines Gerätes. Für die Verbindung zu einem anderen Gerät ist sie nicht nötig und sollte daher auch gar nicht auf einen externen Anschluß geführt werden. Leider findet man bei vielen Geräten die Signalmasse an den symmetrischen Anschlüssen, wo sie eigentlich nichts zu suchen hätte. Das bildet nur ein mögliches Einfallstor für Störströme, die dann in der Elektronik herumvagabundieren und oftmals dort im Gerät ein Stück gemeinsamen Weg mit einem Audiosignal finden, wodurch wir wiederum die bekannte Kopplung haben.
Bei symmetrischen Verbindungen gilt also die Regel: Masseverbindungen und Schirmung sind immer die Gehäuse-Masse, die Signalmasse taucht gar nicht auf. Pegelunterschiede in der Masse zwischen den Geräten sehen für das empfangende Gerät dann so aus wie ein Gleichtaktsignal, und das wird durch die Differenzbildung unterdrückt, die zum symmetrischen Funktionsprinzip gehört.
Aber so sinnvoll und richtig es auch wäre, symmetrische Verbindungen hat man bei der Hifi-Technik so gut wie gar nicht. Man muß mit der unsymmetrischen Technik auskommen, und da gibt es keine Taktik, die man generell anwenden kann um Probleme zu vermeiden. Alles was man tun kann hat auch wieder irgendwelche Nachteile die in bestimmten Konstellationen dann wieder Probleme machen können.
Dem Ideal einer universellen Taktik noch am nächsten kommt der Einsatz von Übertragern zur galvanischen Trennung. Ein Übertrager trennt den Störstromkreis auf und überträgt nur das Nutzsignal. So weit wenigstens das Idealbild; in der Praxis ist ein Übertrager kein ideales Bauteil, was sich auf der einen Seite als Verzerrungen des Audiosignals äußern kann, auf der anderen Seite führen parasitäre Kapazitäten dazu daß hochfrequente Störströme nicht komplett unterdrückt werden. Leider ist die Tendenz bei Übertragern daß die besseren Modelle auch deutlich teurer sind. Generell aber werden Übertrager unterschätzt, und sie bieten auch heute noch oft die beste, einfachste und wirkungsvollste Lösung eines Störungsproblems.
Wo die Übertrager hin müssen hängt davon ab wo die Störströme in der Masse fließen, und damit sind wir beim Punkt wo diese Störströme eigentlich her kommen.
Die heftigsten Störströme kommen dann zustande, wenn man die Anlage an ein Massenetz anschließt, das sich noch weit über die eigentliche Anlage hinaus erstreckt. Damit ein Störstrom durch die Anlage fließen kann muß es zwei solche Verbindungen geben, eine einzige bildet noch keinen Pfad. In vielen Anlagen, in denen dieses Problem auftaucht, sind diese zwei Verbindungen der Schutzleiter der Netzstromversorgung auf der einen Seite, und der Schirm der Antennen- oder Kabelanlage auf der anderen Seite. Beide sind irgendwo im Gebäude geerdet, aber oft nicht an der gleichen Stelle. Damit gehört zum weitverzweigten Massesystem, zu dem jetzt die Anlage dazugehört, so gut wie die ganze elektrische Hausinstallation, und Differenzen in den Massepegeln treiben Ströme an, die durch die Hifi-Anlage fließen.
Die Antriebskraft für solche Störströme ist oft der Induktionseffekt. Dabei entsteht ein Strom in einer geschlossenen Leiterschleife, wenn ein magnetisches Wechselfeld durch die Schleife hindurch geht. Umgekehrt erzeugt ein Wechselstrom in einer Schleife genau so ein Wechselfeld. Die elektrische Verkabelung in den Häusern erzeugt also solche Felder, und die werden durch benachbarte Leitungen auch wieder in Ströme umgewandelt. Es funtioniert wie ein Transformator, aber mit einem sehr schlechten Wirkungsgrad. Je mehr Stom wir verbrauchen desto stärker werden die Wechselfelder, und desto mehr Störstrom bekommen wir auch in der Masseverkabelung.
Gegen solche magnetische Wechselfelder kann man nur sehr schlecht abschirmen. Zumindest gilt das für die niedrigen Frequenzen wie man sie im Stromnetz findet. Es hilft wenn man die von der Leiterschleife umschlossene Fläche so klein wie möglich macht, dann kann auch entsprechend wenig Feld auf die Schleife wirken. Am besten ist das Verdrillen der Hin- und Rückleitung. Da aber die Massekabel aus unserem Beispiel schon in den Wänden liegen hat man darauf keinen Einfluß.
Wer ein Multimeter hat, das einen Meßbereich für Wechselstrom hat, der kann probehalber den Strom messen, der fließt wenn man die Masse der Antennenanlage bzw. Kabelanlage an einer Antennensteckdose verbindet mit dem Schutzleiter einer benachbarten Steckdose. Dieser Strom würde durch eine Hifi-Anlage fließen, wenn man sie an beide anschließt. Das können schnell einige zig oder 100 mA werden. Das ist der Strom, der zum bekannten Brummen führt, das allgemein als "Brummschleife" bekannt ist. Die Schleife führt in diesem Fall durch's ganze Haus, bis zu dem Punkt an dem sich die Erdung der Antennenanlage und die Erdung des Stromnetzes treffen.
Wenn dieser Strom nicht durch die Masseverbindungen der Anlage fließen soll, dann darf die Anlage nicht gleichzeitig mit der Antennenanlage und mit dem Schutzleiter verbunden sein. Manche Oberschlaue unterbrechen die Schutzleiterverbindung, aber das ist nicht umsonst verboten, denn es ist gefährlich, weil es eine Zeitbombe installiert, die bloß auf einen weiteren Fehler warten muß um zu einem Unfall zu werden. Die bessere Lösung ist die Verwendung eines sog. Mantelstromfilters in der Antennenleitung, was wieder ein Übertrager sein könnte, der eine galvanische Trennung bewirkt. Das geht aber nicht bei Satellitenanlagen, wo in der Antennenleitung eine Speisespannung geführt wird, die durch einen Mantelstromfilter unterbrochen würde.
Was auch funktionieren kann ist, wenn man eine Netzleiste benutzt die auch für die Antennenleitung einen "Filter" eingebaut hat. Der entscheidende Punkt ist hier nicht der Filter, sondern daß in der Leiste der Schutzleiter mit der Masse der Antennenbuchse verbunden ist. Der Störstrom kann dann durch diese Verbindung fließen, und nicht mehr durch die Anlage. Dazu muß die gesamte Anlage durch diese Leiste versorgt werden, oder wenigstens die Geräte, die einen Schutzleiteranschluß haben.
Wegen dieses Problems werden Hifi-Geräte meistens als schutzisolierte Geräte gebaut, die keinen Schutzleiteranschluß brauchen (und auch gar nicht haben dürfen). Für viele Fälle beschränkt sich damit die Verbindung zu einer größeren Massestruktur auf den Antennenanschluß, und wir haben gesehen daß eine Verbindung allein noch kein Problem darstellt.
Das wird aber in dem Moment hinfällig, in dem ein PC an die Anlage angeschlossen wird, denn PCs haben fast grundsätzlich Schutzleiteranschluß. Aus diesem Grund fängt bei Vielen das Brummen in dem Moment an in dem ein PC zur Anlage dazu kommt.
Aber auch ohne PC kann es Probleme geben, selbst wenn eigentlich bloß eine Masseverbindung nach "außen" existiert, und das kommt davon daß Störströme auch kapazitiv übertragen werden können, also ohne direkte Drahtverbindung. Das funktioniert umso besser je höher die Frequenzen werden, weshalb es bei 50 oder 100 Hertz, wie im Stromnetz, meist noch kein nennenswertes Problem gibt. Da aber auch bei Hifi immer mehr Schaltnetzteile verwendet werden (bei PC's und TV-Geräten sowieso), sind neuerdings viel höhere Frequenzen im Spiel, und die kommen viel leichter durch irgendwelche Kapazitäten, die entweder parasitär in einem Transformator existieren, oder gewollt in einem Netz-Entstörfilter.
Letztlich heißt das, daß unter Umständen genug Kapazität vorhanden ist, um auch ohne Schutzleiterverbindung einem merklichen Störstrom zuzulassen. Je mehr Geräte zusammengeschaltet sind, je eher kann es zu einem Strom kommen der stark genug ist um sich bemerkbar zu machen. Das bedeutet daß es keine komplette Problemlösung ergibt, wenn die Geräte schutzisoliert sind. Es hilft, aber es ist unter Umständen nicht die ganze Miete.
Die kapazitiv übertragenen Ströme können auch ohne Antennenverbindung noch zu Problemen führen, wenn sie stark genug sind. Kein Brummen oder Rauschen, aber meßbare und im Extremfall hörbare Störungen.
Die unsymmetrische Verbindung war bei weitem ausreichend als sie eingeführt wurde, in Zeiten von Mono-Dampfradios und Schellack-Platten. In der Zwischenzeit sind auf der einen Seite die technischen Daten immer besser geworden, und eine Anlage umfaßt immer mehr Geräte. Zudem gab es damals kaum geerdete Antennenanlagen, und schon gar keine Satellitenanlagen oder Kabelanlagen. Und der Stromverbrauch im Haushalt war viel geringer, entsprechend geringer auch die Felder. Schließlich gab's auch keine Schaltnetzteile im Haushalt. All das hat einzeln gesehen nur geringfügige Bedutung, aber es summiert sich. Es führt dazu daß es heute ziemlich schwierig sein kann dafür zu sorgen daß eine größere Anlage auch die technischen Daten ausspielen kann, die jedes einzelne Gerät für sich genommen haben sollte.
Es ist auffällig, daß High-End-Geräte, gerade auch die von kleineren Herstellern, überdurchschnittlich oft einen Schutzleiteranschluß haben. Das ist auch nicht weiter verwunderlich, denn ansonsten müßten sie schutzisoliert sein. Im Zusammenhang mit unsymmetrischen Cinch-Verbindungen führt das aber schnell zu Brummschleifen. Ich finde daher, daß Geräte mit unsymmetrischen Anschlüssen schutzisoliert sein sollten, andernfalls muß man damit rechnen in Übertrager investieren zu müssen. Genau genommen finde ich daß es langsam an der Zeit wäre, zu symmetrischen Verbindungen überzugehen, aber das wird kaum durchzusetzen sein.
Die Kosten wären gar nicht das Problem. Aber außer dem Problem mit der Rückwärtskompatibilität mit den letzten 60 Jahren müßte man dafür noch mit dem High-End-Vorurteil fertig werden daß symmetrische Verbindungen schlechter sein sollen, weil man dazu mehr Verstärkerstufen braucht. Dabei müßte man schon sehr schlampig arbeiten um eine Verstärkerstufe so schlecht zu machen daß sie sich hier bemerkbar machen würde.
Eher schon wird die Lösung aus der digitalen Ecke kommen. Eine Toslink-Verbindung ist automatisch störunanfällig und bewirkt eine galvanische Trennung. Wenn sie mechanisch zuverlässiger wäre gäbe es wenig zu kritisieren. Eine Ethernet-Verbindung beinhaltet immer auch Übertrager und damit eine galvanische Trennung. Wenn die Übertragung drahtlos wird dann sowieso. Das könnte irgendwann das Problem durch die Hintertür lösen.
Wenn es dann noch Audiomaterial gibt, das sich störungsfrei abzuspielen lohnt.
Montag, 7. Dezember 2009
Die Relativität von Falsch
Wie ich schon oft erfahren durfte steht man bei den Audiophilen schnell unter Generalverdacht wenn man durchblicken läßt daß man etwas weiß. Insbesondere wenn das den audiophilen Dogmen widerspricht. Der Vorwurf der Arroganz ist dann meist nicht weit. Ein mit schöner Regelmäßigkeit wiederkehrendes "Argument" kreist dabei um die Frage, ob ich es mir sozusagen moralisch leisten kann, hier von Wissen zu sprechen, wo doch selbst das wissenschaftliche Wissen vorläufig ist, und immer wieder fundamentalen Änderungen unterworfen. Der moralisch einwandfreie Wissenschaftler, der nicht von pelmazo's Größenwahn befallen ist, so heißt es, ist sich dessen bewußt und räumt die Möglichkeit ein daß man falsch liegen könnte, und die Zukunft gänzlich andere Ergebnisse bringen könnte. Ich solle also, so scheint man sagen zu wollen, gefälligst bescheiden sein und anerkennen daß die Gegenseite schlußendlich doch recht haben könnte.
In den meisten Fällen ist zwar klar daß das eine lahme Ausrede ist, die nur schwer verschleiern kann daß meinem Gegenüber ein überzeugendes positives Argument für seine Sache fehlt, und er darum versucht auf die Ebene moralischer Tabuisierung auszuweichen. Die Sache verrät aber auch eine offenbar ziemlich weit verbreitete falsche Vorstellung davon wie Wissenschaft funktioniert und wie es um die Falsch- oder Richtigkeit wissenschaftlicher Erkenntnisse aussieht.
Ich bin zwar kein Wissenschaftler, sondern Anwender wissenschaftlicher Erkenntnisse, ich denke aber schon daß ich dazu ein paar sinnvolle Dinge sagen kann. Noch besser kann's aber Isaac Asimov, der wenige Jahre vor seinem Tod im Skeptical Inquirer einen Artikel schrieb mit dem Titel "The Relativity of Wrong". Für Englischkenner sehr zu empfehlen, obwohl ich befürchte daß das wieder die lesen (und vor allem verstehen) werden, die's ohnehin nicht nötig hätten. Und die anderen werden wahrscheinlich wieder dozieren wie viel besser doch Asimov's Stil gegenüber meinem ist, und was für ein Kotzbrocken ich im Vergleich dazu bin.
Und es stimmt ja auch. Asimov berichtet von einer ziemlichen Zumutung (mein Begriff!), wo ein Student der englischen Literatur im Hauptfach es für nötig hält, ausgerechnet Asimov einen Vortrag über Wissenschaft zu halten. Wo ich wohl "Arschloch" gedacht und etwas nur geringfügig Entschärftes geschrieben hätte, begnügt sich Asimov mit einer ironischen Spitze. Nun gut, er schreibt auch in einem respektablen Blatt und ich nur in meinem Blog. Er schreibt (in meiner Übersetzung):
Was Asimov ganz in meinem Sinne klarstellt ist, daß es bei wissenschaftlichen Erkenntnissen und Theorien verschiedene "Grade" der Falschheit gibt. Er erklärt, warum die Theorie der flachen Erde und die Theorie der kugelförmigen Erde beide falsch sind, warum aber zum Einen die Erstere sehr viel falscher ist als die zweite, und zum Anderen daß trotzdem beide in ihrem jeweiligen Anwendungsbereich sinnvoll, nützlich und in gewissem Sinn auch richtig sind. Er entgegnet dem naßforschen Studenten:
So ist die Vorstellung einer flachen Erde bis heute nützlich und wird praktisch eingesetzt. So lange keine größeren Entfernungen im Spiel sind ist der Fehler oft vernachlässigbar. Erst über weiter Entfernungen baut sich ein Fehler auf der dann nicht mehr zu vernachlässigen ist. Ob die Theorie der flachen Erde reicht oder ob man die bessere Theorie der kugelförmigen Erde braucht ist damit eine Frage, die mit dem Aktionsradius des Menschen zu tun hat, und mit seinen Genauigkeitsansprüchen. Und so ist es auch mit den noch genaueren Theorien über die Form der Erde, die seither entwickelt wurden. Die sind zwar immer besser, aber zugleich auch immer seltener wirklich nötig. Die älteren, eigentlich falschen, aber dafür einfacheren Theorien decken die große Mehrheit der Anwendungsfälle immer noch ab.
Im Grunde gelten folglich die verschiedenen Theorien alle zusammen, und man muß bloß bei jedem Anwendungsfall eine Abwägung treffen zwischen dem Fehler den man zu tolerieren bereit ist, und der Einfachheit der Theorie. Das Beste ist, die einfachste Theorie zu verwenden, deren Fehler noch tolerierbar ist. Der Fehler, den man z.B. beim Ausmessen eines Grundstücks macht, wenn man von einer flachen Erde ausgeht, ist selten so groß daß man deswegen auf die kompliziertere sphärische Geometrie ausweichen müßte, ganz zu schweigen von der Geometrie eines Ellipsoids.
Aus dem gleichen Grund verwendet wohl kaum jemand im täglichen Leben die Quantentheorie, oder die Relativitätstheorie, obwohl die Newton'sche Mechanik durch diese beiden neueren Theorien bekanntlich korrigiert wurde.
Unsere Audiophilen machen daher genau den gleichen Fehler wie der besagte Student. Eine bewährte alte Theorie wird nicht durch eine neuere Theorie einfach auf den Müllhaufen der Geschichte verbannt. Was richtig war wird nicht plötzlich durch den wissenschaftlichen Erkenntnisfortschritt falsch. Es wird ergänzt, und sein Anwendungsbereich wird besser abgegrenzt. Innerhalb dieses Anwendungsbereiches kann man ohne Probleme weiterhin mit der alten Theorie arbeiten, und wird das auch in Zukunft können.
Die Hoffnungen, eine noch zu findende neue Theorie des Hörens würde also irgendwann plötzlich alle diese Dinge bestätigen, die in den feuchten Träumen der Audiophilen vorkommen, sind vergeblich. Die jetzt schon bekannten Erkennntnisse stecken einen Rahmen für die zukünftigen Erkenntnisse, insbesondere was die Größe des Fehlers angeht den die momentanen Theorien noch enthalten.
Angesichts dessen ist mir nicht bange daß ich eines Tages etwas von dem zurück nehmen müßte was ich bisher an wissenschaftlichen Erkenntnissen vertreten habe. Was jetzt schon als Unsinn erkennbar ist wird auch in Zukunft Unsinn bleiben.
Wenn man sich dagegen vor Augen führt daß die Audiophilen nicht selten glauben, sie hörten mühelos Dinge, die der Wissenschaft auch nach über hundert Jahren Forschung im akustischen Bereich noch nicht aufgefallen sind, die aber bestimmt in der Zukunft noch irgendwo in der neunten Nachkommastelle entdeckt werden würden, dann ist meiner Meinung nach sonnenklar wer hier in Wirklichkeit die Arroganz und den Größenwahn hat.
In den meisten Fällen ist zwar klar daß das eine lahme Ausrede ist, die nur schwer verschleiern kann daß meinem Gegenüber ein überzeugendes positives Argument für seine Sache fehlt, und er darum versucht auf die Ebene moralischer Tabuisierung auszuweichen. Die Sache verrät aber auch eine offenbar ziemlich weit verbreitete falsche Vorstellung davon wie Wissenschaft funktioniert und wie es um die Falsch- oder Richtigkeit wissenschaftlicher Erkenntnisse aussieht.
Ich bin zwar kein Wissenschaftler, sondern Anwender wissenschaftlicher Erkenntnisse, ich denke aber schon daß ich dazu ein paar sinnvolle Dinge sagen kann. Noch besser kann's aber Isaac Asimov, der wenige Jahre vor seinem Tod im Skeptical Inquirer einen Artikel schrieb mit dem Titel "The Relativity of Wrong". Für Englischkenner sehr zu empfehlen, obwohl ich befürchte daß das wieder die lesen (und vor allem verstehen) werden, die's ohnehin nicht nötig hätten. Und die anderen werden wahrscheinlich wieder dozieren wie viel besser doch Asimov's Stil gegenüber meinem ist, und was für ein Kotzbrocken ich im Vergleich dazu bin.
Und es stimmt ja auch. Asimov berichtet von einer ziemlichen Zumutung (mein Begriff!), wo ein Student der englischen Literatur im Hauptfach es für nötig hält, ausgerechnet Asimov einen Vortrag über Wissenschaft zu halten. Wo ich wohl "Arschloch" gedacht und etwas nur geringfügig Entschärftes geschrieben hätte, begnügt sich Asimov mit einer ironischen Spitze. Nun gut, er schreibt auch in einem respektablen Blatt und ich nur in meinem Blog. Er schreibt (in meiner Übersetzung):
"Ich seufzte ein wenig, denn ich kannte sehr wenige Literaturstudenten im Hauptfach, die gerüstet sind um mir Wissenschaft beizubringen, aber ich bin mir sehr bewußt über den ausgedehnten Zustand meiner Unkenntnis, und ich bin bereit, von jedem so viel zu lernen wie ich kann, also las ich weiter."Wo Asimov eher der Feinmechaniker der Sprache ist, bin ich eher der Schlosser, zumal ich nicht recht einsehe warum ich solch ähnliche Zumutungen in einer so feinen Ironie kommentieren sollte daß der betreffende vielleicht die Bedeutung gar nicht erkennt.
Was Asimov ganz in meinem Sinne klarstellt ist, daß es bei wissenschaftlichen Erkenntnissen und Theorien verschiedene "Grade" der Falschheit gibt. Er erklärt, warum die Theorie der flachen Erde und die Theorie der kugelförmigen Erde beide falsch sind, warum aber zum Einen die Erstere sehr viel falscher ist als die zweite, und zum Anderen daß trotzdem beide in ihrem jeweiligen Anwendungsbereich sinnvoll, nützlich und in gewissem Sinn auch richtig sind. Er entgegnet dem naßforschen Studenten:
"John, als die Leute glaubten die Erde wäre flach lagen sie falsch. Als sie glaubten die Erde wäre kugelförmig lagen sie falsch. Aber wenn Sie denken daß es genauso falsch ist zu denken die Erde sei kugelförmig wie es falsch ist zu denken sie sei flach, dann ist Ihre Ansicht falscher als diese beiden zusammengenommen."Er erklärt daß wissenschaftliche Theorien in sehr unterschiedlichem Ausmaß falsch sein können, und daß eine bessere Theorie eine vorige nicht etwa ersetzt, sondern ergänzt. Eine falsche Theorie ist damit nicht etwa falsch im absoluten Sinn, sondern unvollständig und von begrenzter Anwendbarkeit. Sie ist eine Vereinfachung der tatsächlichen Situation, die innerhalb ihres Geltungsbereiches weiterhin anwendbar bleibt. Die neuere, bessere Theorie muß man daher nur dann einsetzen, wenn der Fehler der einfacheren, älteren Theorie zu groß wäre.
So ist die Vorstellung einer flachen Erde bis heute nützlich und wird praktisch eingesetzt. So lange keine größeren Entfernungen im Spiel sind ist der Fehler oft vernachlässigbar. Erst über weiter Entfernungen baut sich ein Fehler auf der dann nicht mehr zu vernachlässigen ist. Ob die Theorie der flachen Erde reicht oder ob man die bessere Theorie der kugelförmigen Erde braucht ist damit eine Frage, die mit dem Aktionsradius des Menschen zu tun hat, und mit seinen Genauigkeitsansprüchen. Und so ist es auch mit den noch genaueren Theorien über die Form der Erde, die seither entwickelt wurden. Die sind zwar immer besser, aber zugleich auch immer seltener wirklich nötig. Die älteren, eigentlich falschen, aber dafür einfacheren Theorien decken die große Mehrheit der Anwendungsfälle immer noch ab.
Im Grunde gelten folglich die verschiedenen Theorien alle zusammen, und man muß bloß bei jedem Anwendungsfall eine Abwägung treffen zwischen dem Fehler den man zu tolerieren bereit ist, und der Einfachheit der Theorie. Das Beste ist, die einfachste Theorie zu verwenden, deren Fehler noch tolerierbar ist. Der Fehler, den man z.B. beim Ausmessen eines Grundstücks macht, wenn man von einer flachen Erde ausgeht, ist selten so groß daß man deswegen auf die kompliziertere sphärische Geometrie ausweichen müßte, ganz zu schweigen von der Geometrie eines Ellipsoids.
Aus dem gleichen Grund verwendet wohl kaum jemand im täglichen Leben die Quantentheorie, oder die Relativitätstheorie, obwohl die Newton'sche Mechanik durch diese beiden neueren Theorien bekanntlich korrigiert wurde.
Unsere Audiophilen machen daher genau den gleichen Fehler wie der besagte Student. Eine bewährte alte Theorie wird nicht durch eine neuere Theorie einfach auf den Müllhaufen der Geschichte verbannt. Was richtig war wird nicht plötzlich durch den wissenschaftlichen Erkenntnisfortschritt falsch. Es wird ergänzt, und sein Anwendungsbereich wird besser abgegrenzt. Innerhalb dieses Anwendungsbereiches kann man ohne Probleme weiterhin mit der alten Theorie arbeiten, und wird das auch in Zukunft können.
Die Hoffnungen, eine noch zu findende neue Theorie des Hörens würde also irgendwann plötzlich alle diese Dinge bestätigen, die in den feuchten Träumen der Audiophilen vorkommen, sind vergeblich. Die jetzt schon bekannten Erkennntnisse stecken einen Rahmen für die zukünftigen Erkenntnisse, insbesondere was die Größe des Fehlers angeht den die momentanen Theorien noch enthalten.
Angesichts dessen ist mir nicht bange daß ich eines Tages etwas von dem zurück nehmen müßte was ich bisher an wissenschaftlichen Erkenntnissen vertreten habe. Was jetzt schon als Unsinn erkennbar ist wird auch in Zukunft Unsinn bleiben.
Wenn man sich dagegen vor Augen führt daß die Audiophilen nicht selten glauben, sie hörten mühelos Dinge, die der Wissenschaft auch nach über hundert Jahren Forschung im akustischen Bereich noch nicht aufgefallen sind, die aber bestimmt in der Zukunft noch irgendwo in der neunten Nachkommastelle entdeckt werden würden, dann ist meiner Meinung nach sonnenklar wer hier in Wirklichkeit die Arroganz und den Größenwahn hat.
Sonntag, 22. November 2009
Differenzen
Unterschiede sind ja bekanntlich geradezu die Existenzberechtigung und der Sinn der Audiophilen. So sehr, daß es ihnen geradezu als Sakrileg erscheinen muß wenn man versucht, die Unterschiede einzuebnen oder zu eliminieren.
Kein Wunder daß man damit in Konflikt mit dem Ingenieurwesen kommt. Dort geht ein gehöriger Teil des Aufwandes in das Vermeiden und das Kompensieren von Unterschieden. Man will schließlich ein wohldefiniertes Ergebnis haben und nicht ein Chaos von mehr oder minder zufälligen Variationen.
Wer ein technisches Gerät in Massenstückzahlen herstellen will (und das fängt schon bei einigen Dutzend an) der muß dafür einen Herstellungsprozeß und ein Gerätedesign wählen, das Variationen in den Bauteilen und den Betriebsbedingungen ausgleicht und unabhängig davon funktioniert. Es ist keine besonders große Leistung, etwas einmal unter handverlesenen Bedingungen zum Funktionieren zu bringen. Die eigentliche Ingenieursleistung besteht darin, es zuverlässig und reproduzierbar und wirtschaftlich herstellbar zu machen. Es geht um die Nützlichkeit, und nicht bloß um die Möglichkeit.
In elektronischen Schaltungen sind die Röhren, Transistoren, und diverse weitere Bauteile in ihren Eigenschaften variabel. Das heißt sie ändern ihre Eigenschaften mit der Temperatur, dem Alter, zwischen einem Exemplar und dem nächsten, und trotzdem muß die Gesamtschaltung unbeeindruckt funktionieren.
Ein Ingenieur betrachtet es daher als einen Erfolg, wenn sein Gerät unbeeindruckt von den Umgebungsbedingungen, von Bauteilvariationen und von Alterungserscheinungen seinen Job immer gleich verrichtet. Der Audiophile denkt genau andersrum. Ihm gilt ein Gerät umso besser je mehr Zicken es in dieser Hinsicht hat. Wenn jedes Gerät aus einer Serie verschieden ist, wenn es wetterfühlig (bzw. stromfühlig) ist und regelmäßig neu justiert werden muß. Eine automatische Ruhestromregelung hat nicht annähernd den Charme, den eine regelmäßige manuelle Prozedur hat, wenn das Gerät quasi vor Betrieb erst neu gestimmt werden will, wie ein launischer Flügel der jedes Prozent Luftfeuchtigkeit zu spüren scheint.
Überhaupt: Die Analogie zwischen Musikinstrument und Hifi-Gerät ist für den Audiophilen eine Inspiration, und für den Ingenieur eine Geistesverirrung.
Es ist dabei nur auf den ersten Blick paradox daß der Ingenieur Unterschiede liebt -- denn er mach sie sich zu Nutze, um sein Ziel zu erreichen. Dafür gibt's viele Beispiele:
Einer der am weitesten verbreiteten und nützlichsten Arten von Verstärkern ist der Differenzverstärker. Fast jeder Audio-Verstärker, ob Endstufe oder Vorverstärker, basiert auf diesem Prinzip. Es ist eine genial einfache Idee: Man verstärkt nicht das Signal selbst, sondern man verstärkt die Differenz zwischen dem zu verstärkenden Signal und einer abgeschwächten Version des schon verstärkten Signals. Es ist eine Rückkopplung, eine Regelschleife. Der Verstärker wird so zum Korrektor, jeder Unterschied zwischen Ist und Soll wird verstärkt und bringt das Resultat wieder auf Linie. Die Konsequenzen sind durchschlagend: Plötzlich spielen Bauteilunterschiede, Temperaturschwankungen, Alterserscheinungen fast keine Rolle mehr. Alles durch die Regelwirkung kompensiert.
Oder die symmetrische Signalübertragung. Hier spielt auch wieder die Differenzbildung eine entscheidende Rolle. Dadurch werden die erwünschten von den unerwünschten Signalanteilen unterschieden. Das Telefon hätte nie funktioniert wenn das nicht so gut klappen würde, und auch hochwertiges Audio hängt davon ab.
Der CD-Spieler ist ebenfalls ein Beispiel für das angewandte Differenzprinzip: Der Laser wird in der Spur gehalten indem man die Differenz zwischen Photodioden auswertet. Auch die Information wird ausgelesen indem man die Differenz zwischen zwei verschiedenen Reflexionshelligkeiten auswertet.
Auch bei Hörtests geht's um Differenzen. Kein Wunder daß die Einen hier möglichst große, die anderen möglichst kleine Differenzen haben wollen. Für den Ingenieur kommt man der Perfektion umso näher je weniger Unterschiede feststellbar sind. Entgegen audiophilem Zynismus geht es dabei allerdings nicht darum, durch möglichst ungeeignete Vergleichsmethoden scheinbare Gleichheit zu erschleichen, sondern darum, durch möglichst sensible Vergleichsmethoden noch den kleinsten Unterschied dingfest zu machen -- damit man ihn eliminieren kann.
Weil da die gehörmäßige Differenzmethode zu unempfindlich ist, ist man unter Ingenieuren frühzeitig dazu gekommen, meßtechnische Differenzmethoden einzusetzen. So gibt es z.B. die Methode, einen Lautsprecher mit der Differenz aus dem Ausgangssignal zweier Verstärker zu betreiben, die mit dem gleichen Eingangssignals versorgt werden. Im Idealfall müßte der Lautsprecher still bleiben, denn gute Verstärker sollten keinen Unterschied produzieren. Auf diese Weise kann man beim Untersuchen von Verstärkern sehr viel empfindlicher sein als wenn man einfach einen Verstärker für sich untersucht. Man kann sogar der Differenz zuhören, und ist nicht auf das reine Messen angewiesen.
Bei solchen Vorgehensweisen muß man allerdings sehr vorsichtig sein. Es ist sehr leicht, das Ergebnis falsch zu interpretieren. Aus dem Differenzsignal kann man nicht ohne Weiteres darauf schließen ob der Unterschied im Normalbetrieb auch hörbar wäre. Es reicht wenn die Amplitude geringfügig unterschiedlich ist, oder die Zeitverzögerung, und das Ergebnis ist ein übertrieben starkes Differenzsignal, das nicht repräsentativ ist für irgendwelche Klangunterschiede. Trotzdem kann man was damit anfangen wenn man weiß was man tut, und die "prinzipbedingten" Probleme im Auge behält.
Bob Carver hat in den 80ern des vergangenen Jahrhunderts das Differenzprinzip zu einer beeindruckenden Demonstration benutzt, die letztlich seine Ingenieurskunst vorführt. Ich spreche von der "Carver Challenge", in der es darum ging daß Bob Carver anbot, binnen 48 Stunden einen beliebigen Modellverstärker klanglich zu kopieren, so daß seine Kopie in seriösen Blindtests nicht vom Original zu unterscheiden wäre. Er brauchte dazu nur den originalen Verstärker, den er nicht einmal öffnen geschweige denn modifizieren durfte. Die Stereophile unter dem damaligen Chef Gordon Holt schlug ein und stellte einen Conrad-Johnson Premier Five zur Verfügung, den Carver in 48 Stunden nachahmen sollte. Das war ein Röhrenverstärker, der Mitte der 80er über 10000 Dollar kostete, und Carver wollte ihn mit einem Transistorverstärker nachbilden, den er in 48 Stunden unter Verwendung der Differenzmethode passend modifizierte.
Wie man hier nachlesen kann, ist das im Wesentlichen gelungen. Man kann sich fragen ob das Holt's Nachfolger noch so mitgemacht und vor allem zugegeben hätten, aber 1985 war offenbar noch früh genug daß die Ehrlichkeit noch nicht dem audiophilen Dünkel zum Opfer gefallen war.
Carver modifizierte den Transistorverstärker einfach so, daß die Differenz im Ausgangssignal zwischen dem Vorbild und der Nachahmung minimal wurde. Und siehe da, die hörbaren Unterschiede verschwanden ebenso, egal ob der Verstärker nun von Röhren oder Transistoren angetrieben war.
Heutzutage wäre das noch wesentlich schneller mit Hilfe von Computertechnik möglich. Was Carver noch mit dem Lötkolben und einem Sortiment von Bauteilen in 48 Stunden gelöst hat wäre heute die Anwendung einer mathematischen Transformation, von einem digitalen Signalprozessor in Echtzeit ausgeführt.
Kein Wunder daß man damit in Konflikt mit dem Ingenieurwesen kommt. Dort geht ein gehöriger Teil des Aufwandes in das Vermeiden und das Kompensieren von Unterschieden. Man will schließlich ein wohldefiniertes Ergebnis haben und nicht ein Chaos von mehr oder minder zufälligen Variationen.
Wer ein technisches Gerät in Massenstückzahlen herstellen will (und das fängt schon bei einigen Dutzend an) der muß dafür einen Herstellungsprozeß und ein Gerätedesign wählen, das Variationen in den Bauteilen und den Betriebsbedingungen ausgleicht und unabhängig davon funktioniert. Es ist keine besonders große Leistung, etwas einmal unter handverlesenen Bedingungen zum Funktionieren zu bringen. Die eigentliche Ingenieursleistung besteht darin, es zuverlässig und reproduzierbar und wirtschaftlich herstellbar zu machen. Es geht um die Nützlichkeit, und nicht bloß um die Möglichkeit.
In elektronischen Schaltungen sind die Röhren, Transistoren, und diverse weitere Bauteile in ihren Eigenschaften variabel. Das heißt sie ändern ihre Eigenschaften mit der Temperatur, dem Alter, zwischen einem Exemplar und dem nächsten, und trotzdem muß die Gesamtschaltung unbeeindruckt funktionieren.
Ein Ingenieur betrachtet es daher als einen Erfolg, wenn sein Gerät unbeeindruckt von den Umgebungsbedingungen, von Bauteilvariationen und von Alterungserscheinungen seinen Job immer gleich verrichtet. Der Audiophile denkt genau andersrum. Ihm gilt ein Gerät umso besser je mehr Zicken es in dieser Hinsicht hat. Wenn jedes Gerät aus einer Serie verschieden ist, wenn es wetterfühlig (bzw. stromfühlig) ist und regelmäßig neu justiert werden muß. Eine automatische Ruhestromregelung hat nicht annähernd den Charme, den eine regelmäßige manuelle Prozedur hat, wenn das Gerät quasi vor Betrieb erst neu gestimmt werden will, wie ein launischer Flügel der jedes Prozent Luftfeuchtigkeit zu spüren scheint.
Überhaupt: Die Analogie zwischen Musikinstrument und Hifi-Gerät ist für den Audiophilen eine Inspiration, und für den Ingenieur eine Geistesverirrung.
Es ist dabei nur auf den ersten Blick paradox daß der Ingenieur Unterschiede liebt -- denn er mach sie sich zu Nutze, um sein Ziel zu erreichen. Dafür gibt's viele Beispiele:
Einer der am weitesten verbreiteten und nützlichsten Arten von Verstärkern ist der Differenzverstärker. Fast jeder Audio-Verstärker, ob Endstufe oder Vorverstärker, basiert auf diesem Prinzip. Es ist eine genial einfache Idee: Man verstärkt nicht das Signal selbst, sondern man verstärkt die Differenz zwischen dem zu verstärkenden Signal und einer abgeschwächten Version des schon verstärkten Signals. Es ist eine Rückkopplung, eine Regelschleife. Der Verstärker wird so zum Korrektor, jeder Unterschied zwischen Ist und Soll wird verstärkt und bringt das Resultat wieder auf Linie. Die Konsequenzen sind durchschlagend: Plötzlich spielen Bauteilunterschiede, Temperaturschwankungen, Alterserscheinungen fast keine Rolle mehr. Alles durch die Regelwirkung kompensiert.
Oder die symmetrische Signalübertragung. Hier spielt auch wieder die Differenzbildung eine entscheidende Rolle. Dadurch werden die erwünschten von den unerwünschten Signalanteilen unterschieden. Das Telefon hätte nie funktioniert wenn das nicht so gut klappen würde, und auch hochwertiges Audio hängt davon ab.
Der CD-Spieler ist ebenfalls ein Beispiel für das angewandte Differenzprinzip: Der Laser wird in der Spur gehalten indem man die Differenz zwischen Photodioden auswertet. Auch die Information wird ausgelesen indem man die Differenz zwischen zwei verschiedenen Reflexionshelligkeiten auswertet.
Auch bei Hörtests geht's um Differenzen. Kein Wunder daß die Einen hier möglichst große, die anderen möglichst kleine Differenzen haben wollen. Für den Ingenieur kommt man der Perfektion umso näher je weniger Unterschiede feststellbar sind. Entgegen audiophilem Zynismus geht es dabei allerdings nicht darum, durch möglichst ungeeignete Vergleichsmethoden scheinbare Gleichheit zu erschleichen, sondern darum, durch möglichst sensible Vergleichsmethoden noch den kleinsten Unterschied dingfest zu machen -- damit man ihn eliminieren kann.
Weil da die gehörmäßige Differenzmethode zu unempfindlich ist, ist man unter Ingenieuren frühzeitig dazu gekommen, meßtechnische Differenzmethoden einzusetzen. So gibt es z.B. die Methode, einen Lautsprecher mit der Differenz aus dem Ausgangssignal zweier Verstärker zu betreiben, die mit dem gleichen Eingangssignals versorgt werden. Im Idealfall müßte der Lautsprecher still bleiben, denn gute Verstärker sollten keinen Unterschied produzieren. Auf diese Weise kann man beim Untersuchen von Verstärkern sehr viel empfindlicher sein als wenn man einfach einen Verstärker für sich untersucht. Man kann sogar der Differenz zuhören, und ist nicht auf das reine Messen angewiesen.
Bei solchen Vorgehensweisen muß man allerdings sehr vorsichtig sein. Es ist sehr leicht, das Ergebnis falsch zu interpretieren. Aus dem Differenzsignal kann man nicht ohne Weiteres darauf schließen ob der Unterschied im Normalbetrieb auch hörbar wäre. Es reicht wenn die Amplitude geringfügig unterschiedlich ist, oder die Zeitverzögerung, und das Ergebnis ist ein übertrieben starkes Differenzsignal, das nicht repräsentativ ist für irgendwelche Klangunterschiede. Trotzdem kann man was damit anfangen wenn man weiß was man tut, und die "prinzipbedingten" Probleme im Auge behält.
Bob Carver hat in den 80ern des vergangenen Jahrhunderts das Differenzprinzip zu einer beeindruckenden Demonstration benutzt, die letztlich seine Ingenieurskunst vorführt. Ich spreche von der "Carver Challenge", in der es darum ging daß Bob Carver anbot, binnen 48 Stunden einen beliebigen Modellverstärker klanglich zu kopieren, so daß seine Kopie in seriösen Blindtests nicht vom Original zu unterscheiden wäre. Er brauchte dazu nur den originalen Verstärker, den er nicht einmal öffnen geschweige denn modifizieren durfte. Die Stereophile unter dem damaligen Chef Gordon Holt schlug ein und stellte einen Conrad-Johnson Premier Five zur Verfügung, den Carver in 48 Stunden nachahmen sollte. Das war ein Röhrenverstärker, der Mitte der 80er über 10000 Dollar kostete, und Carver wollte ihn mit einem Transistorverstärker nachbilden, den er in 48 Stunden unter Verwendung der Differenzmethode passend modifizierte.
Wie man hier nachlesen kann, ist das im Wesentlichen gelungen. Man kann sich fragen ob das Holt's Nachfolger noch so mitgemacht und vor allem zugegeben hätten, aber 1985 war offenbar noch früh genug daß die Ehrlichkeit noch nicht dem audiophilen Dünkel zum Opfer gefallen war.
Carver modifizierte den Transistorverstärker einfach so, daß die Differenz im Ausgangssignal zwischen dem Vorbild und der Nachahmung minimal wurde. Und siehe da, die hörbaren Unterschiede verschwanden ebenso, egal ob der Verstärker nun von Röhren oder Transistoren angetrieben war.
Heutzutage wäre das noch wesentlich schneller mit Hilfe von Computertechnik möglich. Was Carver noch mit dem Lötkolben und einem Sortiment von Bauteilen in 48 Stunden gelöst hat wäre heute die Anwendung einer mathematischen Transformation, von einem digitalen Signalprozessor in Echtzeit ausgeführt.
Sonntag, 1. November 2009
Spin
Der englische Begriff "spin" steht für den Drall, den man einem Ball geben kann damit er in einem Bogen oder beim Aufhüpfen in die gewollte Richtung fliegt. Dieses "Anschneiden" hat den Zweck daß der Effekt erst später oder mit der Zeit sichtbar werden soll, die endgültige Richtung sich also nicht gleich offenbart. Im Englischen wird das Wort deswegen auch im übertragenen Sinn verwendet, z.B. in der Politik, und dann ist es nicht mehr so direkt ins Deutsche übersetzbar. Der "spinmeister" oder "spin doctor" ist demzufolge der Pressesprecher (oder eine vergleichbare Figur), der eine Sache in einem Licht erscheinen lassen will, die für seinen Arbeitgeber günstig ist, wobei er die Manipulation möglichst wenig auffällig machen will.
Der amerikanische Philosoph Dan Dennett faßte kürzlich die Kriterien für guten "Spin" so zusammen:
Dennett's Thema ist etwas was auch mir schon diverse Male durch den Kopf gegangen ist. Er beschreibt die Erfahrungen mit 6 anonymen Priestern, die insgeheim zu Atheisten geworden waren, aber den Schritt in die Öffentlichkeit (noch) nicht gemacht haben, und weiterhin in ihrer Priesterrolle arbeiten. So etwas müßte es eigentlich auch bei den Audiophilen geben, meine ich.
Jetzt gibt's in der audiophilen Szene keine Priester, aber es gibt durchaus de facto anerkannte Zeremonienmeister, die man in so einer Rolle sehen kann. Man stelle sich zum Beispiel mal hypothetischerweise vor, der Böde von der STEREO wäre insgeheim zum "Abstreiter" geworden. Genauer gesagt, es hat ihm gedämmert daß die "gehörten" Effekte von Kabeln, Basen, Racks, CD-Matten, Klangschälchen, und dergleichen Mumpitz, reine Einbildung sind.
Was macht so jemand in dieser Situation? Die Kündigung einreichen? Und dann? Wer würde ihn dann einstellen?
Vor diesem Problem stehen auch die Priester: Sie haben nichts anderes gelernt, sind zu alt zum Umsatteln, haben Hemmungen ihr soziales Umfeld zu schockieren (besonders ihre engsten Freunde und Verwandten), und Angst vor dem Loch in das sie dann fallen würden.
Nun ist ein Abschied vom audiophilen Glauben wohl kaum so existenziell wie der Abschied von einer Religion, aber wenn Job, Pension und soziales Umfeld davon betroffen sind, dann wäre die Entscheidung immer noch ziemlich heftig. Eben drum könnte ich mir gut vorstellen daß es auch hier Leute geben könnte wie Dennett's Priester.
So verständlich es ist, daß diese Leute nicht so einfach ihrem halben Leben den Rücken kehren können, so interessant ist es, sich die Tricks und Mechanismen anzusehen, die sie entwickeln um den Konflikt erträglich zu machen. Also den "spin", der sie in der Öffentlichkeit (und in gewissem Maß auch vor sich selber) gut da stehen läßt.
Spinnen wir also unsere Hypothese weiter: Was hätte ein "geläuterter" Böde für Alternativen?
Ebenfalls wichtig ist das soziale Umfeld von Gleichgesinnten, die sich gegenseitig bestätigen wie selbstverständlich und unbezweifelbar doch der eigene Glaube ist. Das hilft Zweifel ausräumen, erhält einen gewissen Konformitätsdruck, und erleichtert die Abgrenzung. Wenn das stark genug ist, dann kommen potenzielle Abweichler schnell in emotionelle Notlagen, womit wir wieder bei den 6 Priestern sind.
Freiheit ist was Anderes.
Der amerikanische Philosoph Dan Dennett faßte kürzlich die Kriterien für guten "Spin" so zusammen:
- Es ist keine glatte Lüge
- Man muß es vertreten können ohne eine Miene zu verziehen
- Es muß die Skepsis überwinden ohne verdächtig zu wirken
- Es sollte tiefgründig erscheinen
Dennett's Thema ist etwas was auch mir schon diverse Male durch den Kopf gegangen ist. Er beschreibt die Erfahrungen mit 6 anonymen Priestern, die insgeheim zu Atheisten geworden waren, aber den Schritt in die Öffentlichkeit (noch) nicht gemacht haben, und weiterhin in ihrer Priesterrolle arbeiten. So etwas müßte es eigentlich auch bei den Audiophilen geben, meine ich.
Jetzt gibt's in der audiophilen Szene keine Priester, aber es gibt durchaus de facto anerkannte Zeremonienmeister, die man in so einer Rolle sehen kann. Man stelle sich zum Beispiel mal hypothetischerweise vor, der Böde von der STEREO wäre insgeheim zum "Abstreiter" geworden. Genauer gesagt, es hat ihm gedämmert daß die "gehörten" Effekte von Kabeln, Basen, Racks, CD-Matten, Klangschälchen, und dergleichen Mumpitz, reine Einbildung sind.
Was macht so jemand in dieser Situation? Die Kündigung einreichen? Und dann? Wer würde ihn dann einstellen?
Vor diesem Problem stehen auch die Priester: Sie haben nichts anderes gelernt, sind zu alt zum Umsatteln, haben Hemmungen ihr soziales Umfeld zu schockieren (besonders ihre engsten Freunde und Verwandten), und Angst vor dem Loch in das sie dann fallen würden.
Nun ist ein Abschied vom audiophilen Glauben wohl kaum so existenziell wie der Abschied von einer Religion, aber wenn Job, Pension und soziales Umfeld davon betroffen sind, dann wäre die Entscheidung immer noch ziemlich heftig. Eben drum könnte ich mir gut vorstellen daß es auch hier Leute geben könnte wie Dennett's Priester.
So verständlich es ist, daß diese Leute nicht so einfach ihrem halben Leben den Rücken kehren können, so interessant ist es, sich die Tricks und Mechanismen anzusehen, die sie entwickeln um den Konflikt erträglich zu machen. Also den "spin", der sie in der Öffentlichkeit (und in gewissem Maß auch vor sich selber) gut da stehen läßt.
Spinnen wir also unsere Hypothese weiter: Was hätte ein "geläuterter" Böde für Alternativen?
- Ein öffentliches "Coming-Out". Die Konsequenz wäre wohl sein Job-Verlust, Häme von allen Seiten, Schwierigkeiten einen neuen Job zu kriegen, das Eingeständnis, das halbe Leben einem Hirngespinst geopfert zu haben, eine Position zwischen allen Stühlen -- vermutlich auch privat.
- Weiter wie bisher, sich nichts anmerken lassen. Das ist emotional schwierig. Er würde vermutlich in eine immer zynischere Haltung hineinrutschen. Wer sich so bewußt ist daß er seine Umgebung systematisch verarscht, der geht fast unweigerlich immer mehr Risiko dabei ein, probiert aus wie weit die Verarsche reicht, und verliert darüber jeden Respekt vor seiner Umwelt, die sich so verarschen läßt. Manche würden sagen das ist schon passiert.
- Sich selbst die audiophilen Dogmen plausibel reden. Hier ist die Parallele zur Theologie am auffälligsten. Ziel ist es, den audiophilen Glauben als respektabel, vertretbar und ehrenwert aussehen zu lassen, auch wenn es dafür keinerlei triftigen Grund gibt. Das ist "spin". Es gibt einen Haufen Tricks die man dafür einsetzen kann, und Dennett zeigt ein paar davon. Theologen sind wohl die absoluten Experten in dieser Disziplin, aber die Audiophilen kommen in meinen Augen nicht weit dahinter.
Ebenfalls wichtig ist das soziale Umfeld von Gleichgesinnten, die sich gegenseitig bestätigen wie selbstverständlich und unbezweifelbar doch der eigene Glaube ist. Das hilft Zweifel ausräumen, erhält einen gewissen Konformitätsdruck, und erleichtert die Abgrenzung. Wenn das stark genug ist, dann kommen potenzielle Abweichler schnell in emotionelle Notlagen, womit wir wieder bei den 6 Priestern sind.
Freiheit ist was Anderes.
Sonntag, 18. Oktober 2009
Brands
Wenn eine Firma von einem internationalen Konzern übernommen wird, passiert oftmals etwas Eigenartiges, zumindest für die Beschäftigten: Was sich wie eine Firma - und nicht selten auch wie eine Art Großfamilie - angefühlt hat und irgendwie immer noch anfühlt wird zu einem "Brand", also auf Deutsch "Marke". Man merkt die Konsequenzen nicht gleich, und wen interessiert schon was in Corporate-Identity-Broschüren und in Webauftritten des Konzerns steht. Aber mit der Zeit dringt durch was das bedeutet, speziell wie man von seiner eigenen Konzernmutter gesehen und behandelt wird.
Vordergründig ist ein Brand eine Marketingkonstruktion, eine Fassade die man für die Kundschaft aufstellt. Der Kunde soll mit dem Brand bestimmte Assoziationen verbinden, und das Marketing arbeitet daran die gewünschten Assoziationen aufzubauen und zu pflegen. Diese Assoziationen sind im Wirtschaftsleben ein Wertgegenstand ersten Ranges, und wenn eine Firma den Besitzer wechselt ist nicht selten der "Brand" einer der größten Posten auf der Haben-Liste.
Die Firma als solche, also die dort arbeitenden Leute mit ihrem Wissen und ihren Erfahrungen, die Firmenkultur und -organisation, ist gar kein zentraler Bestandteil dieses Brand-Gedankens. Wer in Brands denkt ist geneigt die Firma dahinter für nebensächlich und austauschbar zu halten.
Nun gibt es in jeder Firma Jobs und Posten, die tatsächlich relativ leicht austauschbar sind. Firmen, deren Produkte nicht schwierig zu entwickeln und herzustellen sind, werden naturgemäß einen größeren Anteil an solchen Jobs haben als High-Tech-Firmen, deren Produkte vom Spezialwissen der Mitarbeiter abhängen.
Die HiFi-Branche ist eine der Branchen in denen das "Branding" eine sehr große Bedeutung hat. Das hat zum Teil damit zu tun daß es heute keine High-Tech-Branche mehr ist. Wie man ein Hifi-Gerät entwickeln und bauen muß, damit die Audio-Qualität für den größten Teil der Kundschaft ausreicht, ist im Grunde heute Elektronik-Allgemeinwissen. Außer in Marktnischen wird damit die Herstellung von Hifi-Geräten zum Marketing- und Kostenoptimierungs-Geschäft. Und das was sich High-End nennt ist oftmals von der Technologie und von der Audioqualität her noch niedriger angesiedelt, und noch stärker vom Marketing beherrscht.
Es war daher wohl folgerichtig und nicht bloß eine Manager-Mode als in den letzten drei Jahrzehnten viele traditionelle Audio-Firmen erleben mußten, was es bedeutet zum Brand zu werden. In Deutschland könnte man da Dual und SABA als einstmals bekannte und geschätzte Traditions-Firmen beispielhaft anführen, von denen schließlich nur noch der Name, also der Brand, übrig blieb und von Konzernen als "Asset" genutzt wurde, obwohl die Firma dahinter praktisch verschwunden war. Die Idee dahinter ist daß die Technologie einfach genug ist um erfolgreich auch in Billiglohnländern gefertigt zu werden, und es sich daher lohnt, die Assoziationen der Kundschaft bei der Brand-Wahrnehmung zu nutzen, während man gleichzeitig die Firma dahinter durch eine fernöstliche ersetzt. Das funktioniert immerhin so lange wie sich die Assoziationen noch nicht aufgelöst haben, mit anderen Worten bis die Kundschaft auf breiter Front gemerkt hat daß hier ein Etikettenschwindel vorliegt.
Bei Low-Tech-Produkten kann man diese Strategie mit noch am erfolgreichsten verfolgen, aber je mehr die speziellen Fähigkeiten konkreter Leute eine Rolle spielen desto weniger funktioniert es. Dennoch wird es immer wieder probiert, und man kann daraus ablesen welche Vorstellungen eine Manager-Kaste davon hat wie das "eigene" Geschäft funktioniert. Da graust es einem immer wieder. Nun ist es zwar anscheinend typisch menschlich wenn man meint, das wovon man nichts versteht könne ja wohl nicht so schwer sein, stimmen muß es aber noch lange nicht, auch nicht wenn es sich ein CEO einbildet. Was der Eine gut kann muß ein Anderer eben noch lange nicht genauso gut können, selbst wenn man ihm Zeit zum Üben läßt. Eine Produktionslinie, die man quer durch die Welt von A nach B verlagert kann in B ein voller Mißerfolg werden auch wenn's in A prima geklappt hat.
Ein aktuelles und haarsträubendes Beispiel dafür kann man im Falle Studer beobachten. Studer ist ein Teil dessen was früher mal Studer-ReVox war. Den älteren HiFi-Afficionados ist das noch ein wohlbekannter Name, mit dem damals im guten Sinn "High-End" verbunden wurde. Die schweizerische Traditionsfirma wurde kurz nach dem zweiten Weltkrieg von Willi Studer gegründet und wuchs im Laufe der Zeit auf über 1500 Beschäftigte. Neben den HiFi-Geräten, die unter dem Namen (Brand) ReVox verkauft wurden, produzierte die Firma auch Studiotechnik unter dem Namen Studer. Bekannt und geradezu legendär waren vor allem die Studer-Bandmaschinen und die Mischpulte.
Willi Studer verkaufte aus Altersgründen die Firma nach längerem Hin-und-Her 1990 an einen schweizerischen Konzern, die Motor-Columbus-AG, die heute im Alpiq-Konzern aufgegangen ist. Er wollte ausdrücklich die Einheit der Firma erhalten und dafür sorgen daß sie in schweizerischem Besitz blieb. Interessenten aus dem Ausland hätte es bei den bekannten Audio-Konzernen durchaus gegeben (z.B. Philips), aber Studer blieb patriotisch. Es hat ihm nichts genutzt, und er mußte mitansehen wie in kürzester Zeit seine ehemalige Firma geschrumpft und filetiert wurde. Motor-Columbus hatte als Energie-Konzern keinerlei Bezug zum Audiogeschäft. Es waren die Zeiten als es Manager-Mode bei Konzernen war, zu "diversifizieren". Der Daimler-Konzern diversifizierte z.B. mit Dornier, AEG, Fokker, MBB etc. in den Flugzeugbau und die Elektrotechnik, was saftige Verluste produzierte. Mannesmann diversifizierte in Richtung Telekommunikation und Maschinenbau, und ist heute verschwunden bzw. in anderen Firmen aufgegangen. Mitte der 90er Jahre war dann die Mode das Gegenteil: Konzentration auf's Kerngeschäft. Studer war 1994 in zwei unabhängige Teile geteilt, die beide in ausländischer Hand waren: ReVox mit dem Hifi-Geschäft gehörte einer Investorengruppe in Luxemburg, und Studer mit dem professionellen Audiogeschäft war an den amerikanischen Harman-Konzern verkauft, zu dem die Firma noch heute gehört. Es muß für Willi Studer der reine Horror gewesen sein.
Studer hat seither das Geschäft mit Bandmaschinen ganz aufgegeben, und konzentriert sich heute auf digitale Mischpulte für den Rundfunk und für die Studioausstattung. Die Firma ist auf etwa 100 Mitarbeiter geschrumpft was schon ein gewaltiger Aderlaß ist, hat aber in den letzten Jahren ordentliche Geschäfte gemacht und steht im Markt nicht schlecht da. Mit einem anderen Harman-Brand, Soundcraft in England, wurden die Beziehungen nach und nach enger geknüpft, was angesichts unterschiedlicher Firmenkulturen nie wirklich harmonisch war. Soundcraft macht zwar ebenfalls Mischpulte, aber vor allem für Live-Anwendungen bei Konzerten und in Clubs, und betätigt sich erst seit relativ kurzer Zeit verstärkt im digitalen Bereich, während das Hauptgeschäft traditionell bei analogen Mischpulten lag.
In jüngster Zeit hat sich das dergestalt entwickelt daß aus beiden Firmen eine gemeinsame Business-Einheit wird. Bei Entwicklung und Produktion wird kooperiert, so wurde die Vi-Serie von Soundcraft-Mischpulten von Studer entwickelt, und bei Soundcraft werden Baugruppen für Studer gefertigt. Der Entwicklungsleiter und weiteres Management ist beiden Firmen gemeinsam. Studer und Soundcraft, so sieht es aus, werden zu zwei Marketing-Namen, die Produkte kommen letztlich aus einer anonymen Einheit.
Die Schweizer ziehen dabei offenbar den Kürzeren. Seit einigen Wochen ist Studer in offener Rebellion gegen die Entscheidung, die verbleibende Produktion vollends nach England zu verlagern, was einem Drittel der Belegschaft den Job kostet und die Firma zu einer voll abhängigen Entwicklungsabteilung werden läßt.
Das ist bitter, und zwar gleich aus mehreren Gründen:
Wenn das so weiter geht wird auch Studer bald zu den Firmen gehören, die nur noch als Brand im Portfolio eines Konzerns existieren, hinter dem keine reale, abgrenzbare, charakteristische, menschliche Struktur mehr steht. Eine leere Firmenhülse, deren Namen man noch als Aufkleber auf bestimmte Produkte drauf pappt.
Für Harman ist so etwas nicht ganz neu. Man braucht sich für einen Eindruck bloß deren Webauftritt ansehen. Da ist ganz ausdrücklich von Brands die Rede. Eine Firma, viele Brands, so sehen sei sich auf der oberen Management-Ebene gerne. Ein Denken in Etiketten. Menschen sind "Human Resources", gewachsene Traditionsfirmen sind "Brands", Entlassungen sind "Synergieeffekte".
Auch Harman war mal eine Firma, bevor sie zu einem Konzern wurde. Auch dort gab es eine Gründerfigur in Sidney Harman, die sich inzwischen vom Geschäft verabschiedet hat. Das Zepter schwingen dort nun Leute, die keine Wurzeln im Audio-Business haben. Siehe die Lebensläufe der Top-Manager, wie man sie auf der Webseite findet. Der oberste Chef ist da erst seit zwei Jahren, der Chef des Bereiches "Professional" ist seit 2001 dort. Astreine Karrieristen-Lebensläufe von Leuten, denen es relativ wurscht ist ob ihre Firma Audiogeräte oder Getriebe oder Fruchtsaft herstellt. Hauptsache der Bonus stimmt, siehe z.B. hier oder hier.
Es sieht nicht gut aus für Studer.
P.S.: Ein paar interessante Hintergrundinformationen in Sachen Harman gibt's hier, hier, hier, hier und hier und noch ein CEO-Kurzinterview.
Vordergründig ist ein Brand eine Marketingkonstruktion, eine Fassade die man für die Kundschaft aufstellt. Der Kunde soll mit dem Brand bestimmte Assoziationen verbinden, und das Marketing arbeitet daran die gewünschten Assoziationen aufzubauen und zu pflegen. Diese Assoziationen sind im Wirtschaftsleben ein Wertgegenstand ersten Ranges, und wenn eine Firma den Besitzer wechselt ist nicht selten der "Brand" einer der größten Posten auf der Haben-Liste.
Die Firma als solche, also die dort arbeitenden Leute mit ihrem Wissen und ihren Erfahrungen, die Firmenkultur und -organisation, ist gar kein zentraler Bestandteil dieses Brand-Gedankens. Wer in Brands denkt ist geneigt die Firma dahinter für nebensächlich und austauschbar zu halten.
Nun gibt es in jeder Firma Jobs und Posten, die tatsächlich relativ leicht austauschbar sind. Firmen, deren Produkte nicht schwierig zu entwickeln und herzustellen sind, werden naturgemäß einen größeren Anteil an solchen Jobs haben als High-Tech-Firmen, deren Produkte vom Spezialwissen der Mitarbeiter abhängen.
Die HiFi-Branche ist eine der Branchen in denen das "Branding" eine sehr große Bedeutung hat. Das hat zum Teil damit zu tun daß es heute keine High-Tech-Branche mehr ist. Wie man ein Hifi-Gerät entwickeln und bauen muß, damit die Audio-Qualität für den größten Teil der Kundschaft ausreicht, ist im Grunde heute Elektronik-Allgemeinwissen. Außer in Marktnischen wird damit die Herstellung von Hifi-Geräten zum Marketing- und Kostenoptimierungs-Geschäft. Und das was sich High-End nennt ist oftmals von der Technologie und von der Audioqualität her noch niedriger angesiedelt, und noch stärker vom Marketing beherrscht.
Es war daher wohl folgerichtig und nicht bloß eine Manager-Mode als in den letzten drei Jahrzehnten viele traditionelle Audio-Firmen erleben mußten, was es bedeutet zum Brand zu werden. In Deutschland könnte man da Dual und SABA als einstmals bekannte und geschätzte Traditions-Firmen beispielhaft anführen, von denen schließlich nur noch der Name, also der Brand, übrig blieb und von Konzernen als "Asset" genutzt wurde, obwohl die Firma dahinter praktisch verschwunden war. Die Idee dahinter ist daß die Technologie einfach genug ist um erfolgreich auch in Billiglohnländern gefertigt zu werden, und es sich daher lohnt, die Assoziationen der Kundschaft bei der Brand-Wahrnehmung zu nutzen, während man gleichzeitig die Firma dahinter durch eine fernöstliche ersetzt. Das funktioniert immerhin so lange wie sich die Assoziationen noch nicht aufgelöst haben, mit anderen Worten bis die Kundschaft auf breiter Front gemerkt hat daß hier ein Etikettenschwindel vorliegt.
Bei Low-Tech-Produkten kann man diese Strategie mit noch am erfolgreichsten verfolgen, aber je mehr die speziellen Fähigkeiten konkreter Leute eine Rolle spielen desto weniger funktioniert es. Dennoch wird es immer wieder probiert, und man kann daraus ablesen welche Vorstellungen eine Manager-Kaste davon hat wie das "eigene" Geschäft funktioniert. Da graust es einem immer wieder. Nun ist es zwar anscheinend typisch menschlich wenn man meint, das wovon man nichts versteht könne ja wohl nicht so schwer sein, stimmen muß es aber noch lange nicht, auch nicht wenn es sich ein CEO einbildet. Was der Eine gut kann muß ein Anderer eben noch lange nicht genauso gut können, selbst wenn man ihm Zeit zum Üben läßt. Eine Produktionslinie, die man quer durch die Welt von A nach B verlagert kann in B ein voller Mißerfolg werden auch wenn's in A prima geklappt hat.
Ein aktuelles und haarsträubendes Beispiel dafür kann man im Falle Studer beobachten. Studer ist ein Teil dessen was früher mal Studer-ReVox war. Den älteren HiFi-Afficionados ist das noch ein wohlbekannter Name, mit dem damals im guten Sinn "High-End" verbunden wurde. Die schweizerische Traditionsfirma wurde kurz nach dem zweiten Weltkrieg von Willi Studer gegründet und wuchs im Laufe der Zeit auf über 1500 Beschäftigte. Neben den HiFi-Geräten, die unter dem Namen (Brand) ReVox verkauft wurden, produzierte die Firma auch Studiotechnik unter dem Namen Studer. Bekannt und geradezu legendär waren vor allem die Studer-Bandmaschinen und die Mischpulte.
Willi Studer verkaufte aus Altersgründen die Firma nach längerem Hin-und-Her 1990 an einen schweizerischen Konzern, die Motor-Columbus-AG, die heute im Alpiq-Konzern aufgegangen ist. Er wollte ausdrücklich die Einheit der Firma erhalten und dafür sorgen daß sie in schweizerischem Besitz blieb. Interessenten aus dem Ausland hätte es bei den bekannten Audio-Konzernen durchaus gegeben (z.B. Philips), aber Studer blieb patriotisch. Es hat ihm nichts genutzt, und er mußte mitansehen wie in kürzester Zeit seine ehemalige Firma geschrumpft und filetiert wurde. Motor-Columbus hatte als Energie-Konzern keinerlei Bezug zum Audiogeschäft. Es waren die Zeiten als es Manager-Mode bei Konzernen war, zu "diversifizieren". Der Daimler-Konzern diversifizierte z.B. mit Dornier, AEG, Fokker, MBB etc. in den Flugzeugbau und die Elektrotechnik, was saftige Verluste produzierte. Mannesmann diversifizierte in Richtung Telekommunikation und Maschinenbau, und ist heute verschwunden bzw. in anderen Firmen aufgegangen. Mitte der 90er Jahre war dann die Mode das Gegenteil: Konzentration auf's Kerngeschäft. Studer war 1994 in zwei unabhängige Teile geteilt, die beide in ausländischer Hand waren: ReVox mit dem Hifi-Geschäft gehörte einer Investorengruppe in Luxemburg, und Studer mit dem professionellen Audiogeschäft war an den amerikanischen Harman-Konzern verkauft, zu dem die Firma noch heute gehört. Es muß für Willi Studer der reine Horror gewesen sein.
Studer hat seither das Geschäft mit Bandmaschinen ganz aufgegeben, und konzentriert sich heute auf digitale Mischpulte für den Rundfunk und für die Studioausstattung. Die Firma ist auf etwa 100 Mitarbeiter geschrumpft was schon ein gewaltiger Aderlaß ist, hat aber in den letzten Jahren ordentliche Geschäfte gemacht und steht im Markt nicht schlecht da. Mit einem anderen Harman-Brand, Soundcraft in England, wurden die Beziehungen nach und nach enger geknüpft, was angesichts unterschiedlicher Firmenkulturen nie wirklich harmonisch war. Soundcraft macht zwar ebenfalls Mischpulte, aber vor allem für Live-Anwendungen bei Konzerten und in Clubs, und betätigt sich erst seit relativ kurzer Zeit verstärkt im digitalen Bereich, während das Hauptgeschäft traditionell bei analogen Mischpulten lag.
In jüngster Zeit hat sich das dergestalt entwickelt daß aus beiden Firmen eine gemeinsame Business-Einheit wird. Bei Entwicklung und Produktion wird kooperiert, so wurde die Vi-Serie von Soundcraft-Mischpulten von Studer entwickelt, und bei Soundcraft werden Baugruppen für Studer gefertigt. Der Entwicklungsleiter und weiteres Management ist beiden Firmen gemeinsam. Studer und Soundcraft, so sieht es aus, werden zu zwei Marketing-Namen, die Produkte kommen letztlich aus einer anonymen Einheit.
Die Schweizer ziehen dabei offenbar den Kürzeren. Seit einigen Wochen ist Studer in offener Rebellion gegen die Entscheidung, die verbleibende Produktion vollends nach England zu verlagern, was einem Drittel der Belegschaft den Job kostet und die Firma zu einer voll abhängigen Entwicklungsabteilung werden läßt.
Das ist bitter, und zwar gleich aus mehreren Gründen:
- Studer produziert im Gegensatz zu Soundcraft schwarze Zahlen, was nicht ganz zu Unrecht den Verdacht erweckt daß hier eine Manager-Riege eigene Fehler zu Lasten derjenigen ausbügeln will, die gut gewirtschaftet haben.
- Studer allein ist umso weniger wert je mehr es von anderen Harman-Teilen abhängt, und ist daher auch umso schwieriger aus dem Harman-Konzern herauslösbar.
- Die Produktion und die Entwicklung 1000 Kilometer voneinander enfernt anzusiedeln ist bei komplexen Produkten mit niedriger Stückzahl eine Schnapsidee. Die Einsparungsmöglichkeiten stehen in keinem Verhältnis zu den Kommunikationsschwierigkeiten und den Verzögerungen die man sich damit einhandelt. Bei so einem technologisch komplexen Geschäft ist ein einfacher und direkter Kontakt zwischen Entwicklung und Produktion wesentlich, wenn nicht sogar marktentscheidend.
- Studer-Produkte werden nicht einfach in Kisten verpackt und verkauft. Der Kunde will bei solchen Produkten kein Gerät, sondern ein System, bzw. eine Problemlösung kaufen, und damit braucht es ein ganz anderes Verhältnis zwischen Kunde und Lieferant. Das kann man nicht in dieser Form auf eine ausgelagerte Produktion ausdehnen.
- Soundcraft hat in der Vergangenheit stark in eigene moderne Produktionsanlagen investiert und Mühe gehabt diese auszulasten. Inzwischen läßt man immer größere Teile des eigenen Produktprogramms in China fertigen, was dazu führt daß sich die Produktionsanlagen noch weniger rechnen. Anscheinend will man Studer dazu zwingen dieses Loch zu stopfen, weil man nicht eingestehen will daß man damals falsch entschieden hat.
Wenn das so weiter geht wird auch Studer bald zu den Firmen gehören, die nur noch als Brand im Portfolio eines Konzerns existieren, hinter dem keine reale, abgrenzbare, charakteristische, menschliche Struktur mehr steht. Eine leere Firmenhülse, deren Namen man noch als Aufkleber auf bestimmte Produkte drauf pappt.
Für Harman ist so etwas nicht ganz neu. Man braucht sich für einen Eindruck bloß deren Webauftritt ansehen. Da ist ganz ausdrücklich von Brands die Rede. Eine Firma, viele Brands, so sehen sei sich auf der oberen Management-Ebene gerne. Ein Denken in Etiketten. Menschen sind "Human Resources", gewachsene Traditionsfirmen sind "Brands", Entlassungen sind "Synergieeffekte".
Auch Harman war mal eine Firma, bevor sie zu einem Konzern wurde. Auch dort gab es eine Gründerfigur in Sidney Harman, die sich inzwischen vom Geschäft verabschiedet hat. Das Zepter schwingen dort nun Leute, die keine Wurzeln im Audio-Business haben. Siehe die Lebensläufe der Top-Manager, wie man sie auf der Webseite findet. Der oberste Chef ist da erst seit zwei Jahren, der Chef des Bereiches "Professional" ist seit 2001 dort. Astreine Karrieristen-Lebensläufe von Leuten, denen es relativ wurscht ist ob ihre Firma Audiogeräte oder Getriebe oder Fruchtsaft herstellt. Hauptsache der Bonus stimmt, siehe z.B. hier oder hier.
Es sieht nicht gut aus für Studer.
P.S.: Ein paar interessante Hintergrundinformationen in Sachen Harman gibt's hier, hier, hier, hier und hier und noch ein CEO-Kurzinterview.
Samstag, 3. Oktober 2009
Alte Geschichten
Die 91ste AES-Convention in New York im Herbst 1991 muß "interessant" gewesen sein. Sie stand unter dem Titel: "Audio Fact & Fantasy: Reckoning with the Realities". Die Akademiker und Profis in der direkten Auseinandersetzung mit den Subjektivisten. Tut mir fast leid daß ich nicht dabei war, meine erste Convention datiert ein halbes Jahr später, in Wien. Es scheint jedenfalls als habe diese Veranstaltung vor 18 Jahren Nachwirkungen bis in unsere Tage.
Eine solche Konferenz wäre jedenfalls die ideale Gelegenheit für die Subjektivisten gewesen, mal etwas Handfestes vorzutragen, schließlich war zu diesem Zeitpunkt die "Great Debate" bereits über 10 Jahre lang am Laufen, in der es um die für Audiophile geradezu blasphemische Behauptung ging, kompetent konstruierte Verstärker seien im Normalbetrieb klanglich nicht zu unterscheiden. Da wurden reihenweise Blindtests in verschiedenen Ausprägungen durchgeführt, die ebenso reihenweise diese Behauptung gestützt haben, und parallel dazu gab's ein Geheul aus der audiophilen Szene darüber wie "absurd" dieses Ergebnis doch sei. Was es nicht gab waren seriöse Untersuchungen von eben dieser Szene. Das hätte man auf dieser Konferenz ändern können, Zeit genug war dazu schließlich. Das Programmkomittee der AES wird sich gedacht haben: "Jetzt hatten wir seit über 10 Jahren diese Auseinandersetzung, es wird Zeit daß wir das mal bilanzieren und sehen wo wir heute stehen."
Es waren offenbar demzufolge auch etliche Vertreter und Zuschauer von der subjektivistischen Seite anwesend, von der sonst auf AES-Conventions wenig zu merken ist. Deren Wortführerschaft scheint damals die Stereophile gehabt zu haben, und etliche Mitarbeiter aus der Redaktion waren zur Konferenz gekommen. Einer davon, Robert Harley, hielt einen Vortrag zum Thema "The Role of Critical Listening in Evaluating Audio Equipment Quality", der damals in der Stereophile unter dem Titel "The Listener's Manifesto" zu lesen war. Wer ein "klassisches" Beispiel für einen Subjektivisten-Text sucht, dem kann dieses Papier auch heute noch empfohlen werden.
Besonders amüsant finde ich, wie Harley den Eindruck zu erwecken versucht, er könne erklären woher der Konflikt zwischen "Objektivisten" und "Subjektivisten" kommt, und dabei keine Gelegenheit ausläßt den "Objektivisten" die Schuld in die Schuhe zu schieben, indem er sie als Dogmatiker, Wissensverweigerer, Hörverweigerer, etc. hinstellt. Man stelle sich mal vor wie das auf die versammelte Riege von Zuhörern gewirkt haben muß. Die mildeste Reaktion wird gewesen sein, ihn als nicht ernst zu nehmenden Schwachkopf anzusehen, auf den man nicht unbedingt reagieren muß. Einigen wird aber gewaltig der Kamm geschwollen sein. Bei Peter Aczel z.B. ist das nicht überraschend; man kann seine Version der Geschichte hier (ab Seite 36) nachlesen.
Nicht mehr lustig finde ich allerdings die Art wie Harley mit Zitaten seiner objektivistischen Gegner umgeht. Das ist eine ganz miese Tour, und man tut in jedem Einzelfall gut daran, selber nachzuprüfen in welchem Kontext ein Zitat gefallen ist das Harley in seinem Papier anführt. Ein Beispiel: Harley zählt auf Seite 12 seines Papiers eine Anzahl von nach seiner Darstellung typischen Bedingungen von Blindtests auf, die jeden professionellen Blindtester in Rage gebracht haben muß. Im Punkt E heißt es: "The experimenter controls the number of successive trials without regard for the subject's fatigue factor, increasing the number if a trend indicating reliable identification appears." Dazu wird als Fußnote auf einen Text von Stanley Lipshitz verwiesen, aus dem Folgendes zitiert wird: "It is usually best, rather than conducting a preset number of trials, to monitor the statistics as the trials proceed, and to extend the number of trials if there appears to be a reasonable possibility that a subject is performing somewhat better than random."
Es ist offensichtlich was einem hier Harley weismachen will: Wenn es so aussieht als könne jemand tatsächlich einen Unterschied hören, dann plagt man ihn umso länger, bis er erschöpft ist und nichts mehr hört. Wer den Artikel von Lipshitz liest, oder den Mann kennt, wird unschwer erkennen daß er das ganz sicher nicht gemeint haben kann. Ganz im Gegenteil: Es schreibt in besagtem Artikel ganz ausdrücklich daß er zugunsten möglichst hoher Unterscheidungs-Empfindlichkeit so gut wie alle Testmethoden akzeptiert, vorausgesetzt sie sind tatsächlich verblindet, und sie werden seriös ausgewertet. Von einer absichtlichen Verschlechterung der Bedingungen um die Subjekte zu behindern kann nicht die Rede sein. Bei der von Harley zitierten Passage geht es Lipshitz darum, daß man in einem Fall wo ansonsten die statistische Relevanz nicht gegeben wäre die Anzahl der Tests erhöht werden kann, um vielleicht doch noch zu einer Relevanz zu kommen. Es ist ein Versuch, so einen Test für diejenigen zu retten die einen Unterschied propagieren, denn ohne eine Ausweitung der Testanzahl müßte man in dieser Situation den Test wegen mangelnder statistischer Relevanz als Fehlschlag werten.
So etwas ist bei Harley leider kein Einzelfall. Er hat offenbar keine Hemmung, Zitate für seine Zwecke einzuspannen, gerade auch von Leuten die nicht auf seiner Seite stehen, und er ist nicht zimperlig wenn dabei der Sinn völlig verdreht wird. Ein weiteres Beispiel dafür ist sein Versuch, ein Seminar auf der genannten AES-Convention für seine Anti-Blindtest-Propaganda einzusetzen, den er ursprünglich mal bei der Stereophile veröffentlicht hatte, den er aber kürzlich als Editorial für "The Absolute Sound" wieder aufgewärmt hat. Über diese Spur bin ich überhaupt auf dieses doch recht alte Thema hier gekommen, denn die dort erzählte Anekdote findet man vielfach zitiert und kopiert auf diversen audiophilen Webseiten und in Forumsdiskussionen, sowohl in den USA als auch hierzulande.
Die Kritiklosigkeit mit der die Anekdote als Argument gegen Blindtests akzeptiert und geschätzt wird, obwohl sogar ohne Nachprüfen der Quellen mit ein bißchen Nachdenken schnell klar ist welcher Unsinn da von Harley kommt, ist ein neuerliches Beispiel dafür wie ein Ergebnis, das einem gelegen kommt, die Kritikfähigkeit erstickt. Ich hatte das in diesem Blog ja früher schon mal thematisiert.
Das Seminar drehte sich damals um die recht neue und vielversprechende psychoakustische Datenkompression, die man sich anschickte zur Grundlage von Digitalradio und anderen Medien zu machen, weshalb man die benutzten Verfahren standardisieren mußte. Herstellerspezifische Verfahren wie z.B. das von Philips bei der DCC benutzte, oder das von Sony für die Minidisc, kamen dafür nicht in Frage, man hätte sich damit zu sehr an einen Hersteller gebunden. Deshalb der Druck in Richtung internationaler Normierung, die von der MPEG vorangetrieben wurde, und die letztlich um die Zeit der AES-Konferenz herum auch zu einer entsprechenden Norm führte. Das war die Geburt von MP2 und MP3, die erst Jahre danach zum heute sattsam bekannten MP3-Boom führte. Eine Zeit lange vor dem iPod.
Datenkompression war wichtig weil keiner die Sendebandbreite zu spendieren und zu bezahlen bereit war, die es gebraucht hätte um unkomprimiertes Audio zu senden. Da psychoakustische Kompressionsverfahren versprachen, die Datenmenge auf ein Zehntel oder gar mehr einzudampfen, war das ein wirtschaftlicher Faktor den man nicht ignorieren konnte, zumal es so aussah als könne man durch Wahl der Bitrate fast beliebige Kompromisse zwischen Kosten und Qualität ermöglichen, bis hin zu einer "transparenten" Qualität, die von der CD nicht unterscheidbar ist obwohl noch immer nur ein Bruchteil der Datenmenge anfällt.
Eine wichtige Frage zu diesem Zeitpunkt war daher, wie gut die zu der Zeit verfügbaren Codecs in der Praxis waren, und ob sie für Digitalradio hoher Qualität (UKW-Qualität oder besser) zu gebrauchen waren. Als Nebenproblem wollte man wissen mit welchen Datenraten man in der Praxis planen muß. Man führte zu diesem Zweck beim Schwedischen Rundfunk eine groß angelegte Studie durch, in der man die zu diesem Zeitpunkt verfügbaren Codecs in Blindtest-Reihen gegeneinander antreten ließ und bei verschiedenen Datenraten feststellte wie es um die hörbare Qualitätsverschlechterung bestellt war. Das Ergebnis wurde auf dem Seminar anläßlich der AES-Convention in New York diskutiert (es war auf einer anderen AES-Veranstaltung kurz zuvor schon vorgestellt worden), und Harley saß offenbar unter den Zuschauern. Was dort genau passierte ist nirgends neutral nachzulesen und die Rekonstruktion fällt demzufolge schwer wenn man nicht teilgenommen hat. Soweit die Fakten reichen kann Harley's Darstellung durchaus stimmen, aber was er daraus macht ist geradezu perfide.
Der nicht anwesende (inzwischen verstorbene) Bart Locanthi meldete sich mit einer auf Band aufgenommenen Stellungnahme in der Diskussion zu Wort, in der er berichtete wie er Grenzzyklen in den Aufnahmen gefunden habe die ihm die Schweden auf Anforderung geschickt hatten. Dabei handelte es sich um das Material das für die Blindtests verwendet wurde. Beim Blindtest selbst fielen diese Grenzzyklen offenbar nicht auf, aber einmal darauf aufmerksam gemacht konnten sie auch die Schweden hören. Harley macht daraus ein Argument gegen den Blindtest, und sieht darin einen Beweis daß man im Blindtest Dinge nicht hört die im nichtblinden Test mühelos und routinemäßig gehört werden.
Eine unsinnige und ärgerliche Folgerung, die auch Locanthi selbst kaum mitgetragen hätte. Es gibt keinen guten Grund zur Annahme daß Locanthi die Grenzzyklen deswegen gehört hat weil er nichtblind gehört hat. Es spricht eher Vieles dafür daß er es gehört hätte egal ob er blind oder nichtblind vorging. Und daß es die schwedischen Tester ebenfalls gehört hätten wenn sie spezifisch danach gesucht hätten - was sie später ja getan haben. Die Anekdote wäre also kein Argument für oder gegen Blindtests, sondern für die auch damals schon nicht ganz neue Erkenntnis daß man bei subtilen Effekten wissen muß wonach man sucht.
Wenn Harley recht hätte dann würde das bedeuten daß weder die Entwickler des betreffenden Codecs, noch die schwedischen Tester, den Codec je unverblindet gehört haben. Sonst hätten sie den Effekt ja hören müssen. Das ist aber eine absurde Annahme. Schon bei der Codec-Entwicklung hört man sich das Resultat x-mal an, und dabei macht man ganz sicher nicht jedesmal den Aufwand eines Blindtests. Bloß werden darüber keine Konferenzvorträge gehalten. Den Blindtest macht man dann wenn man der Fachöffentlichkeit zeigen will was die Entwicklung kann, oder wenn man sich zuvor vergewissern will daß man sich nicht täuscht. Auch in der Vorbereitung eines Blindtests und in der Einhörphase wird regelmäßig nichtblind gehört, ohne daß das in jedem Bericht ausdrücklich erwähnt würde. Locanthi ist also mit Sicherheit nicht der Einzige oder Erste gewesen der den Codec unverblindet gehört hat.
Locanthi hat sich in dieser Angelegenheit dadurch ausgezeichnet daß er wußte was Grenzzyklen sind - sehr leise Störtöne die ein Digitalfilter selbst erzeugen kann wenn es einen subtilen Fehler hat - weil er durch seine Beschäftigung mit Digitalfiltern damit zu tun hatte. Das ist ein Artefakt bei dem es recht typisch ist, daß man es bloß bemerkt wenn man weiß worauf man achten muß, es dann aber relativ einfach erkennen und wiedererkennen kann. Die digitale Audiotechnik hat eine Reihe solcher Effekte auf Lager, die in der Analogtechnik keine Entsprechung haben. Wer damit Erfahrung hat tut sich leichter, die Effekte zu erkennen, egal ob im blinden oder im nichtblinden Hörtest. Ob Harley selbst die Grenzzyklen im nichtblinden Hörtest entdeckt hätte darf getrost bezweifelt werden.
Für den Codec bedeutet das ganz einfach daß er noch einen "Bug" hatte. Das ist nicht wirklich überraschend wenn man bedenkt daß damals komplett neue Entwicklungen getestet wurden. Der schwedische Bericht enthält genau genommen zwei getrennte Tests, einen vom Sommer 1990, in dem vier Codecs gegeneinander antraten, von denen nur zwei als einigermaßen "fertig" gelten konnten, so daß die anderen beiden gar nicht bewertet wurden und nur informell teilnahmen. Als Ergebnis aus dem Test wurden die Entwickler der beiden "fertigen" Codecs im August des Jahres aufgefordert, ihre Implementierungen zusammenzuwerfen und eine gemeinsame Lösung zu präsentieren, die sich in mehrere "Layer" gliedert, die für unterschiedliche Anforderungen an den Kompressionsgrad und die erforderliche Rechenleistung verwendet werden können. Daraus entstand dann ein Konzept in drei Layern, das die MPEG-Group schließlich im Dezember 1990 vorstellte, und aus dem dann MP1, MP2 und MP3 wurde. MP1 benutzt heute praktisch niemand mehr, MP2 hat Verwendung im Rundfunk und bei DAB gefunden, und MP3 kennt heute Jeder. Das Resultat wurde von den Schweden dann im Frühjahr 1991 im Blindtest geprüft.
Wer ein bißchen was von Entwicklung versteht der weiß daß solche Zeitspannen ziemlich knapp sind und daß es nicht besonders wundert wenn dabei so etwas wie Grenzzyklen durch die Lappen gehen. Die Schweden waren sich dessen bewußt, denn sie schrieben über den ersten der beiden Tests: "SR came to the conclusion that none of the codecs could be generally accepted for use as distribution codecs by the broadcasters, at the stage of development by the time of the tests in July 1990. [...] it must be borne in mind that when we are talking about DAB we are talking about a system that will live for 30 years or more. Artifacts that are difficult to detect at a first listening will be more and more obvious as time goes by." Locanthi hätte bestimmt 100% zugestimmt.
Ein paar Monate später war die Qualität des kombinierten MPEG-codecs bereits besser geworden und das Fazit des SR aus dem zweiten Test war: "Both codecs have now reached a level of performance where they fulfill the EBU requirements for a distribution codec." Das sollte nicht heißen daß die Codecs in jeder Hinsicht als perfekt oder transparent angesehen wurden, wie sich aus dem Text klar ergibt. Die EBU hatte sich Kriterien gegeben die sie an einen Codec anlegen wollte, der für Digitalradio geeignet sein sollte, und diese Kriterien waren erfüllt. Man kann drüber diskutieren ob die Kriterien streng genug waren, aber am Ergebnis der Schweden gibt's in meinen Augen nichts zu kritisieren, zumindestens nicht auf die unehrliche Art wie das Harley unterstellt.
Ich vermute sogar daß das Ergebnis nicht viel anders ausgefallen wäre wenn die Schweden das Grenzzyklen-Problem selbst gefunden hätten. Es wäre vermutlich ein Bugreport an die Entwicklertruppe ergangen, und es ist gut möglich daß der Fehler in ein paar Wochen korrigiert gewesen wäre ohne daß sich an der Qualitätseinstufung etwas hätte zu ändern brauchen. So ein Bug ist kein prinzipielles Problem der Kompressionstechnik und damit auch kein Grund zu spezieller Aufregung.
Trotzdem fanden damals viele "Profis" daß ihnen die Sache mit der Datenkompression etwas zu schnell ging und Richtungsentscheidungen gefällt wurden bevor man genug Erfahrung damit gesammelt hatte. Teilweise lag das sogar daran daß man bei diesen psychoakustischen Technologien so sehr auf Hörtests angewiesen war, und nicht stattdessen brauchbare Meßtechniken dafür zur Verfügung standen. Man versuchte folglich auch mit Hochdruck dahin zu kommen, die psychoakustischen Erkenntnisse die man in diesem Zusammenhang gewonnen hatte, in Meßverfahren umzusetzen mit denen man die Qualität solcher Codecs auch ohne dauernde aufwändige Blindtests halbwegs zuverlässig ermitteln konnte. Die Meinung man müsse das mit nichtblinden Hörtests tun hat keiner von der akademischen Seite ernsthaft vertreten, auch die nicht die sich kritisch mit Blindtests auseinander setzten.
Solche Feinheiten gehen an jemandem wie Harley vorbei, der bloß auf der Suche nach Textschnipseln ist die er für seine Propaganda einsetzen kann. Da reicht es, implizit vorauszusetzen ein Hörtest müsse vorhandene Effekte auch sicher detektieren. Wenn einem Blindtest dann ein Effekt durch die Lappen geht kann er demzufolge nichts getaugt haben. Bullshit. Kein Hörtest, egal ob blind oder nichtblind, kann das. Wenn er Blindtests mit diesem Argument abschießt kann er jeden nichtblinden Test mit dem gleichen Argument abschießen. Auf dieser Basis kann die Auseinandersetzung bloß ideologisch sein.
Seine rhetorische Frage "How is it possible that a single listener, using non-blind observational listening techniques, was able to discover—in less than ten minutes—a distortion that escaped the scrutiny of 60 expert listeners, 20,000 trials conducted over a two-year period, and elaborate “double-blind, triple-stimulus, hidden-reference” methodology, and sophisticated statistical analysis?"
hat also eine ganz einfache Antwort, und es ist nicht die welche er selbst anbietet. "Because he knew what to listen for."
Das ist die richtige Erklärung, und die Frage blind/nichtblind hat nichts damit zu tun, egal wie viel suggestive Sprache Harley auch immer zusammenkratzt um diese Erkenntnis lächerlich zu machen.
(Zu den verlinkten AES-Papieren tut mir leid daß sie nicht frei verfügbar sind. Daran kann ich nichts ändern, und es behindert natürlich jeden Versuch, sich anhand der Originaltexte schlau zu machen. Mit etwas Glück findet man manchmal im Internet kursierende Kopien der Artikel, woran im Normalfall die AES wenig Interesse hat -- verständlicherweise. Falls das scheitert bleibt nur der Gang in eine entsprechend sortierte Bibliothek, oder das Zahlen der Gebühr die die AES verlangt.)
Eine solche Konferenz wäre jedenfalls die ideale Gelegenheit für die Subjektivisten gewesen, mal etwas Handfestes vorzutragen, schließlich war zu diesem Zeitpunkt die "Great Debate" bereits über 10 Jahre lang am Laufen, in der es um die für Audiophile geradezu blasphemische Behauptung ging, kompetent konstruierte Verstärker seien im Normalbetrieb klanglich nicht zu unterscheiden. Da wurden reihenweise Blindtests in verschiedenen Ausprägungen durchgeführt, die ebenso reihenweise diese Behauptung gestützt haben, und parallel dazu gab's ein Geheul aus der audiophilen Szene darüber wie "absurd" dieses Ergebnis doch sei. Was es nicht gab waren seriöse Untersuchungen von eben dieser Szene. Das hätte man auf dieser Konferenz ändern können, Zeit genug war dazu schließlich. Das Programmkomittee der AES wird sich gedacht haben: "Jetzt hatten wir seit über 10 Jahren diese Auseinandersetzung, es wird Zeit daß wir das mal bilanzieren und sehen wo wir heute stehen."
Es waren offenbar demzufolge auch etliche Vertreter und Zuschauer von der subjektivistischen Seite anwesend, von der sonst auf AES-Conventions wenig zu merken ist. Deren Wortführerschaft scheint damals die Stereophile gehabt zu haben, und etliche Mitarbeiter aus der Redaktion waren zur Konferenz gekommen. Einer davon, Robert Harley, hielt einen Vortrag zum Thema "The Role of Critical Listening in Evaluating Audio Equipment Quality", der damals in der Stereophile unter dem Titel "The Listener's Manifesto" zu lesen war. Wer ein "klassisches" Beispiel für einen Subjektivisten-Text sucht, dem kann dieses Papier auch heute noch empfohlen werden.
Besonders amüsant finde ich, wie Harley den Eindruck zu erwecken versucht, er könne erklären woher der Konflikt zwischen "Objektivisten" und "Subjektivisten" kommt, und dabei keine Gelegenheit ausläßt den "Objektivisten" die Schuld in die Schuhe zu schieben, indem er sie als Dogmatiker, Wissensverweigerer, Hörverweigerer, etc. hinstellt. Man stelle sich mal vor wie das auf die versammelte Riege von Zuhörern gewirkt haben muß. Die mildeste Reaktion wird gewesen sein, ihn als nicht ernst zu nehmenden Schwachkopf anzusehen, auf den man nicht unbedingt reagieren muß. Einigen wird aber gewaltig der Kamm geschwollen sein. Bei Peter Aczel z.B. ist das nicht überraschend; man kann seine Version der Geschichte hier (ab Seite 36) nachlesen.
Nicht mehr lustig finde ich allerdings die Art wie Harley mit Zitaten seiner objektivistischen Gegner umgeht. Das ist eine ganz miese Tour, und man tut in jedem Einzelfall gut daran, selber nachzuprüfen in welchem Kontext ein Zitat gefallen ist das Harley in seinem Papier anführt. Ein Beispiel: Harley zählt auf Seite 12 seines Papiers eine Anzahl von nach seiner Darstellung typischen Bedingungen von Blindtests auf, die jeden professionellen Blindtester in Rage gebracht haben muß. Im Punkt E heißt es: "The experimenter controls the number of successive trials without regard for the subject's fatigue factor, increasing the number if a trend indicating reliable identification appears." Dazu wird als Fußnote auf einen Text von Stanley Lipshitz verwiesen, aus dem Folgendes zitiert wird: "It is usually best, rather than conducting a preset number of trials, to monitor the statistics as the trials proceed, and to extend the number of trials if there appears to be a reasonable possibility that a subject is performing somewhat better than random."
Es ist offensichtlich was einem hier Harley weismachen will: Wenn es so aussieht als könne jemand tatsächlich einen Unterschied hören, dann plagt man ihn umso länger, bis er erschöpft ist und nichts mehr hört. Wer den Artikel von Lipshitz liest, oder den Mann kennt, wird unschwer erkennen daß er das ganz sicher nicht gemeint haben kann. Ganz im Gegenteil: Es schreibt in besagtem Artikel ganz ausdrücklich daß er zugunsten möglichst hoher Unterscheidungs-Empfindlichkeit so gut wie alle Testmethoden akzeptiert, vorausgesetzt sie sind tatsächlich verblindet, und sie werden seriös ausgewertet. Von einer absichtlichen Verschlechterung der Bedingungen um die Subjekte zu behindern kann nicht die Rede sein. Bei der von Harley zitierten Passage geht es Lipshitz darum, daß man in einem Fall wo ansonsten die statistische Relevanz nicht gegeben wäre die Anzahl der Tests erhöht werden kann, um vielleicht doch noch zu einer Relevanz zu kommen. Es ist ein Versuch, so einen Test für diejenigen zu retten die einen Unterschied propagieren, denn ohne eine Ausweitung der Testanzahl müßte man in dieser Situation den Test wegen mangelnder statistischer Relevanz als Fehlschlag werten.
So etwas ist bei Harley leider kein Einzelfall. Er hat offenbar keine Hemmung, Zitate für seine Zwecke einzuspannen, gerade auch von Leuten die nicht auf seiner Seite stehen, und er ist nicht zimperlig wenn dabei der Sinn völlig verdreht wird. Ein weiteres Beispiel dafür ist sein Versuch, ein Seminar auf der genannten AES-Convention für seine Anti-Blindtest-Propaganda einzusetzen, den er ursprünglich mal bei der Stereophile veröffentlicht hatte, den er aber kürzlich als Editorial für "The Absolute Sound" wieder aufgewärmt hat. Über diese Spur bin ich überhaupt auf dieses doch recht alte Thema hier gekommen, denn die dort erzählte Anekdote findet man vielfach zitiert und kopiert auf diversen audiophilen Webseiten und in Forumsdiskussionen, sowohl in den USA als auch hierzulande.
Die Kritiklosigkeit mit der die Anekdote als Argument gegen Blindtests akzeptiert und geschätzt wird, obwohl sogar ohne Nachprüfen der Quellen mit ein bißchen Nachdenken schnell klar ist welcher Unsinn da von Harley kommt, ist ein neuerliches Beispiel dafür wie ein Ergebnis, das einem gelegen kommt, die Kritikfähigkeit erstickt. Ich hatte das in diesem Blog ja früher schon mal thematisiert.
Das Seminar drehte sich damals um die recht neue und vielversprechende psychoakustische Datenkompression, die man sich anschickte zur Grundlage von Digitalradio und anderen Medien zu machen, weshalb man die benutzten Verfahren standardisieren mußte. Herstellerspezifische Verfahren wie z.B. das von Philips bei der DCC benutzte, oder das von Sony für die Minidisc, kamen dafür nicht in Frage, man hätte sich damit zu sehr an einen Hersteller gebunden. Deshalb der Druck in Richtung internationaler Normierung, die von der MPEG vorangetrieben wurde, und die letztlich um die Zeit der AES-Konferenz herum auch zu einer entsprechenden Norm führte. Das war die Geburt von MP2 und MP3, die erst Jahre danach zum heute sattsam bekannten MP3-Boom führte. Eine Zeit lange vor dem iPod.
Datenkompression war wichtig weil keiner die Sendebandbreite zu spendieren und zu bezahlen bereit war, die es gebraucht hätte um unkomprimiertes Audio zu senden. Da psychoakustische Kompressionsverfahren versprachen, die Datenmenge auf ein Zehntel oder gar mehr einzudampfen, war das ein wirtschaftlicher Faktor den man nicht ignorieren konnte, zumal es so aussah als könne man durch Wahl der Bitrate fast beliebige Kompromisse zwischen Kosten und Qualität ermöglichen, bis hin zu einer "transparenten" Qualität, die von der CD nicht unterscheidbar ist obwohl noch immer nur ein Bruchteil der Datenmenge anfällt.
Eine wichtige Frage zu diesem Zeitpunkt war daher, wie gut die zu der Zeit verfügbaren Codecs in der Praxis waren, und ob sie für Digitalradio hoher Qualität (UKW-Qualität oder besser) zu gebrauchen waren. Als Nebenproblem wollte man wissen mit welchen Datenraten man in der Praxis planen muß. Man führte zu diesem Zweck beim Schwedischen Rundfunk eine groß angelegte Studie durch, in der man die zu diesem Zeitpunkt verfügbaren Codecs in Blindtest-Reihen gegeneinander antreten ließ und bei verschiedenen Datenraten feststellte wie es um die hörbare Qualitätsverschlechterung bestellt war. Das Ergebnis wurde auf dem Seminar anläßlich der AES-Convention in New York diskutiert (es war auf einer anderen AES-Veranstaltung kurz zuvor schon vorgestellt worden), und Harley saß offenbar unter den Zuschauern. Was dort genau passierte ist nirgends neutral nachzulesen und die Rekonstruktion fällt demzufolge schwer wenn man nicht teilgenommen hat. Soweit die Fakten reichen kann Harley's Darstellung durchaus stimmen, aber was er daraus macht ist geradezu perfide.
Der nicht anwesende (inzwischen verstorbene) Bart Locanthi meldete sich mit einer auf Band aufgenommenen Stellungnahme in der Diskussion zu Wort, in der er berichtete wie er Grenzzyklen in den Aufnahmen gefunden habe die ihm die Schweden auf Anforderung geschickt hatten. Dabei handelte es sich um das Material das für die Blindtests verwendet wurde. Beim Blindtest selbst fielen diese Grenzzyklen offenbar nicht auf, aber einmal darauf aufmerksam gemacht konnten sie auch die Schweden hören. Harley macht daraus ein Argument gegen den Blindtest, und sieht darin einen Beweis daß man im Blindtest Dinge nicht hört die im nichtblinden Test mühelos und routinemäßig gehört werden.
Eine unsinnige und ärgerliche Folgerung, die auch Locanthi selbst kaum mitgetragen hätte. Es gibt keinen guten Grund zur Annahme daß Locanthi die Grenzzyklen deswegen gehört hat weil er nichtblind gehört hat. Es spricht eher Vieles dafür daß er es gehört hätte egal ob er blind oder nichtblind vorging. Und daß es die schwedischen Tester ebenfalls gehört hätten wenn sie spezifisch danach gesucht hätten - was sie später ja getan haben. Die Anekdote wäre also kein Argument für oder gegen Blindtests, sondern für die auch damals schon nicht ganz neue Erkenntnis daß man bei subtilen Effekten wissen muß wonach man sucht.
Wenn Harley recht hätte dann würde das bedeuten daß weder die Entwickler des betreffenden Codecs, noch die schwedischen Tester, den Codec je unverblindet gehört haben. Sonst hätten sie den Effekt ja hören müssen. Das ist aber eine absurde Annahme. Schon bei der Codec-Entwicklung hört man sich das Resultat x-mal an, und dabei macht man ganz sicher nicht jedesmal den Aufwand eines Blindtests. Bloß werden darüber keine Konferenzvorträge gehalten. Den Blindtest macht man dann wenn man der Fachöffentlichkeit zeigen will was die Entwicklung kann, oder wenn man sich zuvor vergewissern will daß man sich nicht täuscht. Auch in der Vorbereitung eines Blindtests und in der Einhörphase wird regelmäßig nichtblind gehört, ohne daß das in jedem Bericht ausdrücklich erwähnt würde. Locanthi ist also mit Sicherheit nicht der Einzige oder Erste gewesen der den Codec unverblindet gehört hat.
Locanthi hat sich in dieser Angelegenheit dadurch ausgezeichnet daß er wußte was Grenzzyklen sind - sehr leise Störtöne die ein Digitalfilter selbst erzeugen kann wenn es einen subtilen Fehler hat - weil er durch seine Beschäftigung mit Digitalfiltern damit zu tun hatte. Das ist ein Artefakt bei dem es recht typisch ist, daß man es bloß bemerkt wenn man weiß worauf man achten muß, es dann aber relativ einfach erkennen und wiedererkennen kann. Die digitale Audiotechnik hat eine Reihe solcher Effekte auf Lager, die in der Analogtechnik keine Entsprechung haben. Wer damit Erfahrung hat tut sich leichter, die Effekte zu erkennen, egal ob im blinden oder im nichtblinden Hörtest. Ob Harley selbst die Grenzzyklen im nichtblinden Hörtest entdeckt hätte darf getrost bezweifelt werden.
Für den Codec bedeutet das ganz einfach daß er noch einen "Bug" hatte. Das ist nicht wirklich überraschend wenn man bedenkt daß damals komplett neue Entwicklungen getestet wurden. Der schwedische Bericht enthält genau genommen zwei getrennte Tests, einen vom Sommer 1990, in dem vier Codecs gegeneinander antraten, von denen nur zwei als einigermaßen "fertig" gelten konnten, so daß die anderen beiden gar nicht bewertet wurden und nur informell teilnahmen. Als Ergebnis aus dem Test wurden die Entwickler der beiden "fertigen" Codecs im August des Jahres aufgefordert, ihre Implementierungen zusammenzuwerfen und eine gemeinsame Lösung zu präsentieren, die sich in mehrere "Layer" gliedert, die für unterschiedliche Anforderungen an den Kompressionsgrad und die erforderliche Rechenleistung verwendet werden können. Daraus entstand dann ein Konzept in drei Layern, das die MPEG-Group schließlich im Dezember 1990 vorstellte, und aus dem dann MP1, MP2 und MP3 wurde. MP1 benutzt heute praktisch niemand mehr, MP2 hat Verwendung im Rundfunk und bei DAB gefunden, und MP3 kennt heute Jeder. Das Resultat wurde von den Schweden dann im Frühjahr 1991 im Blindtest geprüft.
Wer ein bißchen was von Entwicklung versteht der weiß daß solche Zeitspannen ziemlich knapp sind und daß es nicht besonders wundert wenn dabei so etwas wie Grenzzyklen durch die Lappen gehen. Die Schweden waren sich dessen bewußt, denn sie schrieben über den ersten der beiden Tests: "SR came to the conclusion that none of the codecs could be generally accepted for use as distribution codecs by the broadcasters, at the stage of development by the time of the tests in July 1990. [...] it must be borne in mind that when we are talking about DAB we are talking about a system that will live for 30 years or more. Artifacts that are difficult to detect at a first listening will be more and more obvious as time goes by." Locanthi hätte bestimmt 100% zugestimmt.
Ein paar Monate später war die Qualität des kombinierten MPEG-codecs bereits besser geworden und das Fazit des SR aus dem zweiten Test war: "Both codecs have now reached a level of performance where they fulfill the EBU requirements for a distribution codec." Das sollte nicht heißen daß die Codecs in jeder Hinsicht als perfekt oder transparent angesehen wurden, wie sich aus dem Text klar ergibt. Die EBU hatte sich Kriterien gegeben die sie an einen Codec anlegen wollte, der für Digitalradio geeignet sein sollte, und diese Kriterien waren erfüllt. Man kann drüber diskutieren ob die Kriterien streng genug waren, aber am Ergebnis der Schweden gibt's in meinen Augen nichts zu kritisieren, zumindestens nicht auf die unehrliche Art wie das Harley unterstellt.
Ich vermute sogar daß das Ergebnis nicht viel anders ausgefallen wäre wenn die Schweden das Grenzzyklen-Problem selbst gefunden hätten. Es wäre vermutlich ein Bugreport an die Entwicklertruppe ergangen, und es ist gut möglich daß der Fehler in ein paar Wochen korrigiert gewesen wäre ohne daß sich an der Qualitätseinstufung etwas hätte zu ändern brauchen. So ein Bug ist kein prinzipielles Problem der Kompressionstechnik und damit auch kein Grund zu spezieller Aufregung.
Trotzdem fanden damals viele "Profis" daß ihnen die Sache mit der Datenkompression etwas zu schnell ging und Richtungsentscheidungen gefällt wurden bevor man genug Erfahrung damit gesammelt hatte. Teilweise lag das sogar daran daß man bei diesen psychoakustischen Technologien so sehr auf Hörtests angewiesen war, und nicht stattdessen brauchbare Meßtechniken dafür zur Verfügung standen. Man versuchte folglich auch mit Hochdruck dahin zu kommen, die psychoakustischen Erkenntnisse die man in diesem Zusammenhang gewonnen hatte, in Meßverfahren umzusetzen mit denen man die Qualität solcher Codecs auch ohne dauernde aufwändige Blindtests halbwegs zuverlässig ermitteln konnte. Die Meinung man müsse das mit nichtblinden Hörtests tun hat keiner von der akademischen Seite ernsthaft vertreten, auch die nicht die sich kritisch mit Blindtests auseinander setzten.
Solche Feinheiten gehen an jemandem wie Harley vorbei, der bloß auf der Suche nach Textschnipseln ist die er für seine Propaganda einsetzen kann. Da reicht es, implizit vorauszusetzen ein Hörtest müsse vorhandene Effekte auch sicher detektieren. Wenn einem Blindtest dann ein Effekt durch die Lappen geht kann er demzufolge nichts getaugt haben. Bullshit. Kein Hörtest, egal ob blind oder nichtblind, kann das. Wenn er Blindtests mit diesem Argument abschießt kann er jeden nichtblinden Test mit dem gleichen Argument abschießen. Auf dieser Basis kann die Auseinandersetzung bloß ideologisch sein.
Seine rhetorische Frage "How is it possible that a single listener, using non-blind observational listening techniques, was able to discover—in less than ten minutes—a distortion that escaped the scrutiny of 60 expert listeners, 20,000 trials conducted over a two-year period, and elaborate “double-blind, triple-stimulus, hidden-reference” methodology, and sophisticated statistical analysis?"
hat also eine ganz einfache Antwort, und es ist nicht die welche er selbst anbietet. "Because he knew what to listen for."
Das ist die richtige Erklärung, und die Frage blind/nichtblind hat nichts damit zu tun, egal wie viel suggestive Sprache Harley auch immer zusammenkratzt um diese Erkenntnis lächerlich zu machen.
(Zu den verlinkten AES-Papieren tut mir leid daß sie nicht frei verfügbar sind. Daran kann ich nichts ändern, und es behindert natürlich jeden Versuch, sich anhand der Originaltexte schlau zu machen. Mit etwas Glück findet man manchmal im Internet kursierende Kopien der Artikel, woran im Normalfall die AES wenig Interesse hat -- verständlicherweise. Falls das scheitert bleibt nur der Gang in eine entsprechend sortierte Bibliothek, oder das Zahlen der Gebühr die die AES verlangt.)
Montag, 21. September 2009
Der Wahn und die Freundlichkeit
Das brennt mir jetzt dann doch auf der Seele, nachdem ich vor ein paar Wochen meinen bisher erfolgreichsten Blog-Beitrag verfaßt habe. Jedenfalls wenn man das am Kommentaraufkommen mißt.
Das Problem damit ist, daß dieser Erfolg auf einem Wahn zu beruhen scheint. Bevor ich aber diesen Aspekt näher beleuchte, will ich kurz beim Thema Freundlichkeit verweilen, weil nämlich in besagten Kommentaren immer wieder darauf verweisen wurde.
Ich persönlich schätze zwar in aller Regel die Aufrichtigkeit höher ein als die Freundlichkeit, und in diesem Blog vertrete ich sogar die Haltung, daß klare, zuweilen drastische Worte, illustrative Übertreibungen, und auch Bloßstellungen bei Mißständen erheblich wichtiger und auch wirkungsvoller sind als freundliche Unverbindlichkeit. Aber das soll nicht heißen daß ich mich selbst als unfreundlichen Menschen betrachten würde. Daß die Opfer meines Spottes das anders sehen liegt in der Natur der Sache und stört mich daher nicht besonders. Wenn man hinter die Maske der Menschen blicken will, die viele so gekonnt vor sich her tragen, dann muß man sie zuweilen in Ausnahmesituationen bringen, in denen ihre normalen Abwehrmechanismen fehlzünden. Oft genug bekommt man dann ein besseres weil authentischeres Bild vom Charakter seines Gegenüber.
Aber das kann man natürlich als unfreundliche, arrogante Haltung abtun. Ich habe mir daher einmal überlegt, wie es wohl wäre, wenn ich wirklich wie gefordert grundsätzlich freundlich wäre, egal was auch immer mir zugemutet wird. Ob ich das wirklich nervlich durchstehen würde sei noch dahin gestellt. Für den Moment soll es nur ein Gedankenexperiment sein.
Da ich Vorbilder habe fällt mir das nicht besonders schwer. Ich habe zum Beispiel schon öfter bewundert wie manche Diskussionsteilnehmer mit ähnlich technischem Hintergrund wie ich (also prinzipiell Kotzbrockengefährdet) eine fast mönchische Ruhe behalten können angesichts der übelsten Ignoranz. Uwe Mettmann oder Hubert Reith kommen mir da spontan in den Sinn. Bei Hubert ist es z.B. die Stereoplay-Verstärkertest-Diskussion, die als Beispiel her halten kann. Auch Uwe hatte dort ein kurzes Auftreten. Ich würde sagen, beide sind in Sachen Freundlichkeit nicht zu beanstanden. Dabei ging's in besagter Diskussion hoch her.
Wenn ich mich wirklich anstrengen würde dann könnte ich das, glaube ich, in den meisten Fällen auch schaffen. Es gibt diverse Fälle in denen ich mir redlich Mühe gegeben habe, obwohl ich die Zumutungen sehr schwer zu ertragen fand. Ein Beispiel, das mir noch immer in Erinnerung ist, ist die Diskussion über den Kabeltest im Studio-Magazin, an dem ja auch unser wackerer Sniper-Jäger teilgenommen hat. (Zum Glück hat er nicht auch noch an derDiskussion teil genommen, der Hifi-Tom war schon Zumutung genug). Da ging's mir wirklich um die Sache, ich fand auch ich habe maßvoll und freundlich argumentiert, habe es aber mit einem Diskussionsgegner zu tun gehabt der anscheinend bei Wahrung vordergründiger Freundlichkeit alles Menschenmögliche getan hat um mein Blut zum Überkochen zu bringen. Man kann bekanntlich auch ohne anstößige Wortwahl bis zum Anschlag unverschämt sein. Manche Leute schaffen das mit einer Unschuldmiene, die mich an Erich Mielke's berühmten Ausruf erinnert. Meine Freundlichkeit war daher zum Ende hin auch einer gewissen Erosion unterworfen. Ich gebe zu, da ist bei mir der Kotzbrocken dann doch wieder ein wenig zum Vorschein gekommen.
Die wenigen genannten Beispiele ließen sich mühelos vermehren, aber es zeigt sich schon so daß Freundlichkeit vor allem eines bewirkt: Daß man ins Leere läuft. Wer die Etikette einhält wird bei solchen Themen, in denen echte Konflikte lauern, einfach ignoriert. Jeder darf in freundlichem Ton seine Meinung sagen, die dann sogleich auf den Müllhaufen wandert.
Wenn bei einer Diskussion jeder Teilnehmer tatsächlich daran interessiert wäre, andere Standpunkte kennenzulernen. Wenn er daran interessiert wäre, einen Erkenntnisfortschritt zu erreichen. Wenn er gute Argumente wertschätzen würde. Ja, dann könnte bei einer freundlichen Diskussion tatsächlich etwas heraus kommen. Wenn nicht, dann stellt sich eher über kurz als über lang das Problem, wie man sein Gegenüber dazu bringen kann, seine Argumente überhaupt zur Kenntnis zu nehmen, ohne daß man den tugendvollen Pfad der Freundlichkeit verläßt.
In den meisten Fällen kann man das natürlich nicht. Wenn sich jemand zum ignorant sein entschließt, dann verfolgt er ja damit einen Zweck, und der muß ihm noch nicht einmal bewußt sein. Der Zweck ist der, in der Diskussion zu bestehen ohne sich mit unbequemen und potenziell gefährlichen Argumenten herumschlagen zu müssen. Also Recht zu behalten ohne Recht zu haben. Dafür hat schon vor langer Zeit Schopenhauer die Methoden ausgebreitet, und die meisten Leute beherrschen sie instinktiv perfekt, ohne daß sie bei Schopenhauer in die Lehre hätten gehen müssen.
Am frustrierendsten sind in solchen Auseinandersetzungen Leute, die offensichtlich einer Wahnvorstellung oder einer fixen Idee unterliegen. Damit sind wir beim zweiten Thema dieses Beitrags. Zur Illustration will ich einmal versuchen, ob ich es fertig bringe, über ganz konkrete Wahnvorstellungen ganz konkreter Personen auf eine freundliche Weise zu schreiben. Die Betroffenen werden das nicht recht würdigen können, womit ich praktisch vorführen will wie man ein freundlicher Kotzbrocken sein kann, was beweist daß das Kriterium der Freundlichkeit für die Bewertung von Diskussionen und ihren Teilnehmern völlig am Problem vorbei geht.
Meine in aller Freundlichkeit vorgetragene These, die ich hier zu untermauern gedenke, ist die, daß einige der Kommentatoren aus meinem besagten Erfolgs-Beitrag, und zugleich diejenigen welche noch immer an David's Forum festhalten, von einer Wahnvorstellung oder fixen Idee geprägt sind, die sie daran hindert, abweichende Ansichten und Argumente auch nur zur Kenntnis zu nehmen, geschweige denn darüber nachzudenken. Wer mit der Diskussion nicht vertraut ist möge dort nachlesen.
Eine Wahnvorstellung zeichnet sich gerade dadurch aus daß die Betroffenen durch Nichts in der Welt davon abzubringen sind. Dabei können die Betroffenen in anderer Hinsicht völlig normal sein, bloß wenn's um ein bestimmtes Thema geht schlägt eine Blockade zu, die Andere schnell bemerken, man selber aber nicht. Wenn's dann um das kritische Thema geht reagieren die Betreffenden mit allen nur denkbaren Methoden, um nicht von ihrer fixen Idee abrücken oder sie in Frage stellen zu müssen. Der springende Punkt muß um jeden Preis vom Bewußtsein fern gehalten werden, was natürlich nur ein unbewußter Mechanismus schaffen kann.
Die einfachste Methode ist, Widersprüche gar nicht erst zur Kenntnis zu nehmen. Unter den Kommentaren zu meinem Blog-Beitrag sind etliche, bei denen das gut zu sehen ist. Selbst nach insistierenden und durchaus ins Unfreundliche gehenden Bekräftigungen schafft es gerade auch David, die springenden Punkte völlig zu ignorieren. Typische Reaktion der frustrierten Diskussionsgegner ist fassungsloses und verärgertes Staunen darüber, wie man angesichts derart deutlicher mehrfacher Klarstellungen den Kernpunkt der Kritik noch immer nicht sehen kann.
Je schwerer das Ignorieren fällt desto eher findet man die zweite Stufe, das aktive Ablenken von den springenden Punkten. Dazu gehört zum Beispiel der Versuch, sich tatsächliche oder vermeintliche Stilverletzungen seiner Diskussionsgegner zunutze zu machen. So kann man vom unbequemen Punkt, bei dem man in der Defensive ist, zur Offensive übergehen und einen Entlastungsangriff starten. Zur Not kann man das auch provozieren, indem man die erste Stufe der Ignoranz so penetrant fortsetzt bis jemand genervt genug ist um den Vorwand für den Entlastungsangriff zu liefern. Auch das kann man schön am Beispiel verfolgen, wenngleich man sich hier klar machen muß daß die Ignoranz eine Vorgeschichte hat die weit vor den Beginn der Diskussion in meinem Blog zurück reicht.
Daraus kann man ein schönes Spielchen machen. Wenn alle Beteiligten mitspielen und rechtzeitig durchschauen, daß der von der fixen Idee Getriebene die Diskussion in diesen Verlauf zwingen will, dann kann man die Eskalation zur zweiten Stufe hinauszuzögern versuchen, und ihn so zu immer größeren Zumutungen und Provokationen zu veranlassen. Das funktioniert in öffentlichen Diskussionen leider zu selten, denn irgend jemand findet sich meistens, der die Nerven verliert, bevor der Provokateur selber ausfällig wird.
Oft läuft diese zweite Stufe letztlich darauf hinaus daß der Betreffende einen Abgang macht, und er versucht den so hin zu kriegen daß er in seinem Selbstbild entweder als der Sieger, oder wenigstens als der "moralische" Sieger heraus kommt. Letzteres ist häufiger, und man stellt sich da üblicherweise als jemand dar der unverdient unter die Barbaren geraten ist, was gleich noch im Abgang eine letzte Provokation erlaubt, indem er sich als Höherstehender darstellt, der den Abgang deswegen macht weil er es "nicht nötig" hat, sich mit solchen Leuten abzugeben.
Überhaupt scheint ein Wahn gerne mit einem Gefühl der eigenen Überlegenheit einher zu gehen. Jedenfalls bietet das einen sehr einfachen Vorwand dafür, Kritik nicht zur Kenntnis zu nehmen. Mir ist in unzähligen Diskussionen dieses Muster begegnet, wo ein Diskussionsteilnehmer, der in argumentativen Schwierigkeiten war, aber unter gar keinen Umständen von seinen Vorstellungen ablassen konnte, sich dadurch aus der Affäre zog daß er seine eigene Überlegenheit durchblicken ließ. In Sachen Audiophilie heißt das meist: Ich höre besser, ich habe die bessere Einstellung zum Hobby, oder ich habe die bessere Anlage. Aber man trifft ebenso auch: Ich lebe schöner, ich bin genußfähiger, ich bin kultivierter, oder ich bin toleranter. Allesamt natürlich rein demonstrative Behauptungen, die nicht selten durchschaubar falsch oder gar im direkten Widerspruch zum gezeigten Verhalten sind, aber sie ermöglichen die Gesichtswahrung in den eigenen Augen, und die Aufrechterhaltung der fixen Idee.
Da der Wahn nur von den Anderen, nicht aber von einem selbst erkannt werden kann, könnte ich natürlich auch selber einen haben. Letztlich muß ich das Urteil darüber Euch überlassen. Ich finde, man erkennt einen Wahn am besten daran wie der Betreffende reagiert wenn man an den Grundfesten seiner wahnhaften Vorstellungen rüttelt. Wer einen Wahn verteidigt reagiert darauf auffällig ausweichend, schablonenhaft, reizbar und unsachlich. Man kriegt ein Gespür dafür. Anschauungsmaterial gibt's hier reichlich, wie ich meine.
Und man sieht, wie wenig einem dabei die Freundlichkeit nutzt. Letztlich wird sie nämlich als Vorwand und zur Ablenkung genutzt. Wer weiter kommen will, muß den Mut zur Konfrontation haben.
Womit wir wieder bei den Kotzbrocken sind.
Das Problem damit ist, daß dieser Erfolg auf einem Wahn zu beruhen scheint. Bevor ich aber diesen Aspekt näher beleuchte, will ich kurz beim Thema Freundlichkeit verweilen, weil nämlich in besagten Kommentaren immer wieder darauf verweisen wurde.
Ich persönlich schätze zwar in aller Regel die Aufrichtigkeit höher ein als die Freundlichkeit, und in diesem Blog vertrete ich sogar die Haltung, daß klare, zuweilen drastische Worte, illustrative Übertreibungen, und auch Bloßstellungen bei Mißständen erheblich wichtiger und auch wirkungsvoller sind als freundliche Unverbindlichkeit. Aber das soll nicht heißen daß ich mich selbst als unfreundlichen Menschen betrachten würde. Daß die Opfer meines Spottes das anders sehen liegt in der Natur der Sache und stört mich daher nicht besonders. Wenn man hinter die Maske der Menschen blicken will, die viele so gekonnt vor sich her tragen, dann muß man sie zuweilen in Ausnahmesituationen bringen, in denen ihre normalen Abwehrmechanismen fehlzünden. Oft genug bekommt man dann ein besseres weil authentischeres Bild vom Charakter seines Gegenüber.
Aber das kann man natürlich als unfreundliche, arrogante Haltung abtun. Ich habe mir daher einmal überlegt, wie es wohl wäre, wenn ich wirklich wie gefordert grundsätzlich freundlich wäre, egal was auch immer mir zugemutet wird. Ob ich das wirklich nervlich durchstehen würde sei noch dahin gestellt. Für den Moment soll es nur ein Gedankenexperiment sein.
Da ich Vorbilder habe fällt mir das nicht besonders schwer. Ich habe zum Beispiel schon öfter bewundert wie manche Diskussionsteilnehmer mit ähnlich technischem Hintergrund wie ich (also prinzipiell Kotzbrockengefährdet) eine fast mönchische Ruhe behalten können angesichts der übelsten Ignoranz. Uwe Mettmann oder Hubert Reith kommen mir da spontan in den Sinn. Bei Hubert ist es z.B. die Stereoplay-Verstärkertest-Diskussion, die als Beispiel her halten kann. Auch Uwe hatte dort ein kurzes Auftreten. Ich würde sagen, beide sind in Sachen Freundlichkeit nicht zu beanstanden. Dabei ging's in besagter Diskussion hoch her.
Wenn ich mich wirklich anstrengen würde dann könnte ich das, glaube ich, in den meisten Fällen auch schaffen. Es gibt diverse Fälle in denen ich mir redlich Mühe gegeben habe, obwohl ich die Zumutungen sehr schwer zu ertragen fand. Ein Beispiel, das mir noch immer in Erinnerung ist, ist die Diskussion über den Kabeltest im Studio-Magazin, an dem ja auch unser wackerer Sniper-Jäger teilgenommen hat. (Zum Glück hat er nicht auch noch an derDiskussion teil genommen, der Hifi-Tom war schon Zumutung genug). Da ging's mir wirklich um die Sache, ich fand auch ich habe maßvoll und freundlich argumentiert, habe es aber mit einem Diskussionsgegner zu tun gehabt der anscheinend bei Wahrung vordergründiger Freundlichkeit alles Menschenmögliche getan hat um mein Blut zum Überkochen zu bringen. Man kann bekanntlich auch ohne anstößige Wortwahl bis zum Anschlag unverschämt sein. Manche Leute schaffen das mit einer Unschuldmiene, die mich an Erich Mielke's berühmten Ausruf erinnert. Meine Freundlichkeit war daher zum Ende hin auch einer gewissen Erosion unterworfen. Ich gebe zu, da ist bei mir der Kotzbrocken dann doch wieder ein wenig zum Vorschein gekommen.
Die wenigen genannten Beispiele ließen sich mühelos vermehren, aber es zeigt sich schon so daß Freundlichkeit vor allem eines bewirkt: Daß man ins Leere läuft. Wer die Etikette einhält wird bei solchen Themen, in denen echte Konflikte lauern, einfach ignoriert. Jeder darf in freundlichem Ton seine Meinung sagen, die dann sogleich auf den Müllhaufen wandert.
Wenn bei einer Diskussion jeder Teilnehmer tatsächlich daran interessiert wäre, andere Standpunkte kennenzulernen. Wenn er daran interessiert wäre, einen Erkenntnisfortschritt zu erreichen. Wenn er gute Argumente wertschätzen würde. Ja, dann könnte bei einer freundlichen Diskussion tatsächlich etwas heraus kommen. Wenn nicht, dann stellt sich eher über kurz als über lang das Problem, wie man sein Gegenüber dazu bringen kann, seine Argumente überhaupt zur Kenntnis zu nehmen, ohne daß man den tugendvollen Pfad der Freundlichkeit verläßt.
In den meisten Fällen kann man das natürlich nicht. Wenn sich jemand zum ignorant sein entschließt, dann verfolgt er ja damit einen Zweck, und der muß ihm noch nicht einmal bewußt sein. Der Zweck ist der, in der Diskussion zu bestehen ohne sich mit unbequemen und potenziell gefährlichen Argumenten herumschlagen zu müssen. Also Recht zu behalten ohne Recht zu haben. Dafür hat schon vor langer Zeit Schopenhauer die Methoden ausgebreitet, und die meisten Leute beherrschen sie instinktiv perfekt, ohne daß sie bei Schopenhauer in die Lehre hätten gehen müssen.
Am frustrierendsten sind in solchen Auseinandersetzungen Leute, die offensichtlich einer Wahnvorstellung oder einer fixen Idee unterliegen. Damit sind wir beim zweiten Thema dieses Beitrags. Zur Illustration will ich einmal versuchen, ob ich es fertig bringe, über ganz konkrete Wahnvorstellungen ganz konkreter Personen auf eine freundliche Weise zu schreiben. Die Betroffenen werden das nicht recht würdigen können, womit ich praktisch vorführen will wie man ein freundlicher Kotzbrocken sein kann, was beweist daß das Kriterium der Freundlichkeit für die Bewertung von Diskussionen und ihren Teilnehmern völlig am Problem vorbei geht.
Meine in aller Freundlichkeit vorgetragene These, die ich hier zu untermauern gedenke, ist die, daß einige der Kommentatoren aus meinem besagten Erfolgs-Beitrag, und zugleich diejenigen welche noch immer an David's Forum festhalten, von einer Wahnvorstellung oder fixen Idee geprägt sind, die sie daran hindert, abweichende Ansichten und Argumente auch nur zur Kenntnis zu nehmen, geschweige denn darüber nachzudenken. Wer mit der Diskussion nicht vertraut ist möge dort nachlesen.
Eine Wahnvorstellung zeichnet sich gerade dadurch aus daß die Betroffenen durch Nichts in der Welt davon abzubringen sind. Dabei können die Betroffenen in anderer Hinsicht völlig normal sein, bloß wenn's um ein bestimmtes Thema geht schlägt eine Blockade zu, die Andere schnell bemerken, man selber aber nicht. Wenn's dann um das kritische Thema geht reagieren die Betreffenden mit allen nur denkbaren Methoden, um nicht von ihrer fixen Idee abrücken oder sie in Frage stellen zu müssen. Der springende Punkt muß um jeden Preis vom Bewußtsein fern gehalten werden, was natürlich nur ein unbewußter Mechanismus schaffen kann.
Die einfachste Methode ist, Widersprüche gar nicht erst zur Kenntnis zu nehmen. Unter den Kommentaren zu meinem Blog-Beitrag sind etliche, bei denen das gut zu sehen ist. Selbst nach insistierenden und durchaus ins Unfreundliche gehenden Bekräftigungen schafft es gerade auch David, die springenden Punkte völlig zu ignorieren. Typische Reaktion der frustrierten Diskussionsgegner ist fassungsloses und verärgertes Staunen darüber, wie man angesichts derart deutlicher mehrfacher Klarstellungen den Kernpunkt der Kritik noch immer nicht sehen kann.
Je schwerer das Ignorieren fällt desto eher findet man die zweite Stufe, das aktive Ablenken von den springenden Punkten. Dazu gehört zum Beispiel der Versuch, sich tatsächliche oder vermeintliche Stilverletzungen seiner Diskussionsgegner zunutze zu machen. So kann man vom unbequemen Punkt, bei dem man in der Defensive ist, zur Offensive übergehen und einen Entlastungsangriff starten. Zur Not kann man das auch provozieren, indem man die erste Stufe der Ignoranz so penetrant fortsetzt bis jemand genervt genug ist um den Vorwand für den Entlastungsangriff zu liefern. Auch das kann man schön am Beispiel verfolgen, wenngleich man sich hier klar machen muß daß die Ignoranz eine Vorgeschichte hat die weit vor den Beginn der Diskussion in meinem Blog zurück reicht.
Daraus kann man ein schönes Spielchen machen. Wenn alle Beteiligten mitspielen und rechtzeitig durchschauen, daß der von der fixen Idee Getriebene die Diskussion in diesen Verlauf zwingen will, dann kann man die Eskalation zur zweiten Stufe hinauszuzögern versuchen, und ihn so zu immer größeren Zumutungen und Provokationen zu veranlassen. Das funktioniert in öffentlichen Diskussionen leider zu selten, denn irgend jemand findet sich meistens, der die Nerven verliert, bevor der Provokateur selber ausfällig wird.
Oft läuft diese zweite Stufe letztlich darauf hinaus daß der Betreffende einen Abgang macht, und er versucht den so hin zu kriegen daß er in seinem Selbstbild entweder als der Sieger, oder wenigstens als der "moralische" Sieger heraus kommt. Letzteres ist häufiger, und man stellt sich da üblicherweise als jemand dar der unverdient unter die Barbaren geraten ist, was gleich noch im Abgang eine letzte Provokation erlaubt, indem er sich als Höherstehender darstellt, der den Abgang deswegen macht weil er es "nicht nötig" hat, sich mit solchen Leuten abzugeben.
Überhaupt scheint ein Wahn gerne mit einem Gefühl der eigenen Überlegenheit einher zu gehen. Jedenfalls bietet das einen sehr einfachen Vorwand dafür, Kritik nicht zur Kenntnis zu nehmen. Mir ist in unzähligen Diskussionen dieses Muster begegnet, wo ein Diskussionsteilnehmer, der in argumentativen Schwierigkeiten war, aber unter gar keinen Umständen von seinen Vorstellungen ablassen konnte, sich dadurch aus der Affäre zog daß er seine eigene Überlegenheit durchblicken ließ. In Sachen Audiophilie heißt das meist: Ich höre besser, ich habe die bessere Einstellung zum Hobby, oder ich habe die bessere Anlage. Aber man trifft ebenso auch: Ich lebe schöner, ich bin genußfähiger, ich bin kultivierter, oder ich bin toleranter. Allesamt natürlich rein demonstrative Behauptungen, die nicht selten durchschaubar falsch oder gar im direkten Widerspruch zum gezeigten Verhalten sind, aber sie ermöglichen die Gesichtswahrung in den eigenen Augen, und die Aufrechterhaltung der fixen Idee.
Da der Wahn nur von den Anderen, nicht aber von einem selbst erkannt werden kann, könnte ich natürlich auch selber einen haben. Letztlich muß ich das Urteil darüber Euch überlassen. Ich finde, man erkennt einen Wahn am besten daran wie der Betreffende reagiert wenn man an den Grundfesten seiner wahnhaften Vorstellungen rüttelt. Wer einen Wahn verteidigt reagiert darauf auffällig ausweichend, schablonenhaft, reizbar und unsachlich. Man kriegt ein Gespür dafür. Anschauungsmaterial gibt's hier reichlich, wie ich meine.
Und man sieht, wie wenig einem dabei die Freundlichkeit nutzt. Letztlich wird sie nämlich als Vorwand und zur Ablenkung genutzt. Wer weiter kommen will, muß den Mut zur Konfrontation haben.
Womit wir wieder bei den Kotzbrocken sind.
Donnerstag, 17. September 2009
Über die klangliche Wirkung von Lob
Audiophile vergleichen bekanntlich gern das Musik Hören über ihre Anlage mit anderen sensorischen Genüssen. Gerade beim Wein bleibt man vergleichsweise gern hängen. Besonders wenn in diesem Zusammenhang noch das Blödwort "Lifestyle" fällt. Wenn man für den Moment einmal darüber hinweg sieht daß da oft die Parallele zwischen dem Wein und der Anlage gezogen wird, was eine unsinnige Assoziation ist - wenn schon dann ist die Parallele zum Wein die Musik, und die Anlage vielleicht mit der Karaffe oder dem Glas assoziierbar - dann kann man in der Tat ein paar Parallelen finden.
Beim Thema Blindtest zum Beispiel werden solche Parallelen immer wieder zum Diskussionsthema. Das Urteil professioneller Weinkritiker hat bekanntlich eine erhebliche Auswirkung auf den wirtschaftlichen Erfolg besonders der Oberliga der Weingüter. Was ein Robert Parker oder ein Hugh Johnson schreibt übersetzt sich ziemlich direkt in bare Münze oder eben fehlende bare Münze für die betroffenen Winzer. Bei so viel konzentrierter Macht keimt automatisch das Bedürfnis auf, Fakt von Phantasie, Irrtum und Betrug zu scheiden. Zum Einen hat schließlich der Leser der Weinkritiken ein Interesse daran daß die Urteile auf die Qualität des Weines zurückgehen, und nicht etwa auf die Bestechung des Kritikers durch den Winzer. Zum Anderen werden die "unterlegenen" Winzer kaum ein unfaires Ergebnis einfach so hinnehmen wollen, es hängt ja ihr wirtschaftlicher Erfolg daran. Also greift man zu Blindverkostungen.
Jetzt hören wir ja ad nauseam von den Audiophilen, wie furchtbar so ein Blindtest die sensorischen Fähigkeiten verkrüppelt. Wenn man sich vorstellt wie sehr eine solche Verblindung bei einem Parker oder Johnson zu Ergebnisschuldungsstreß führen muß, dann fängt man an solche Leute dafür zu bewundern daß sie überhaupt noch etwas schmecken. Wobei, ehrlich gesagt bin ich mir nicht so sicher ob deren Kritiken durch solche Blindverkostungen zustande kommen. Ich würde es mir allerdings wünschen, denn wenn ich die Alternative des Langzeittests bedenke dann macht mir der Gesundheitszustand der Kritiker Sorgen. Wenn es wirklich so ist daß man sich über einen Saint-Julien nur ein Urteil machen kann wenn man eine Kiste davon in einem mehrwöchigen Langzeittest verkostet hat, und wenn ich das auf die Gesamtzahl der Weingüter hochrechne, die man in einem Buch dieser Kritiker bewertet findet, dann stelle ich mir den Zustand ihrer Leber in den schwärzesten Farben vor. Da ist es ein schwacher Trost daß es schlimmere Tode gibt als über einem Glas Grand Cru einzuschlafen.
Vielleicht ist es ja aber auch viel einfacher. Einen Hinweis darauf bietet eine Studie der ETH Zürich, die letzten Monat vorgestellt wurde. Sie legt nahe daß das Geschmacksempfinden davon abhängt, welches Urteil man vorher vom betreffenden Wein hatte. Kurz gesagt gab es mehrere Gruppen von Versuchsteilnehmern, die alle den gleichen Wein verkosteten. Eine Gruppe erfuhr vor der Verkostung die Punktebewertung von Parker. Eine weitere Gruppe erfuhr eine gefälschte schlechtere Punktebewertung. Zwei weitere Gruppen erfuhren die entsprechenden Punkte erst nach der Verkostung, aber noch bevor sie ihr Urteil abgeben sollten. Es stellte sich heraus daß der Wein bedeutend besser schmeckte wenn man vor dem Verkosten die bessere Bewertung kannte. Der gleiche Wein schmeckt besser wenn man vorher in seinem Parker geschmökert hat. Umgekehrt wirkt's nicht, also wenn der Wein schon drin ist hilft das Lesen der Weinkritik nichts mehr.
Ich bin davon überzeugt daß man das auf die Situation der Audiophilen übertragen kann. Ich empfehle daher, vor dem Hören einer Tonkonserve, sich sowohl die STEREO-Testberichte aller Anlagen-Bestandteile durchzulesen, als auch die positivste Plattenkritik, die man finden kann. Der Hörgenuß wird unvergleichlich sein.
Beim Thema Blindtest zum Beispiel werden solche Parallelen immer wieder zum Diskussionsthema. Das Urteil professioneller Weinkritiker hat bekanntlich eine erhebliche Auswirkung auf den wirtschaftlichen Erfolg besonders der Oberliga der Weingüter. Was ein Robert Parker oder ein Hugh Johnson schreibt übersetzt sich ziemlich direkt in bare Münze oder eben fehlende bare Münze für die betroffenen Winzer. Bei so viel konzentrierter Macht keimt automatisch das Bedürfnis auf, Fakt von Phantasie, Irrtum und Betrug zu scheiden. Zum Einen hat schließlich der Leser der Weinkritiken ein Interesse daran daß die Urteile auf die Qualität des Weines zurückgehen, und nicht etwa auf die Bestechung des Kritikers durch den Winzer. Zum Anderen werden die "unterlegenen" Winzer kaum ein unfaires Ergebnis einfach so hinnehmen wollen, es hängt ja ihr wirtschaftlicher Erfolg daran. Also greift man zu Blindverkostungen.
Jetzt hören wir ja ad nauseam von den Audiophilen, wie furchtbar so ein Blindtest die sensorischen Fähigkeiten verkrüppelt. Wenn man sich vorstellt wie sehr eine solche Verblindung bei einem Parker oder Johnson zu Ergebnisschuldungsstreß führen muß, dann fängt man an solche Leute dafür zu bewundern daß sie überhaupt noch etwas schmecken. Wobei, ehrlich gesagt bin ich mir nicht so sicher ob deren Kritiken durch solche Blindverkostungen zustande kommen. Ich würde es mir allerdings wünschen, denn wenn ich die Alternative des Langzeittests bedenke dann macht mir der Gesundheitszustand der Kritiker Sorgen. Wenn es wirklich so ist daß man sich über einen Saint-Julien nur ein Urteil machen kann wenn man eine Kiste davon in einem mehrwöchigen Langzeittest verkostet hat, und wenn ich das auf die Gesamtzahl der Weingüter hochrechne, die man in einem Buch dieser Kritiker bewertet findet, dann stelle ich mir den Zustand ihrer Leber in den schwärzesten Farben vor. Da ist es ein schwacher Trost daß es schlimmere Tode gibt als über einem Glas Grand Cru einzuschlafen.
Vielleicht ist es ja aber auch viel einfacher. Einen Hinweis darauf bietet eine Studie der ETH Zürich, die letzten Monat vorgestellt wurde. Sie legt nahe daß das Geschmacksempfinden davon abhängt, welches Urteil man vorher vom betreffenden Wein hatte. Kurz gesagt gab es mehrere Gruppen von Versuchsteilnehmern, die alle den gleichen Wein verkosteten. Eine Gruppe erfuhr vor der Verkostung die Punktebewertung von Parker. Eine weitere Gruppe erfuhr eine gefälschte schlechtere Punktebewertung. Zwei weitere Gruppen erfuhren die entsprechenden Punkte erst nach der Verkostung, aber noch bevor sie ihr Urteil abgeben sollten. Es stellte sich heraus daß der Wein bedeutend besser schmeckte wenn man vor dem Verkosten die bessere Bewertung kannte. Der gleiche Wein schmeckt besser wenn man vorher in seinem Parker geschmökert hat. Umgekehrt wirkt's nicht, also wenn der Wein schon drin ist hilft das Lesen der Weinkritik nichts mehr.
Ich bin davon überzeugt daß man das auf die Situation der Audiophilen übertragen kann. Ich empfehle daher, vor dem Hören einer Tonkonserve, sich sowohl die STEREO-Testberichte aller Anlagen-Bestandteile durchzulesen, als auch die positivste Plattenkritik, die man finden kann. Der Hörgenuß wird unvergleichlich sein.
Sonntag, 30. August 2009
Brave New Hifi-Forum
Ich war ja schon immer etwas skeptisch wofür man allein im deutschsprachigen Raum eigentlich 137 verschiedene Audio-und Hifi-Foren* braucht. Schon die "Ausgründung" des damaligen "Hochalpinisten-Forums" von unserem allseits bekannten und beliebten Charly hat mein Kopfschütteln hervorgerufen, aber wenigstens kann ich es noch in gewissem Sinn nachvollziehen wenn man als wirklichkeitsfremde Sekte unter sich sein will. Das ist einfach weniger anstrengend.
Daher befremdet es mich auch nicht wirklich, daß ein paar solcher audiophiler Foren nebeneinander her existieren. Schließlich vertragen sich weder die Dogmen noch die Propheten der verschiedenen Sektenvarianten ohne Weiteres. Das kann man auch daran sehen daß solche Foren-Ausgründungen nicht automatisch dazu führen, daß innerhalb des neuen Mini-Forums dann eitel Sonnenschein und makellose Umgangsformen herrschen. Anfangs überwiegt noch das Wohlgefühl daß man den Sündenpfuhl hinter sich gelassen hat und nun unter Gleichgesinnten ist, aber bald zeigt sich daß Hirngespinste egozentrisch sind, und daß die Egos trotzdem Egos bleiben.
Was ich dagegen von Anfang an nicht recht verstanden hatte war die Gründung des österreichischen Hifi-Forums von David Messinger. Konkret gesagt war mir nicht klar welches Problem damit gelöst werden sollte. Zwar gabs allenthalben Kritik am deutschen Hifi-Forum, vor allem was die dort anzutreffenden Umgangsformen betraf. Ich habe das aber als Problem angesehen das mit dem Thema und der Situation in der Hifi-Szene zusammen hängt, und nicht dem Forum oder seiner Betreiber bzw. Administratoren anzulasten ist.
Die Konflikte, die in den Foren ausgetragen werden, sind schließlich Realität. Das kann man bedauern und die Symptome können einem über die Hutschnur gehen, aber gerade in einem Forum hat es keinen Sinn die Austragung der Konflikte unterbinden zu wollen, denn irgendwie werden sie doch ausgetragen, welche Schranken man auch immer anzulegen versucht. Der Vorteil des deutschen Hifi-Forums war und ist gerade, daß man die Konflikte und ihre Austragung dort weitgehend zuläßt, außer die Sache artet wirklich aus.
Das ist in meinen Augen die eindeutig überlegene, weil realitätsnähere Strategie, aber es gibt offenbar genug Hobbyköche die die Hitze in dieser Küche nicht vertragen, und sich eine kühlere Küche einrichten wollen.
Frustrierend, wenn einem dann trotzdem der Ofen explodiert.
Aber wie so oft wenn etwas nicht funktionieren will (Watzlawick läßt grüßen): Man muß sich eben nur mehr anstrengen, und eine größere Dosis derselben Medizin anwenden, irgendwann wird's schon gehen. Oder der Patient überlebt's nicht.
Letzteres sehe ich für Messingers Forum kommen.
Inzwischen ist es nämlich so weit gekommen daß er nicht bloß die Gegenwart des Forums in den Griff zu bekommen versucht, sondern sogar seine Vergangenheit. Das muß man schon mal in seiner ganzen Tragweite einsickern lassen: David versucht sein Forums-Ideal mit der Forums-Realität in Einklang zu bringen, indem er die Realität "korrigiert". Auch die schon vergangene Realität.
Daß dadurch ein paar reale (Web-) und gedankliche (Erinnerungs-) Links plötzlich ins Leere gehen ist da schon fast ein unbedeutendes Nebenproblem. Viel wichtiger ist die Nachricht die dadurch an die alten und neuen Teilnehmer des Forums gesendet wird: Leute, wenn Eure Beiträge bei mir nicht ins Bild passen dann zappe ich Euch weg.
Ich frage mich, welcher Besitzer eines funktionierenden Verstandes sich wohl unter solchen Vorzeichen noch an seinem Forum beteiligen soll. Wer kommt da noch in Frage? Servile Naturen, Parteigänger, und konfliktscheue Warmduscher. Habe ich noch jemanden vergessen?
Ich habe ja durchaus Sympathie mit David, denn viele seiner Ansichten decken sich mit meinen, gerade was die Zustände und Hirngespinste im Hifi- und besonders dem High-End-Sektor angeht. Aber eines ist im Lauf der Zeit immer offensichtlicher geworden: Die verschiedenen Rollen als Hifi-Händler, Hifi-Foren-Betreiber und Diskussionsteilnehmer in den Foren kann er nicht glaubwürdig auseinander halten, und für die unvermeidlichen Interessenkonflikte hat er augenscheinlich weder Gefühl noch Rezept.
Ich erwarte übrigens auch gar nicht daß jemand das kann. Ich wäre bei mir selber sehr skeptisch ob ich diese verschiedenen Hüte ohne Konflikt aufsetzen könnte. Ich habe auch wenig Lust mich so einem Balanceakt auszusetzen. Aber ich sehe wenigstens das Problem, das David offensichtlich heftiger denn je verdrängt.
Man kann nicht einfach so tun als könne man zugleich als Händler, als Moderator und als Diskutant auftreten, ohne daß sich das hin und wieder beißt. Es wird sich irgendwann beißen, und je mehr man sich immun dagegen wähnt desto mehr verarscht man sich selbst. Die Ursache der Probleme in so gut wie jedem Forum liegen nicht im Mangel an Umgangsformen, sondern in der Verdrängung. Verdrängung führt fast automatisch zu Eskalationen in der Diskussion. Je mehr einer sich weigert, den springenden Punkt zur Kenntnis zu nehmen, desto drastischer wird man es ihm vor Augen zu führen versuchen. Wer in so einer Situation zuerst den tugendvollen Pfad politisch korrekten Verhaltens verläßt, und damit an den Pranger gehört, ist eine müßige Frage, denn die Ursache sitzt woanders. Entsprechend sinnlos ist es auch das Problem durch Verhaltensregeln und Sittenpolizei in den Griff kriegen zu wollen.
David's Verhalten ist vor diesem Hintergrund in meinen Augen inzwischen zur Farce geworden. Das amokartige Löschen sogar der alten und abgeschlossenen Diskussionen, so häßlich sie auch gewesen sein mögen, zeigt deutlich daß es nicht mehr um Ehrlichkeit und freien Meinungsaustausch geht, sondern um den schönen Schein und die rechte Gesinnung. Darauf kann ich verzichten. Wenn's nach mir ginge könnte er unter diesem Vorzeichen den Stecker aus dem Forum ziehen. Es würde ihm nicht nur die damit verbundene Arbeit ersparen, sondern ihn auch von dem Interessenkonflikt befreien den er sich nicht eingestehen will.
* die Zahl ist meine gefühlte Schätzung ;-)
Daher befremdet es mich auch nicht wirklich, daß ein paar solcher audiophiler Foren nebeneinander her existieren. Schließlich vertragen sich weder die Dogmen noch die Propheten der verschiedenen Sektenvarianten ohne Weiteres. Das kann man auch daran sehen daß solche Foren-Ausgründungen nicht automatisch dazu führen, daß innerhalb des neuen Mini-Forums dann eitel Sonnenschein und makellose Umgangsformen herrschen. Anfangs überwiegt noch das Wohlgefühl daß man den Sündenpfuhl hinter sich gelassen hat und nun unter Gleichgesinnten ist, aber bald zeigt sich daß Hirngespinste egozentrisch sind, und daß die Egos trotzdem Egos bleiben.
Was ich dagegen von Anfang an nicht recht verstanden hatte war die Gründung des österreichischen Hifi-Forums von David Messinger. Konkret gesagt war mir nicht klar welches Problem damit gelöst werden sollte. Zwar gabs allenthalben Kritik am deutschen Hifi-Forum, vor allem was die dort anzutreffenden Umgangsformen betraf. Ich habe das aber als Problem angesehen das mit dem Thema und der Situation in der Hifi-Szene zusammen hängt, und nicht dem Forum oder seiner Betreiber bzw. Administratoren anzulasten ist.
Die Konflikte, die in den Foren ausgetragen werden, sind schließlich Realität. Das kann man bedauern und die Symptome können einem über die Hutschnur gehen, aber gerade in einem Forum hat es keinen Sinn die Austragung der Konflikte unterbinden zu wollen, denn irgendwie werden sie doch ausgetragen, welche Schranken man auch immer anzulegen versucht. Der Vorteil des deutschen Hifi-Forums war und ist gerade, daß man die Konflikte und ihre Austragung dort weitgehend zuläßt, außer die Sache artet wirklich aus.
Das ist in meinen Augen die eindeutig überlegene, weil realitätsnähere Strategie, aber es gibt offenbar genug Hobbyköche die die Hitze in dieser Küche nicht vertragen, und sich eine kühlere Küche einrichten wollen.
Frustrierend, wenn einem dann trotzdem der Ofen explodiert.
Aber wie so oft wenn etwas nicht funktionieren will (Watzlawick läßt grüßen): Man muß sich eben nur mehr anstrengen, und eine größere Dosis derselben Medizin anwenden, irgendwann wird's schon gehen. Oder der Patient überlebt's nicht.
Letzteres sehe ich für Messingers Forum kommen.
Inzwischen ist es nämlich so weit gekommen daß er nicht bloß die Gegenwart des Forums in den Griff zu bekommen versucht, sondern sogar seine Vergangenheit. Das muß man schon mal in seiner ganzen Tragweite einsickern lassen: David versucht sein Forums-Ideal mit der Forums-Realität in Einklang zu bringen, indem er die Realität "korrigiert". Auch die schon vergangene Realität.
Daß dadurch ein paar reale (Web-) und gedankliche (Erinnerungs-) Links plötzlich ins Leere gehen ist da schon fast ein unbedeutendes Nebenproblem. Viel wichtiger ist die Nachricht die dadurch an die alten und neuen Teilnehmer des Forums gesendet wird: Leute, wenn Eure Beiträge bei mir nicht ins Bild passen dann zappe ich Euch weg.
Ich frage mich, welcher Besitzer eines funktionierenden Verstandes sich wohl unter solchen Vorzeichen noch an seinem Forum beteiligen soll. Wer kommt da noch in Frage? Servile Naturen, Parteigänger, und konfliktscheue Warmduscher. Habe ich noch jemanden vergessen?
Ich habe ja durchaus Sympathie mit David, denn viele seiner Ansichten decken sich mit meinen, gerade was die Zustände und Hirngespinste im Hifi- und besonders dem High-End-Sektor angeht. Aber eines ist im Lauf der Zeit immer offensichtlicher geworden: Die verschiedenen Rollen als Hifi-Händler, Hifi-Foren-Betreiber und Diskussionsteilnehmer in den Foren kann er nicht glaubwürdig auseinander halten, und für die unvermeidlichen Interessenkonflikte hat er augenscheinlich weder Gefühl noch Rezept.
Ich erwarte übrigens auch gar nicht daß jemand das kann. Ich wäre bei mir selber sehr skeptisch ob ich diese verschiedenen Hüte ohne Konflikt aufsetzen könnte. Ich habe auch wenig Lust mich so einem Balanceakt auszusetzen. Aber ich sehe wenigstens das Problem, das David offensichtlich heftiger denn je verdrängt.
Man kann nicht einfach so tun als könne man zugleich als Händler, als Moderator und als Diskutant auftreten, ohne daß sich das hin und wieder beißt. Es wird sich irgendwann beißen, und je mehr man sich immun dagegen wähnt desto mehr verarscht man sich selbst. Die Ursache der Probleme in so gut wie jedem Forum liegen nicht im Mangel an Umgangsformen, sondern in der Verdrängung. Verdrängung führt fast automatisch zu Eskalationen in der Diskussion. Je mehr einer sich weigert, den springenden Punkt zur Kenntnis zu nehmen, desto drastischer wird man es ihm vor Augen zu führen versuchen. Wer in so einer Situation zuerst den tugendvollen Pfad politisch korrekten Verhaltens verläßt, und damit an den Pranger gehört, ist eine müßige Frage, denn die Ursache sitzt woanders. Entsprechend sinnlos ist es auch das Problem durch Verhaltensregeln und Sittenpolizei in den Griff kriegen zu wollen.
David's Verhalten ist vor diesem Hintergrund in meinen Augen inzwischen zur Farce geworden. Das amokartige Löschen sogar der alten und abgeschlossenen Diskussionen, so häßlich sie auch gewesen sein mögen, zeigt deutlich daß es nicht mehr um Ehrlichkeit und freien Meinungsaustausch geht, sondern um den schönen Schein und die rechte Gesinnung. Darauf kann ich verzichten. Wenn's nach mir ginge könnte er unter diesem Vorzeichen den Stecker aus dem Forum ziehen. Es würde ihm nicht nur die damit verbundene Arbeit ersparen, sondern ihn auch von dem Interessenkonflikt befreien den er sich nicht eingestehen will.
* die Zahl ist meine gefühlte Schätzung ;-)
Abonnieren
Posts
(
Atom
)