Seit immer mehr Audiogeräte mit dem Internet verbunden werden, gibt's immer mehr Netzwerkverbindungen in einer typischen Audio-Anlage. Der Audiophile braucht daher standesgemäße Netzwerkkabel, denn es kann ja nicht sein, daß ein profanes Patchkabel für 'nen Euro keine hörbaren Probleme macht. Ergo hat sich ein Markt für "audiophile Netzwerkkabel" entwickelt, selbstredend mit einer nach oben offenen Preis-Skala, und der ebenfalls nach oben offenen Bullshit-Skala in den dazugehörigen Werbetexten.
Das wäre für sich gesehen nichts Neues; so erwartet man's von der audiophilen Szene. Jetzt hat die britische Seite Ars Technica ein solches Kabel unter die Lupe genommen, und auch mal zerlegt, damit man sieht wie es drinnen aussieht. Für 300 englische Pfund bekommt man 1,5 Meter davon, immerhin mit coolen Steckern aus deutscher Produktion, von einer ganz Voodoo-unverdächtigen Firma. Das Kabel selbst ist eher solide Industrieware, die offensichtlich für Festverlegung gedacht ist (es werden keine Litzen, sondern Einzeldrähte für die Leiterpaare benutzt, und die geschäumte Adernisolierung ist zwar gut für die Dämpfung bei langen Kabeln, aber nicht so gut für die Langzeitstabilität bei mechanischer Knick- und Biegebelastung). Es ist also eigentlich kein Patchkabel. Macht aber für Audiophile sicher Sinn, denn steifere Kabel haben da eine größere Qualitätsanmutung, frei nach dem Motto: Je unpraktischer, desto besser muß es sein.
Ebenfalls sehr audiophil ist die Idee, die Schirmung nicht durchzuverbinden. Nun bin ich zwar selbst ein Freund von ungeschirmten Ethernet-Patchkabeln, denn da ist einfach die Chance geringer, daß man mit Brummschleifen Probleme kriegt, aber dann lasse ich den Schirm doch lieber gleich weg, anstatt ihn innen drin mit Kreppband zu isolieren.
Ars Technica hat das Kabel nicht bloß auseinander genommen, sondern auch einen Hörtest organisiert, und zwar gleich zusammen mit dem Magier und Esoteriker-Schreck Randi, mit einem wenig überraschenden Ergebnis. Lest selber nach, ich brauche das nicht zu kommentieren. Stattdessen geht's mir hier um was anderes, über das ich bei dieser Gelegenheit gestolpert bin. Es geht um Analog vs. Digital, und was daran der fundamentale Unterschied ist.
Vor zwei Jahren schrieb Michael Lavorgna einen zweiteiligen Artikel über ein (email-)Gespräch mit drei Leuten über dieses Thema, nämlich mit Charles Hansen, Gordon Rankin und Steve Silberman. Wer sind diese Leute?
Lavorgna ist der Editor von AudioStream, einer Schwesterpublikation der bekannteren Stereophile, mit einem Schwerpunkt auf Audio Streaming bzw. Computer Audio. Ein wirklich unangenehmer Bullshitter in der Art wie Michael Fremer von der Stereophile. Was er schreibt hat beinahe eine Schwachsinns-Garantie. Kann gelegentlich auch unterhaltsam sein.
Hansen ist der Chef von Ayre Acoustics, einer High-End-Marke an der vordersten Front der Anti-Feedback-Bewegung, und die Firma, die für Neil Young den Pono entwickelt hat.
Rankin ist der Chef von Wavelength Audio, ebenfalls ein High-End Hersteller, unter anderem von USB-DACs.
Silberman schließlich ist Vizepräsident für Entwicklung bei AudioQuest (früher war er im Marketing für Ayre und AudioQuest, was schon zeigt welche Qualifikation man in diesem Bereich für die Entwicklung braucht), also der Firma, die das bei Ars Technica getestete Ethernet-Kabel anbietet.
Jetzt wißt Ihr wie ich auf diese Diskussion gekommen bin. Auf etwas verschlungenen Pfaden, wie das öfter so ist wenn man im Internet unterwegs ist. Sei's drum, ich fand dieses Thema "Analog vs. Digital", so wie die vier Herren es sehen, für symptomatisch dafür, wie sogar die grundlegendsten Fakten von den Akteuren im audiophilen Markt völlig verdreht und verzerrt werden, bis hin zum Verdacht daß sie selbst von Tuten und Blasen keine Ahnung haben, obwohl sie Produkte zu verkaufen versuchen, die auf diesen Grundlagen basieren. Entweder das, oder es sind gewohnheitsmäßige Lügner. So oder so verheerend.
Das zentrale Argument, das man nicht nur dort, sondern auch hierzulande, immer wieder hört, ist: Digital ist in Wirklichkeit auch Analog. Es leidet damit unter den gleichen Problemen wie Analog, und die angebliche "Perfektion" von Digitaltechnik ist eine Schimäre.
Weil nicht allen Lesern klar sein dürfte, wo darin der fundamentale Fehler ist, habe ich mich entschlossen, mal einen Blogbeitrag dazu zu schreiben. Diejenigen, die das alles völlig trivial finden (und es ist tatsächlich trivial), mögen mir verzeihen und brauchen nicht weiter zu lesen. Ihr könnt Euch stattdessen direkt über die beiden Teile des erwähnten Artikels amüsieren. Unterdessen arbeite ich das hier mal ein bißchen auf.
Gleich zu Beginn: Was ist der entscheidende, fundamentale Unterschied zwischen Analog und Digital? Man kann es auf diverse Arten beschreiben, aber letztlich läuft es darauf hinaus, daß man für die digitale Darstellung eines Signals ein Alphabet benutzt, während man für die analoge Darstellung direkt eine physikalische Größe benutzt. Letzlich wird zwar für die Darstellung des Alphabets auch wieder eine physikalische Größe herangezogen, aber das ändert nichts an der Tatsache, daß hier ein Zwischenschritt über ein Alphabet existiert, der bei der analogen Darstellung nicht existiert. Selbst wenn beidesmal dieselbe physikalische Größe, wie z.B. eine elektrische Spannung, zur Repräsentation benutzt wird, ist der Unterschied immer noch da: Einmal mit Alphabet, einmal ohne.
Es ist klar, worin das "Alphabet", von dem ich hier etwas kryptisch spreche, tatsächlich besteht, wenn wir über Digital-Audio reden: Es sind Zahlen, im Zweiersystem als Einsen und Nullen codiert, weil man damit in der Elektronik so schön einfach umgehen kann. Das ist aber nicht so wichtig. Es könnte auch eine andere Art der Codierung sein, ohne daß sich an diesem Argument etwas ändern würde. Und tatsächlich kommen andere Arten der Codierung in der Technik vor.
Es ist wichtig, diesen Grundsatz festzuhalten: Der Unterschied zwischen Analog und Digital liegt in der Verwendung einer Codierung mittels eines Alphabets bei der Digitaltechnik. Bei der Analogtechnik fehlt das, und die Information wird direkt als kontinuierliche physikalische Größe ausgedrückt.
Jetzt seht mal nach ob man von diesem Sachverhalt auch nur eine Spur in der Argumentation der vier High-End-Diskutanten bemerkt. Fehlanzeige. Im Gegenteil wird explizit so getan als gäbe es diesen Unterschied nicht.
Was gewinnt man durch den Umweg über ein Alphabet? Das ist ja unzweifelhaft mit zusätzlichem Aufwand verbunden, den man bei der Analogtechnik nicht hat.
Man kann sich das als Analogie recht einfach klar machen, auch ohne jede Kenntnis der Digitaltechnik. Ich schreibe hier Text, den Ihr lest. Der besteht aus Buchstaben, aus denen Wörter geformt werden. Ich verwende ein Alphabet, eine Sprache. Was Ihr seht, sind optische Muster. Auf dem Computerbildschirm werden die durch ein Punkteraster erzeugt, wenn der Text auf Papier gedruckt wäre, dann wären es Tintenflecke. Man könnte es auch von Hand schreiben, mit Kugelschreiber oder Bleistift. Man kann es größer schreiben oder kleiner, mit unterschiedlicher Schriftform, unterschiedlicher Farbe, usw.
Das Wichtige dabei: Der Inhalt bleibt der gleiche.
Das Alphabet bewirkt, daß man ohne einen Einfluß auf den Inhalt der Information, ihre Darstellung, bzw. ihre physikalische Repräsentation, in weiten Bereichen ändern kann. Die Information wird von ihrer Darstellung entkoppelt.
Das hat weit reichende Konsequenzen. Eine sehr wichtige Konsequenz besteht in der Möglichkeit, Fehler zu erkennen, und sie wieder rückgängig zu machen. Ich mache in meinen Artikeln hier im Blog immer wieder einen Tippfehler, der unkorrigiert bleibt. Aber das macht nichts, weil er in aller Regel leicht erkennbar ist, und die Bedeutung nicht verändert. Das verleiht der Digitaltechnik eine Robustheit, die die Analogtechnik nicht hat. Die Schrift, und unsere Sprache, sind in diesem Sinn ebenfalls digital, sind das schon immer gewesen, auch wenn die Darstellung als Bits eher neu ist.
Der Begriff "Digital" geht auf die Finger zurück (Digitus = Finger), mit denen man z.B. zählen kann (üblicherweise im Zehnersystem, daher bedeutet Digital nicht automatisch gleich Einsen und Nullen). Aber es geht streng genommen nicht allein um Zahlen, sondern um beliebige Symbole, um ein Alphabet. Mit dem kann man zwar auch Zahlen darstellen, die Idee ist aber viel allgemeiner, und erlaubt es, jede Information darzustellen, sofern man dafür eine passende Codierung hat (= eine Sprache). Aus dem gleichen Grund kann ein Computer nicht bloß rechnen, sondern auch andere Arten von Information verarbeiten, einschließlich menschlicher Sprache, oder eben auch Musik.
Das heißt, nebenbei gesagt, daß das "digitale Zeitalter", in dem wir uns angeblich befinden, nicht erst mit dem Computer begonnen hat, sondern mit der Erfindung der Schrift. Genauer gesagt, mit der Erfindung (bzw. Entdeckung) des Prinzips, daß man mit Symbolen Informationen darstellen kann. Die Computer bieten "nur" die Möglichkeit, mit diesen Symbolen "automatisch" zu hantieren, außerhalb des menschlichen Kopfes.
Daraus entsteht die Frage, was denn im Falle der Digitaltechnik eigentlich die "Information" ist, oder das "Signal". An dieser Frage macht sich der grundlegende Fehler fest, in dem sich die vier audiophilen Faktenverdreher geradezu wälzen: Sie setzen auch bei der Digitaltechnik das Signal gleich mit der elektrischen Kurvenform, die man z.B. bei der Übertragung auf einem Kabel würde messen können. Diese Kurvenform ist natürlich immer "analog", denn eine physikalische Größe wie die elektrische Spannung macht in der Natur nun einmal keine Sprünge. Die Änderungen werden da immer kontinuierlich sein, und folglich auch Zwischenwerte einnehmen, die nicht eindeutig einem Symbol aus dem Alphabet (im einfachsten Fall 0 oder 1) zuzuordnen sind.
Nur ist bei der Digitaltechnik diese Kurvenform nicht das Signal um das es geht. Es ist nur die Repräsentation. Um in der Analogie mit der Schrift zu bleiben: Das wäre die Form der Buchstaben, also z.B. die Dicke und Farbe der Linien. So lange man den Buchstaben erkennt, bleibt der Text derselbe, der Inhalt unberührt. Darin besteht eben die Robustheit der Digitaltechnik: Die Repräsentation kann man bis zu einem gewissen Ausmaß ändern und stören, der Inhalt bleibt unverändert. Das ist der entscheidende Punkt und die Motivation warum man den Umweg über das Alphabet macht. Es ist der Existenzgrund für die Digitaltechnik, und auch der Existenzgrund für die Schrift, ich kann das nur nochmal betonen.
An dieser Stelle sollte klar sein, warum die Argumente unserer vier Audiophilen auf der einen Seite richtig sind (auch digitale Signale werden als "analoge" = kontinuierliche Kurvenformen übertragen), und auf der anderen Seite eine völlige Themenverfehlung und Unverständnis über die Grundlagen der Digitaltechnik bedeuten (die Information steckt bei der Digitaltechnik nicht in der kontinuierlichen Kurvenform, sondern in den damit codierten Symbolen). Sie bringen durcheinander, was eigentlich das "Signal" ist, um das es hier geht. So ignorieren sie den eigentlichen Grund dafür, warum es die Digitaltechnik überhaupt gibt.
Ich hätte noch ein gewisses Verständnis dafür, wenn es sich um Laien handeln würde, bei denen man den entsprechenden Sachverstand nicht unbedingt voraussetzen kann. Bei Leuten, die sich zum Teil schon seit Jahrzehnten mit der digitalen Audiotechnik beschäftigen, und sogar eigene Produkte entwickeln, ist ein solcher Verständnisfehler ein Offenbarungseid. Wenn man unterstellt, daß sie hier wirklich ehrlich sind, und ihr eigenes Verständnis der Sache darstellen, dann wären sie in einem Ausmaß unfähig, das sie als Diskussionspartner disqualifizieren würde. Ich kann das nicht recht glauben. Ich glaube sie verbreiten bewußt Desinformation, und wissen insgeheim wie sich die Sache wirklich verhält. Mit anderen Worten: Sie lügen. Außer vielleicht Lavorgna. Der könnte wirklich so unfähig sein; es wird schließlich einen Grund geben warum er als Editor bei so einer Publikation arbeitet.
Nur damit keine falschen Eindrücke entstehen: Es dürfte klar sein, daß bei genügend großen Fehlern in der Kurvenform eines Digitalsignals, irgendwann auch mal die Information verfälscht wird, weil die Erkennung der Symbole auf der empfangenden Seite nicht mehr korrekt funktioniert. Das ist bei der Schrift auch nicht anders: Wenn die Zeichen zu stark verzerrt sind, kann man's nicht mehr zuverlässig lesen, und die Information wird verfälscht. Komplett egal ist damit die "analoge Seite der Digitaltechnik" nicht. Man muß dafür sorgen, daß die Erkennungssicherheit gut genug ist. Das ist ein wichtiges Gebiet in Forschung und Technik mit einem riesigen Ausmaß an Literatur. Man kann das studieren (Nachrichtentechnik). Hätten die vier Bullshitter auch nur die ersten 25 Seiten eines entsprechenden Lehrbuches gelesen, hätten sie sich nicht derart blamieren müssen.
Und noch ein Punkt: Wenn ein Taktsignal mit übertragen wird, wie das oft der Fall ist bei Digital Audio, dann ist das nicht digital kodiert. Das Taktsignal ist ein Analogsignal, auch wenn die restliche Information digital übertragen wird. Damit gilt die ganze Argumentation, die ich oben angeführt habe, nicht in dieser Form für die Taktübertragung, sondern nur für das Signal als solches. Also z.B. für die Musik.
Das heißt aber nicht, daß man bei der Taktübertragung keine Korrekturmöglichkeit hätte. Im Gegenteil, da man weiß daß der Takt gleichmäßig sein muß, kann man Unregelmäßigkeiten ("Jitter") ganz gut herausfiltern. Auch das ist ein Standardproblem, mit dem man sich seit Jahrzehnten in Forschung und Technik auseinander setzt, so daß es keinen Mangel an Literatur gibt, wie man mit diesen Problemen umgeht. Aber dazu habe ich schon genug in vorigen Artikeln geschrieben.
Dieses Thema wurde offenbar im AHF in einem eigenen Thread diskutiert. Wie bei diesem Forum nicht anders zu erwarten, haben einige der dortigen Mitdiskutanten nichts verstanden. Viel Spaß damit!
AntwortenLöschen