Sonntag, 27. Juni 2010

Blindtest-Begriffsdiebstahl

In der Politik ist es ein altbekanntes Prinzip: Wenn man einen Gegner nicht erfolgreich diskreditieren kann, dann muß man seine Begriffe besetzen. Die Idee der Demokratie als solche zu diskreditieren ist zum Beispiel recht schwierig. Die Idee, daß das Volk selbst die Macht hat, ist einfach so verlockend daß man schon zu Gehirnwäsche greifen müßte um zu erreichen daß die Betroffenen sich de facto selbst entmündigen. Es gibt allerdings immer noch erstaunlich Viele die man dahin bringen kann, aber reichen tut's zum Glück recht selten.

Der weitaus stärker verbreitete Umgang mit diesem Problem bedient sich daher der Begriffsbesetzung. Man versucht, den Begriff so umzuerklären daß sein guter Klang nicht verloren geht, sein Inhalt aber verbogen und verwässert wird bis zu dem Punkt wo man zu den gewünschten Machtverhältnissen kommt.

So z.B. die vor 20 Jahren verblichene DDR. Das war ein angeblich demokratischer Staat in dem das Volk de facto nichts zu sagen hatte, außer es entsprach zufällig dem was die Staatsführung ohnehin gut fand. Demokratie stand auf der Schachtel drauf, innen drin war Diktatur. Eine Mogelpackung.

Ich gebe zu daß ich diese Taktik noch abstoßender finde als eine offene Diktatur. Es ist nicht nur unterdrückerisch, es ist dazu auch noch verlogen. Die positive Kehrseite der Medaille ist aber, daß es auf eine selbstbewußtere und besser informierte Masse hindeutet wenn man zu dieser Lüge zu greifen sich bemüßigt fühlt. Ein Staatswesen das sich mit solchen Lügen etikettiert ist daher schon von vorn herein schwächer als eines, das geradeheraus als Diktatur auftritt. Die Lüge zeigt im Grunde daß sich die Diktatoren über ihre relative Schwäche im Klaren sind.

Wenn man so auf der Welt herumguckt findet man problemlos weitere Beispiele dafür. Wenn z.B. die iranischen Machthaber sich ihrer Sache so sicher wären würden sie keine Wahlen veranstalten und die dann fälschen. So etwas macht man bloß weil das Volk zu gut Bescheid weiß und zu selbstbewußt ist als daß es sich direkt einer Diktatur unterwerfen würde. Man versucht also, ihm etwas zu verkaufen wo Demokratie draufsteht, aber keine drin ist. Offen entmündigen läßt sich das Volk nicht mehr, also versucht man's zu verarschen. Bloß ist's von da aus auch nicht mehr weit bis sich das Volk auch nicht mehr so einfach verarschen läßt.

Aber natürlich geht's in meinem Beitrag hier nicht eigentlich um Demokratie sondern um Blindtests, und es wird Zeit daß ich in meiner bekannt demagogischen Art nach dieser gewichtigen Einleitung den Bogen zurück zum Thema spanne. Ich finde da nämlich interessante Analogien.

Bei den Blindtests hat es eine Weile lang so ausgesehen als suchten die Gegner ihr Heil darin, Blindtests als prinzipiell untauglich für das Feststellen kleiner Details darzustellen. Oder alternativ als völlig irrelevant für das Hobby Hifi. Aber diese pauschale Verteufelung scheint nicht recht fruchten zu wollen, die Anhängerschaft solcher Fundamentalopposition scheint sich auf eine verhältnismäßig kleine Gruppe von Hardcore-Audiophilen zu beschränken, und sie läßt sich nicht so einfach vergrößern.

Wie die Demokratie ist eben auch der Blindtest eine im Grunde bestechende Idee. Wer wirklich am Hören und nur am Hören interessiert ist, und dafür belastbare Erkenntnisse sucht, der muß eben störende Fremdeinflüsse ausschalten, egal ob sie durch andere Sinne, durch Psychologie oder durch ungleiche Randbedingungen verursacht sind. Da kann man nicht wirklich dagegen sein ohne sich verdächtig zu machen.

Unter diesen Umständen scheint sich ein Strategiewechsel zu vollziehen. Man setzt anscheinend vermehrt darauf, den Begriff für sich zu besetzen. Es mehren sich Leute die quasi im Vorbeigehen erwähnen, sie würden Blindtests regelmäßig, als Teil ihrer Arbeit, durchführen. Die Message dabei ist: Leute, der wirkliche Blindtest-Experte bin hier ich, ich mach das praktisch dauernd. Wenn man es nur richtig macht, dann funktionieren Blindtests auch, und die ganzen Unterschiede kommen zum Vorschein von denen die Abstreiter nichts wissen wollen.

Und wenn man dann näher untersucht was das ist was einem da als Blindtest angeboten wird, dann findet man eine groteske Karikatur eines Blindtests, die seriösen Kriterien nicht einmal ansatzweise standhält. Man baut einfach drauf daß das Publikum mit der Behauptung zufrieden ist und nicht in die Schachtel hineinguckt, auf der in großen Buchstaben steht: Der wahre Blindtest.

Letzes Jahr habe ich z.B. über die großen Drei geschrieben, wo es um drei Kommentare von Hifi-Zeitschriften ging, und die Stereoplay behauptete ja damals ausdrücklich, daß sie Blindtests Monat für Monat durchführten und auch "bestehen". Sie lassen sich über ihre Testmethoden nicht im Detail aus, aber es ist wohl auch so klar daß sie nicht annähernd den Kriterien entsprechen die an seriöse Blindtests zu stellen sind. Das wäre in dieser Form gar nicht leistbar. Ohne eine entsprechende Dokumentation kann man ja auch viel erzählen wenn der Tag lang ist.

Für Nachvollziehbarkeit zu sorgen kann dabei nicht in ihrem Interesse sein. Was nicht bekannt ist läßt sich schlecht im Detail bewerten und kritisieren. Wenn man das Feindbild passend aufgestellt hat, dann hat man damit auch den Vorwand dafür, sich dem gar nicht erst zu stellen. Das wissen auch die Politiker. Externe Wahlbeobachter z.B. werden in der Regel mit ähnlichen Argumenten abgelehnt. Die sind eben von vorn herein feindlich gesinnt, man ist denen nicht Rechenschaft schuldig, weiß selber besser wie Demokratie (oder eben ein Blindtest) funktioniert.

Ähnlich ist's auch mit einem vor kurzem veranstalteten Test, über den's im Österreichischen Hifi-Forum mehrere Threads gibt. Wieder die gleiche Masche: Jemand behauptet daß seine "Art" der Blindtests die bessere bzw. richtige Art sei, liefert gleich die passende Abgrenzungs-Rhetorik mit, mit der man sich um genauere Nachprüfungen herumdrücken kann, und kümmert sich ansonsten so gut wie gar nicht darum, was das "Blind" in einem seriösen Blindtest eigentlich bedeutet.

Es ist ein interessanter Sport: Wie weit kann ich den Begriff Blindtest demontieren bevor es zu sehr auffällt und ich zurückgepfiffen werde? Anders gefragt, welche Kriterien oder Methoden eines seriösen Blindtests stehen dem von mir gewünschten Ergebnis entgegen, und komme ich damit durch sie einfach wegzulassen oder rebelliert dann das Volk?

Bei demokratischen Wahlen steht zum Beispiel dem gewünschten Ergebnis oft entgegen daß das Volk den Falschen wählt. Dem kann man auf verschiedene Weise begegnen, ohne daß man die Wahlen als solche gleich abschafft:
  • Man läßt nur solche Parteien zur Wahl zu die einem genehm sind. Im Idealfall bloß die Eine, aber es sieht oft besser aus wenn es mehrere sind die letztlich gleichgeschaltet sind.
  • Man macht die Wahl öffentlich und sorgt für psychologischen Druck indem man seine Sympathisanten öffentlich ihre Stimme abgeben läßt.
  • Man macht die Auszählung und/oder die Auswertung geheim oder undurchsichtig, und manipuliert das Ergebnis zu seinen Gunsten.
  • Man erklärt eine Wahl für ungültig wenn sie das falsche Ergebnis gebracht hat. Dafür kann man vorsorgen indem man eine gewisse Anzahl an problematischen Vorkommnissen insgeheim während der Wahl selber provoziert.
  • Man hindert "problematische" Wähler daran, ihr Wahlrecht auszuüben. Von plumper Bedrohung bis hin zu subtilen Benachteiligungen gibt es dafür eine breite Palette an Möglichkeiten.
Bei Wahlen wie auch bei Blindtests ist es interessant, sich zu vergegenwärtigen wofür bestimmte "Regeln" da sind. Das heißt in welcher Weise der Zweck der Veranstaltung beeinträchtigt werden kann wenn man sich an eine bestimmte Regel nicht hält. Wer das im Geiste durch geht merkt sehr bald daß die Regeln alle einen praktischen Sinn haben, und daß man riskiert daß der Zweck des Ganzen in Frage gestellt wird wenn man von manchen Regeln Abstand nimmt.

Das kann man auch prägnanter sagen: Wenn man sich nicht an die Regeln hält kann man's auch gleich sein lassen. An alle Regeln!

Wie bei der Demokratie und ihren Wahlen sind die Regeln aus der Erfahrung mit Mißbrauch geboren. Sie sind eben keine Schikane um ein unerwünschtes Ergebnis zu erzwingen, sondern sie sind dazu da um den Mißbrauch so weit es geht einzudämmen. Wer diese Regeln aushebeln will, bei dem kann man davon ausgehen daß er genau diesen Mißbrauch auch im Schilde führt.

Bei Blindtests gibt es eine Anzahl geradezu "klassischer" Mißbrauchsversuche:
  • Man sorgt nicht für Transparenz bei der Auswertung, so daß niemand nachvollziehen kann wie das Endergebnis zustande kam. Man ist darauf angewiesen den Angaben zu vertrauen.
  • Man sorgt nicht für ausreichende statistische Relevanz, so daß man zufällige Ergebnisse als Erfolg verkaufen kann. Meist wird das kombiniert damit daß man unter vielen Versuchen die wenigen herauspickt die für einen Erfolg zu sprechen scheinen, und läßt die anderen unter den Tisch fallen. Besonders für den statistisch unbedarften Laien sieht so Zufall schnell aus wie ein Beweis.
  • Man sorgt nicht für ausgeglichene Versuchsbedingungen. Sei es daß man Pegel nicht ordentlich abgleicht, oder daß man verräterische Details im Material beläßt (Umschaltklicks, Zeitdifferenzen, etc.), oder daß man eine für bestimmte Kandidaten unvorteilhafte Umgebung schafft.
  • Damit zusammenhängend: Man sorgt nicht für zuverlässige Verblindung. Man muß alle Möglichkeiten ausschließen wie jemand durch "Fremdeinflüsse" eine Entscheidung treffen kann. Egal ob das durch Sehen passiert oder durch welche Informationskanäle das Vorwissen zustande kommt.
Aus diesen Gründen kann man von einem Blindtest keine endgültige Beweisführung erwarten, denn der Generalverdacht, daß ein unplausibles und überraschendes Ergebnis dadurch zustande kam daß es einen unentdeckten Fremdeinfluß gegeben hat, daß es also im Grunde gar kein Blindtest war, bleibt immer im Hintergrund bestehen. Das Einzige was hier hilft, indem es Vertrauen schafft, ist die Transparenz der Versuchsgestaltung und Auswertung. Wie bei Wahlen auch.

Wenn der Fremdeinfluß unbeabsichtigt war und im Ausmaß begrenzt, dann kann das Ergebnis trotzdem gelten. Eine Wahl wird auch nicht bei jedem kleinen Fehler für ungültig erklärt. Es muß jemand bewerten ob eine Chance gegeben ist daß der Fehler den Wählerwillen signifikant verfälscht hat. Beim Blindtest muß man bewerten ob ein Verblindungsmangel das Ergebnis signifikant verfälschen hätte können oder nicht. Wenn Regeln ganz bewußt außer Kraft gesetzt werden um so etwas zu ermöglichen, dann ist auf jeden Fall Vorsicht am Platz. Besonders wenn die begleitende Rhetorik wie in den erwähnten Fällen so eindeutig ist.

Wie bei der Demokratie auch ist es letztlich das Volk, das die Kontrolle ausübt. Mangels stringenter Beweismethoden kommt es darauf an, daß das Ergebnis plausibel ist, und daß es unter glaubwürdigen Umständen zustande gekommen ist. Man braucht nicht bei allen Auszählungen einer Wahl dabei gewesen zu sein, um ein Gefühl dafür zu kriegen ob es dabei im Großen und Ganzen mit rechten Dingen zu ging. Bei Blindtests empfehle ich die gleiche auf gesundem Menschenverstand basierende Herangehensweise. Wenn auf der Schachtel Unglaubwürdiges angepriesen wird, guckt man eben hinein.

Sonntag, 6. Juni 2010

Jitter-Verwirrungen

Der Jitter in digitalen Audiosystemen ist schon seit Langem ein Thema, aber in letzter Zeit scheint er wieder besonders Konjunktur zu haben.Das hat sicher auch damit zu tun daß man hier den Leuten besonders gut ein X für ein U vormachen kann, denn die Sache ist schwer zu verstehen, schwer zu messen (wenn die Messung seriös sein soll) und schwer in einen sinnvollen Bezug zum Gehörten zu bringen. Also mehr als genug Raum für audiophile Hirngespinste. Allein die Tatsache daß das Thema so sehr in der Diskussion ist scheint viele davon zu überzeugen daß da etwas dran sein müsse.

Es gibt eine Menge Webseiten die einem versuchen die Sachverhalte auf einfache Weise zu erklären, und es sind darunter auch etliche die zumindest das grobe Verständnis was Jitter ist und warum es ein Problem sein kann richtig wiedergeben. Wie so oft geht dann aber der Unfug los wenn der Bezug zu hörbaren Effekten hergestellt werden soll. Was da unterstellt wird ist nicht selten um den Faktor 10000 daneben, das heißt es wird ohne seriösen Nachweis unterstellt daß Jitter hörbar sei, der 10000 mal schwächer ist als er sein dürfte, bevor er nach seriösen Studien tatsächlich hörbar wird. Kaum irgendwo sonst in der sowieso schon von grandiosen Selbstüberschätzungen gepflasterten Audiophilenszene findet man eine Diskrepanz von derartigen Ausmaßen.

Gepaart ist das mit Angaben von Jitterwerten, die noch nicht einmal ansatzweise nachvollziehbar sind, weil jegliche Angaben zu Meßbedingungen und Meßverfahren fehlen. Wie Jitter im Detail gemessen wird hat aber einen dramatischen Effekt auf die erzielten Meßwerte. Es ist auch sehr leicht den Jitter auf eine Art und Weise zu messen die für das zu betrachtende Problem (also z.B. die Hörbarkeit) völlig irrelevant ist. Im Ergebnis ist die Aussagekraft vieler Jitterangaben, die man bei entsprechenden Produkten und Diskussionen findet, gleich Null. Und aus dem gleichen Grund sind die Angaben auch nicht untereinander vergleichbar, denn niemand kann sagen ob auch die Meßbedingungen vergleichbar waren.

Oberflächlich betrachtet ist die Sache einfach. Jitter ist die zeitliche Variation von Taktflanken um den idealen Zeitpunkt herum. Der zeitliche Fehler führt bei der Abtastung oder bei der Rekonstruktion von Analogsignalen (also in A/D- und D/A-Wandlern) dann zu einem Amplitudenfehler, wenn sich das Signal gerade ändert. Wer eine möglichst unverfälschte Wandlung zwischen Analog und Digital hinkriegen will, der braucht auch einen sauberen Takt für den Wandler, der möglichst wenig Jitter hat.

In erster Näherung ist also derjenige Wandler besser, dessen zeitliche Fehler durch Jitter im Taktsignal geringer sind. Ein Wandler mit 1 ns Jitter ist demnach besser als einer mit 10 ns Jitter. So weit kommt man auch als Laie noch mit. Es ist der Bereich wo man noch durch einfachen Zahlenvergleich besser und schlechter unterscheiden kann.

Der Teufel steckt aber hier im Detail. Und die Details sind teuflisch genug um diese Zahlenvergleiche nicht bloß etwas ungenau zu machen, sondern die Betrachtung wird dadurch oftmals vollkommen sinnlos. Ich rede hier also nicht von Haarspaltereien, die sich im Promillebereich abspielen, sondern von grundlegenden Dingen.

Folgende Fragen müssen bei solchen numerischen Jittervergleichen gestellt werden:
  • Sind die Jitterwerte überhaupt auf vergleichbare Weise und unter vergleichbaren Umständen gemessen worden?
  • Sind die Werte an einer vergleichbaren Stelle im Signalpfad gemessen worden?
  • Welche Relevanz haben die so gemessenen Jitterwerte für die Hörbarkeit?
Schon die erste Frage stellt sich als erstaunlich komplex heraus, denn es gibt eine für den Laien vielleicht überraschende Vielfalt an Meßmethoden und Randbedingungen, ohne deren Kenntnis man eine Jitterangabe nicht vernünftig interpretieren kann.

Woher kommt das?

Im vielleicht einfachsten Fall ist der zeitliche Fehler, also der Jitter, zufällig. Man kann dann den Jitter als ein Rauschsignal modellieren. Signaltheoretisch betrachtet ist es dann so als ob das Taktsignal durch weißes Rauschen phasenmoduliert wird. Wem solche Begriffe nichts sagen, nicht verzweifeln, ich will damit bloß ausdrücken daß die Effekte sich mathematisch und physikalisch relativ einfach erfassen und beschreiben lassen, man hat den Effekt so auf bekannte nachrichtentechnische Begriffe zurückgeführt.

Ein solches Rauschsignal hat eine mittlere Stärke, man nimmt hier den Effektivwert (auf Englisch RMS = Root Mean Square). Aber es hat auch Spitzenwerte (engl. peak-to-peak). Bei einem echten weißen Rauschsignal kann der Spitzenwert theoretisch beliebig hoch werden wenn man bloß lange genug mißt, in der Praxis kann man leicht ein Verhältnis zwischen Effektivwert zu Spitzenwert von 1:10 bekommen. Die erste wesentliche Angabe ist also beim Jitter, ob es sich um den Effektiv- oder Spitzenwert handelt. Schon diese einfache Sache wird aber meist nicht erwähnt. Schon allein dadurch kann man also ohne es zu wissen einen Fehler beim Vergleich zweier Angaben von einer Zehnerpotenz haben.

Der nächste springende Punkt kommt daher, daß die unterschiedlichen Meßmethoden auch unterschiedliche Empfindlichkeiten für bestimmte Frequenzen des Jitters haben. Wenn der Jitter rein zufällig ist, und somit weißes Rauschen darstellt, dann enthält er auch alle Frequenzen in gleichem Maß. Solcher Jitter wird dann durch die Meßmethode entsprechend gewichtet. Manche Meßmethoden bieten eine einstellbare Meßbandbreite, das heißt es wird ein Bandpaß verwendet und nur Jitterfrequenzen gemessen, die innerhalb des Frequenzbandes liegen. Je schmaler das Band, desto weniger Jitter wird man messen (immer noch vorausgesetzt daß der Jitter weißes Rauschen ist). Bei solchen Methoden muß man also zur korrekten Interpretation der Ergebnisse auch die Filtercharakteristik des verwendeten Bandpasses wissen. Es gibt im Audiobereich keine normierte Filtercharakteristik dafür, jeder entscheidet bei der Messung selbst was er hier für sinnvoll hält, abhängig davon was sein Meßgerät anbietet.

Eine andere Art der Gewichtung ergibt sich, wenn man Jitter mit dem Oszilloskop mißt. Diese vielleicht einfachste Methode funktioniert so daß man das Oszilloskop auf eine Taktflanke triggern läßt und sich die nächste (oder eine spätere) Taktflanke auf dem Schirm ansieht, und zu bestimmen versucht wie weit diese Flanke im Lauf der Zeit hin- und herzittert. Der springende Punkt hier ist daß man so den Jitter von einer Taktflanke relativ zu einer anderen mißt, und nicht den absoluten Fehler gegenüber der idealen Absolutzeit. Diese Relativmessung führt dazu, daß Jitterfrequenzen unterhalb einer bestimmten Eckfrequenz immer stärker abgeschwächt werden. Für niederfrequenten Jitter ist diese Methode daher praktisch blind. Entscheidender Faktor ist hier der zeitliche Abstand zwischen dem Triggerzeitpunkt und dem Zeitpunkt der Flanke an dem die Messung stattfindet. Dieser zeitliche Abstand bestimmt wo die genannte Eckfrequenz liegt. Für eine korrekte Interpretation des Meßergebnisses muß man diesen zeitlichen Abstand kennen.

Wie man sieht gibt's schon bei der Jittermessung als einzelne Zahl eine ganze Reihe von Dingen zu beachten. Um beurteilen können ob zwei Messungen miteinander vergleichbar sind oder nicht braucht es mehr Angaben als man in den allermeisten Fällen geliefert bekommt. Das allein schon macht die Jitterangaben von Herstellern und anderen Quellen in den meisten Fällen unbrauchbar und nichtssagend.

Mehr Information kann man aus Diagrammen bekommen, die das Jitterverhalten nicht nur als einzelne Zahl ausdrücken, sondern in Abhängigkeit einer Variablen als Graph. Im Zusammenhang mit Audio A/D- und D/A-Wandlung ist ein Diagramm besonders sinnvoll, das die Stärke des Jitters über die Jitterfrequenz aufträgt. Anders gesagt, das Jitter-Spektrum. Interessant sind dabei die hörbaren Frequenzen, und eventuell noch die Oktave darüber, um die Möglichkeit von Spiegelfrequenzen mit abzudecken. Wenn der Jitter wie oben angenommen weißes Rauschen ist, dann ist das Spektrum eine horizontale Linie. Interssant ist das Spektrum also eigentlich bloß dann, wenn der Jitter eben nicht einem weißen Rauschen entspricht, wenn also sein Spektrum nicht wie eine gerade Linie aussieht. Das ist in aller Regel der Fall, und das ist auch der Grund warum eine einfache Analyse auf der Basis von weißem Rauschen meist zu kurz greift.

Wenn wie eigentlich in allen realistischen Fällen der Jitter nicht weißes Rauschen ist, dann ist es umso wichtiger sein Spektrum zu kennen, und nochmal wichtiger die Meßbandbreite für einen angegebenen Jitterwert zu kennen. Andersherum gesagt wird dann ein einzelner Meßwert noch wertloser. Daß man aber mal eine glaubwürdige Messung eines Jitterspektrums präsentiert bekommt ist schon recht selten. Sich einen willkürlichen (unrealistisch niedrigen) Jitterwert in Pikosekunden aus den Fingern zu saugen ist da schon wesentlich einfacher.

Ein Jitterspektrum gewinnt man normalerweise dadurch daß man einen jitterarmen Referenzoszillator auf dieselbe Frequenz abstimmt wie den zu untersuchenden Takt, und beide in einem Ringmischer phasendemoduliert. Ein FFT-Spektrumanalysator kann dann das resultierende Signal als Spektrum darstellen. Ist in der Praxis nicht ganz so einfach wie es hier klingt.

So weit zur Frage der Meßmethoden und der Vergleichbarkeit. Wer weiter einsteigen will in dieses Thema kann mit einem sehr nützlichen AES-Papier dazu anfangen, leider gegen Gebühr.

Die zweite Frage betraf den Punkt an dem gemessen wird. Wenn der nicht bekannt ist, dann ist der Meßwert ebenfalls unbrauchbar. Selbst wenn er bekannt ist kann er immer noch unbrauchbar sein. Man kann zum Beispiel den Jitter am SPDIF-Eingang eines D/A-Wandlers messen und angeben, aber daraus erfährt man immer noch nichts darüber welchen Effekt das auf das Audiosignal hat. Ein SPDIF-Empfänger und damit auch jeder entsprechend ausgerüstete D/A-Wandler hat eine eigene Jitterunterdrückung bzw. Jitterimmunität, es kann also gut sein daß der Jitter den man am Eingang mißt rein gar keine negativen Effekte hat, schon meßtechnisch nicht und gehörmäßig schon gar nicht.

Wer sich für den Effekt auf das Audiosignal selbst interessiert der darf nicht am SPDIF-Eingang messen, sondern muß sich den Takt ansehen der den D/A-Wandler-Chip im engeren Sinn antreibt. Das ist ein Signal innerhalb des Gerätes, das normalerweise außen nicht zugänglich ist. Maßgeblich ist dabei derjenige Takt, der für das Abtasten des Analogsignals verantwortlich ist. Es hängt vom Funktionsprinzip des Wandlers ab welcher aus mehreren Takten hier der maßgebliche ist. Zudem reagiert nicht jeder Wandler gleich auf Jitter.

De facto macht es also am meisten Sinn wenn man bei einem DAC nicht versucht, den tatsächlichen Jitter zu messen, sondern seine Jitterempfindlichkeit. Das heißt man gibt an seinen Eingang ein Signal mit einer bekannten Menge Jitter, und untersucht das analoge Ausgangssignal auf darauf zurückzuführende Artefakte. Am besten sieht man die Artefakte wenn der Jitter ein Sinussignal im oberen Frequenzbereich des hörbaren Spektrums ist. Besonders aufschlußreich ist hier wieder ein Diagramm, in dem man den Effekt abhängig von der Jitterfrequenz aufträgt. Wen überrascht es daß solche Diagramme wiederum sehr selten zu finden sind?

Die dritte Frage ist die nach der Hörbarkeit, und hier findet man die wildesten Spekulationen und die absurdesten Überzeugungen. Dieser Frage kann man sich auf unterschiedliche Art und Weise nähern. Es gibt aber auch einige Arten mit denen man sich der Frage nicht nähern kann, denen man aber (vielleicht gerade deswegen) immer wieder begegnet. So wird beispielsweise ausgerechnet welche Menge von Jitter bei einem Sinussignal mit maximaler Frequenz und Amplitude (also z.B. 22 kHz und 0 dBFS) zu einem Fehler von einem Bit bei gegebener Wortlänge (z.B. 16 bit) führt. An diesem Punkt würde der Fehler durch Jitter größer als der Fehler durch den normalen Quantisierungsvorgang. Anders gesagt wird ab diesem Punkt der Wandler durch Jitter meßbar schlechter als ohne Jitter.

Was man durch diese Abschätzung gewinnen kann ist eine theoretische Grenze, aber kein praktischer Richtwert. Mit der Hörbarkeit hat es rein gar nichts zu tun. Zu glauben in dem Moment an dem es meßbar wird müsse es auch hörbar sein ist kompletter Unsinn. Nichtsdestotrotz sind solche Abschätzungen anscheinend attraktiv, weil man mit ihnen auf geforderte Jitterwerte im unteren Pikosekunden-Bereich oder sogar Femtosekunden-Bereich kommen kann. Genau das woraus feuchte Audiophilen-Träume entstehen.

Sinnvoll ist es dagegen wenn man Hörtests macht bei denen man künstlich verjitterte Signale verwendet, und so feststellt welche Mengen an Jitter man braucht, bis es hörbar wird, und auch feststellt welche Signale besonders empfindlich sind, also welche Testsignale man sich anhören muß um möglichst kleine Jittermengen noch heraushören zu können. Solche Tests hat es im seriösen Bereich schon einige gegeben, und wir werden unten noch davon zu reden haben.

Ebenso sinnvoll ist es wenn man psychoakustische Kenntnisse über Hörschwellen, Maskierungseffekte und dergleichen heranzieht um abzuschätzen welche Modulationsprodukte am ehesten hörbar werden könnte. Das hilft beim Finden der besten Testsignale, und beim Abschätzen wo die Ergebnisse wahrscheinlich in etwa zu erwarten sind. Schon allein als Plausibilitätskontrolle sind solche Betrachtungen wertvoll.

Schließlich sollte man sich vergegenwärtigen daß Jitter nichts ist was erst durch die Digitaltechnik entstanden ist. Das Äquivalent von Jitter im Analogen sind Gleichlaufschwankungen von analogen Aufzeichnungsmedien. Solche Effekte gibt es bekanntlich sowohl bei Schallplatte wie auch beim Tonband, und man darf erwarten daß sich Erkenntnisse über die Hörbarkeit solcher altbekannten Effekte auch mindestens teilweise auf den digitalen Fall übertragen lassen. Mit anderen Worten: Es ist nicht recht einzusehen warum eine Phasenmodulation durch Tonband-Vibrationen weniger hörbar sein soll als eine um ein Vielfaches geringere Phasenmodulation durch Taktjitter. Wenigstens die Proportionen sollten sich hier übertragen lassen.

Untersuchungen über den Effekt von Jitter bei digitalen Audiosignalen sind daher nichts Neues. So hat z.B. eine Untersuchung darüber schon 1974 in den BBC-Labors stattgefunden, also 8 Jahre vor der CD. Umfangreicher noch ist die Arbeit von Benjamin/Gannon aus dem Jahr 1998, die sich dem Thema aus verschiedenen Richtungen nähert, sowohl theoretisch als auch praktisch. Erwähnenswert sind schließlich auch noch Ashihara et.al. mit einem Artikel aus 2005.

Diese Untersuchungen sprechen eine völlig andere Sprache als es die "Erfahrungen" aus der Audiophilen-Szene vermuten lassen würden. Die dort festgestellten tatsächlichen Hörschwellen liegen derart weit von den Zahlen entfernt, die in Audiophilen-Kreisen wie selbstverständlich kursieren, daß man das nicht mit Meßunsicherheiten oder ähnlichen Fehlern erklären kann. Hier prallen zwei Welten aufeinander. Die Welt seriöser Untersuchungen und die Welt audiophiler Einbildung und Eitelkeit.

Die verschiedenen oben genannten Untersuchungen kommen zwar nicht zu übereinstimmenden Ergebnissen, die Unterschiede lassen sich aber leicht als Konsequenz unterschiedlicher Versuchsgestaltung erklären und schmälern die Aussagekraft nicht. Das soll nicht heißen daß es nicht noch offene Fragen gäbe, die weitere Forschung nötig machen. Das was bisher schon untersucht ist, läßt aber Schlüsse zu die die audiophilen Vorstellungen und Größenordnungen ziemlich klar ins Reich der Phantasie verweisen.

Wenn etwas überrascht an den Studien, dann ist es wie wenig empfindlich das Gehör auf Jitter zu sein scheint. Die Autoren sind eher überrascht daß die Hörschwellen so hoch ausgefallen sind, und hätten offenbar mit einer größeren Empfindlichkeit gerechnet. Ansonsten sind die Ergebnisse im großen und ganzen im Rahmen dessen was man aus der psychoakustischen Erkenntnislage und aus entsprechenden Überlegungen hätte vermuten können. Zum Einen wird schon aus physikalischen Gründen mit sinkender Signalfrequenz der Jittereinfluß geringer (wegen der geringeren Flankensteilheit der Signale), zum Anderen kommt bei sinkender Jitterfrequenz das störende Mischsignal immer mehr in den Einfluß von Maskierungseffekten und wird dadurch unhörbar.

Ebenfalls wenig überraschend ist, daß man speziell ausgesuchte Testsignale braucht um die maximale Empfindlichkeit zu bekommen, und daß Jittereffekte bei normaler Musik fast immer völlig untergehen und selbst dann unhörbar sind wenn sie sehr stark sind. Die Tester haben demzufolge einige Zeit dafür verwenden müssen um Musikbeispiele zu finden bei denen sich etwas feststellen läßt. Zudem hat sich wieder einmal gezeigt daß die Tester ein gewisses Training brauchen um maximal empfindliche Ergebnisse zu erzielen, auch wenn es sich bereits um erfahrene Hörer handelt.

Es wird auch nicht überraschen daß aus einzelnen Tönen (Sinus) bestehende Jittersignale viel kritischer sind als Rauschen. Rauschförmige Jittersignale sind von Ashihara et.al. untersucht worden, und mit ihnen darf der Jitter zehn mal größer sein als bei Benjamin/Gannon im Fall von sinusförmigen Signalen. Das ist einleuchtend, denn durch rauschförmigen Jitter verringert sich bloß der Rauschabstand, während bei sinusförmigem Jitter unharmonische Mischprodukte auftreten, die bei genügender Stärke eine klangliche Verfärbung bewirken können.

Diese Stärke beträgt aber selbst bei den kritischsten Fällen immer noch 10 ns RMS und mehr, außer in gewissen Ausnahmefällen wo Jitter und Nutzsignal sinusförmig sind und so beschaffen daß die Artefakte aus der Maskierung herausfallen, wo manche Tester auch noch um die 4 ns Jitter detektieren konnten. Für normales Musikmaterial kommt man im besten Fall bis zu etwa 30 ns herunter, falls man überhaupt etwas hören kann. Für die Details der Versuchsmethoden und der Ergebnisse verweise ich auf die Originaltexte.

Ich will mit dieser Diskussion nicht miserable Jitterwerte bei Geräten rechtfertigen. Ein Entwickler sollte unabhängig von solchen Untersuchungen bestrebt sein, einen Takt zu verwenden der im Rahmen der Möglichkeiten und dem Stand der Technik entsprechend sauber ist. Selbst Jitter in unhörbaren Größenordnungen kann ein Hinweis auf ein Designproblem sein das mit geringem Aufwand behoben werden kann wenn man es einmal entdeckt hat. Für den Endanwender von Geräten bedeutet es aber daß es einen Bereich von Jitterwerten gibt der weit genug von aller Hörbarkeit entfernt ist daß man sich darüber keine Gedanken zu machen braucht. Hörbar tut sich bei weiterer Verbesserung dort nichts mehr, egal was Andere auch behaupten mögen.

Für mich selbst setze ich als Faustregel die Schwelle mit etwas Sicherheitsabstand bei 1 ns RMS an, gemessen mit einem Bandpaß der mindestens bis etwa 700 Hz herunter geht, besser 100Hz. Zum Glück fallen die meisten Geräte schon von sich aus gut genug aus, auch die von denen man es vielleicht nicht erwarten würde, z.B. viele interne Notebook-Soundkarten oder billige CD-Spieler. Jitterprobleme dürften damit die absolute Ausnahme sein und nicht die Regel. Und damit entfällt auch der Nutzen eines Clock-Tuning, zumal man bei den entsprechenden Tuning-Angeboten so gut wie sicher sein kann daß die dort genannten Zahlen frei erfunden und nicht seriös nachgemessen sind.