In letzter Zeit habe ich mich ein bißchen mit dem Altertum beschäftigt. Ein allgemeines kulturhistorisches Interesse habe ich sowieso, und in der aufgeheizten gesellschaftlichen Lage rund um die Flüchtlingsfrage wollte ich auch einen etwas distanzierteren Standpunkt finden, von dem aus man etwas klarer sehen kann wie die Lage ist, und wie das im Vergleich mit ähnlichen Situationen in der Geschichte aussieht. Das verhilft vielleicht auch zu einem etwas kühleren Kopf, das habe ich mir wenigstens davon versprochen.
Ich habe, glaub ich, genug zusammen getragen, was auch für Euch Leser interessant sein könnte, obwohl's mal wieder nicht um HiFi geht.
Die erste und vielleicht nützlichste Erkenntnis ist, daß wir keineswegs in einer einzigartigen, neuen Situation sind. Solche Konfrontationen um die Themen "Fremde im eigenen Land", "Flüchtlinge", "Religionskonflikte" und "Fanatismus/Terrorismus" hat es schon öfter gegeben, über Tausende von Jahren hinweg. Wäre doch seltsam wenn man daraus nicht etwas Gutes lernen könnte. Die Kehrseite der Medallie ist, daß dabei über die Jahrtausende sehr viel Blut vergossen wurde. Das macht die Lehren daraus umso wichtiger.
Die ältesten Beispiele gehen unvermeidlicherweise ins Religiös-Mythologische zurück. Das heißt wir können nicht sicher sagen was damals tatsächlich passiert ist. Wir haben nur eine vielfach überarbeitete Erzählung davon, die die Fakten so oft übermalt hat, daß sie bloß noch zu erahnen sind. Das ist aber vielleicht gar nicht so schlimm, denn es ist die Erzählung, die in diesen Fällen die Wirkung auf die Nachwelt entfaltet, und nicht die Fakten. Die Fakten verlieren sich in der Geschichte, die Erzählung bleibt. Da trifft sich die Sache witzigerweise mit unserer (angeblich) "postfaktischen" Mediengesellschaft. Auch da zählt die Erzählung mehr als die Fakten. Die Silbe "post-" ist gänzlich unangebracht, denn das Phänomen ist uralt. Jeder Prediger und Geschichtenerzähler der letzten 5000 Jahre hat es genutzt. Im Gegenteil ist die Betonung der Faktenlage die neuere, moderne Erscheinung, und die immer wieder überarbeitete und umgedeutete Erzählung die ältere Form. Das Post-Faktische ist eigentlich das Prä-Faktische.
Wer im Altertum nach Beispielen für unser Themenfeld sucht, kommt praktisch unmittelbar auf die biblische Geschichte vom Auszug aus Ägypten und der damit zusammenhängenden Gründung des "Bundes" zwischen dem jüdischen Gott und seinem Volk, mit der Figur des Moses im Zentrum. Diese Geschichte kennen die meisten von Euch bestimmt, schon weil sie immer wieder verfilmt worden ist. Leider finde ich die allermeisten dieser Verfilmungen (wenigstens die, die ich kenne) so tendenziös, daß sie schon eher der Kategorie der Propaganda zugerechnet werden müssen. Ich kann nur empfehlen, sich mit dem biblischen Text möglichst unbelastet und unvoreingenommen direkt zu beschäftigen. Das ist weniger mühsam als man wegen der seltsam altertümlichen Sprache erwarten würde.
Die Geschichte wird im zweiten Buch Mose erzählt, das deswegen auch "Exodus" heißt. Im Grunde ist es die Geschichte der Gründung der jüdischen Religion, und weil aus der jüdischen Religion viele Jahrhunderte später zuerst die christliche, und dann die muslimische Religion hervorgegangen sind, ist es im Grunde die Ursprungslegende aller drei Religionen. Damit sollte die enorme Relevanz dieses Textes klar sein, gerade auch heute und für unser Thema, obwohl die dort beschriebenen Ergeignisse, so weit sie überhaupt geschehen sein sollten, mehr als 3000 Jahre zurück liegen.
Der geschichtlich durchaus reale Hintergrund ist, daß auf dem Territorium der damaligen Hochkultur Ägyptens, im östlichen Nildelta, eine Gruppe von nicht-ägyptischen Einwandereren lebte, die als die "Hyksos" bekannt geworden sind (eine griechische Wiedergabe eines ägyptischen Wortes). Fremde also, von denen vermutet wird, daß sie von Nordosten her in das Nildelta eingewandert sind, als Folge eines Migrationsdrucks, der letztlich von indogermanischen Wanderungsbewegungen ausging. Diese Hyksos werden mit den späteren Israeliten identifiziert, deren Auszug aus Ägypten dann im Buch Exodus erzählt wird.
Diese Erzählung versucht den Eindruck zu erwecken, die Israeliten (Hyksos) wären von den Ägyptern unterdrückt worden, und wären schließlich unter Moses befreit worden, woraufhin sie sich wieder zurück nach Nordosten bewegt hätten, um dort im "verheißenen Land" zu siedeln. Die geschichtliche Faktenlage sieht aber wohl eher so aus als wären sie über geraume Zeit die Herrscher in Ägypten gewesen, und schließlich von dort vertrieben worden. Die biblische Erzählung stellt das auf den Kopf, was psychologisch gar nicht so unwahrscheinlich ist, denn dadurch wird immerhin eine Niederlage zu einem Sieg umgedeutet.
Ob sie nun rausgeschmissen wurden oder selber gegangen sind, es ist der Auslöser für eine Legendenbildung, und für die Herausbildung einer neuen Religion gewesen. Die jüdische Religion basiert in diesem Sinne auf Flucht und Vertreibung. Im jüdischen Selbstverständnis ist diese Grundlage bis heute prägend, der jüdische Gott wird als Befreier von der ägyptischen Unterdrückung verstanden, und im religiösen Schrifftum der Juden wimmelt es von Bezugnahmen darauf. Im positiven Sinne wird dadurch immer wieder daran erinnert, daß die Juden selbst Flüchtlinge vor Unterdrückung sind, und somit Verständnis und Rücksicht für andere Flüchtlinge aufbringen sollen.
Die Kehrseite davon ist aber die Abgrenzung. Die Etablierung eines Bundes zwischen dem jüdischen Gott und seinem Volk, mit der Forderung absoluter Loyalität, ist in dieser Form ein Novum in der Geschichte. Bei anderen Religionen aus dieser Zeit findet man keinen solchen Bund, die Götter wurden als Fakt betrachtet, Loyalität hatten diese Götter gar nicht nötig, im Zweifel hatten ohnehin nur die Menschen den Nachteil, die Götter haben nichts zu verlieren. In Ägypten forderte der Pharao Loyalität für sich selbst ein (wurde aber immerhin gottgleich verehrt). Der jüdische Gott wird dagegen als eifersüchtig und rachsüchtig dargestellt. Moses und Andere verhandeln sogar mit ihm und schaffen es manchmal, seinen Furor zu besänftigen.
Das wird manchmal als die Geburt des Monotheismus bzw. der monotheistischen Religionen angesehen, aber man sollte sich das genauer ansehen: Es geht gar nicht darum ob es andere Götter gibt oder nicht. Über weite Strecken sieht es im biblischen Text eher so aus als würde auch Gott selbst die Existenz anderer Götter einräumen. Das Gebot der Ausschließlichkeit gilt nur für sein Volk. Es ist also keine Aussage über Existenz oder Nichtexistenz anderer Götter, es ist die Forderung nach Loyalität oder Treue an sein eigenes Volk. Die Aussage ist nicht: "Es gibt keinen anderen Gott!", sondern "für Euch hat es gefälligst keinen anderen Gott zu geben!"
Darum geht es bei diesem "Bund" zwischen Gott und seinem Volk: "Ihr glaubt an mich und NUR an mich, und dafür gebe ich Euch Euer gelobtes (=versprochenes) Land". Das ist ein Bund nicht nur "für" etwas, sondern auch einer "gegen" etwas, er richtet sich nämlich gegen die bisherigen Bewohner dieses Landes, und gegen ihre Götter (die als Götzen verunglimpft werden). Das hat unappetitliche Konsequenzen: Die betreffenden Völker, die dort sitzen wo die Israeliten hin wollen, werden zum Abschuß freigegeben. Die Sprache und der Eifer, mit dem das immer wieder eingehämmert wird, hat genozidale Züge. Diese Völker sollen ganz wörtlich ausgerottet werden, und der Angehörige des "Gottesvolkes" erregt Gottes Zorn, wenn er dabei nicht maximal konsequent und unemotional vorgeht, und es versäumt, alle abzuschlachten, denen er habhaft werden kann.
Ich überlasse es Euch, für diese Blaupause weitere Beispiele in der nachfolgenden Geschichte zu suchen. Ich beschränke mich auf den Hinweis, daß es über die vielen Jahrhunderte offenbar etliche gegeben hat, bis in unsere unmittelbare Vergangenheit und Gegenwart.
Sehr prägnant tritt das hervor in der Episode, wo Moses die Gesetzestafeln bekommt, mit den zehn Geboten drauf. Es ist eine meiner Lieblingsgeschichten in der ganzen Bibel, weil sie so zentral für gleich drei Weltreligionen ist, und weil sie sehr plastisch vor Augen führt, was an diesen Religionen so problematisch ist. Die Rahmenhandlung ist wohlbekannt und schnell erzählt: Moses kommt mit seinem Volk auf der Wanderschaft nach dem Auszug aus Ägypten an den Berg Sinai, und während das Volk am Fuß des Berges lagert, steigt er hinauf und erhält dort von Gott zwei Steintafeln, auf denen die zehn Gebote aufgeschrieben sind. Während er weg ist, wird das Volk unruhig und macht sich ein goldenes Kalb als Götterbild, das es anbetet. Als Moses vom Berg herunter kommt und das sieht, zerschmettert er die Steintafeln und tobt. Er zerstört das goldene Kalb, und läßt seine loyalsten Kräfte, die Leviten, bewaffnet durch das Lager ziehen und -- mehr oder weniger willkürlich -- 3000 Leute abschlachten.
Die zehn Gebote, die auf diese gruslige Art und Weise in die Welt gekommen sein sollen, gelten unter Religiösen als eine Art Grundlage für alle Moral. Wie ironisch, daß gerade die Grundlage von Moral auf eine derart unmoralische Art und Weise gelegt worden sein soll! Das läßt sich in alle möglichen Richtungen interpretieren, auch solche die für die Religionen alles andere als schmeichelhaft sind. Zum Beispiel fällt mir ins Auge, wie ähnlich das doch den Umtrieben des islamischen Staates heutzutage ist. Du betest den falschen Gott an? Rübe ab! Sogar das Schwert, heute als Kriegswaffe denkbar ungeeignet, hat hier ein Comeback: Der IS demonstriert eine blutige Form der Nostalgie, wenn er das gleiche Mordinstrument benutzt, das mehr als 3000 Jahre zuvor auch schon die Leviten für den gleichen heiligen Zweck benutzt haben sollen. Die Parallele findet ihre Fortsetzung im Eifer, mit dem der IS religiöse Kultobjekte anderer Glaubensrichtungen zerstört. Da sind sie ganz bei Moses und seinem Umgang mit dem goldenen Kalb.
Diese zehn Gebote sehen für mich übrigens wie eine Mogelpackung aus, wie ein schlauer Trick, der ärgerlicherweise bis heute zu funktionieren scheint. Die Gebote bestehen nämlich aus zwei Teilen, die eigentlich gar nichts miteinander zu tun haben müßten, die aber durch das Zusammenfügen in einem Kanon als zusammengehörig dargestellt werden. Die ersten paar Gebote unterscheiden sich von den restlichen durch zwei Dinge: Erstens drehen sie sich um die Gottesanbetung und seine Ausschließlichkeit, während die anderen Gebote die zwischenmenschlichen Beziehungen regeln. Zweitens sind sie viel ausführlicher als die restlichen Gebote. Der erste Unterschied soll wohl bedeuten, daß die auf Gott bezogenen Gebote wichtiger sind als die anderen, weil sie zuerst kommen. Der zweite Unterschied deutet an, daß die sich auf das Zusammenleben beziehenden Gebote nicht groß erklärt werden müssen, die auf Gott bezogenen dagegen schon. In der Tat sind die auf Gott bezogenen Regeln neu, aber die auf das menschliche Zusammenleben bezogenen Gebote wohl auch damals schon ein alter Hut gewesen. Daß man nicht lügen, betrügen, stehlen oder morden soll, wird den Leuten auch damals nicht fremd gewesen sein, denn immerhin kamen sie aus Ägypten, einem gut organisierten Staatswesen, einer Hochkultur. Wenn man diese Selbstverständlichkeiten mit den Geboten zur Anbetung des einen, ausschließlichen Gottes verbindet, was gerade damals überhaupt keine Selbstverständlichkeit war, dann ist das ein Trick um die Selbstverständlichkeit des Einen auf das Andere zu übertragen.
Die Geschichte macht auch deutlich, wie falsch gerade das Gebot "Du sollst nicht töten" heutzutage verstanden wird. Wenn ausgerechnet derjenige, der die Gebote direkt von Gott empfangen hat, kurz danach einen Massenmord anordnet, und zwar angeblich auf Gottes Geheiß, dann muß man sich schon überlegen was das eigentlich zu bedeuten hat. Offenbar gilt das Tötungsverbot nur innerhalb derjenigen Gruppe, für die der erwähnte "Bund" gilt. Gegenüber Andersgläubigen, auch solchen aus der eigenen Gruppe, gilt das Gegenteil: Die Verpflichtung, sie auszurotten. Wer aus dem "Bund" ausschert, hat sein Lebensrecht verwirkt. Kann man da wirklich behaupten, die Gotteskrieger des IS, oder der Taliban, oder welcher sonstigen radikalen Sekte auch immer, verstünden die Religion falsch? Hat Moses die Religion falsch verstanden?
Mir kommt es vor diesem Hintergrund eher so vor als verstünden diejenigen die Religion falsch, die man heute immer wieder als Religionsvertreter in den Medien vorgeführt kriegt. Diejenigen, die einem zu erklären versuchen, ihrer Religion, sei es nun der Islam in einer seiner vielen Formen, das Christentum in einer seiner vielen Konfessionen, oder das Judentum, ginge es vor allem um den Frieden und die Gewaltlosigkeit. Ich kaufe es ihnen ja gerne persönlich ab, und es stimmt auch daß sich in diesen über 3000 Jahren etwas getan hat, neue Propheten und neue Lehren, aber wie kann man die Wurzeln der eigenen Religion so verleugnen, und geradezu ins Gegenteil verkehren, zumal man ja klar vor Augen hat daß diese Wurzeln auch heutzutage ihre tödlichen Konsequenzen haben? Der friedfertige Anspruch ist ja nobel, aber daß er sehr weit von der Realität entfernt ist, liegt nicht daran, daß so viele Leute die Religion so verhängnisvoll mißverstehen, sondern daran, daß dieser Anspruch mit dem Kern und Ursprung der Religion in Konflikt ist. Der Fehler liegt sozusagen im System. Seit Anfang an.
Das führt zu enormen kognitiven Dissonanzen, bzw. zu Dissoziationen. Die Einen, die Friedfertigen, blenden den gewalttätigen und intoleranten Kern ihrer Religion aus. Die Anderen, die Eiferer, blenden den friedfertigen Teil ihrer Religion aus, und widmen sich der Herstellung dessen, was sie als göttlich gebotene Glaubenshygiene empfinden. Beide verstehen einander nicht einmal ansatzweise, und doch meinen sie die gleiche Religion zu repräsentieren.
Wenn ich z.B. noch einmal auf den Auszug der Israeliten aus Ägypten zurück blicke, dann fällt mir auf, daß die Israeliten, wo sie einmal Abstand von den Ägyptern gewonnen haben, keineswegs ihren Völkermord-Eifer auf die ehemaligen Unterdrücker richten (die, wie oben beschrieben, gar nicht ihre Unterdrücker waren), sondern auf andere Völker, auf deren Land sie es abgesehen hatten. Ein Haß auf die Ägypter wäre ja vielleicht noch nachvollziehbar gewesen, aber dieser Gegner war wahrscheinlich zu stark, und zu beeindruckend in seiner kulturellen Dominanz. Stattdessen richtet sich ihr Furor gegen kleinere Völker, die einfach nur das Pech hatten, dort zu wohnen wo die Israeliten hin wollten. Die vielleicht sogar an guter Nachbarschaft interessiert gewesen wären, aber zu schwach waren um die Israeliten in Schach zu halten. Und diese krasse Ungerechtigkeit wird so arrogant wie mitleidlos mit einem göttlichen Auftrag und Versprechen gerechtfertigt. Damals wie heute gehen Dissoziation, Realitätsverlust, Empathieverlust und göttlicher Auftrag Hand in Hand.
Wieder denke ich an den IS. Eigentlich richtet sich sein Hass auf die westliche Kultur, allem voran auf die USA als ihr erster Repräsentant. Aber der ist zu groß um ihn direkt anzugreifen. Stattdessen wütet man z.B. gegen Jesiden, die zwar niemandem etwas angetan haben, aber dafür zu ihrem Pech dort saßen, wo der IS hin wollte. Und die zu schwach waren, um dem IS Paroli bieten zu können. Auch da Dissoziation ohne Ende. Der IS will dem Islam gegen den als christlich dargestellten Westen zum Durchbruch verhelfen, aber in der Praxis bringt er vor allem Moslems um. Leute werden geworben, indem man ihnen suggeriert sie erfüllten Gottes Auftrag, und dann benutzt man sie als Kanonenfutter. Je größer die Ambition, desto größer der Betrug.
Auch interessant: In der biblischen Erzählung gleich zu Anfang des Buches Exodus scheint durch, daß die ägyptische Unterdrückung der Israeliten dadurch hervorgerufen worden sei, daß die Israeliten so fruchtbar gewesen waren, daß ihre Menge den Ägyptern anfing, Angst zu machen. Es entstand angeblich die Sorge, die Israeliten würden sich im Ernstfall nicht loyal zu Ägypten verhalten, sondern könnten sich mit einem Feind verbünden. Durch die Belastung der Israeliten mit Arbeitsdiensten sollte deren Vermehrung begrenzt werden, was mißlang und die Ängste vergrößerte, bis hin zu einem angeblichen Pharao-Befehl, die israelitische Nachkommenschaft zu töten. Moses entging dem durch seine Aussetzung als Säugling auf dem Nil. Auch dieses Motiv sollte uns heute bekannt vorkommen. In dieses Horn der "demographischen Gefahr" haben seit Thilo Sarrazin viele Protagonisten aus dem rechten Spektrum geblasen. Die Furcht der Ägypter aus dem 2. Buch Mose scheint heute auch viele Deutsche erfaßt zu haben. Ihre vermeintliche Lösung läuft auf dasselbe hinaus: Exodus.
Dabei ist eine interessante aber wohl unbeantwortbare Frage, wo hier das Huhn und wo das Ei zu verorten ist. Einerseits kann man den Eindruck haben, daß die Ängste der Ägypter ihre Berechtigung hatten, denn die Israeliten haben sich ja nach ihrem Auszug sehr scharf abgegrenzt. Daß sie Ägypten gegenüber im Zweifelsfall loyal gegenüber gewesen wären scheint unter diesem Vorzeichen unwahrscheinlich. Andererseits kam es zur scharfen Abgrenzung ja erst nach dem Auszug, also quasi als Reaktion auf den Rausschmiß. Es waren ja die Ägypter, die den Israeliten erst das Leben schwer gemacht hatten. Warum hätten sie da noch loyal sein sollen? Hat also das Mißtrauen die Spaltung verursacht, oder die Spaltung das Mißtrauen?
Je nachdem wie rum man hier die Kausalität diagnostiziert, kommt man entweder auf ein Argument pro Multikulti, oder kontra Multikulti. Das Pro-Multikulti-Argument versucht, das Problem so zu lösen daß man durch Integration eine Spaltung, auch eine demografische Spaltung, im Ansatz zu vermeiden versucht, und so auch das Entstehen von Mißtrauen verhindert. Das Kontra-Multikulti-Argument geht vom Mißtrauen aus, und versucht die Spaltung nicht zu verhindern, sondern zu kontrollieren. So oder so muß man sich mit der Möglichkeit auseinander setzen, daß durch die Gegenmaßnahmen das Problem erst recht virulent wird, und der Schuß sozusagen nach hinten los geht.
Vor lauter Parallelen über die Jahrtausende hinweg ist es aber auch an der Zeit, daß ich auf etwas hinweise was heute wirklich fundamental anders ist als in den Jahrhunderten zuvor: Wir haben jetzt Menschenrechte. Das Konzept, daß unabhängig von der Volks- oder Religionszugehörigkeit jeder Mensch die gleichen grundsätzlichen Rechte hat, einfach weil er ein Mensch ist, das gibt's bei den Religionen nicht. Auch nicht bei den Christen, selbst wenn sie oft so tun als hätten sie's erfunden. Es wäre sonst auch kaum plausibel zu machen, warum die Christen 1900 Jahre gebraucht haben, um auf diese Idee zu kommen. Vorläufer hatte diese Idee natürlich in diversen Religionen und Kulturen, aber die eigentliche Vaterschaft dieser bahnbrechenden Neuerung gebührt dem Humanismus, und der steht erst einmal im Gegensatz zu den Religionen.
Wenn wir von unseren westlichen Kultur reden, so zweifelhaft und vage der Begriff auch sein mag, dann meinen wir damit zuvorderst dieses Konzept der Menschenrechte. Das bedeutet auch, daß es dabei eben nicht um das christliche Abendland geht, oder um die christlich-abendländische Kultur. Das Christliche gehört hier nicht rein, es hat sich reingemogelt. Die Christen waren zu einem großen Teil gegen die Menschenrechte. Wozu braucht man die auch, wenn man die göttliche Erlösung hat? Und wer sie nicht hat, weil er das Falsche glaubt, dann stehen ihm die Menschenrechte auch nicht zu, nicht wahr? Er kann dann nur auf die göttliche Gnade hoffen. Aber auch nicht zu sehr, denn er hat ja schließlich schwere Sünden zu büßen...
Wenn mein Text hier deutlich gemacht hat, wie weit das, was wir heute an religiös motivierter Barbarei erleben, auf die Wurzeln der Religion zurück geht, und nicht auf ein Mißverständnis der Religion, und wenn klar wird daß das für alle beteiligten Religionen gilt, und demzufolge kein Anlaß für eine der Religionen besteht, sich für die bessere zu halten, dann habe ich viel erreicht. Zu oft wird nämlich der Eindruck erweckt, als stünde hier eine richtige und eine falsche Religion gegenüber, oder ein richtiges und ein falsches Religionsverständnis. Dabei haben sie den eigentlichen Fehler alle gemeinsam.
Und noch was: Ich war mal wieder zu faul, Links herauszusuchen und zu setzen. Ich hätte viele setzen können, aber eigentlich reicht es, wenn Ihr die Quelle selber lest, z.B. das zweite Buch Mose. Versucht Euch von der kirchlichen Lesart frei zu machen, und unvoreingenommen an die Sache heran zu gehen. Das kann verblüffend schwer sein, wenn man von Kind an auf eine bestimmte Lesart getrimmt worden ist. Wem sich der Magen rumdreht beim Gedanken, daß Moses das antike Ebenbild eines Abu Bakr al-Baghdadi sein könnte, der hat es vielleicht mit so einer Vorprägung zu tun.
Donnerstag, 29. Dezember 2016
Montag, 31. Oktober 2016
Der ganz normale Wahn
esotroner ist Schuld. Ich wollte mich eigentlich nicht zu sehr reinziehen lassen in diese Thematik um die Flüchtlinge (esotroner würde sagen: Invasoren) und die sich darum rankenden Verschwörungstheorien, aber er weiß wo er mich packen kann: Er meint ich hätte keine Argumente und keine Fakten parat.
Ich weiß es wird bei ihm nichts nützen, aber ich will es wenigstens nicht so aussehen lassen als hätte er damit recht.
esotroner verlinkt auf den Youtube-Kanal namens "Reconquista Germania" von einem Typen der sich Nikolai Alexander nennt, wo man Videos findet, die einem z.B. erklären, wer "wirklich" hinter der Flüchtlingswelle steckt (die US-Hochfinanz, z.B. George Soros). Das findet esotroner "absolut schlüssig".
Ich verstehe zwar nicht wie man solchen eindeutig demagogischen Machwerken auch nur einen Hauch von Schlüssigkeit attestieren kann, es sei denn man ist dem Wahn verfallen, aber ich will wie gesagt nicht so dastehen als hätte ich keine Fakten und Argumente auf meiner Seite. Also quäle ich mich durch diesen Scheißdreck, um ihn auseinander zu nehmen. Ich beziehe mich speziell auf das Video mit dem Titel "Wer steuert die Flüchtlingsinvasion?" vom 29. September 2015.
Alexander redet nicht lange darum herum: Er ist der Ansicht, bei der Flüchtlingswelle handle es sich um eine Invasion, bei einem guten Teil der Flüchtliche um Eroberer. Untermalt von Bildern von unbewaffneten, teils recht abgerissen wirkenden Zivilisten, die sich scharenweise in Marsch gesetzt haben, wirkt das unfreiwillig komisch. Invasionstruppen hatte ich mir bisher anders vorgestellt, mit Waffen und in Uniformen, so wie das in der Vergangenheit war. Man kann sich ja zur Vergewisserung, daß einen die Erinnerung nicht trügt, ein paar Videos von der Invasion Polens durch die deutsche Wehrmacht zu Beginn des zweiten Weltkriegs ansehen. Oder wenn einem das zu sehr an die Volksseele geht, vielleicht die Invasion der Alliierten an der Atlantikküste ein paar Jahre danach. Vielleicht hätte denen damals jemand sagen sollen, daß das alles viel einfacher geht, wenn man unbewaffnet und im T-Shirt kommt.
Nur: Warum es sich um Eroberer und Invasoren handeln soll, und nicht um das was es allem Anschein nach ist, nämlich Flüchtlinge, das begründet er nicht. Für mich sehen die Leute in seinen Videoschnipseln aus wie Flüchtlinge eben aussehen. Wenn es Invasoren sein sollten sind sie gut verkleidet.
Es ist auch keineswegs mysteriös warum die alle gerade im vergangenen Jahr bei uns angekommen sind. Alexander stellt sich hier weitaus dämlicher als er ist. Wer sich nur ein klein wenig informiert hat, für den war der steile Anstieg der Flüchtlinge im Sommer 2015 keine Überraschung. Das war eine Krise mit Ansage. Da sind einige Faktoren zusammen gekommen, die sich schon länger zusammengebraut haben, und das ist auch wohlbekannt:
Und was auch klar ist: Der Dammbruch gibt Trittbrettfahrern eine Gelegenheit, auf die sie gewartet haben. Auch hier stellt sich Alexander extra dumm, wenn er sich wundert warum aus dem Kosovo die Asylanträge 2015 in die Höhe geschnellt sind. Es ist völlig klar warum das so ist: Sie dachten die Gelegenheit ist günstig. Das mußte ihnen niemand einflüstern, da sind die schon ganz von selber drauf gekommen. Das hat auch nichts mit einer Invasion zu tun, sondern ist eine einfache Folge des Armutsgefälles zwischen dem Kosovo und der EU. Damit sich Leute zur Flucht aufmachen, müssen üblicherweise drei Dinge zusammen kommen:
Es ist auch nicht so daß ich das Gefühl hätte, mir wäre da von den Medien was verschwiegen worden. Ich bin immer recht problemlos an die Informationen heran gekommen, die mich interessiert haben. Daß Alexander sogar dunkle Machenschaften vermutet, bloß weil vom Bundesamt für Migration und Flüchtlinge in den Statistiken nur die Top Ten der Herkunftsländer explizit dargestellt sind, ist einesteils kurios, andererseits genau das was man bei Verschwörungstheoretikern regelmäßig beobachtet. Die sind ohne weiteres in der Lage, dunkle Machenschaften schon dann zu vermuten wenn es mal drei Tage hintereinander regnet (kann das noch Zufall sein? Hat nicht der Bundespräsident in Indien gesagt, Regen sei willkommen? Wollen vielleicht die Amerikaner unsere Agrarwirtschaft schädigen? Alles Fragen, auf die uns die Lügenpresse eine schlüssige Antwort verweigert!)
So habe ich es trotz angeblicher Lügenpresse geschafft, mir von Anfang an klar darüber zu sein daß die Flüchtlinge nicht bloß von Syrien kommen, sondern auch aus anderen Ländern wo Krieg und Elend herrschen. Und daß aus Syrien "nur" 20% der Asylanträge gekommen sind, wundert mich auch nicht wenn ich sehe, daß die von Alexander gezeigte Statistik vom Juni 2015 ist, wo es mit der Welle erst gerade richtig los ging, und viele neu angekommene Flüchtlinge noch nicht mal erfaßt waren, geschweige denn Gelegenheit hatten, einen Asylantrag zu stellen. Der explosive Anstieg in 2015 ist daher mit den Kriegen in Syrien, Irak, etc. und dem arabischen Frühling sehr wohl zu erklären, genauso wie der starke Anstieg in 1992 eindeutig mit dem Balkankrieg zu tun hatte. Alexander münzt seine eigene Unfähigkeit zum Denken in eine abstruse Verdächtigung um, das müsse deswegen so sein weil die Leute angelockt wurden, ja sogar daß Politiker das Aussterben der deutschen Bevölkerung wünschen würden. Beweis: Ein Ausspruch Gregor Gysi's, den Alexander "sinngemäß" verfälscht hat.
Daß ein Teil der Flüchtlinge tatsächlich vor Krieg und Zerstörung fliehen, räumt Alexander ein, aber nur um schon im nächsten Satz die "Vernichtungspolitik der USA und der EU" dafür verantwortlich zu machen. Sonst niemand. Keinen Assad, keinen IS, keine Taliban, keine Muslimbrüder, kein Al Quaida. Nur USA und EU. Soll heißen: Die USA und die EU vernichten den nahen Osten, damit von dort haufenweise Leute zu uns fliehen, und hier den Untergang des Abendlandes herbeiführen. Ja sie locken die Leute extra dafür hierher. Logisch?
Wenn man sowieso glaubt, daß hinter allem Bösen die USA stecken, und daß einzig den "Qualitätsmedien" aus Russland zu trauen ist, dann erscheint einem das vielleicht wirklich als logisch. Nur hat man dann das kritische Denken schon längst an der Garderobe abgegeben.
Wobei, der Gedanke hat ja durchaus etwas absurd-komisches: Die USA haben schon seit Jahrzehnten auf deutschem Boden jede Menge militärische Ausrüstung, bis hin zu Atomwaffen. Sie wollen die EU und insbesondere Deutschland destabilisieren oder gar vernichten. Da liegt es doch nahe, nicht wahr, daß sie eine andere Weltregion angreifen, nur damit dann von dort Leute hierher kommen und uns destabilisieren. Die Waffen direkt hier vor Ort einzusetzen, das wäre viel zu einfach, stimmt's? Da wäre ja der ganze Witz raus. Und ist nicht der nahe Osten die allerbeste Wahl als Angriffsziel? Man hätte ja auch Russland angreifen können, das hätte die EU auch destabilisiert. Aber das wäre nicht so schön chaotisch geworden wie im nahen Osten.
So gesehen ist so eine Verschwörungstheorie ganz lustig. Bzw. wäre lustig, wenn sie nicht so unendlich dumpf wäre: Die USA sind immer schuld. So einfach ist das.
Ich weiß es wird bei ihm nichts nützen, aber ich will es wenigstens nicht so aussehen lassen als hätte er damit recht.
esotroner verlinkt auf den Youtube-Kanal namens "Reconquista Germania" von einem Typen der sich Nikolai Alexander nennt, wo man Videos findet, die einem z.B. erklären, wer "wirklich" hinter der Flüchtlingswelle steckt (die US-Hochfinanz, z.B. George Soros). Das findet esotroner "absolut schlüssig".
Ich verstehe zwar nicht wie man solchen eindeutig demagogischen Machwerken auch nur einen Hauch von Schlüssigkeit attestieren kann, es sei denn man ist dem Wahn verfallen, aber ich will wie gesagt nicht so dastehen als hätte ich keine Fakten und Argumente auf meiner Seite. Also quäle ich mich durch diesen Scheißdreck, um ihn auseinander zu nehmen. Ich beziehe mich speziell auf das Video mit dem Titel "Wer steuert die Flüchtlingsinvasion?" vom 29. September 2015.
Alexander redet nicht lange darum herum: Er ist der Ansicht, bei der Flüchtlingswelle handle es sich um eine Invasion, bei einem guten Teil der Flüchtliche um Eroberer. Untermalt von Bildern von unbewaffneten, teils recht abgerissen wirkenden Zivilisten, die sich scharenweise in Marsch gesetzt haben, wirkt das unfreiwillig komisch. Invasionstruppen hatte ich mir bisher anders vorgestellt, mit Waffen und in Uniformen, so wie das in der Vergangenheit war. Man kann sich ja zur Vergewisserung, daß einen die Erinnerung nicht trügt, ein paar Videos von der Invasion Polens durch die deutsche Wehrmacht zu Beginn des zweiten Weltkriegs ansehen. Oder wenn einem das zu sehr an die Volksseele geht, vielleicht die Invasion der Alliierten an der Atlantikküste ein paar Jahre danach. Vielleicht hätte denen damals jemand sagen sollen, daß das alles viel einfacher geht, wenn man unbewaffnet und im T-Shirt kommt.
Nur: Warum es sich um Eroberer und Invasoren handeln soll, und nicht um das was es allem Anschein nach ist, nämlich Flüchtlinge, das begründet er nicht. Für mich sehen die Leute in seinen Videoschnipseln aus wie Flüchtlinge eben aussehen. Wenn es Invasoren sein sollten sind sie gut verkleidet.
Es ist auch keineswegs mysteriös warum die alle gerade im vergangenen Jahr bei uns angekommen sind. Alexander stellt sich hier weitaus dämlicher als er ist. Wer sich nur ein klein wenig informiert hat, für den war der steile Anstieg der Flüchtlinge im Sommer 2015 keine Überraschung. Das war eine Krise mit Ansage. Da sind einige Faktoren zusammen gekommen, die sich schon länger zusammengebraut haben, und das ist auch wohlbekannt:
- Die Flüchtlingslager um Syrien herum waren chronisch unterfinanziert, sogar die Essensrationen mußten von der UN wegen Unterfinanzierung zusammengestrichen werden. Die meisten Länder in der EU waren offensichtlich der Ansicht, das ginge sie nichts an, und die syrischen Nachbarstaaten würden das schon hinkriegen. Zudem hat der sich in die Länge ziehende Syrienkrieg dazu geführt, daß Leute, die zuerst dachten sie müßten nur ein paar Monate in Lagern in der Nähe überdauern, sich darauf einstellen mußten, daß sie auf unabsehbare Zeit nicht zurückkehren können. Da fängt man automatisch an, sich über Alternativen Gedanken zu machen, auch wenn sie gefährlich sind.
- Die Umwälzungen des arabischen Frühlings haben nicht bloß Syrien betroffen, sondern auch andere arabische Länder, und natürlich gab's aus allen betroffenen Ländern Leute mit gutem Grund zu fliehen. Jeder der auch nur ansatzweise versucht, sich in ihre Situation zu versetzen, wird das problemlos nachvollziehen können.
- Libyen hat zu Ghaddafi's Zeiten die Flüchtlinge aus Schwarzafrika noch zurückgehalten, die schon damals auf dem Weg nach Norden waren. Schon seit vielen Jahren befinden sich an der afrikanischen Mittelmeerküste zahlreiche Flüchtlinge, die auf ihre Chance warten, nach Europa zu kommen, und denen es auch immer wieder gelingt. Siehe z.B. die Grenzbefestigungen der spanischen Exklaven in Marokko: Ceuta und Melilla. Mit der Beseitigung des unterdrückerischen Ghaddafi-Regimes eröffnete sich ihnen eine neue Möglichkeit über das Mittelmeer.
- Wo eine Nachfrage nach Schleusern ist, da entwickelt sich auch ein Angebot. Wer weiß wie viel Geld die Leute für eine Schleusung bezahlen, der braucht keine Theorien mehr zu entwickeln welche Hochfinanz oder welches Establishment die Flucht finanziert haben könnte. Es sind die Flüchtlinge selbst. Und es ist ein einträgliches Geschäft.
- Wo immer sich ein funktionierender Fluchtweg zu ergeben scheint, wird er sich in Windeseile herumsprechen. Dafür sorgen schon die Schleuser und die moderne Telekommunikation. Und die Schleuser werden im Interesse ihres Geschäfts alle möglichen Versprechungen machen, aus denen dann natürlich Erwartungshaltungen werden, mit denen wir uns hier herumschlagen müssen. Ist das so überraschend?
- Das EU-Flüchtlingssystem (Dublin in seinen diversen Stufen) war untauglich für solch einen Andrang. Das war ebenfalls im Vorhinein klar und ist von Institutionen, die sich damit auskennen, auch so vorhergesagt worden. Konkret hätte Italien einen großen Teil der Lasten zu tragen gehabt, denn dessen Boden betraten die Flüchtlinge zuerst, die aus den Booten gerettet wurden. Es ist absolut verständlich, daß Italien das als unfair empfinden, und bei ausbleibender Solidarität irgendwann hintertreiben würde. Ich erinnere an die Aktion "Mare Nostrum", die Italien selbst finanziert hat, und die dann von der EU-Operation "Triton" ersetzt wurde, die aber weniger als ein Drittel der Mittel erhielt, und keine Seenotrettung auf hoher See mehr vorsah.
- Die unverantwortliche und unwirksame EU-Flüchtlingspolitik hat in immer größerem Ausmaß EU-Bürger mobiliziert, die es unerträglich und inhuman fanden, die Flüchtlinge in großer Zahl im Mittelmeer umkommen zu lassen. Besonders nachdem immer deutlicher wurde, daß die EU bzw. deren Mitgliedstaaten eher daran interessiert waren, die Flüchtlinge fernzuhalten, und ihren Tod im Mittelmeer in Kauf zu nehmen, anstatt wirksam gegen die Fluchtursachen und/oder die Fluchtgefahren vorzugehen.
Und was auch klar ist: Der Dammbruch gibt Trittbrettfahrern eine Gelegenheit, auf die sie gewartet haben. Auch hier stellt sich Alexander extra dumm, wenn er sich wundert warum aus dem Kosovo die Asylanträge 2015 in die Höhe geschnellt sind. Es ist völlig klar warum das so ist: Sie dachten die Gelegenheit ist günstig. Das mußte ihnen niemand einflüstern, da sind die schon ganz von selber drauf gekommen. Das hat auch nichts mit einer Invasion zu tun, sondern ist eine einfache Folge des Armutsgefälles zwischen dem Kosovo und der EU. Damit sich Leute zur Flucht aufmachen, müssen üblicherweise drei Dinge zusammen kommen:
- Prekäre Verhältnisse
- Mangelnde Hoffnung, daß sich diese bald bessern werden
- Eine Gelegenheit, bzw. eine Hoffnung auf eine solche, anderswo in der Welt.
Es ist auch nicht so daß ich das Gefühl hätte, mir wäre da von den Medien was verschwiegen worden. Ich bin immer recht problemlos an die Informationen heran gekommen, die mich interessiert haben. Daß Alexander sogar dunkle Machenschaften vermutet, bloß weil vom Bundesamt für Migration und Flüchtlinge in den Statistiken nur die Top Ten der Herkunftsländer explizit dargestellt sind, ist einesteils kurios, andererseits genau das was man bei Verschwörungstheoretikern regelmäßig beobachtet. Die sind ohne weiteres in der Lage, dunkle Machenschaften schon dann zu vermuten wenn es mal drei Tage hintereinander regnet (kann das noch Zufall sein? Hat nicht der Bundespräsident in Indien gesagt, Regen sei willkommen? Wollen vielleicht die Amerikaner unsere Agrarwirtschaft schädigen? Alles Fragen, auf die uns die Lügenpresse eine schlüssige Antwort verweigert!)
So habe ich es trotz angeblicher Lügenpresse geschafft, mir von Anfang an klar darüber zu sein daß die Flüchtlinge nicht bloß von Syrien kommen, sondern auch aus anderen Ländern wo Krieg und Elend herrschen. Und daß aus Syrien "nur" 20% der Asylanträge gekommen sind, wundert mich auch nicht wenn ich sehe, daß die von Alexander gezeigte Statistik vom Juni 2015 ist, wo es mit der Welle erst gerade richtig los ging, und viele neu angekommene Flüchtlinge noch nicht mal erfaßt waren, geschweige denn Gelegenheit hatten, einen Asylantrag zu stellen. Der explosive Anstieg in 2015 ist daher mit den Kriegen in Syrien, Irak, etc. und dem arabischen Frühling sehr wohl zu erklären, genauso wie der starke Anstieg in 1992 eindeutig mit dem Balkankrieg zu tun hatte. Alexander münzt seine eigene Unfähigkeit zum Denken in eine abstruse Verdächtigung um, das müsse deswegen so sein weil die Leute angelockt wurden, ja sogar daß Politiker das Aussterben der deutschen Bevölkerung wünschen würden. Beweis: Ein Ausspruch Gregor Gysi's, den Alexander "sinngemäß" verfälscht hat.
Daß ein Teil der Flüchtlinge tatsächlich vor Krieg und Zerstörung fliehen, räumt Alexander ein, aber nur um schon im nächsten Satz die "Vernichtungspolitik der USA und der EU" dafür verantwortlich zu machen. Sonst niemand. Keinen Assad, keinen IS, keine Taliban, keine Muslimbrüder, kein Al Quaida. Nur USA und EU. Soll heißen: Die USA und die EU vernichten den nahen Osten, damit von dort haufenweise Leute zu uns fliehen, und hier den Untergang des Abendlandes herbeiführen. Ja sie locken die Leute extra dafür hierher. Logisch?
Wenn man sowieso glaubt, daß hinter allem Bösen die USA stecken, und daß einzig den "Qualitätsmedien" aus Russland zu trauen ist, dann erscheint einem das vielleicht wirklich als logisch. Nur hat man dann das kritische Denken schon längst an der Garderobe abgegeben.
Wobei, der Gedanke hat ja durchaus etwas absurd-komisches: Die USA haben schon seit Jahrzehnten auf deutschem Boden jede Menge militärische Ausrüstung, bis hin zu Atomwaffen. Sie wollen die EU und insbesondere Deutschland destabilisieren oder gar vernichten. Da liegt es doch nahe, nicht wahr, daß sie eine andere Weltregion angreifen, nur damit dann von dort Leute hierher kommen und uns destabilisieren. Die Waffen direkt hier vor Ort einzusetzen, das wäre viel zu einfach, stimmt's? Da wäre ja der ganze Witz raus. Und ist nicht der nahe Osten die allerbeste Wahl als Angriffsziel? Man hätte ja auch Russland angreifen können, das hätte die EU auch destabilisiert. Aber das wäre nicht so schön chaotisch geworden wie im nahen Osten.
So gesehen ist so eine Verschwörungstheorie ganz lustig. Bzw. wäre lustig, wenn sie nicht so unendlich dumpf wäre: Die USA sind immer schuld. So einfach ist das.
Sonntag, 18. September 2016
Wahrheit ist von vorgestern
Die Frage "Was ist Wahrheit?" ist der berühmteste Spruch des Pontius Pilatus in der Bibel, womit eine klassische philosophische Frage mindestens einmal in die Nähe des Zynismus gerückt wird, schließlich geht es in der Geschichte um eine Hinrichtung. Heutzutage scheint diese Frage aus der Mode gekommen zu sein, die aktuelle Frage scheint zu lauten: "Wozu überhaupt Wahrheit?"
Nun stand die Wahrheit schon seit dem Altertum nicht allzu hoch im Kurs, wenn es um "Realpolitik" geht. Es ist ja geradezu ein Kennzeichen von Realpolitik, wenn man es mit der Wahrheit nicht so genau nimmt, und eher nach der machtpolitischen Zweckmäßigkeit fragt. Das klingt negativ, geradezu unmoralisch, und Pontius Pilatus wurde demzufolge auch oft als Negativbeispiel eines Bösewichtes dargestellt, aber man kann es natürlich auch ganz anders sehen. So wie z.B. Machiavelli, der in seinem "Fürst" Folgendes schrieb:
Er empfiehlt daher einem Herrscher, je nach Notwendigkeit moralisch oder unmoralisch zu handeln. Das ist geradezu die Definition von Realpolitik. So gesehen hat Pilatus korrekt gehandelt. Er hatte es mit genug Aufrührern zu tun, und angebliche Messiasse gab es damals in Palästina im Dutzend billiger, da konnte es nicht schaden sich einiger davon zu entledigen, wenn das die Chance bot etwas Ruhe in die aufgeheizte Lage zu bringen. Er könnte sich gedacht haben: Lieber jetzt einen von ihnen hinrichten als ein Jahr später tausend Aufrührer militärisch niederschlagen zu müssen.
Auch Machiavelli lebte in unruhigen und gewalttätigen Zeiten, und seine Ratschläge an die Herrschenden sind vor diesem Hintergrund zu verstehen. Er wollte nicht einem Despoten dabei helfen die Bevölkerung zu tyrannisieren, sondern er wollte daß jemand gewinnt damit wieder friedliche Verhältnisse eintreten können, und nicht immer wieder kriegerische Horden über's Land ziehen und die Bevölkerung übel zurichten. Auch wenn das mit unmoralischen Mitteln einher geht ist's doch recht wenn dabei Frieden dabei heraus kommt. Wie das ausgehen kann wenn ein religiös inspirierter Prophet eine Art Gottesstaat errichtet, in dem quasi per Definition alles höchst moralisch zugeht, weil göttlich, konnte er am Beispiel seines Zeitgenossen Savonarola studieren, der nach wenigen Jahren auf dem Scheiterhaufen starb.
An solchen geschichtlichen Beispielen fällt einem unwillkürlich auf, wie es doch immer wieder aus den gleichen Gründen schief geht. Lernen aus früheren Fehlern scheint auch heute nicht in hohem Kurs zu stehen.
In den Zeiten von Pilatus braute sich unter den Juden ein religiöser Exzess zusammen, der nach Jesus erst so richtig Fahrt aufnahm, obwohl seine Anfänge schon vor Jesus zurück reichten. Die Zeloten insbesondere waren eine zunehmend militante, von Messias-Vorstellungen inspirierte Gruppe, die irgendwann dazu überging, Leute am hellichten Tag auf öffentlichen Plätzen abzustechen. Das mündete schließlich im Jüdischen Krieg, der mit der Zerstörung Jerusalems und des dortigen Tempels im Jahr 70 endete, ein gräßliches Blutbad. Eine Gruppe von Aufständischen verschanzte sich noch zwei Jahre länger auf der Festung Massada, bevor sie angesichts der bevorstehenden römischen Eroberung der Festung kollektiven Selbstmord begingen.
60 Jahre später ging's noch einmal los: Der Bar Kochba Aufstand brach aus. In Jerusalem hatten sich drei konkurrierende jüdische Fraktionen religiöser Eiferer verschanzt, und bekriegten sich noch gegenseitig, als schon die Römer die Belagerung vorbereiteten. Dabei sollen die Rebellen sogar gezielt die eigenen Nahrungsvorräte vernichtet haben, damit sie nicht einer konkurrierenden Fraktion in die Hände fallen. Das Ende war ein erneutes Blutbad, und im Ergebnis waren die Juden 500 Jahre lang aus Jerusalem verbannt, außer an einem Tag im Jahr an dem sie den Verlust ihres Tempels beklagen durften. Erst mit der Eroberung Jerusalems durch die muslimischen Araber im Jahr 637 änderte sich das wieder, und die Juden durften zurück nach Jerusalem.
Das Beispiel Savonarolas zeigt, daß das gleiche Prinzip auch bei den Christen wirkte, wobei man in der Geschichte des Christentums noch viele andere, schlimmere Beispiele finden kann. Man braucht eigentlich nur die Kreuzzüge zu erwähnen, die ja noch heute in den Köpfen sowohl einiger Moslems als auch einiger Christen herumspuken. Mit denen wollten die Christen das rückgängig machen, was im Jahr 637 passiert war. Genauso blutig wie erfolglos.
Wenn es heute die Moslems sind, die mit solchen Vorstellungen vom Gottesstaat letztlich doch wieder nur ein Blutbad nach dem anderen anrichten, so sieht man daran vor dem ganzen geschichtlichen Hintergrund eigentlich nur, daß sich die verschiedenen Religionen in dieser Hinsicht nicht viel schenken. Einmal bricht der Wahnsinn bei den einen aus, einmal bei den anderen. Immer wieder sind es endzeitliche Phantasien, sei es nun das Kommen eines Messias, oder ein herbeigesehnter "jüngster Tag", oder was auch immer: Es hat sich noch jedesmal herausgestellt, wenn man in den rauchenden Trümmern der zerstörten Städte steht und der Rausch ein Ende gefunden hat, daß es doch keine Erlösung gegeben hat, und sich die Welt einfach weiter dreht, allen Leichen und aller Zerstörung ungeachtet.
Was das nun mit Wahrheit zu tun hat? Nun, es sind Beispiele für deren Abwesenheit. Wo das Wunschdenken Amok läuft ist die Wahrheit unwillkommen. Wenn man sich vom Leben nichts mehr erwartet und die Endzeit herbeisehnt erst recht.
Und es scheint sehr viele Leute zu geben, die sich nichts mehr vom Leben erhoffen. Anders ist ihr Verhalten nicht zu erklären. Es geht mir dabei nicht bloß um die Leute, die sich freiwillig um einer fixen Idee willen in die Luft sprengen oder sich anderswie unter Mitnahme möglichst vieler "Ungläubigen" um die Ecke bringen. Es geht mir auch um diejenigen, die unverantwortlichen Populisten zujubeln, von denen sie ganz genau wissen, daß sie lügen, sobald sie den Mund aufmachen. Das tut man nur dann, wenn man denkt, es könne ohnehin nicht mehr schlechter werden als es schon ist, und deswegen eine Lust verspürt, hemmungslos auf die Kacke zu hauen, bevor dann unvermeidlicherweise alles in die Binsen geht.
Oder kann mir jemand einen anderen Grund nennen, warum man Populisten wie Donald Trump oder den Clowns von der englischen UKIP auch dann noch zujubelt, wenn ihre dreisten Lügen auch für den letzten Idioten offensichtlich geworden sind? Das kann doch nur eins bedeuten: Die Anhänger dieser Leute wissen daß das alles Lügen sind - und es ist ihnen egal. Es geht nicht darum was stimmt und was nicht. Es geht nur darum wer sich darüber aufregt. So lange sich das "Establishment" oder die "versifften Linken" darüber aufregen, lohnt sich auch noch die schwachsinnigste Lüge. Daß die halbe Welt an Trump's Erfolg verzweifelt, daß die EU durch den Brexit in Not gerät, daß die "Gutmenschen" geschockt sind, wieviel schierer Egoismus und Rassismus ihnen ins Gesicht schlägt: Alles geil, genau diesen Schockeffekt will man haben. Auf die Kacke hauen, je mehr es spritzt desto besser.
Irgendeine Verantwortung für das Danach hat man ja nicht, denn man rechnet nicht damit daß es ein Danach geben wird, wo man dann wieder mit den Leuten zu tun hat, die man zuvor mit voller Absicht zur Weißglut gebracht hat. Trump z.B. gibt sich alle Mühe, möglichst vielen Leuten auf den Schlips zu treten mit denen er als Präsident wieder irgendwie auskommen müßte. Man kann sich nicht recht vorstellen, daß er überhaupt ernsthaft Präsident werden will, denn auf diese Art macht er sich seinen womöglich zukünftigen Job praktisch unmöglich.
Kein Wunder, daß das auch die Theorie von Michael Moore ist: Trump wollte nie Präsident werden. Er dachte ohnehin nicht, daß er so weit kommen würde. Das Ganze war eher ein Publicity-Stunt, um ihm bessere Chancen auf einen guten Deal mit dem Fernsehen zu verschaffen. Er hat keinen Plan für den Fall daß er gewählt wird. Man hat eher den Eindruck, daß er sich alle Mühe gibt, so viele Leute wie möglich zu beleidigen, damit er nicht gewählt wird, was ihm paradoxerweise gerade zu mehr Popularität verhilft.
Den gleichen Eindruck gewinnt man im Fall des Brexit-Referendums: Die Brexit-Wahlkämpfer haben an ihren Erfolg selber nicht geglaubt. Für diesen Fall hatten sie keinerlei Plan. Deswegen haben sie sich erst einmal verpisst, als sie wider erwarten gewonnen hatten. Es ging gar nicht um's Gewinnen, sondern darum, dem Establishment an den Karren zu fahren, mit so viel Schmackes wie möglich, damit's ordentlich scheppert. Egal welcher Schaden dabei entsteht. Deswegen hat man auch hemmungslos gelogen, denn das provoziert am besten - vor allem wenn jedem klar ist daß es eine Lüge ist. Daß man hinterher irgendwie Verantwortung übernehmen soll, und den Weg aus dem Schlamassel weisen soll, welches man angerichtet hat, kam in den Überlegungen offenbar nicht vor.
Es gibt keinen Grund, zu glauben es würde anderswo, z.B. hier in Deutschland mit der AfD, oder bei den Franzosen mit der Front National, anders laufen. Die funktionieren alle nach dem gleichen Prinzip. Sie sind auf ihren eigenen Erfolg nicht vorbereitet, denn sie haben keinen positiven, konstruktiven Plan für "Danach". Sie würden sich im Fall des Falles darüber intern heillos zerstreiten, wenn das nicht sowieso schon der Fall sein sollte, außer es setzt sich eine einzige Person durch, die dem Ganzen ihren Weg aufzwingen kann. Ihr ganzer Erfolg beruht auf zwei Faktoren:
Eine Kolonie auf einem anderen Planeten wird so schnell nicht fertig sein...
Oder sollen wir uns doch lieber an Machiavelli halten, und die hehren Prinzipien fahren lassen und uns möglichst klug und effektiv ins allgemeine Hauen und Stechen stürzen, mit dem Ziel am Ende die Oberhand zu behalten, wenn genug Blut geflossen ist?
Nun stand die Wahrheit schon seit dem Altertum nicht allzu hoch im Kurs, wenn es um "Realpolitik" geht. Es ist ja geradezu ein Kennzeichen von Realpolitik, wenn man es mit der Wahrheit nicht so genau nimmt, und eher nach der machtpolitischen Zweckmäßigkeit fragt. Das klingt negativ, geradezu unmoralisch, und Pontius Pilatus wurde demzufolge auch oft als Negativbeispiel eines Bösewichtes dargestellt, aber man kann es natürlich auch ganz anders sehen. So wie z.B. Machiavelli, der in seinem "Fürst" Folgendes schrieb:
"Da es aber meine Absicht ist, etwas Nützliches für den zu schreiben, der es versteht, schien es mir angemessener, der Wirklichkeit der Dinge nachzugehen als den bloßen Vorstellungen über sie. [...] denn es liegt eine so große Entfernung zwischen dem Leben, wie es ist, und dem Leben, wie es sein sollte, daß derjenige, welcher das, was geschieht, unbeachtet läßt zugunsten dessen, was geschehen sollte, dadurch eher seinen Untergang als seine Erhaltung betreibt."
Er empfiehlt daher einem Herrscher, je nach Notwendigkeit moralisch oder unmoralisch zu handeln. Das ist geradezu die Definition von Realpolitik. So gesehen hat Pilatus korrekt gehandelt. Er hatte es mit genug Aufrührern zu tun, und angebliche Messiasse gab es damals in Palästina im Dutzend billiger, da konnte es nicht schaden sich einiger davon zu entledigen, wenn das die Chance bot etwas Ruhe in die aufgeheizte Lage zu bringen. Er könnte sich gedacht haben: Lieber jetzt einen von ihnen hinrichten als ein Jahr später tausend Aufrührer militärisch niederschlagen zu müssen.
Auch Machiavelli lebte in unruhigen und gewalttätigen Zeiten, und seine Ratschläge an die Herrschenden sind vor diesem Hintergrund zu verstehen. Er wollte nicht einem Despoten dabei helfen die Bevölkerung zu tyrannisieren, sondern er wollte daß jemand gewinnt damit wieder friedliche Verhältnisse eintreten können, und nicht immer wieder kriegerische Horden über's Land ziehen und die Bevölkerung übel zurichten. Auch wenn das mit unmoralischen Mitteln einher geht ist's doch recht wenn dabei Frieden dabei heraus kommt. Wie das ausgehen kann wenn ein religiös inspirierter Prophet eine Art Gottesstaat errichtet, in dem quasi per Definition alles höchst moralisch zugeht, weil göttlich, konnte er am Beispiel seines Zeitgenossen Savonarola studieren, der nach wenigen Jahren auf dem Scheiterhaufen starb.
An solchen geschichtlichen Beispielen fällt einem unwillkürlich auf, wie es doch immer wieder aus den gleichen Gründen schief geht. Lernen aus früheren Fehlern scheint auch heute nicht in hohem Kurs zu stehen.
In den Zeiten von Pilatus braute sich unter den Juden ein religiöser Exzess zusammen, der nach Jesus erst so richtig Fahrt aufnahm, obwohl seine Anfänge schon vor Jesus zurück reichten. Die Zeloten insbesondere waren eine zunehmend militante, von Messias-Vorstellungen inspirierte Gruppe, die irgendwann dazu überging, Leute am hellichten Tag auf öffentlichen Plätzen abzustechen. Das mündete schließlich im Jüdischen Krieg, der mit der Zerstörung Jerusalems und des dortigen Tempels im Jahr 70 endete, ein gräßliches Blutbad. Eine Gruppe von Aufständischen verschanzte sich noch zwei Jahre länger auf der Festung Massada, bevor sie angesichts der bevorstehenden römischen Eroberung der Festung kollektiven Selbstmord begingen.
60 Jahre später ging's noch einmal los: Der Bar Kochba Aufstand brach aus. In Jerusalem hatten sich drei konkurrierende jüdische Fraktionen religiöser Eiferer verschanzt, und bekriegten sich noch gegenseitig, als schon die Römer die Belagerung vorbereiteten. Dabei sollen die Rebellen sogar gezielt die eigenen Nahrungsvorräte vernichtet haben, damit sie nicht einer konkurrierenden Fraktion in die Hände fallen. Das Ende war ein erneutes Blutbad, und im Ergebnis waren die Juden 500 Jahre lang aus Jerusalem verbannt, außer an einem Tag im Jahr an dem sie den Verlust ihres Tempels beklagen durften. Erst mit der Eroberung Jerusalems durch die muslimischen Araber im Jahr 637 änderte sich das wieder, und die Juden durften zurück nach Jerusalem.
Das Beispiel Savonarolas zeigt, daß das gleiche Prinzip auch bei den Christen wirkte, wobei man in der Geschichte des Christentums noch viele andere, schlimmere Beispiele finden kann. Man braucht eigentlich nur die Kreuzzüge zu erwähnen, die ja noch heute in den Köpfen sowohl einiger Moslems als auch einiger Christen herumspuken. Mit denen wollten die Christen das rückgängig machen, was im Jahr 637 passiert war. Genauso blutig wie erfolglos.
Wenn es heute die Moslems sind, die mit solchen Vorstellungen vom Gottesstaat letztlich doch wieder nur ein Blutbad nach dem anderen anrichten, so sieht man daran vor dem ganzen geschichtlichen Hintergrund eigentlich nur, daß sich die verschiedenen Religionen in dieser Hinsicht nicht viel schenken. Einmal bricht der Wahnsinn bei den einen aus, einmal bei den anderen. Immer wieder sind es endzeitliche Phantasien, sei es nun das Kommen eines Messias, oder ein herbeigesehnter "jüngster Tag", oder was auch immer: Es hat sich noch jedesmal herausgestellt, wenn man in den rauchenden Trümmern der zerstörten Städte steht und der Rausch ein Ende gefunden hat, daß es doch keine Erlösung gegeben hat, und sich die Welt einfach weiter dreht, allen Leichen und aller Zerstörung ungeachtet.
Was das nun mit Wahrheit zu tun hat? Nun, es sind Beispiele für deren Abwesenheit. Wo das Wunschdenken Amok läuft ist die Wahrheit unwillkommen. Wenn man sich vom Leben nichts mehr erwartet und die Endzeit herbeisehnt erst recht.
Und es scheint sehr viele Leute zu geben, die sich nichts mehr vom Leben erhoffen. Anders ist ihr Verhalten nicht zu erklären. Es geht mir dabei nicht bloß um die Leute, die sich freiwillig um einer fixen Idee willen in die Luft sprengen oder sich anderswie unter Mitnahme möglichst vieler "Ungläubigen" um die Ecke bringen. Es geht mir auch um diejenigen, die unverantwortlichen Populisten zujubeln, von denen sie ganz genau wissen, daß sie lügen, sobald sie den Mund aufmachen. Das tut man nur dann, wenn man denkt, es könne ohnehin nicht mehr schlechter werden als es schon ist, und deswegen eine Lust verspürt, hemmungslos auf die Kacke zu hauen, bevor dann unvermeidlicherweise alles in die Binsen geht.
Oder kann mir jemand einen anderen Grund nennen, warum man Populisten wie Donald Trump oder den Clowns von der englischen UKIP auch dann noch zujubelt, wenn ihre dreisten Lügen auch für den letzten Idioten offensichtlich geworden sind? Das kann doch nur eins bedeuten: Die Anhänger dieser Leute wissen daß das alles Lügen sind - und es ist ihnen egal. Es geht nicht darum was stimmt und was nicht. Es geht nur darum wer sich darüber aufregt. So lange sich das "Establishment" oder die "versifften Linken" darüber aufregen, lohnt sich auch noch die schwachsinnigste Lüge. Daß die halbe Welt an Trump's Erfolg verzweifelt, daß die EU durch den Brexit in Not gerät, daß die "Gutmenschen" geschockt sind, wieviel schierer Egoismus und Rassismus ihnen ins Gesicht schlägt: Alles geil, genau diesen Schockeffekt will man haben. Auf die Kacke hauen, je mehr es spritzt desto besser.
Irgendeine Verantwortung für das Danach hat man ja nicht, denn man rechnet nicht damit daß es ein Danach geben wird, wo man dann wieder mit den Leuten zu tun hat, die man zuvor mit voller Absicht zur Weißglut gebracht hat. Trump z.B. gibt sich alle Mühe, möglichst vielen Leuten auf den Schlips zu treten mit denen er als Präsident wieder irgendwie auskommen müßte. Man kann sich nicht recht vorstellen, daß er überhaupt ernsthaft Präsident werden will, denn auf diese Art macht er sich seinen womöglich zukünftigen Job praktisch unmöglich.
Kein Wunder, daß das auch die Theorie von Michael Moore ist: Trump wollte nie Präsident werden. Er dachte ohnehin nicht, daß er so weit kommen würde. Das Ganze war eher ein Publicity-Stunt, um ihm bessere Chancen auf einen guten Deal mit dem Fernsehen zu verschaffen. Er hat keinen Plan für den Fall daß er gewählt wird. Man hat eher den Eindruck, daß er sich alle Mühe gibt, so viele Leute wie möglich zu beleidigen, damit er nicht gewählt wird, was ihm paradoxerweise gerade zu mehr Popularität verhilft.
Den gleichen Eindruck gewinnt man im Fall des Brexit-Referendums: Die Brexit-Wahlkämpfer haben an ihren Erfolg selber nicht geglaubt. Für diesen Fall hatten sie keinerlei Plan. Deswegen haben sie sich erst einmal verpisst, als sie wider erwarten gewonnen hatten. Es ging gar nicht um's Gewinnen, sondern darum, dem Establishment an den Karren zu fahren, mit so viel Schmackes wie möglich, damit's ordentlich scheppert. Egal welcher Schaden dabei entsteht. Deswegen hat man auch hemmungslos gelogen, denn das provoziert am besten - vor allem wenn jedem klar ist daß es eine Lüge ist. Daß man hinterher irgendwie Verantwortung übernehmen soll, und den Weg aus dem Schlamassel weisen soll, welches man angerichtet hat, kam in den Überlegungen offenbar nicht vor.
Es gibt keinen Grund, zu glauben es würde anderswo, z.B. hier in Deutschland mit der AfD, oder bei den Franzosen mit der Front National, anders laufen. Die funktionieren alle nach dem gleichen Prinzip. Sie sind auf ihren eigenen Erfolg nicht vorbereitet, denn sie haben keinen positiven, konstruktiven Plan für "Danach". Sie würden sich im Fall des Falles darüber intern heillos zerstreiten, wenn das nicht sowieso schon der Fall sein sollte, außer es setzt sich eine einzige Person durch, die dem Ganzen ihren Weg aufzwingen kann. Ihr ganzer Erfolg beruht auf zwei Faktoren:
- Einer Bevölkerungsschicht, die keine positiven Erwartungen an die Zukunft hat, und deswegen keine Hemmungen hat, destruktiv zu sein. Die nicht glaubt, in der gegebenen Lage irgend etwas wirklich verschlechtern zu können, und darum auch keine Verantwortung verspürt. Die im Gegenteil glaubt, je heftiger es kracht, desto eher kann daraus etwas Positives, Neues entstehen.
- Ein verbliebenes Verantwortungsbewußtsein bei einem anderen Teil der Bevölkerung, der als das "Establishment" wahrgenommen wird. Dieses kann man herausfordern, verspotten, und letztlich zur Geisel nehmen. Je mehr sich die dagegen sträuben, ihre Verantwortung und ihre Menschlichkeit preiszugeben, desto mehr hat man sie am Nasenring und kann sie quälen. Es ist der gleiche Trick wie bei einem pubertären Teenager, der durch seine demonstrativ zelebrierte Verantwortungslosigkeit seine Eltern zur Weißglut treibt, wohl wissend daß sie ihn im Ernstfall nicht hängen lassen werden.
Eine Kolonie auf einem anderen Planeten wird so schnell nicht fertig sein...
Oder sollen wir uns doch lieber an Machiavelli halten, und die hehren Prinzipien fahren lassen und uns möglichst klug und effektiv ins allgemeine Hauen und Stechen stürzen, mit dem Ziel am Ende die Oberhand zu behalten, wenn genug Blut geflossen ist?
Sonntag, 21. August 2016
FAQ Rauschen
Was wäre angemessener, als das Sommerloch mit Rauschen zu füllen? Ein ideales Thema für einen neuen FAQ-Artikel (Fix Abgehandelter Quatsch), meine ich.
Rauschen, was für ein langweiliges Thema, höre ich Euch stöhnen, was gibt's da groß zu erzählen?
Wartet's ab. Wie so oft ist das ein Thema, das umso interessanter und vielfältiger wird, je tiefer man einsteigt. Rauschen taucht bei Audio immer wieder auf, denn es ist unausweichliche physikalische Realität, die gemessen, bewertet, erklärt und nach Möglichkeit in Grenzen gehalten sein will.
Was ist Rauschen eigentlich?
Verdammt gute Frage! Hier geht's schon los mit der Komplexität.
Im engeren Sinn ist es ein Signal, das durch Zufallsprozesse erzeugt wird. Durch die chaotische, thermische Bewegung von Gasmolekülen zum Beispiel. Die trommeln gegen die Membran im Ohr, und das erzeugt ein Rauschsignal, wenn auch ein sehr leises. Die chaotische Bewegung des Wassers in einem Wasserfall erzeugt ebenfalls ein Rauschsignal, bloß wesentlich lauter.
Im weiteren Sinn wird das Wort auch im Sinne von "Geräusch" benutzt, besonders im Englischen, wo das Wort "Noise" beide Bedeutungen abdeckt. Dazu gehören dann auch Signalarten, die nicht so zufällig sind, aber ebensowenig dem Nutzsignal zuzurechnen sind. Ein im Hintergrund vorbei fahrender Zug produziert ein Signal, das weitgehend aus Rauschen besteht, aber auch aus ein paar weniger zufälligen Komponenten, wie z.B. das Rattern von Rädern bzw. Stoßstellen der Schienen, und manchmal auch das typische Gekreische von Bremsen.
Es ist ein fließender Übergang zwischen dem eher gleichmäßigen Rauschen im engeren Sinn, und dem gesamten Geräusch im weiteren Sinn, das auch die weniger zufälligen Teile umfaßt. Oft wird unterschieden zwischen dem gewollten Signal (Nutzsignal) und dem ungewollen Signal (Störsignal), wobei beim Störsignal nochmal unterschieden wird zwischen denjenigen störenden Anteilen, die mit dem Nutzsignal zusammen hängen (Verzerrungen) und den "eigentlichen" Störungen, die vom Nutzsignal unabhängig sind. Bei den Verzerrungen kann man weiter unterscheiden zwischen den harmonischen Verzerrungen und den unharmonischen Verzerrungen, die beide dieselbe Ursache haben können, aber sich anders auswirken. Die vom Nutzsignal unabhängigen Störungen schließlich unterteilen sich in zufällige Störungen, also Rauschen in der einen oder anderen Form, und systematische Störungen, die eine bestimmte Regelmäßigkeit haben, z.B. Brummen aus der Netzstromversorgung.
Ich verstehe unter Rauschen eher dieses gleichmäßige Wasserfallgeräusch. Wieso zählst Du diese ganzen anderen Sachen ebenfalls dazu?
Das bin nicht ich, das kommt aus der Praxis. Und zum Teil auch aus dem Englischen, wo wie gesagt die Begriffsbedeutung etwas allgemeiner ist. Wenn man z.B. von "Signal to Noise" redet, auf Deutsch "Rauschabstand", dann meint man meist den Unterschied in der Stärke zwischen dem Nutzsignal und den Störungen, wovon das Rauschen im engeren Sinn nur ein Teil von mehreren ist. Eigentlich müsste man korrekterweise von "Störabstand" reden, aber der englische Begriff "Noise" wird oft etwas sorglos eingedeutscht, was begriffliche Mißverständnisse hervorrufen kann.
Es gibt eigentlich auch eine ziemlich klar definierte deutsche Begriffsdefinition, die man vor Jahrzehnten mal genormt hat, aber die scheint in der Praxis wenig bekannt zu sein und ist auch gegenüber den englischen Begriffen ins Hintertreffen geraten, so daß man sich ggf. genauer ansehen muß, welche Begriffsbedeutung man unterstellen kann, wenn man irgendwo etwas über Rauschen liest.
Also ich lese immer wieder was von "Rauschteppich", von "SNR", von "THD+N", von Rauschabstand oder auch vom "dynamic range". Scheint alles irgendwie ähnlich zu sein, und doch wieder anders. Wie ist das zu verstehen?
Da stecken wieder diese unterschiedlichen Arten von Störung drin, deshalb muß man das einzeln aufdröseln.
Nehmen wir zuerst mal den Begriff "SNR" (Signal to Noise Ratio). Als "Noise" wird in diesem Fall alles genommen, was nicht mit dem Signal zusammen hängt. Verzerrungen zählen also nicht dazu, systematische Störungen wie z.B. Brumm dagegen schon. Die Messung ist recht einfach: Man mißt die Stärke des Gesamtsignals bei eingeschaltetem Nutzsignal, und schaltet dann das Nutzsignal ab und mißt nochmal. Das Verhältnis zwischen den beiden Messungen ergibt den SNR-Wert, den man meist in dB angibt. Wenn man das Nutzsignal abschaltet, dann verschwindet nicht nur das Signal selbst, sondern auch seine Verzerrungsprodukte. Übrig bleibt all das, was mit dem Nutzsignal nichts zu tun hat.
Bei THD+N ist das anders, denn da bildet man das Verhältnis zwischen der Stärke des Gesamtsignals mit Nutzsignal und allen Störungen, und dem gleichen Signal, bei dem man das Nutzsignal herausgefiltert hat. Genau genommen ist das Verhältnis anders herum, die Störungen werden zum Gesamtsignal ins Verhältnis gesetzt, weswegen hier eine negative dB-Zahl heraus kommt, während sie bei SNR positiv ist (Wer sich wundert, wieso das Umdrehen eines Verhältnisses das Vorzeichen bei der dB-Rechnung umkehrt, der sollte seine Kenntnisse in Logarithmen auffrischen, auf denen die dB-Rechnung beruht). Der Effekt ist, daß hier auch die vom Nutzsignal abhängigen Störungen, also die Verzerrungen, mit zur Störung gerechnet werden. In der Praxis ist also der THD+N-Wert meist schlechter als der SNR-Wert. Der Unterschied geht auf das Konto der Verzerrungen.
Wie gesagt handelt es sich im Falle von SNR und THD+N um Verhältnisse zwischen zwei Messungen, weshalb dabei als "Einheit" einfach dB heraus kommen. Es wird eine Messung gemacht mit dem Nutzsignal, und eine ohne das Nutzsignal. Bei SNR wird das Nutzsignal abgeschaltet, bei THD+N nachträglich herausgefiltert. Beidesmal spielt für das Messergebnis eine wesentliche Rolle, wie stark das Nutzsignal bei der Messung gewählt wird. Für die korrekte Interpretation der Ergebnisse muß das bekannt sein.
Wenn ich Angaben über THD+N oder über SNR lese, steht so etwas aber oft nicht dabei.
Das ist ein Problem. Man wird aber in solchen Fällen meist davon ausgehen können, daß ein Hersteller diejenigen Messbedingungen wählt, die den größten Zahlenwert bei der Messung ergeben. Er will ja möglichst gut da stehen. Bei der SNR ist das etwas gefährlicher, weil die Verzerrungen nicht ins Messergebnis eingehen, also könnte der Hersteller ein derart starkes Nutzsignal wählen, daß schon erhebliche Verzerrungen auftreten. Das wäre geschummelt. Bei THD+N würde das den Messwert verschlechtern, also muss man mit dem Nutzsignal so weit zurück gehen, daß die Verzerrungen minimal werden.
Ist dann nicht THD+N grundsätzlich die sinnvollere Messung?
Nicht unbedingt. Es kommt darauf an was man wissen will. Wenn man wissen will, wie stark das Hintergrundgeräusch ist, das man ja bei vorhandenem Nutzsignal meist gar nicht hört, weil es überdeckt wird, dann hilft einem THD+N nichts. Wenn man dagegen wissen will, wie originalgetreu ein Signal wiedergegeben wird, dann liegt man mit THD+N besser, denn es beinhaltet alle Arten von Störung.
Woher weiß ich denn, ob die Messbedingungen, die der Hersteller für die Messung gewählt hat, mit den realen Bedingungen im praktischen Betrieb vergleichbar sind?
Du kannst leider oft davon ausgehen, daß sie es nicht sind, es sei denn die Messbedingungen sind angegeben. Der Hersteller will oft die bestmöglichen Zahlenwerte herauskitzeln, und nicht die bestmögliche Praxisrelevanz.
Nimm als Beispiel einen normalen Vollverstärker. THD+N wird da oft am kleinsten, wenn man in die Nähe der Vollaussteuerung kommt, also an dem Punkt an dem der Verstärker gerade noch keine Begrenzungserscheinungen zeigt. Das ist sehr laut, in den allermeisten Fällen weitaus lauter als im Normalbetrieb. Im Normalbetrieb kommt man oft nicht über 1 Watt Ausgangsleistung hinaus, wenn die Lautstärke im üblichen Rahmen bleiben soll. Eigentlich würde der THD+N-Wert bei dieser Betriebssituation eher interessieren, und wäre dann auch eher zwischen verschiedenen Verstärkern vergleichbar. Ähnlich geht das Argument bei SNR, denn wenn man daraus ermitteln will, welcher Verstärker in der Praxis mehr rauscht, dann interessiert weniger der Abstand zwischen dem absolut lautesten Signal und der Lautstärke des Rauschens, sondern eher die Lautstärke des Rauschens als solche.
Ein wenig besser sieht's aus, wenn die Norm angegeben ist, nach der man mißt, denn dort sind die Messbedingungen genannt. Das Problem für den Anwender ist dann aber, daß er die Norm nicht hat und teuer kaufen müßte. Schlimmer noch, es gibt diverse unterschiedliche Normierungsgremien und demzufolge viele Normen. Da gibt es AES, DIN, EIA, IEC, SMPTE etc., und es werden sogar teilweise immer noch Normen benutzt, die schon seit Jahrzehnten außer Kraft sind. Wenn der eine Hersteller nach der einen Norm mißt, und der andere nach einer anderen, dann müßte man sich schon zwei Normen besorgen, nur um dann vielleicht festzustellen, daß die Werte nicht miteinander vergleichbar sind.
Wie mißt man denn die Lautstärke des Rauschens als solche? Ist das der "Rauschteppich"?
Da gibt's auch wieder diverse Varianten. Der Begriff des Rauschteppichs ist dabei eher bildlich und hat mit einer Messung nichts zu tun. Das Bild kommt vielleicht von den FFT-Diagrammen, wo man einen Signalpegel als Kurve über der Frequenz aufträgt. Rauschen sieht dort wie eine unruhige Grundlinie aus, wie eine Wiese oder ein Teppich von der Seite betrachtet.
Im Grunde will man wissen, ob dieser Teppich höher oder tiefer auf dem Diagramm zu liegen kommt, je höher desto lauter. Das ist aber erst einmal nur eine qualitative Aussage. Eine quantitative Messung wird daraus erst durch eine Reihe von Festlegungen bei der Messung.
Will man das Rauschen mit einer einzelnen Zahl charakterisieren, so muß man festlegen, mit welcher Bandbreite man mißt bzw. welche Bewertungskurve man verwendet, und mit welchem Detektor. Eine korrekte Angabe wäre z.B.: Rauschen unbewertet 20 Hz .. 20 kHz (-3 dB), effektiv. Das Ergebnis gibt man z.B. in dBV an, wenn man Rauschspannungen mißt, z.B. am Ausgang eines Verstärkers.
Eine unbewertete Messung behandelt alle Rauschfrequenzen innerhalb der Messbandbreite gleich. Außerhalb der Messbandbreite werden sie unterdrückt. In aller Regel interessiert man sich nur für die Rauschfrequenzen im hörbaren Bereich, eine Bandbegrenzung von 20 Hz .. 20 kHz (oder so ähnlich) ist daher bei Audio üblich für solche Messungen.
Nun ist aber das Gehör nicht für alle Frequenzen gleich empfindlich, speziell dann nicht, wenn es um eher leise Signale geht, was für Hintergrundrauschen ja hoffentlich der Fall ist. Da sind wir wieder bei den berühmten Fletcher-Munson-Kurven. Eine unbewertete Messung wird also kein Ergebnis liefern, was ungefähr dem menschlichen Lautheitsempfinden entspricht. Man begegnet dem durch die Verwendung von Bewertungsfiltern, deren Kurvenverlauf so gestaltet ist, daß sie die "Badewannenkurve" von Fletcher-Munson in etwa kompensieren. Also die Badewanne auf den Kopf gestellt. Im Ergebnis wird die Messung für tiefe und besonders hohe Frequenzen sehr unempfindlich, für mittlere Frequenzen aber besonders empfindlich. Damit liefert der Messwert eine bessere Annäherung an das menschliche Lautheitsempfinden.
Es gibt zwei verbreitete Bewertungsfilter für das Messen von Hintergrundrauschen im Audio-Bereich (den Telefon-Bereich nehme ich hier einmal aus, dort gibt's andere Filterkurven). Eines ist unter dem Namen A-Bewertung bekannt und ist von der IEC genormt. Ein zweites ist als CCIR-468 bekannt (obwohl das CCIR schon längst in der ITU aufgegangen ist). Andere Bewertungen haben sich nicht auf breiter Front durchsetzen können. Diese Filterkurven beinhalten eine Bandbegrenzung, so daß man bei deren Verwendung keine ausdrücklichen Angaben zur Bandbreite zu machen braucht. Messungen mit solchen Bewertungsfiltern werden auch "psophometrisch" genannt, ein entsprechendes Messgerät heißt "Psophometer". Ein Psophometer ist also ein Messgerät zur "gehörrichtigen" Messung von Hintergrundrauschen. Früher wurde das als eigenständiges Gerät verkauft, heutzutage ist es eine Softwarefunktion in einem Audio-Analysator.
Das ist ja schon mal recht kompliziert. Und was ist mit den Detektoren?
Das kommt als Variable noch dazu. Da es sich bei unserem Signal um ein Wechselspannungssignal aus unterschiedlichsten Frequenzen dreht, bei dem sich die momentane Spannung dauernd ändert, braucht man für eine halbwegs stabile Messung einen Detektor, der dieses Chaos "ausmittelt" und eine ruhige Anzeige ermöglicht. Es gibt eigentlich drei prinzipielle Alternativen: Mittelwert, Effektivwert und Spitzenwert. Der Mittelwert-Detektor mittelt die Spannung über die Zeit (genauer: den Betrag der Spannung). Der Effektivwert-Detektor mittelt die Leistung über die Zeit (in der Praxis wird meist das Quadrat der Spannung gemittelt, und vom Ergebnis die Wurzel gezogen, worauf der englische Begriff RMS hindeutet -- Root Mean Square). Der Spitzenwert-Detektor folgt den Signalspitzen, entweder einseitig oder besser beidseitig.
In der Praxis haben solche Detektoren noch eine "Ballistik", das heißt eine Reaktionsgeschwindigkeit. Je schneller sie ist, desto mehr folgt die Anzeige dem Signal, desto unruhiger wird sie aber auch. Man strebt daher einen Kompromiß zwischen Ablesbarkeit, Meßzeit und Meßgenauigkeit an. Die genaue Charakteristik solcher Detektoren ist Gegenstand der Normung. Es sollte klar sein, daß die Wahl des Detektors das Meßergebnis beeinflußt, daß man also Meßergebnisse nicht ohne weiteres vergleichen kann, wenn sie mit unterschiedlichen Detektoren ermittelt wurden.
Na super, das sind ja schon einmal dutzende Kombinationsmöglichkeiten. Das Schöne an Normen ist, daß es so viele davon gibt. Und was nimmt man jetzt in der Praxis?
Wie ich oben schon mal schrieb: Es kommt darauf an was man wissen will.
Die erste grundsätzliche Entscheidung ist die, ob man gehörrichtig messen will oder nicht, also ob einen eher die elektrische Situation interessiert, ohne Bezug zu dem was davon hörbar ist, oder ob es eben darum geht, die vom Menschen empfundene Lautstärke des Rauschens zu ermitteln, also quasi den störenden Effekt des Rauschens. Das ist die Entscheidung, ob man gewichtet mißt oder ungewichtet.
Wenn man sich für eine ungewichtete Messung entschieden hat, ist damit unmittelbar klar, daß das Ergebnis mit dem Höreindruck nur wenig zu tun haben wird. Der Messwert wird also kaum als Argument in einer Klangdiskussion taugen. Dafür kann man daran eher erkennen, wie sauber der elektronische Signalpfad ist. Zum Beispiel geht ein Brummen ungeschwächt in das Messergebnis ein. Ähnlich sieht es bei sehr hochfrequenten Störfrequenzen aus, die auch dann noch ins Messergebnis eingehen, wenn sie schon nicht mehr hörbar sind. Immer vorausgesetzt, die Störfrequenzen sind innerhalb der Messbandbreite. Diese Messbandbreite ist die zweite Entscheidung, die man zu fällen hat.
Eine gewichtete Messung ist dagegen für Brummen recht unempfindlich, und auch für hochfrequente Störungen. Wie eben auch das menschliche Gehör. Deswegen korrelliert ein Messergebnis aus einer gewichteten Messung erheblich besser mit dem Höreindruck, und taugt folglich auch eher in einer Diskussion um den Klangeinfluß einer Komponente.
Hat man sich für eine gewichtete Messung entschieden, gibt es eigentlich nur zwei in Frage kommende Alternativen: Entweder man mißt A-bewertet mit Effektivwert-Detektor, oder CCIR-bewertet mit Quasi-Spitzenwert-Detektor. Das sind die dominierenden Kombinationen, auch wenn man natürlich auch andere Möglichkeiten hätte. Das "Quasi" bei der zweiten Alternative drückt aus, daß es sich nicht um einen reinen Spitzenwertdetektor handelt, sondern um eine speziell angepasste Variante, deren ballistische Eigenschaften auch nach den Eigenschaften des Gehörs gestaltet sind, denn das Gehör selbst hat ebenfalls eine Art Detektorverhalten bei der Bewertung von Hintergrundgeräusch, dem man sich anzunähern versucht.
Man kann also davon ausgehen, daß die CCIR-Methode noch näher an den Eigenschaften des Gehörs liegt, besonders für Störungen, die nicht nur aus gleichmäßigem Rauschen bestehen. Das CCIR-Verfahren wäre damit die erste Wahl, wenn nicht schlechtere Zahlenwerte dabei heraus kämen als bei der A-bewerteten Messung. Das läßt die CCIR-Wertung auf dem Papier schlechter da stehen, was beim Marketing unpopulär ist. Die Firma Dolby, die sich mit Marketing bestens auskennt, hat daher mal eine weitere Bewertungskurve in die Normierungs-Diskussion gebracht, die im Grunde gleich wie die CCIR-Kurve aussieht, bloß mit verschobenem Maßstab, so daß bessere Zahlenwerte heraus kommen, die gegenüber einer Messung mit A-Bewertung nicht schlecht aussehen. Das hat sich aber nicht durchgesetzt.
Falls Ihr also gehörrichtig messen wollt, und Marketingüberlegungen in Richtung Schwanzlängenvergleich nicht dominant sind, dann würde ich zur CCIR-Methode greifen. Wenn sich alle Messenden an die Regeln gehalten haben, dann kann man am Ergebnis tatsächlich erkennen, welcher Kandidat hörbar weniger Hintergrundgeräusch erzeugt als die anderen.
Wer sich für die ganze Geschichte und die Details dieses recht komplexen Themas interessiert, dem lege ich die Webseite des Australiers Robin Whittle ans Herz, falls Ihr mit Englisch keine Schwierigkeiten habt.
Uff, das war eine ziemliche Dosis! Und das alles für die Messung einer einzigen Zahl. Wieso ist das eigentlich so kompliziert? Wenn ich eine Spannung mit dem Multimeter messe ist das doch ganz einfach!
Das kommt daher, daß das Rauschen ein komplizierteres Signal ist als ein Sinussignal, und auch daher, daß das menschliche Gehör so komplizierte Eigenschaften hat.
Rauschen ist schon dann kompliziert, wenn es sich gleichmäßig anhört. Der einfachste Fall ist da das weiße Rauschen, in dem alle Frequenzen gleichermaßen vertreten sind. Das entspricht oft nicht der Realität, wo die Rauschanteile oft nach Frequenz unterschiedlich sind. Im allgemeineren Fall kommen da noch weitere Störsignale hinzu, die nicht mehr als Rauschen im engeren Sinn gelten können, sondern auf deutsch eher Geräusch genannt würden. Das alles läßt Rauschen zu einem komplizierten Signal werden.
Darin liegt z.B. die Ursache dafür, daß die Messbandbreite eine solche Rolle spielt. Wenn ich ein Sinussignal messe, z.B. eines mit 1 kHz Frequenz, dann ist die Messbandbreite des Messgerätes so gut wie egal, Hauptsache die 1 kHz liegen innerhalb des Bereichs. Dann ist das Messergebnis davon unabhängig. Man könnte ganz schmalbandig messen, und nur Frequenzen in unmittelbarer Nähe von 1 kHz zulassen, oder man könnte breitbandig messen, z.B. mit 20 Hz .. 20 kHz, es käme dasselbe Ergebnis heraus, so lange keinen nennenswerten Störsignale vorhanden sind.
Ganz anders beim Rauschen. Da hier alle Frequenzen vertreten sind, hängt das Messergebnis direkt davon ab, welche Frequenzen man berücksichtigt, und welche man wegfiltert. Je schmalbandiger man mißt, desto weniger kommt durch, und desto niedriger der Messwert.
Das heißt dann wohl, daß man durch schmalbandiges Messen gezielt Störsignale und Rauschen ausblenden kann, wenn man die Stärke eines Sinussignals messen will, stimmt's?
Ganz recht! Die Wahl der passenden Bandbreite ist nicht bloß beim Messen, sondern auch bei allen Kommunikationstechniken grundlegend. Man will möglichst wenig gestört werden, um seine Nachricht möglichst unverfälscht zu empfangen. Also schneidet man alles weg, was nicht zur Nachricht gehört. Wenn das Nutzsignal sehr schmalbandig ist, also im Idealfall eine einzige Frequenz, dann kann man durch entsprechend schmalbandige Filter beim Empfang oder bei der Messung eine optimale Empfindlichkeit erreichen. Damit einher geht auch eine entsprechende Reduktion des Rauschens.
Da der Pegel des Rauschens mit der Meßbandbreite zusammen hängt, bietet es sich an, ein Rauschmaß einzuführen, welches so mit der Bandbreite verrechnet ist, daß man die sich ergebenen Werte je nach Messbandbreite daraus ausrechnen kann. Dieses Maß ist die Rauschdichte. Man kann gedanklich den ganzen Frequenzbereich in einzelne schmale Scheiben zerschneiden, z.B. könnte jede Scheibe einen Bereich von 1 Hz umfassen. Die Messbandbreite von 20 Hz .. 20 kHz würde dann in 19980 solche Scheiben aufgeteilt. Der Energieerhaltungssatz legt nahe, daß sich die Gesamtleistung des Rauschens aus der Summe der Leistungen in jeder Scheibe zusammen setzt. Das heißt, in jeder Scheibe findet man nur einen Bruchteil der Gesamtleistung des Rauschens. Diesen Bruchteil, also die Rauschleistung pro Frequenzeinheit, nennt man Rauschdichte. Bei weißem Rauschen ist die Rauschdichte in jeder Scheibe gleich, sie ist also über die Frequenz konstant. Kennt man die Rauschdichte, dann kann man die gesamte Rauschleistung für jede Bandbreite berechnen.
Ist dann die Kurve, die man bei FFT-Messungen sieht, diese Rauschdichte, über die Frequenz aufgetragen?
Nein, nicht ganz. Die FFT macht genau das was ich oben beschrieb: Sie teilt den Frequenzbereich in Scheiben (engl. bins), und berechnet in jeder Scheibe den zugehörigen Leistungs- oder Spannungswert. Die "Dicke" der Scheiben, also die Frequenzspanne, die eine Scheibe repräsentiert, ergibt sich durch die Anzahl der Punkte der FFT, in Kombination mit der Abtastrate. Bei einer Abtastrate von 48 kHz und einer Punktezahl von 24000 würde sich genau 1 Hz pro Scheibe ergeben. Dann hätte man die Rauschdichte. Bei anderen Punktezahlen ergeben sich aber entweder dickere oder dünnere Scheiben, so daß kleinere oder größere Leistungswerte heraus kommen. Das führt dazu, daß mit steigender Punktezahl der FFT das gleiche Rauschsignal eine immer tiefer liegende Linie auf dem Diagramm bewirkt. Auf so einem Diagramm rutscht der Rauschteppich bei jeder Verdopplung der Punktezahl der FFT um 3dB nach unten.
Warum kompensiert man das nicht heraus, indem man den Maßstab um 3 dB verschiebt?
Weil das dann für Sinussignale nicht mehr stimmen würde. Ein Sinussignal mit z.B. der Frequenz 1 kHz fällt ja immer in eine Scheibe, egal ob die nun dicker oder dünner ist. Wenn ich nun bei einer Verdopplung der Punktezahl der FFT den Maßstab um 3dB verschieben würde, dann wäre zwar der scheinbare Rauschteppich auf der gleichen Höhe geblieben, aber die Spitze, die zum Sinussignal gehört, wäre um 3 dB höher geworden, obwohl sich am Signal nichts geändert hat. Das wäre noch verwirrender.
Es hilft nichts: Man muß bei Rauschbetrachtungen per FFT die Abtastrate und die Punktezahl der FFT kennen, sonst kann man keine vernünftigen Aussagen machen. Das heißt man muß diese 3dB-Regel bei Punkteverdopplung kennen und berücksichtigen.
Das heißt das "Gras" in so einer FFT-Kurve ist gar nicht der echte Rauschteppich?
Nein, dem Pegel nach nicht. Das Aussehen ist zwar so, aber die konkreten Zahlenwerte stimmen nicht. Unter dem Rauschteppich versteht man normalerweise die Gesamtheit des Rauschens in einem Frequenzbereich, was letztlich auf eine breitbandige Messung hinaus läuft, während die vielen "bins" bei einer FFT eine schmalbandige Messung darstellen, die ganz andere Werte ergibt. Man könnte aus dem FFT-Bild den Pegel des Rauschteppichs dadurch berechnen, daß man die in jeder Scheibe gemessene Rauschleistung addiert, und zwar für alle Scheiben, die zur gewünschten Bandbreite dazu gehören.
Es ist aber eine gute Gelegenheit für irreführendes Marketing: Mache eine möglichst hochauflösende FFT (mit möglichst vielen Punkten), dann verschiebt sich der dargestellte "scheinbare" Rauschteppich nach unten, und der Kunde wird glauben das Produkt sei besser.
OK, so langsam ist meine Informationsverarbeitungsfähigkeit an der Grenze. Eins fehlt aber noch: "Dynamic Range". Wie passt das ins Bild?
Das ist im Grunde das gleiche wie SNR, wenn man den maximal möglichen Signalpegel zur Messung nimmt. Erinnere Dich daß die SNR-Messung eine Verhältnis-Bildung zweier Messungen darstellt, eine mit Nutzsignal und eine ohne. Die Stärke des Nutzsignals ist bei SNR erst einmal undefiniert, und muß nicht unbedingt die maximal mögliche sein. Je nach Meßvorschrift kann es sich auch um einen Nennpegel handeln, oberhalb dessen durchaus noch einiger "Headroom" besteht.
Beim Begriff "Dynamic Range" wird dagegen immer mit dem maximal möglichen Pegel beim Nutzsignal gearbeitet, bei dem noch keine nennenswerten Verzerrungen auftreten. Wieviele Verzerrungen die Grenze darstellen, muß festgelegt sein.
Die Werte für SNR sind also entweder gleich oder schlechter als die Werte für den Dynamic Range, je nachdem welchen Referenzpegel man für die SNR-Messung benutzt, bzw. wieviel Headroom man bei der SNR-Messung läßt. Man könnte auch sagen: Dynamic Range = SNR + Headroom.
Während man bei einer SNR-Messung erwarten würde, daß der Referenzpegel explizit angegeben wird, würde man bei einer Angabe des Dynamic Range erwarten, daß angegeben wird, mit welchem maximalen Klirr man gemessen hat.
Bei digitalen Systemen wird in aller Regel das maximal verzerrungsfrei darstellbare Sinussignal als Referenz verwendet (0dBFS). Man nimmt dabei statt 1 kHz oft eine Frequenz von 997 Hz, damit die Signalfrequenz und die Abtastfrequenz prim zueinander sind. Bei reinen Digitalsystemen ergibt sich die Dynamik direkt aus der Wortlänge in Bit, lediglich die Wahl des Dither kann hier noch einen (kleinen) Einfluß haben. Die Tatsache, daß die Bitanzahl einem Rauschabstand entspricht, führt zu ENOB als Maß (Effective Number Of Bits), was aber letztlich nur eine andere Darstellung der gleichen Information bedeutet.
Gut, das reicht. Haste noch ein paar Literaturhinweise, für später wenn mein Kanal wieder aufnahmefähig ist?
Probier's mal mit diesem Tutorial, das ein bißchen A/D-Wandler, bzw. D/A-Wandler-zentriert ist.
Auch nicht schlecht ist das Papier von David Mathew, und natürlich die Informationssammlung des verstorbenen Eberhard Sengpiel. Der verweist auf diverse Wikipedia-Artikel, was ich hier aus Faulheitsgründen nicht gemacht habe.
Rauschen, was für ein langweiliges Thema, höre ich Euch stöhnen, was gibt's da groß zu erzählen?
Wartet's ab. Wie so oft ist das ein Thema, das umso interessanter und vielfältiger wird, je tiefer man einsteigt. Rauschen taucht bei Audio immer wieder auf, denn es ist unausweichliche physikalische Realität, die gemessen, bewertet, erklärt und nach Möglichkeit in Grenzen gehalten sein will.
Was ist Rauschen eigentlich?
Verdammt gute Frage! Hier geht's schon los mit der Komplexität.
Im engeren Sinn ist es ein Signal, das durch Zufallsprozesse erzeugt wird. Durch die chaotische, thermische Bewegung von Gasmolekülen zum Beispiel. Die trommeln gegen die Membran im Ohr, und das erzeugt ein Rauschsignal, wenn auch ein sehr leises. Die chaotische Bewegung des Wassers in einem Wasserfall erzeugt ebenfalls ein Rauschsignal, bloß wesentlich lauter.
Im weiteren Sinn wird das Wort auch im Sinne von "Geräusch" benutzt, besonders im Englischen, wo das Wort "Noise" beide Bedeutungen abdeckt. Dazu gehören dann auch Signalarten, die nicht so zufällig sind, aber ebensowenig dem Nutzsignal zuzurechnen sind. Ein im Hintergrund vorbei fahrender Zug produziert ein Signal, das weitgehend aus Rauschen besteht, aber auch aus ein paar weniger zufälligen Komponenten, wie z.B. das Rattern von Rädern bzw. Stoßstellen der Schienen, und manchmal auch das typische Gekreische von Bremsen.
Es ist ein fließender Übergang zwischen dem eher gleichmäßigen Rauschen im engeren Sinn, und dem gesamten Geräusch im weiteren Sinn, das auch die weniger zufälligen Teile umfaßt. Oft wird unterschieden zwischen dem gewollten Signal (Nutzsignal) und dem ungewollen Signal (Störsignal), wobei beim Störsignal nochmal unterschieden wird zwischen denjenigen störenden Anteilen, die mit dem Nutzsignal zusammen hängen (Verzerrungen) und den "eigentlichen" Störungen, die vom Nutzsignal unabhängig sind. Bei den Verzerrungen kann man weiter unterscheiden zwischen den harmonischen Verzerrungen und den unharmonischen Verzerrungen, die beide dieselbe Ursache haben können, aber sich anders auswirken. Die vom Nutzsignal unabhängigen Störungen schließlich unterteilen sich in zufällige Störungen, also Rauschen in der einen oder anderen Form, und systematische Störungen, die eine bestimmte Regelmäßigkeit haben, z.B. Brummen aus der Netzstromversorgung.
Ich verstehe unter Rauschen eher dieses gleichmäßige Wasserfallgeräusch. Wieso zählst Du diese ganzen anderen Sachen ebenfalls dazu?
Das bin nicht ich, das kommt aus der Praxis. Und zum Teil auch aus dem Englischen, wo wie gesagt die Begriffsbedeutung etwas allgemeiner ist. Wenn man z.B. von "Signal to Noise" redet, auf Deutsch "Rauschabstand", dann meint man meist den Unterschied in der Stärke zwischen dem Nutzsignal und den Störungen, wovon das Rauschen im engeren Sinn nur ein Teil von mehreren ist. Eigentlich müsste man korrekterweise von "Störabstand" reden, aber der englische Begriff "Noise" wird oft etwas sorglos eingedeutscht, was begriffliche Mißverständnisse hervorrufen kann.
Es gibt eigentlich auch eine ziemlich klar definierte deutsche Begriffsdefinition, die man vor Jahrzehnten mal genormt hat, aber die scheint in der Praxis wenig bekannt zu sein und ist auch gegenüber den englischen Begriffen ins Hintertreffen geraten, so daß man sich ggf. genauer ansehen muß, welche Begriffsbedeutung man unterstellen kann, wenn man irgendwo etwas über Rauschen liest.
Also ich lese immer wieder was von "Rauschteppich", von "SNR", von "THD+N", von Rauschabstand oder auch vom "dynamic range". Scheint alles irgendwie ähnlich zu sein, und doch wieder anders. Wie ist das zu verstehen?
Da stecken wieder diese unterschiedlichen Arten von Störung drin, deshalb muß man das einzeln aufdröseln.
Nehmen wir zuerst mal den Begriff "SNR" (Signal to Noise Ratio). Als "Noise" wird in diesem Fall alles genommen, was nicht mit dem Signal zusammen hängt. Verzerrungen zählen also nicht dazu, systematische Störungen wie z.B. Brumm dagegen schon. Die Messung ist recht einfach: Man mißt die Stärke des Gesamtsignals bei eingeschaltetem Nutzsignal, und schaltet dann das Nutzsignal ab und mißt nochmal. Das Verhältnis zwischen den beiden Messungen ergibt den SNR-Wert, den man meist in dB angibt. Wenn man das Nutzsignal abschaltet, dann verschwindet nicht nur das Signal selbst, sondern auch seine Verzerrungsprodukte. Übrig bleibt all das, was mit dem Nutzsignal nichts zu tun hat.
Bei THD+N ist das anders, denn da bildet man das Verhältnis zwischen der Stärke des Gesamtsignals mit Nutzsignal und allen Störungen, und dem gleichen Signal, bei dem man das Nutzsignal herausgefiltert hat. Genau genommen ist das Verhältnis anders herum, die Störungen werden zum Gesamtsignal ins Verhältnis gesetzt, weswegen hier eine negative dB-Zahl heraus kommt, während sie bei SNR positiv ist (Wer sich wundert, wieso das Umdrehen eines Verhältnisses das Vorzeichen bei der dB-Rechnung umkehrt, der sollte seine Kenntnisse in Logarithmen auffrischen, auf denen die dB-Rechnung beruht). Der Effekt ist, daß hier auch die vom Nutzsignal abhängigen Störungen, also die Verzerrungen, mit zur Störung gerechnet werden. In der Praxis ist also der THD+N-Wert meist schlechter als der SNR-Wert. Der Unterschied geht auf das Konto der Verzerrungen.
Wie gesagt handelt es sich im Falle von SNR und THD+N um Verhältnisse zwischen zwei Messungen, weshalb dabei als "Einheit" einfach dB heraus kommen. Es wird eine Messung gemacht mit dem Nutzsignal, und eine ohne das Nutzsignal. Bei SNR wird das Nutzsignal abgeschaltet, bei THD+N nachträglich herausgefiltert. Beidesmal spielt für das Messergebnis eine wesentliche Rolle, wie stark das Nutzsignal bei der Messung gewählt wird. Für die korrekte Interpretation der Ergebnisse muß das bekannt sein.
Wenn ich Angaben über THD+N oder über SNR lese, steht so etwas aber oft nicht dabei.
Das ist ein Problem. Man wird aber in solchen Fällen meist davon ausgehen können, daß ein Hersteller diejenigen Messbedingungen wählt, die den größten Zahlenwert bei der Messung ergeben. Er will ja möglichst gut da stehen. Bei der SNR ist das etwas gefährlicher, weil die Verzerrungen nicht ins Messergebnis eingehen, also könnte der Hersteller ein derart starkes Nutzsignal wählen, daß schon erhebliche Verzerrungen auftreten. Das wäre geschummelt. Bei THD+N würde das den Messwert verschlechtern, also muss man mit dem Nutzsignal so weit zurück gehen, daß die Verzerrungen minimal werden.
Ist dann nicht THD+N grundsätzlich die sinnvollere Messung?
Nicht unbedingt. Es kommt darauf an was man wissen will. Wenn man wissen will, wie stark das Hintergrundgeräusch ist, das man ja bei vorhandenem Nutzsignal meist gar nicht hört, weil es überdeckt wird, dann hilft einem THD+N nichts. Wenn man dagegen wissen will, wie originalgetreu ein Signal wiedergegeben wird, dann liegt man mit THD+N besser, denn es beinhaltet alle Arten von Störung.
Woher weiß ich denn, ob die Messbedingungen, die der Hersteller für die Messung gewählt hat, mit den realen Bedingungen im praktischen Betrieb vergleichbar sind?
Du kannst leider oft davon ausgehen, daß sie es nicht sind, es sei denn die Messbedingungen sind angegeben. Der Hersteller will oft die bestmöglichen Zahlenwerte herauskitzeln, und nicht die bestmögliche Praxisrelevanz.
Nimm als Beispiel einen normalen Vollverstärker. THD+N wird da oft am kleinsten, wenn man in die Nähe der Vollaussteuerung kommt, also an dem Punkt an dem der Verstärker gerade noch keine Begrenzungserscheinungen zeigt. Das ist sehr laut, in den allermeisten Fällen weitaus lauter als im Normalbetrieb. Im Normalbetrieb kommt man oft nicht über 1 Watt Ausgangsleistung hinaus, wenn die Lautstärke im üblichen Rahmen bleiben soll. Eigentlich würde der THD+N-Wert bei dieser Betriebssituation eher interessieren, und wäre dann auch eher zwischen verschiedenen Verstärkern vergleichbar. Ähnlich geht das Argument bei SNR, denn wenn man daraus ermitteln will, welcher Verstärker in der Praxis mehr rauscht, dann interessiert weniger der Abstand zwischen dem absolut lautesten Signal und der Lautstärke des Rauschens, sondern eher die Lautstärke des Rauschens als solche.
Ein wenig besser sieht's aus, wenn die Norm angegeben ist, nach der man mißt, denn dort sind die Messbedingungen genannt. Das Problem für den Anwender ist dann aber, daß er die Norm nicht hat und teuer kaufen müßte. Schlimmer noch, es gibt diverse unterschiedliche Normierungsgremien und demzufolge viele Normen. Da gibt es AES, DIN, EIA, IEC, SMPTE etc., und es werden sogar teilweise immer noch Normen benutzt, die schon seit Jahrzehnten außer Kraft sind. Wenn der eine Hersteller nach der einen Norm mißt, und der andere nach einer anderen, dann müßte man sich schon zwei Normen besorgen, nur um dann vielleicht festzustellen, daß die Werte nicht miteinander vergleichbar sind.
Wie mißt man denn die Lautstärke des Rauschens als solche? Ist das der "Rauschteppich"?
Da gibt's auch wieder diverse Varianten. Der Begriff des Rauschteppichs ist dabei eher bildlich und hat mit einer Messung nichts zu tun. Das Bild kommt vielleicht von den FFT-Diagrammen, wo man einen Signalpegel als Kurve über der Frequenz aufträgt. Rauschen sieht dort wie eine unruhige Grundlinie aus, wie eine Wiese oder ein Teppich von der Seite betrachtet.
Im Grunde will man wissen, ob dieser Teppich höher oder tiefer auf dem Diagramm zu liegen kommt, je höher desto lauter. Das ist aber erst einmal nur eine qualitative Aussage. Eine quantitative Messung wird daraus erst durch eine Reihe von Festlegungen bei der Messung.
Will man das Rauschen mit einer einzelnen Zahl charakterisieren, so muß man festlegen, mit welcher Bandbreite man mißt bzw. welche Bewertungskurve man verwendet, und mit welchem Detektor. Eine korrekte Angabe wäre z.B.: Rauschen unbewertet 20 Hz .. 20 kHz (-3 dB), effektiv. Das Ergebnis gibt man z.B. in dBV an, wenn man Rauschspannungen mißt, z.B. am Ausgang eines Verstärkers.
Eine unbewertete Messung behandelt alle Rauschfrequenzen innerhalb der Messbandbreite gleich. Außerhalb der Messbandbreite werden sie unterdrückt. In aller Regel interessiert man sich nur für die Rauschfrequenzen im hörbaren Bereich, eine Bandbegrenzung von 20 Hz .. 20 kHz (oder so ähnlich) ist daher bei Audio üblich für solche Messungen.
Nun ist aber das Gehör nicht für alle Frequenzen gleich empfindlich, speziell dann nicht, wenn es um eher leise Signale geht, was für Hintergrundrauschen ja hoffentlich der Fall ist. Da sind wir wieder bei den berühmten Fletcher-Munson-Kurven. Eine unbewertete Messung wird also kein Ergebnis liefern, was ungefähr dem menschlichen Lautheitsempfinden entspricht. Man begegnet dem durch die Verwendung von Bewertungsfiltern, deren Kurvenverlauf so gestaltet ist, daß sie die "Badewannenkurve" von Fletcher-Munson in etwa kompensieren. Also die Badewanne auf den Kopf gestellt. Im Ergebnis wird die Messung für tiefe und besonders hohe Frequenzen sehr unempfindlich, für mittlere Frequenzen aber besonders empfindlich. Damit liefert der Messwert eine bessere Annäherung an das menschliche Lautheitsempfinden.
Es gibt zwei verbreitete Bewertungsfilter für das Messen von Hintergrundrauschen im Audio-Bereich (den Telefon-Bereich nehme ich hier einmal aus, dort gibt's andere Filterkurven). Eines ist unter dem Namen A-Bewertung bekannt und ist von der IEC genormt. Ein zweites ist als CCIR-468 bekannt (obwohl das CCIR schon längst in der ITU aufgegangen ist). Andere Bewertungen haben sich nicht auf breiter Front durchsetzen können. Diese Filterkurven beinhalten eine Bandbegrenzung, so daß man bei deren Verwendung keine ausdrücklichen Angaben zur Bandbreite zu machen braucht. Messungen mit solchen Bewertungsfiltern werden auch "psophometrisch" genannt, ein entsprechendes Messgerät heißt "Psophometer". Ein Psophometer ist also ein Messgerät zur "gehörrichtigen" Messung von Hintergrundrauschen. Früher wurde das als eigenständiges Gerät verkauft, heutzutage ist es eine Softwarefunktion in einem Audio-Analysator.
Das ist ja schon mal recht kompliziert. Und was ist mit den Detektoren?
Das kommt als Variable noch dazu. Da es sich bei unserem Signal um ein Wechselspannungssignal aus unterschiedlichsten Frequenzen dreht, bei dem sich die momentane Spannung dauernd ändert, braucht man für eine halbwegs stabile Messung einen Detektor, der dieses Chaos "ausmittelt" und eine ruhige Anzeige ermöglicht. Es gibt eigentlich drei prinzipielle Alternativen: Mittelwert, Effektivwert und Spitzenwert. Der Mittelwert-Detektor mittelt die Spannung über die Zeit (genauer: den Betrag der Spannung). Der Effektivwert-Detektor mittelt die Leistung über die Zeit (in der Praxis wird meist das Quadrat der Spannung gemittelt, und vom Ergebnis die Wurzel gezogen, worauf der englische Begriff RMS hindeutet -- Root Mean Square). Der Spitzenwert-Detektor folgt den Signalspitzen, entweder einseitig oder besser beidseitig.
In der Praxis haben solche Detektoren noch eine "Ballistik", das heißt eine Reaktionsgeschwindigkeit. Je schneller sie ist, desto mehr folgt die Anzeige dem Signal, desto unruhiger wird sie aber auch. Man strebt daher einen Kompromiß zwischen Ablesbarkeit, Meßzeit und Meßgenauigkeit an. Die genaue Charakteristik solcher Detektoren ist Gegenstand der Normung. Es sollte klar sein, daß die Wahl des Detektors das Meßergebnis beeinflußt, daß man also Meßergebnisse nicht ohne weiteres vergleichen kann, wenn sie mit unterschiedlichen Detektoren ermittelt wurden.
Na super, das sind ja schon einmal dutzende Kombinationsmöglichkeiten. Das Schöne an Normen ist, daß es so viele davon gibt. Und was nimmt man jetzt in der Praxis?
Wie ich oben schon mal schrieb: Es kommt darauf an was man wissen will.
Die erste grundsätzliche Entscheidung ist die, ob man gehörrichtig messen will oder nicht, also ob einen eher die elektrische Situation interessiert, ohne Bezug zu dem was davon hörbar ist, oder ob es eben darum geht, die vom Menschen empfundene Lautstärke des Rauschens zu ermitteln, also quasi den störenden Effekt des Rauschens. Das ist die Entscheidung, ob man gewichtet mißt oder ungewichtet.
Wenn man sich für eine ungewichtete Messung entschieden hat, ist damit unmittelbar klar, daß das Ergebnis mit dem Höreindruck nur wenig zu tun haben wird. Der Messwert wird also kaum als Argument in einer Klangdiskussion taugen. Dafür kann man daran eher erkennen, wie sauber der elektronische Signalpfad ist. Zum Beispiel geht ein Brummen ungeschwächt in das Messergebnis ein. Ähnlich sieht es bei sehr hochfrequenten Störfrequenzen aus, die auch dann noch ins Messergebnis eingehen, wenn sie schon nicht mehr hörbar sind. Immer vorausgesetzt, die Störfrequenzen sind innerhalb der Messbandbreite. Diese Messbandbreite ist die zweite Entscheidung, die man zu fällen hat.
Eine gewichtete Messung ist dagegen für Brummen recht unempfindlich, und auch für hochfrequente Störungen. Wie eben auch das menschliche Gehör. Deswegen korrelliert ein Messergebnis aus einer gewichteten Messung erheblich besser mit dem Höreindruck, und taugt folglich auch eher in einer Diskussion um den Klangeinfluß einer Komponente.
Hat man sich für eine gewichtete Messung entschieden, gibt es eigentlich nur zwei in Frage kommende Alternativen: Entweder man mißt A-bewertet mit Effektivwert-Detektor, oder CCIR-bewertet mit Quasi-Spitzenwert-Detektor. Das sind die dominierenden Kombinationen, auch wenn man natürlich auch andere Möglichkeiten hätte. Das "Quasi" bei der zweiten Alternative drückt aus, daß es sich nicht um einen reinen Spitzenwertdetektor handelt, sondern um eine speziell angepasste Variante, deren ballistische Eigenschaften auch nach den Eigenschaften des Gehörs gestaltet sind, denn das Gehör selbst hat ebenfalls eine Art Detektorverhalten bei der Bewertung von Hintergrundgeräusch, dem man sich anzunähern versucht.
Man kann also davon ausgehen, daß die CCIR-Methode noch näher an den Eigenschaften des Gehörs liegt, besonders für Störungen, die nicht nur aus gleichmäßigem Rauschen bestehen. Das CCIR-Verfahren wäre damit die erste Wahl, wenn nicht schlechtere Zahlenwerte dabei heraus kämen als bei der A-bewerteten Messung. Das läßt die CCIR-Wertung auf dem Papier schlechter da stehen, was beim Marketing unpopulär ist. Die Firma Dolby, die sich mit Marketing bestens auskennt, hat daher mal eine weitere Bewertungskurve in die Normierungs-Diskussion gebracht, die im Grunde gleich wie die CCIR-Kurve aussieht, bloß mit verschobenem Maßstab, so daß bessere Zahlenwerte heraus kommen, die gegenüber einer Messung mit A-Bewertung nicht schlecht aussehen. Das hat sich aber nicht durchgesetzt.
Falls Ihr also gehörrichtig messen wollt, und Marketingüberlegungen in Richtung Schwanzlängenvergleich nicht dominant sind, dann würde ich zur CCIR-Methode greifen. Wenn sich alle Messenden an die Regeln gehalten haben, dann kann man am Ergebnis tatsächlich erkennen, welcher Kandidat hörbar weniger Hintergrundgeräusch erzeugt als die anderen.
Wer sich für die ganze Geschichte und die Details dieses recht komplexen Themas interessiert, dem lege ich die Webseite des Australiers Robin Whittle ans Herz, falls Ihr mit Englisch keine Schwierigkeiten habt.
Uff, das war eine ziemliche Dosis! Und das alles für die Messung einer einzigen Zahl. Wieso ist das eigentlich so kompliziert? Wenn ich eine Spannung mit dem Multimeter messe ist das doch ganz einfach!
Das kommt daher, daß das Rauschen ein komplizierteres Signal ist als ein Sinussignal, und auch daher, daß das menschliche Gehör so komplizierte Eigenschaften hat.
Rauschen ist schon dann kompliziert, wenn es sich gleichmäßig anhört. Der einfachste Fall ist da das weiße Rauschen, in dem alle Frequenzen gleichermaßen vertreten sind. Das entspricht oft nicht der Realität, wo die Rauschanteile oft nach Frequenz unterschiedlich sind. Im allgemeineren Fall kommen da noch weitere Störsignale hinzu, die nicht mehr als Rauschen im engeren Sinn gelten können, sondern auf deutsch eher Geräusch genannt würden. Das alles läßt Rauschen zu einem komplizierten Signal werden.
Darin liegt z.B. die Ursache dafür, daß die Messbandbreite eine solche Rolle spielt. Wenn ich ein Sinussignal messe, z.B. eines mit 1 kHz Frequenz, dann ist die Messbandbreite des Messgerätes so gut wie egal, Hauptsache die 1 kHz liegen innerhalb des Bereichs. Dann ist das Messergebnis davon unabhängig. Man könnte ganz schmalbandig messen, und nur Frequenzen in unmittelbarer Nähe von 1 kHz zulassen, oder man könnte breitbandig messen, z.B. mit 20 Hz .. 20 kHz, es käme dasselbe Ergebnis heraus, so lange keinen nennenswerten Störsignale vorhanden sind.
Ganz anders beim Rauschen. Da hier alle Frequenzen vertreten sind, hängt das Messergebnis direkt davon ab, welche Frequenzen man berücksichtigt, und welche man wegfiltert. Je schmalbandiger man mißt, desto weniger kommt durch, und desto niedriger der Messwert.
Das heißt dann wohl, daß man durch schmalbandiges Messen gezielt Störsignale und Rauschen ausblenden kann, wenn man die Stärke eines Sinussignals messen will, stimmt's?
Ganz recht! Die Wahl der passenden Bandbreite ist nicht bloß beim Messen, sondern auch bei allen Kommunikationstechniken grundlegend. Man will möglichst wenig gestört werden, um seine Nachricht möglichst unverfälscht zu empfangen. Also schneidet man alles weg, was nicht zur Nachricht gehört. Wenn das Nutzsignal sehr schmalbandig ist, also im Idealfall eine einzige Frequenz, dann kann man durch entsprechend schmalbandige Filter beim Empfang oder bei der Messung eine optimale Empfindlichkeit erreichen. Damit einher geht auch eine entsprechende Reduktion des Rauschens.
Da der Pegel des Rauschens mit der Meßbandbreite zusammen hängt, bietet es sich an, ein Rauschmaß einzuführen, welches so mit der Bandbreite verrechnet ist, daß man die sich ergebenen Werte je nach Messbandbreite daraus ausrechnen kann. Dieses Maß ist die Rauschdichte. Man kann gedanklich den ganzen Frequenzbereich in einzelne schmale Scheiben zerschneiden, z.B. könnte jede Scheibe einen Bereich von 1 Hz umfassen. Die Messbandbreite von 20 Hz .. 20 kHz würde dann in 19980 solche Scheiben aufgeteilt. Der Energieerhaltungssatz legt nahe, daß sich die Gesamtleistung des Rauschens aus der Summe der Leistungen in jeder Scheibe zusammen setzt. Das heißt, in jeder Scheibe findet man nur einen Bruchteil der Gesamtleistung des Rauschens. Diesen Bruchteil, also die Rauschleistung pro Frequenzeinheit, nennt man Rauschdichte. Bei weißem Rauschen ist die Rauschdichte in jeder Scheibe gleich, sie ist also über die Frequenz konstant. Kennt man die Rauschdichte, dann kann man die gesamte Rauschleistung für jede Bandbreite berechnen.
Ist dann die Kurve, die man bei FFT-Messungen sieht, diese Rauschdichte, über die Frequenz aufgetragen?
Nein, nicht ganz. Die FFT macht genau das was ich oben beschrieb: Sie teilt den Frequenzbereich in Scheiben (engl. bins), und berechnet in jeder Scheibe den zugehörigen Leistungs- oder Spannungswert. Die "Dicke" der Scheiben, also die Frequenzspanne, die eine Scheibe repräsentiert, ergibt sich durch die Anzahl der Punkte der FFT, in Kombination mit der Abtastrate. Bei einer Abtastrate von 48 kHz und einer Punktezahl von 24000 würde sich genau 1 Hz pro Scheibe ergeben. Dann hätte man die Rauschdichte. Bei anderen Punktezahlen ergeben sich aber entweder dickere oder dünnere Scheiben, so daß kleinere oder größere Leistungswerte heraus kommen. Das führt dazu, daß mit steigender Punktezahl der FFT das gleiche Rauschsignal eine immer tiefer liegende Linie auf dem Diagramm bewirkt. Auf so einem Diagramm rutscht der Rauschteppich bei jeder Verdopplung der Punktezahl der FFT um 3dB nach unten.
Warum kompensiert man das nicht heraus, indem man den Maßstab um 3 dB verschiebt?
Weil das dann für Sinussignale nicht mehr stimmen würde. Ein Sinussignal mit z.B. der Frequenz 1 kHz fällt ja immer in eine Scheibe, egal ob die nun dicker oder dünner ist. Wenn ich nun bei einer Verdopplung der Punktezahl der FFT den Maßstab um 3dB verschieben würde, dann wäre zwar der scheinbare Rauschteppich auf der gleichen Höhe geblieben, aber die Spitze, die zum Sinussignal gehört, wäre um 3 dB höher geworden, obwohl sich am Signal nichts geändert hat. Das wäre noch verwirrender.
Es hilft nichts: Man muß bei Rauschbetrachtungen per FFT die Abtastrate und die Punktezahl der FFT kennen, sonst kann man keine vernünftigen Aussagen machen. Das heißt man muß diese 3dB-Regel bei Punkteverdopplung kennen und berücksichtigen.
Das heißt das "Gras" in so einer FFT-Kurve ist gar nicht der echte Rauschteppich?
Nein, dem Pegel nach nicht. Das Aussehen ist zwar so, aber die konkreten Zahlenwerte stimmen nicht. Unter dem Rauschteppich versteht man normalerweise die Gesamtheit des Rauschens in einem Frequenzbereich, was letztlich auf eine breitbandige Messung hinaus läuft, während die vielen "bins" bei einer FFT eine schmalbandige Messung darstellen, die ganz andere Werte ergibt. Man könnte aus dem FFT-Bild den Pegel des Rauschteppichs dadurch berechnen, daß man die in jeder Scheibe gemessene Rauschleistung addiert, und zwar für alle Scheiben, die zur gewünschten Bandbreite dazu gehören.
Es ist aber eine gute Gelegenheit für irreführendes Marketing: Mache eine möglichst hochauflösende FFT (mit möglichst vielen Punkten), dann verschiebt sich der dargestellte "scheinbare" Rauschteppich nach unten, und der Kunde wird glauben das Produkt sei besser.
OK, so langsam ist meine Informationsverarbeitungsfähigkeit an der Grenze. Eins fehlt aber noch: "Dynamic Range". Wie passt das ins Bild?
Das ist im Grunde das gleiche wie SNR, wenn man den maximal möglichen Signalpegel zur Messung nimmt. Erinnere Dich daß die SNR-Messung eine Verhältnis-Bildung zweier Messungen darstellt, eine mit Nutzsignal und eine ohne. Die Stärke des Nutzsignals ist bei SNR erst einmal undefiniert, und muß nicht unbedingt die maximal mögliche sein. Je nach Meßvorschrift kann es sich auch um einen Nennpegel handeln, oberhalb dessen durchaus noch einiger "Headroom" besteht.
Beim Begriff "Dynamic Range" wird dagegen immer mit dem maximal möglichen Pegel beim Nutzsignal gearbeitet, bei dem noch keine nennenswerten Verzerrungen auftreten. Wieviele Verzerrungen die Grenze darstellen, muß festgelegt sein.
Die Werte für SNR sind also entweder gleich oder schlechter als die Werte für den Dynamic Range, je nachdem welchen Referenzpegel man für die SNR-Messung benutzt, bzw. wieviel Headroom man bei der SNR-Messung läßt. Man könnte auch sagen: Dynamic Range = SNR + Headroom.
Während man bei einer SNR-Messung erwarten würde, daß der Referenzpegel explizit angegeben wird, würde man bei einer Angabe des Dynamic Range erwarten, daß angegeben wird, mit welchem maximalen Klirr man gemessen hat.
Bei digitalen Systemen wird in aller Regel das maximal verzerrungsfrei darstellbare Sinussignal als Referenz verwendet (0dBFS). Man nimmt dabei statt 1 kHz oft eine Frequenz von 997 Hz, damit die Signalfrequenz und die Abtastfrequenz prim zueinander sind. Bei reinen Digitalsystemen ergibt sich die Dynamik direkt aus der Wortlänge in Bit, lediglich die Wahl des Dither kann hier noch einen (kleinen) Einfluß haben. Die Tatsache, daß die Bitanzahl einem Rauschabstand entspricht, führt zu ENOB als Maß (Effective Number Of Bits), was aber letztlich nur eine andere Darstellung der gleichen Information bedeutet.
Gut, das reicht. Haste noch ein paar Literaturhinweise, für später wenn mein Kanal wieder aufnahmefähig ist?
Probier's mal mit diesem Tutorial, das ein bißchen A/D-Wandler, bzw. D/A-Wandler-zentriert ist.
Auch nicht schlecht ist das Papier von David Mathew, und natürlich die Informationssammlung des verstorbenen Eberhard Sengpiel. Der verweist auf diverse Wikipedia-Artikel, was ich hier aus Faulheitsgründen nicht gemacht habe.
Sonntag, 3. Juli 2016
Der endgültige, offizielle HRA-Beweis. Oder so ähnlich.
Die Audiophilen-Szene ist begeistert. Endlich ist bewiesen, daß HRA (High Resolution Audio) tatsächlich hörbar besser ist als CD-Audio. So jedenfalls könnte man meinen, wenn man die Presseerklärung der Londoner Queen Mary Universität liest, die einen in der neuesten Ausgabe des Journals der AES enthaltenen wissenschaftlichen Artikel von Joshua Reiss ankündigt. Ein wissenschaftlicher Artikel, mit peer-review, da kann man nichts mehr dagegen sagen, damit ist die Sache gelaufen, und die Audiophilen haben Recht behalten.
Oder etwa nicht?
Sehen wir uns das doch einmal etwas genauer an. Der AES-Artikel ist im Open-Access-Programm und daher für jedermann frei downloadbar (siehe obigen Link). Ihr könnt also mitlesen, wenn Ihr Euch einen auf Englisch geschriebenen wissenschaftlichen Artikel antun wollt.
Zuerst einmal das Grundsätzliche, und auch gleich eine Richtigstellung von ein paar "Kleinigkeiten", die in dem Freudengeheul da draußen schnell untergehen:
Wie heißt es dagegen in der Presseerklärung: “Audio purists and industry should welcome these findings – our study finds high resolution audio has a small but important advantage in its quality of reproduction over standard audio content.”
Ich bin wohl nicht der Einzige, der hier einen deutlichen Unterschied sieht. Ob das wohl etwas damit zu tun hat, daß Reiss in der Presseerklärung frei von der Leber weg reden kann, während er im Artikel auf die Begutachter Rücksicht nehmen mußte? Offenbar ist er der Meinung, er habe gezeigt, daß HRA einen Vorteil bietet, und daß der - wiewohl gering - wichtig ist. In der Studie steht das nicht so klar. Selbst wenn man einmal annimmt, daß das Ergebnis nicht aufgrund von Fehlern zustande kam, und daher belastbar ist (und das ist keineswegs so klar), so ergibt sich daraus lediglich, daß ein Unterschied mit knapper Not hörbar war, mit einer so geringen Wahrscheinlichkeit, daß man eine große Anzahl von Versuchen braucht, um sich sicher genug zu sein zu können, größer jedenfalls als es die Einzelstudien vermocht haben.
Ob der wahrgenommene Unterschied auch als Verbesserung empfunden wird, ergibt sich daraus nicht. Das bestätigt letztlich auch Reiss selbst, seine Studie "...was focused on discrimination studies concerning high resolution audio" und "...the causes are still unknown...". Wie kann man dann von einem Vorteil reden, wenn die Frage der Präferenz gar nicht Gegenstand der Analyse war? Und wie kann man behaupten, er sei wichtig? Beides ist eine Interpretation, die die Studie als solche nicht stützt. Reiss überinterpretiert seine eigenen Ergebnisse.
Wie man der Presserklärung leicht entnimmt, ist sich Reiss des wirtschaftlichen und politischen Umfelds wohl bewußt, in das er seine Studie entläßt. Tidal und Pono werden explizit erwähnt, und die Formulierung läßt kaum einen Zweifel daran, daß das Studienergebnis als Bestätigung der Behauptungen der Befürworter solcher Angebote verstanden werden soll. Ist es da verwunderlich, wenn ich den Verdacht hege, daß Reiss' Überinterpretation nicht ganz uneigennützig ist? Die Audiophilenszene hat die Steilvorlage jedenfalls sofort aufgenommen, und es wird auch nicht verwundern, daß man sich dort nicht damit aufhält, den Artikel genauer zu studieren.
Immer noch vorausgesetzt, daß das Ergebnis belastbar ist, kann man die Studie auch ganz anders interpretieren: Nämlich als Bestätigung dafür, wie klein der Effekt tatsächlich ist. Es bleibt völlig abwegig, das mit den Behauptungen der Audiophilen in Zusammenhang zu bringen. Es spottet ja schon der Logik, daß entsprechende Effekte mit einer geeigneten Anlage, die unter Audiophilen üblich ist, völlig mühelos hörbar sein sollen, während es unter Versuchsbedingungen plötzlich dermaßen hapert, daß man nur mit Meta-Analysen eine ausreichende statistische Signifikanz herauskratzen kann. Welch krasse Behauptungen einem da regelmäßig zugemutet werden, habe ich beim Thema HRA und Pono ja schon früher gezeigt. Das ist schlicht absurd, selbst wenn man einen Hang des Marketings zur Übertreibung mit einkalkuliert.
Ich bin allerdings auch skeptisch, was die Belastbarkeit der Studie betrifft. Reiss zeigt eine beunruhigende Bereitschaft, Ergebnisse von zweifelhaften Studien kritiklos heranzuziehen. Ein Beispiel dafür ist sein Umgang mit Studien im Bereich "Zeitauflösung" des Gehörs, ein Bereich in dem ziemlich viel Scharlatanerie betrieben wird. Reiss schreibt: "A major concern is the extent to which we hear frequencies above 20 kHz. Though many argue that this would not be the primary cause of high resolution content perception, it is nevertheless an important question. [36, 37, 39, 40] have investigated this extensively, and with positive results, although it could be subject to further statistical analysis.
Temporal fine structure [73] plays an important role in a variety of auditory processes, and temporal resolution studies have suggested that listeners can discriminate monaural timing differences as low as 5 microseconds [31–33]..."
Sieht man sich die von ihm referenzierten Artikel genauer an, dann findet man daß sie in der Fachwelt zu einem guten Teil umstritten sind, was Reiss wenigstens zur Kenntnis nehmen könnte und einer Erwähnung würdigen könnte. So sind zwei seiner drei Referenzen zum Thema "5 Mikrosekunden" von Kunchur, über den ich hier schon einmal schrieb. Ihn als seriöse Quelle heranzuziehen, ignoriert sämtliche Kritik, die Kunchur auf breiter Front entgegen geschlagen ist. Die dritte Referenz ist von Krumbholz et.al., und in ihr ist die Zahl von 5 µs nicht zu finden. Vielmehr ist im Text die Rede von "a few tens of microseconds". In der Zusammenfassung wird das in Relation zur binauralen Auflösung gesetzt, die schon anderweitig untersucht wurde und mit 10-20 µs angegeben wird. Entweder Reiss bringt hier etwas durcheinander, oder er überinterpretiert die Fakten. Mithin geben alle drei Referenzen die erwähnten 5 µs nicht auf seriöse Weise her.
Auch ein viertes Papier von Moore, das Reiss heranzieht um den Begriff der "Temporal fine structure" einzuführen, enthält keinen Hinweis darauf, daß es hier um zeitliche Feinheiten geht, die die Möglichkeiten der CD übersteigen. Es sieht eher danach aus als würden hier Begriffe auf suggestive Weise in einen Zusammenhang gestellt, den man nicht ausdrücklich herstellen will, den man im Leser hervorzurufen aber dennoch beabsichtigt. Und den man als wissenschaftlich untermauert aussehen lassen will.
Was die angeblich positiven Ergebnisse von Studien zur Hörbarkeit von Frequenzen über 20 kHz angeht, so soll das Beispiel von Ashihara genügen, das Reiss als Referenz [37] anführt: Ashihara's Papier enthält ein Diagramm, indem die gefundenen Hörschwellen dargestellt sind. Selbst die Maximalwerte zeigen, daß oberhalb von 20 kHz wenn überhaupt nur sehr laute Töne wahrgenommen werden können. Zudem schreibt Ashihara, daß subharmonische Signale nicht gänzlich ausgeschlossen waren, sondern lediglich immer unter 20 dB gelegen haben. Das garantiert allerdings noch nicht, daß sie unhörbar waren. Inwiefern es seriös ist, so ein Ergebnis als Bestätigung zu werten, daß Frequenzen über 20 kHz hörbar sind, überlasse ich Euch. Reiss jedenfalls scheint keine Bedenken zu haben.
Man könnte so noch eine Weile weiter machen, aber ich denke der Grundeindruck ist auch so rübergekommen. Der Tiger ist doch eher ein Bettvorleger, wenn man sich die Sache genauer ansieht.
Aber Ihr solltet Euch, genügend Interesse und Zeit vorausgesetzt, schon selber ein Bild machen. Einige der Artikel, inklusive dem von Reiss selbst, sind ja kostenlos im Netz zu finden. Happy hunting!
Wenn Ihr dann zu einem ähnlichen Ergebnis wie ich gekommen sein solltet, dann wird Euch vermutlich die entsprechende Pressearbeit des Autors sauer aufstoßen. So macht man sich vielleicht im audiophilen Lager Freunde, aber man schadet seiner Reputation und der Reputation von Wissenschaft insgesamt.
Und die AES scheint ein wachsendes Problem mit ihrem peer-review zu haben, scheint mir.
(*) Update: Wie ich eben sehe hat auch die AES eine praktisch gleichlautende Presseerklärung herausgegeben, siehe hier. Wenn man sich ansieht, wie selten die AES eine Presseerklärung aus Anlaß eines Journal-Artikels über ein Forschungsergebnis herausgibt, dann könnte man schon daraus schließen, daß zumindest die Presseabteilung dieses Ergebnis für ganz besonders bedeutsam hält.
In meinen Augen wird es dadurch noch dubioser. Es gibt keinen vernünftigen Grund, warum ein derart mageres Ergebnis ein solches Tamtam verdient hätte, jedenfalls keinen inhaltlichen Grund. Erklären kann ich mir das allenfalls vor dem Hintergrund der kommerziellen Interessen, denen sich die AES hier anscheinend beugt.
Oder etwa nicht?
Sehen wir uns das doch einmal etwas genauer an. Der AES-Artikel ist im Open-Access-Programm und daher für jedermann frei downloadbar (siehe obigen Link). Ihr könnt also mitlesen, wenn Ihr Euch einen auf Englisch geschriebenen wissenschaftlichen Artikel antun wollt.
Zuerst einmal das Grundsätzliche, und auch gleich eine Richtigstellung von ein paar "Kleinigkeiten", die in dem Freudengeheul da draußen schnell untergehen:
- Die Studie ist eine Meta-Analyse, also eine zusammenfassende Auswertung schon stattgefundener Studien mit statistischen Mitteln. Es wurden keinerlei eigene oder zusätzliche Hörversuche gemacht. Auf solche Meta-Analysen trifft man auch in anderen Wissenschaftsgebieten, z.B. der Medizin. Die Motivation dafür ist fast immer, daß man hofft, auf diese Weise für eine Hypothese eine statistische Signifikanz heraus zu bekommen, die die Einzelstudien nicht erreichen konnten. Es ist im Grunde ein Weg, um den Testumfang zu vergrößern, ohne daß man tatsächlich testen muß. Das ist natürlich insbesondere dann attraktiv, wenn ein Test besonders teuer wäre. Die Nachteile sollten aber nicht aus dem Blickfeld verschwinden: Man kann nur Studien zusammenfassen, die auch zusammen passen, also die von der Fragestellung, der Testmethodik, und der Dokumentation her sinnvoll miteinander verrechenbar sind. Das muß man sich ggf. genauer ansehen. Zudem besteht immer die Gefahr, daß man - ob willentlich oder nicht - mit der Auswahl der berücksichtigten Studien bereits eine Tendenz in seine Auswertung einbaut. Das kann schon daher kommen, daß Studien eher veröffentlich werden, wenn sie ein "interessantes" Ergebnis haben. Studien ohne Überraschungswert werden eher zurückgehalten und bleiben unbekannt ("Publication Bias"). Wenn dazu noch wirtschaftliche Interessen hinein spielen, wird's vollends gefährlich. Entsprechend kritisch werden Meta-Analysen auch gesehen, wenngleich sie zum üblichen wissenschaftlichen Handwerkszeug gehören.
- Die AES veröffentlicht den Artikel in ihrem Journal. Das bedeutet, daß es einen peer-review-Prozeß gegeben hat. Es haben mehrere Fachleute den Artikel begutachtet und ihre Kommentare abgegeben, ehe er veröffentlicht wurde. Wer diese Fachleute waren, und was sie zum Artikel meinten, ist vertraulich. Daß der Artikel abgedruckt wird heißt, daß diese Fachleute mit der Veröffentlichung einverstanden sind. Es heißt nicht daß sich die AES den Inhalt zu Eigen macht. Ein solcher Artikel ist keine formale Stellungnahme. Die AES hat meines Wissens auch keine Presserklärung darüber herausgegeben. Die oben verlinkte Presseerklärung stammt von der Universität, nicht der AES (*). "Offiziell" ist das Ergebnis also in keinem irgendwie belastbaren Sinn. Es ist immer noch lediglich das Werk eines Wissenschaftlers.
- Von den 80 Studien, die als Kandidaten in Betracht kamen, gingen lediglich 18 in die Auswertung ein. Die anderen schieden aus diversen Gründen aus, wie sich im Artikel nachlesen läßt.
- Die ausgewerteten Studien basieren (selbstverständlich!) auf Blindtests. Wie Anti-Blindtest-Krieger wie der oben verlinkte Lavorgna es mit ihrer Haltung vereinbaren können, eine solche Studie zu bejubeln, wo sie sonst bei jeder Gelegenheit betonen, daß Blindtests prinzipiell nicht funktionieren können, müssen sie selbst erklären.
Wie heißt es dagegen in der Presseerklärung: “Audio purists and industry should welcome these findings – our study finds high resolution audio has a small but important advantage in its quality of reproduction over standard audio content.”
Ich bin wohl nicht der Einzige, der hier einen deutlichen Unterschied sieht. Ob das wohl etwas damit zu tun hat, daß Reiss in der Presseerklärung frei von der Leber weg reden kann, während er im Artikel auf die Begutachter Rücksicht nehmen mußte? Offenbar ist er der Meinung, er habe gezeigt, daß HRA einen Vorteil bietet, und daß der - wiewohl gering - wichtig ist. In der Studie steht das nicht so klar. Selbst wenn man einmal annimmt, daß das Ergebnis nicht aufgrund von Fehlern zustande kam, und daher belastbar ist (und das ist keineswegs so klar), so ergibt sich daraus lediglich, daß ein Unterschied mit knapper Not hörbar war, mit einer so geringen Wahrscheinlichkeit, daß man eine große Anzahl von Versuchen braucht, um sich sicher genug zu sein zu können, größer jedenfalls als es die Einzelstudien vermocht haben.
Ob der wahrgenommene Unterschied auch als Verbesserung empfunden wird, ergibt sich daraus nicht. Das bestätigt letztlich auch Reiss selbst, seine Studie "...was focused on discrimination studies concerning high resolution audio" und "...the causes are still unknown...". Wie kann man dann von einem Vorteil reden, wenn die Frage der Präferenz gar nicht Gegenstand der Analyse war? Und wie kann man behaupten, er sei wichtig? Beides ist eine Interpretation, die die Studie als solche nicht stützt. Reiss überinterpretiert seine eigenen Ergebnisse.
Wie man der Presserklärung leicht entnimmt, ist sich Reiss des wirtschaftlichen und politischen Umfelds wohl bewußt, in das er seine Studie entläßt. Tidal und Pono werden explizit erwähnt, und die Formulierung läßt kaum einen Zweifel daran, daß das Studienergebnis als Bestätigung der Behauptungen der Befürworter solcher Angebote verstanden werden soll. Ist es da verwunderlich, wenn ich den Verdacht hege, daß Reiss' Überinterpretation nicht ganz uneigennützig ist? Die Audiophilenszene hat die Steilvorlage jedenfalls sofort aufgenommen, und es wird auch nicht verwundern, daß man sich dort nicht damit aufhält, den Artikel genauer zu studieren.
Immer noch vorausgesetzt, daß das Ergebnis belastbar ist, kann man die Studie auch ganz anders interpretieren: Nämlich als Bestätigung dafür, wie klein der Effekt tatsächlich ist. Es bleibt völlig abwegig, das mit den Behauptungen der Audiophilen in Zusammenhang zu bringen. Es spottet ja schon der Logik, daß entsprechende Effekte mit einer geeigneten Anlage, die unter Audiophilen üblich ist, völlig mühelos hörbar sein sollen, während es unter Versuchsbedingungen plötzlich dermaßen hapert, daß man nur mit Meta-Analysen eine ausreichende statistische Signifikanz herauskratzen kann. Welch krasse Behauptungen einem da regelmäßig zugemutet werden, habe ich beim Thema HRA und Pono ja schon früher gezeigt. Das ist schlicht absurd, selbst wenn man einen Hang des Marketings zur Übertreibung mit einkalkuliert.
Ich bin allerdings auch skeptisch, was die Belastbarkeit der Studie betrifft. Reiss zeigt eine beunruhigende Bereitschaft, Ergebnisse von zweifelhaften Studien kritiklos heranzuziehen. Ein Beispiel dafür ist sein Umgang mit Studien im Bereich "Zeitauflösung" des Gehörs, ein Bereich in dem ziemlich viel Scharlatanerie betrieben wird. Reiss schreibt: "A major concern is the extent to which we hear frequencies above 20 kHz. Though many argue that this would not be the primary cause of high resolution content perception, it is nevertheless an important question. [36, 37, 39, 40] have investigated this extensively, and with positive results, although it could be subject to further statistical analysis.
Temporal fine structure [73] plays an important role in a variety of auditory processes, and temporal resolution studies have suggested that listeners can discriminate monaural timing differences as low as 5 microseconds [31–33]..."
Sieht man sich die von ihm referenzierten Artikel genauer an, dann findet man daß sie in der Fachwelt zu einem guten Teil umstritten sind, was Reiss wenigstens zur Kenntnis nehmen könnte und einer Erwähnung würdigen könnte. So sind zwei seiner drei Referenzen zum Thema "5 Mikrosekunden" von Kunchur, über den ich hier schon einmal schrieb. Ihn als seriöse Quelle heranzuziehen, ignoriert sämtliche Kritik, die Kunchur auf breiter Front entgegen geschlagen ist. Die dritte Referenz ist von Krumbholz et.al., und in ihr ist die Zahl von 5 µs nicht zu finden. Vielmehr ist im Text die Rede von "a few tens of microseconds". In der Zusammenfassung wird das in Relation zur binauralen Auflösung gesetzt, die schon anderweitig untersucht wurde und mit 10-20 µs angegeben wird. Entweder Reiss bringt hier etwas durcheinander, oder er überinterpretiert die Fakten. Mithin geben alle drei Referenzen die erwähnten 5 µs nicht auf seriöse Weise her.
Auch ein viertes Papier von Moore, das Reiss heranzieht um den Begriff der "Temporal fine structure" einzuführen, enthält keinen Hinweis darauf, daß es hier um zeitliche Feinheiten geht, die die Möglichkeiten der CD übersteigen. Es sieht eher danach aus als würden hier Begriffe auf suggestive Weise in einen Zusammenhang gestellt, den man nicht ausdrücklich herstellen will, den man im Leser hervorzurufen aber dennoch beabsichtigt. Und den man als wissenschaftlich untermauert aussehen lassen will.
Was die angeblich positiven Ergebnisse von Studien zur Hörbarkeit von Frequenzen über 20 kHz angeht, so soll das Beispiel von Ashihara genügen, das Reiss als Referenz [37] anführt: Ashihara's Papier enthält ein Diagramm, indem die gefundenen Hörschwellen dargestellt sind. Selbst die Maximalwerte zeigen, daß oberhalb von 20 kHz wenn überhaupt nur sehr laute Töne wahrgenommen werden können. Zudem schreibt Ashihara, daß subharmonische Signale nicht gänzlich ausgeschlossen waren, sondern lediglich immer unter 20 dB gelegen haben. Das garantiert allerdings noch nicht, daß sie unhörbar waren. Inwiefern es seriös ist, so ein Ergebnis als Bestätigung zu werten, daß Frequenzen über 20 kHz hörbar sind, überlasse ich Euch. Reiss jedenfalls scheint keine Bedenken zu haben.
Man könnte so noch eine Weile weiter machen, aber ich denke der Grundeindruck ist auch so rübergekommen. Der Tiger ist doch eher ein Bettvorleger, wenn man sich die Sache genauer ansieht.
Aber Ihr solltet Euch, genügend Interesse und Zeit vorausgesetzt, schon selber ein Bild machen. Einige der Artikel, inklusive dem von Reiss selbst, sind ja kostenlos im Netz zu finden. Happy hunting!
Wenn Ihr dann zu einem ähnlichen Ergebnis wie ich gekommen sein solltet, dann wird Euch vermutlich die entsprechende Pressearbeit des Autors sauer aufstoßen. So macht man sich vielleicht im audiophilen Lager Freunde, aber man schadet seiner Reputation und der Reputation von Wissenschaft insgesamt.
Und die AES scheint ein wachsendes Problem mit ihrem peer-review zu haben, scheint mir.
(*) Update: Wie ich eben sehe hat auch die AES eine praktisch gleichlautende Presseerklärung herausgegeben, siehe hier. Wenn man sich ansieht, wie selten die AES eine Presseerklärung aus Anlaß eines Journal-Artikels über ein Forschungsergebnis herausgibt, dann könnte man schon daraus schließen, daß zumindest die Presseabteilung dieses Ergebnis für ganz besonders bedeutsam hält.
In meinen Augen wird es dadurch noch dubioser. Es gibt keinen vernünftigen Grund, warum ein derart mageres Ergebnis ein solches Tamtam verdient hätte, jedenfalls keinen inhaltlichen Grund. Erklären kann ich mir das allenfalls vor dem Hintergrund der kommerziellen Interessen, denen sich die AES hier anscheinend beugt.
Freitag, 10. Juni 2016
Tödliche Ahnungslosigkeit
Zu Beginn der NSA-Affäre hatte ich hier schon einmal einen Artikel über Ahnungslosigkeit, fast 3 Jahre ist das jetzt schon her. Inzwischen haben wir einen Untersuchungsausschuß des deutschen Bundestags zu diesem Thema, und bei seiner gestrigen Sitzung scheint die Ahnungslosigkeit mal wieder Konjunktur gehabt zu haben. Einen Liveblog gibt's bei Netzpolitik. Weil es dabei auch um Drohnenangriffe ging, muß man wohl hier von (potentiell) tödlicher Ahnungslosigkeit reden, und sie hat natürlich noch immer genauso viel System wie vor drei Jahren.
Der Ausschuß befragte zwei Herren vom deutschen Verfassungsschutz, nämlich den momentanen Chef Maaßen, und seinen Vorgänger Fromm. Sehen wir uns mal an was die alles nicht wissen, obwohl es doch ihr Job wäre, Informationen zu beschaffen:
Fromm fängt an. Er war Chef des Verfassungsschutzes von 2000 bis 2012, die Anschläge des 11. September 2001 hat er also im Amt erlebt, und natürlich auch die Veränderungen der Arbeit der Geheimdienste in deren Folge.
Gleich ein interessanter Info-Schnipsel: Die EU hat nach den Anschlägen 2001 die Counter Terrorism Group (CTG) geschaffen, in der die EU-Länder zum Zweck der Terrorismusabwehr zusammenarbeiten. Die Gruppe ist aus dem Berner Club erwachsen, den es schon seit 1971 gibt. Ist es da nicht seltsam, daß man seither und bis in jüngste Zeit immer wieder gebetsmühlenartig aus der Politik hört, die Zusammenarbeit der Sicherheitsbehörden müsse gestärkt werden? Was haben die dann in der CTG in den letzten 15 Jahren gemacht? Wieso erzählt man der Öffentlichkeit immer wieder dasselbe, über mittlerweile Jahrzehnte, ohne daß neu geschaffene Gremien und Gesetze irgend etwas daran zu ändern scheinen?
Aber dann zum Thema Drohnen erfährt man, daß man beim Verfassungsschutz keine Ahnung hatte, daß man Handynummern auch zur Ortung benutzen kann, weswegen sie kein Problem damit gesehen hatten, solche Handynummern und weitere Informationen an die USA weiter zu leiten. Als dann in der Gegend um Afghanistan und Pakistan zwei Deutsche von Drohnen getötet wurden, zu denen der Verfassungsschutz Infos geliefert hatte, mußte man sich darüber Gedanken machen, und hat sich die Vorgehensweise dann vom Innenministerium absegnen lassen, "auch mit Blick auf Mitarbeiter".
Mit anderen Worten, Mitarbeiter beim Verfassungsschutz hatten Bedenken, ob das so in Ordnung sei, und wurden damit "beruhigt", daß der Innenminister die Vorgehensweise ausdrücklich billigt. Nach dieser Vorgehensweise ist die Weitergabe aller Informationen an die USA erlaubt, die nicht "unmittelbar" zur Zielortung taugen, also im Prinzip alles außer GPS-Koordinaten. Alle anderen Daten, wie z.B. Handydaten, die im Zusammenhang mit weiteren Informationen eine Ortung möglich machen, wurden weiter gegeben. Wie glaubhaft ist es dabei, daß beim Verfassungsschutz keiner gepeilt haben soll, daß man mit Handydaten auch orten kann? Soll ich lachen oder kopfschütteln? Wenn das wahr wäre, dann wäre die Inkompetenz dort mit Händen zu greifen.
Dabei wurde den Amerikanern auch der Hinweis mitgeliefert, daß die Informationen nur für nachrichtendienstliche Zwecke gebraucht werden dürfen, nicht aber zu einer Exekution. Darauf hat man sich dann verlassen. Von einer Möglichkeit zur Nachfrage bei der NSA, was genau mit den Daten passiert, machte man anscheinend keinen Gebrauch. Kein Wunder daß den Mitarbeitern das problematisch vorgekommen sein muß. Das ist ja geradezu eine Einladung zum Mißbrauch. Das muß auch dem Innenministerium klar gewesen sein, daher kann man annehmen, daß die Folgen dort in Kauf genommen wurden und werden. Die Versuche, das abzustreiten, finde ich einfach nicht glaubhaft.
Auch der Probebetrieb von XKeyScore, die umfassende Abhör- und Auswertungsanlage der NSA, der 2012 beim Verfassungsschutz anfing, nachdem der BND damit schon lange arbeitete, dauerte sehr lang und hält noch immer an, weil die Mitarbeiter des Verfassungsschutzes offenbar Sicherheitsbedenken hatten. Fromm ging das wohl zu langsam, er fand die Sicherheit zu streng, aber es scheint als hätte er mit Blick auf seine baldige Pensionierung keinen besonderen Aktionismus mehr entfaltet. Besonders interessant dabei: Der BND setzt sich mit der NSA zusammen in Frankfurt direkt an die Glasfaser und schneidet den gesamten Verkehr mit, obwohl im Inland eigentlich der Verfassungsschutz zuständig wäre. Eigentlich müßten beim Verfassungsschutz da alle Warnlampen brennen, und man müßte im Sinne der Spionageabwehr genau hinsehen was die beiden da miteinander treiben. Aber man tut gar nichts. Schaut nicht hin, beschwert sich nirgends, fragt nirgends nach. Was der BND da so tut wird schon seine Richtigkeit haben. Ob das wohl so der Sinn hinter der Trennung der Geheimdienste war?
Ebenfalls interessant: Der Verfassungsschutz ging davon aus daß in verschiedenen Botschaften Anlagen zur Überwachung der Mobilfunknetze installiert sind (wäre ja ein Zeichen absoluter Unfähigkeit, wenn sie das nicht angenommen hätten). Belegen konnte sie es nicht, aber sie (bzw. der Bundesgrenzschutz) haben Botschaftsgebäude regelmäßig "beflogen", und dabei auch "Indizien" festgestellt, z.B. auf der britischen Botschaft, die ihnen anscheinend geantwortet habe, es handle sich dabei um Kunst. Britischer Humor. :-)
Der Innenminister ist bekanntlich der Dienstherr des Verfassungsschutzes. Es möge jeder selber überlegen, was es zu bedeuten hat, daß sich der Verfassungsschutz im Klaren war und ist, daß Mobilfunknetze sehr wahrscheinlich abgehört wurden, auch von den eigenen Verbündeten, und deswegen auch abriet vor der Verwendung von Mobiltelefonen, und im Herbst 2013 meint dann die Bundeskanzlerin ganz überrascht, ein Abhören des eigenen Handies durch die USA "geht gar nicht".
Mein überwiegender Eindruck: Organisiertes Nichtwissen. Wenn man befürchten mußte, daß die Bedenken der eigenen Belegschaft zu groß werden, dann holt man sich ein passend formuliertes Genehmigungsschreiben vom Innenminister, und schickt den US-Partnern einen Text mit, wofür die Informationen benutzt werden dürfen, kümmert sich aber nicht darum ob das befolgt wird. Jeder weiß im Grunde Bescheid, was in der Praxis passiert, aber man hat die Verantwortlichkeit so gut verteilt, daß sich niemand mehr selbst verantwortlich fühlen muß. Am Schluß sterben Leute, und keiner kann was dafür.
Dann der jetzige Chef Maaßen. Dessen Verhalten finde ich so offensichtlich zweckgebunden, daß es mir schon wie ein Eingeständnis erscheint. Er ist ja schon seit Beginn an dabei, Snowden einen Verräter zu nennen, insoweit war sein neuester Auftritt nichts grundlegend Neues. Er spitzt es noch dadurch zu, daß er Snowden unterstellt, er sei ein russischer Spion, bzw. ein Doppelagent. Wie ernst man Maaßen nehmen kann, sollte klar sein wenn man sich ansieht, wie er noch 2014 nichts von Wirtschaftsspionage durch die USA wissen wollte. Selbst Maaßen's Vorgänger Fromm kam angesichts seines deutlichen Nich-Wissen-Wollen nicht drum herum zuzugeben, daß er von den Versuchen der USA, Informationen über EADS zu bekommen, erfahren hatte.
Jetz reitet Maaße also erneut darauf herum, daß Snowden ein russischer Spion sein könnte, obwohl er auch diesmal keinerlei Beweise beibringen kann. Es habe "eine hohe Plausibilität", wäre "aus Erfahrung der Spionageabwehr naheliegend". Maaßen legt vor dem Ausschuß eine Unverfrorenheit an den Tag, die zeigt, daß er sich für unangreifbar hält, und die wohl dem Ausschuß zeigen soll, daß sie keine Chance haben:
Er läßt sich in seinem Eingangsbeitrag über Snowden aus, als dann aber Nachfragen kommen, heißt es plötzlich, es gehe gar nicht um Snowden. Er wirft Snowden vor, wahrscheinlich ein russischer Spion zu sein, was nicht zuletzt auch mit seinem Aufenthalt in Russland zusammen hängt, und verschweigt völlig weshalb er da sitzt, ja er versteigt sich sogar zu spekulieren, er wisse nicht ob er nicht vielleicht sogar da eingeschleust worden sei! Er heuchelt ein Interesse, Snowden zu vernehmen, wenn er in Deutschland wäre, und vertritt zugleich die Haltung der Bundesregierung, die ihn auf gar keinen Fall hierher holen will. Wenn jemand es für nötig hält, derart offensichtlichen Rufmord in Richtung Snowden zu betreiben, und dabei noch behauptet, er würde keine Behauptungen machen und keine Desinformation betreiben, dann zeigt das, daß Snowden genau getroffen hat. Außerdem zeigt es die absolute Geringschätzung Maaßens an die Adresse der Ausschußmitglieder, die er offensichtlich provozieren will.
Fast noch frecher finde ich aber seine Andeutung, die Arbeit des Ausschusses, insbesondere der Auwand, der in seiner Behörde deswegen entsteht, würde letztlich die Terrorismusgefahr vergrößern. Das kann man schon perfide nennen: Ihr seid schuld wenn was passiert. Das geht schon gefährlich nahe an einen Verdacht, den man eben auch haben kann: Daß nämlich die Geheimdienste kein allzu großes Interesse daran haben wenn der Terrorismus aufhört, denn so lange die Gefahr besteht, mindestens gefühlt, so lange kriegen die Dienste Geld und Handlungsspielraum. Wenn man sich so ansieht, was Maaßen alles für plausibel hält, könnte dann nicht auch plausibel genannt werden, daß sich die Dienste ihre eigene Existenzgrundlage womöglich sichern wollen auch durch weniger legitime Tricks? Umso besser wenn man vorsorglich sogar die Verantwortung dafür an einen Untersuchungsausschuß abtreten kann, oder?
Ich habe natürlich nichts behauptet, wie Maaßen, aber Überlegungen dürfen doch wohl noch angestellt werden, auf Möglichkeiten wird doch wohl noch hingewiesen werden dürfen, nicht wahr? ;-)
Und zum Schluß zum Thema Drohnen noch mein Lieblingssatz von Maaßen: "Politisch wollten wir nicht mitarbeiten an Drohneneinsätzen." (Keine Ahnung ob er das wörtlich gesagt hat, aber sinngemäß trifft's absolut den Punkt). Das ist genau die Haltung, die sich schon seit Langem bei den Diensten wie bei der Bundesregierung herausschält: Wir wissen natürlich, was läuft, offiziell wissen wir aber nichts, vertrauen wir unseren Partnern, selbst dann noch wenn die Spatzen alles von den Dächern pfeifen, und wir sichern uns durch passend formulierte Dokumente ab. Politisch können wir uns damit als Unbeteiligte darstellen, und das ist worauf es ankommt. Wir wissen, daß durch Drohnen Leute ohne faires Verfahren umgebracht werden, und wir helfen dabei so weit mit, wie es möglich ist ohne sich nach außen hin die Finger damit schmutzig zu machen.
Da ist die institutionelle Nicht-Verantwortung auf's Tödlichste perfektioniert worden, und die menschliche Ethik ist in den Ritzen zwischen den Ämtern, Diensten und Paragraphen versickert.
Der Ausschuß befragte zwei Herren vom deutschen Verfassungsschutz, nämlich den momentanen Chef Maaßen, und seinen Vorgänger Fromm. Sehen wir uns mal an was die alles nicht wissen, obwohl es doch ihr Job wäre, Informationen zu beschaffen:
Fromm fängt an. Er war Chef des Verfassungsschutzes von 2000 bis 2012, die Anschläge des 11. September 2001 hat er also im Amt erlebt, und natürlich auch die Veränderungen der Arbeit der Geheimdienste in deren Folge.
Gleich ein interessanter Info-Schnipsel: Die EU hat nach den Anschlägen 2001 die Counter Terrorism Group (CTG) geschaffen, in der die EU-Länder zum Zweck der Terrorismusabwehr zusammenarbeiten. Die Gruppe ist aus dem Berner Club erwachsen, den es schon seit 1971 gibt. Ist es da nicht seltsam, daß man seither und bis in jüngste Zeit immer wieder gebetsmühlenartig aus der Politik hört, die Zusammenarbeit der Sicherheitsbehörden müsse gestärkt werden? Was haben die dann in der CTG in den letzten 15 Jahren gemacht? Wieso erzählt man der Öffentlichkeit immer wieder dasselbe, über mittlerweile Jahrzehnte, ohne daß neu geschaffene Gremien und Gesetze irgend etwas daran zu ändern scheinen?
Aber dann zum Thema Drohnen erfährt man, daß man beim Verfassungsschutz keine Ahnung hatte, daß man Handynummern auch zur Ortung benutzen kann, weswegen sie kein Problem damit gesehen hatten, solche Handynummern und weitere Informationen an die USA weiter zu leiten. Als dann in der Gegend um Afghanistan und Pakistan zwei Deutsche von Drohnen getötet wurden, zu denen der Verfassungsschutz Infos geliefert hatte, mußte man sich darüber Gedanken machen, und hat sich die Vorgehensweise dann vom Innenministerium absegnen lassen, "auch mit Blick auf Mitarbeiter".
Mit anderen Worten, Mitarbeiter beim Verfassungsschutz hatten Bedenken, ob das so in Ordnung sei, und wurden damit "beruhigt", daß der Innenminister die Vorgehensweise ausdrücklich billigt. Nach dieser Vorgehensweise ist die Weitergabe aller Informationen an die USA erlaubt, die nicht "unmittelbar" zur Zielortung taugen, also im Prinzip alles außer GPS-Koordinaten. Alle anderen Daten, wie z.B. Handydaten, die im Zusammenhang mit weiteren Informationen eine Ortung möglich machen, wurden weiter gegeben. Wie glaubhaft ist es dabei, daß beim Verfassungsschutz keiner gepeilt haben soll, daß man mit Handydaten auch orten kann? Soll ich lachen oder kopfschütteln? Wenn das wahr wäre, dann wäre die Inkompetenz dort mit Händen zu greifen.
Dabei wurde den Amerikanern auch der Hinweis mitgeliefert, daß die Informationen nur für nachrichtendienstliche Zwecke gebraucht werden dürfen, nicht aber zu einer Exekution. Darauf hat man sich dann verlassen. Von einer Möglichkeit zur Nachfrage bei der NSA, was genau mit den Daten passiert, machte man anscheinend keinen Gebrauch. Kein Wunder daß den Mitarbeitern das problematisch vorgekommen sein muß. Das ist ja geradezu eine Einladung zum Mißbrauch. Das muß auch dem Innenministerium klar gewesen sein, daher kann man annehmen, daß die Folgen dort in Kauf genommen wurden und werden. Die Versuche, das abzustreiten, finde ich einfach nicht glaubhaft.
Auch der Probebetrieb von XKeyScore, die umfassende Abhör- und Auswertungsanlage der NSA, der 2012 beim Verfassungsschutz anfing, nachdem der BND damit schon lange arbeitete, dauerte sehr lang und hält noch immer an, weil die Mitarbeiter des Verfassungsschutzes offenbar Sicherheitsbedenken hatten. Fromm ging das wohl zu langsam, er fand die Sicherheit zu streng, aber es scheint als hätte er mit Blick auf seine baldige Pensionierung keinen besonderen Aktionismus mehr entfaltet. Besonders interessant dabei: Der BND setzt sich mit der NSA zusammen in Frankfurt direkt an die Glasfaser und schneidet den gesamten Verkehr mit, obwohl im Inland eigentlich der Verfassungsschutz zuständig wäre. Eigentlich müßten beim Verfassungsschutz da alle Warnlampen brennen, und man müßte im Sinne der Spionageabwehr genau hinsehen was die beiden da miteinander treiben. Aber man tut gar nichts. Schaut nicht hin, beschwert sich nirgends, fragt nirgends nach. Was der BND da so tut wird schon seine Richtigkeit haben. Ob das wohl so der Sinn hinter der Trennung der Geheimdienste war?
Ebenfalls interessant: Der Verfassungsschutz ging davon aus daß in verschiedenen Botschaften Anlagen zur Überwachung der Mobilfunknetze installiert sind (wäre ja ein Zeichen absoluter Unfähigkeit, wenn sie das nicht angenommen hätten). Belegen konnte sie es nicht, aber sie (bzw. der Bundesgrenzschutz) haben Botschaftsgebäude regelmäßig "beflogen", und dabei auch "Indizien" festgestellt, z.B. auf der britischen Botschaft, die ihnen anscheinend geantwortet habe, es handle sich dabei um Kunst. Britischer Humor. :-)
Der Innenminister ist bekanntlich der Dienstherr des Verfassungsschutzes. Es möge jeder selber überlegen, was es zu bedeuten hat, daß sich der Verfassungsschutz im Klaren war und ist, daß Mobilfunknetze sehr wahrscheinlich abgehört wurden, auch von den eigenen Verbündeten, und deswegen auch abriet vor der Verwendung von Mobiltelefonen, und im Herbst 2013 meint dann die Bundeskanzlerin ganz überrascht, ein Abhören des eigenen Handies durch die USA "geht gar nicht".
Mein überwiegender Eindruck: Organisiertes Nichtwissen. Wenn man befürchten mußte, daß die Bedenken der eigenen Belegschaft zu groß werden, dann holt man sich ein passend formuliertes Genehmigungsschreiben vom Innenminister, und schickt den US-Partnern einen Text mit, wofür die Informationen benutzt werden dürfen, kümmert sich aber nicht darum ob das befolgt wird. Jeder weiß im Grunde Bescheid, was in der Praxis passiert, aber man hat die Verantwortlichkeit so gut verteilt, daß sich niemand mehr selbst verantwortlich fühlen muß. Am Schluß sterben Leute, und keiner kann was dafür.
Dann der jetzige Chef Maaßen. Dessen Verhalten finde ich so offensichtlich zweckgebunden, daß es mir schon wie ein Eingeständnis erscheint. Er ist ja schon seit Beginn an dabei, Snowden einen Verräter zu nennen, insoweit war sein neuester Auftritt nichts grundlegend Neues. Er spitzt es noch dadurch zu, daß er Snowden unterstellt, er sei ein russischer Spion, bzw. ein Doppelagent. Wie ernst man Maaßen nehmen kann, sollte klar sein wenn man sich ansieht, wie er noch 2014 nichts von Wirtschaftsspionage durch die USA wissen wollte. Selbst Maaßen's Vorgänger Fromm kam angesichts seines deutlichen Nich-Wissen-Wollen nicht drum herum zuzugeben, daß er von den Versuchen der USA, Informationen über EADS zu bekommen, erfahren hatte.
Jetz reitet Maaße also erneut darauf herum, daß Snowden ein russischer Spion sein könnte, obwohl er auch diesmal keinerlei Beweise beibringen kann. Es habe "eine hohe Plausibilität", wäre "aus Erfahrung der Spionageabwehr naheliegend". Maaßen legt vor dem Ausschuß eine Unverfrorenheit an den Tag, die zeigt, daß er sich für unangreifbar hält, und die wohl dem Ausschuß zeigen soll, daß sie keine Chance haben:
Er läßt sich in seinem Eingangsbeitrag über Snowden aus, als dann aber Nachfragen kommen, heißt es plötzlich, es gehe gar nicht um Snowden. Er wirft Snowden vor, wahrscheinlich ein russischer Spion zu sein, was nicht zuletzt auch mit seinem Aufenthalt in Russland zusammen hängt, und verschweigt völlig weshalb er da sitzt, ja er versteigt sich sogar zu spekulieren, er wisse nicht ob er nicht vielleicht sogar da eingeschleust worden sei! Er heuchelt ein Interesse, Snowden zu vernehmen, wenn er in Deutschland wäre, und vertritt zugleich die Haltung der Bundesregierung, die ihn auf gar keinen Fall hierher holen will. Wenn jemand es für nötig hält, derart offensichtlichen Rufmord in Richtung Snowden zu betreiben, und dabei noch behauptet, er würde keine Behauptungen machen und keine Desinformation betreiben, dann zeigt das, daß Snowden genau getroffen hat. Außerdem zeigt es die absolute Geringschätzung Maaßens an die Adresse der Ausschußmitglieder, die er offensichtlich provozieren will.
Fast noch frecher finde ich aber seine Andeutung, die Arbeit des Ausschusses, insbesondere der Auwand, der in seiner Behörde deswegen entsteht, würde letztlich die Terrorismusgefahr vergrößern. Das kann man schon perfide nennen: Ihr seid schuld wenn was passiert. Das geht schon gefährlich nahe an einen Verdacht, den man eben auch haben kann: Daß nämlich die Geheimdienste kein allzu großes Interesse daran haben wenn der Terrorismus aufhört, denn so lange die Gefahr besteht, mindestens gefühlt, so lange kriegen die Dienste Geld und Handlungsspielraum. Wenn man sich so ansieht, was Maaßen alles für plausibel hält, könnte dann nicht auch plausibel genannt werden, daß sich die Dienste ihre eigene Existenzgrundlage womöglich sichern wollen auch durch weniger legitime Tricks? Umso besser wenn man vorsorglich sogar die Verantwortung dafür an einen Untersuchungsausschuß abtreten kann, oder?
Ich habe natürlich nichts behauptet, wie Maaßen, aber Überlegungen dürfen doch wohl noch angestellt werden, auf Möglichkeiten wird doch wohl noch hingewiesen werden dürfen, nicht wahr? ;-)
Und zum Schluß zum Thema Drohnen noch mein Lieblingssatz von Maaßen: "Politisch wollten wir nicht mitarbeiten an Drohneneinsätzen." (Keine Ahnung ob er das wörtlich gesagt hat, aber sinngemäß trifft's absolut den Punkt). Das ist genau die Haltung, die sich schon seit Langem bei den Diensten wie bei der Bundesregierung herausschält: Wir wissen natürlich, was läuft, offiziell wissen wir aber nichts, vertrauen wir unseren Partnern, selbst dann noch wenn die Spatzen alles von den Dächern pfeifen, und wir sichern uns durch passend formulierte Dokumente ab. Politisch können wir uns damit als Unbeteiligte darstellen, und das ist worauf es ankommt. Wir wissen, daß durch Drohnen Leute ohne faires Verfahren umgebracht werden, und wir helfen dabei so weit mit, wie es möglich ist ohne sich nach außen hin die Finger damit schmutzig zu machen.
Da ist die institutionelle Nicht-Verantwortung auf's Tödlichste perfektioniert worden, und die menschliche Ethik ist in den Ritzen zwischen den Ämtern, Diensten und Paragraphen versickert.
Sonntag, 1. Mai 2016
Nordost braucht Streisand
Es ist mal wieder Zeit für den Streisand-Effekt. Da könnt auch Ihr mithelfen, zum Beispiel wenn Ihr in ein paar Tagen auf die High-End nach München geht. Weitere Details später, jetzt muß ich erst einmal erklären worum's geht.
Vor kurzem fand in den USA, in Illinois, die AXPONA trade show statt. Auf dieser Messe gab es auch Vorführungen von Kabeln der Firma Nordost, und um diese Vorführungen hat sich ein Streit entzündet, der inzwischen juristische Dimensionen angenommen hat.
Ins Rollen gebracht hat die Auseinandersetzung Mark Waldrep mit seiner Webseite, der selber auf der Messe ausgestellt hat, der aber nichts mit dem Kabelgeschäft zu tun hat (so weit ich weiß). Es geht also nicht darum, daß sich hier zwei Konkurrenten gegenseitig bekriegen. Die beiden Artikel, die er zu diesem Thema geschrieben hat, sind inzwischen wieder entfernt, was die Firma Nordost per "Cease and Desist Letter" erzwungen hat. Also eine Abmahnung bzw. Unterlassungerklärung.
Es fing offenbar damit an, daß ein Besucher der Messe ("Patrick") einer Vorführung von Nordost beigewohnt hat, bei der der Vorführer angeblich die Lautstärke etwas höher gedreht hat, als die teureren Kabel vorgeführt wurden. Das scheint ein gern benutzter Trick von Kabelverkäufern zu sein, Der gleiche Mark Waldrep berichtete schon im Januar davon, wie dieser recht billige Trick in einem Demovideo von HDMI-Kabeln der Firma AudioQuest benutzt wurde.
Der inzwischen entfernte Text der ersten Beitrags von Waldrep lautete wie folgt:
Nun gut, Waldrep kann es wohl schwerlich beweisen, er kann bloß seine eigene Beobachtung schildern, deswegen hat er sich wohl auch entschlossen, dem Säbelgerassel der Nordost-Anwälte nachzugeben. Aber Waldrep ist kein Laie, der auf der Brennsuppe daher geschwommen kommt und irgend einen Unfug erzählt. Was er schildert ist plausibel. Und wahrscheinlich auch kein Einzelfall.
Diese und die AudioQuest-Episode zeigen meiner Meinung nach ein paar Dinge:
Und man sollte in solchen Vorführungen wesentlich kritischer sein. Setzt Euch da rein und beobachtet was der Vorführer macht. Nehmt das Lautstärkethema ernst, aber konzentriert Euch nicht zu sehr darauf, es gibt auch andere Tricks. Generell verdächtig ist, wenn nicht sicher gestellt ist, daß Ihr immer derselben Audio-Probe in immer derselben Lautstärke zuhört. Es ist einfach, mehrere leicht veränderte Proben auf eine CD zu brennen, und die nacheinander vorzuführen. Und wenn Ihr ein begründetes Verdachtsmoment habt, äußert es so daß es möglichst viele Leute mitkriegen, nicht in Privatgesprächen hinterher. Eure Eindrücke dürft Ihr schildern, das kann kein Rechtsanwalt verbieten.
Die nächste Gelegenheit dafür ist schon in ein paar Tagen in München auf der High-End. Nordost findet Ihr auf dem Stand Nr. A4.1 E114
Vor kurzem fand in den USA, in Illinois, die AXPONA trade show statt. Auf dieser Messe gab es auch Vorführungen von Kabeln der Firma Nordost, und um diese Vorführungen hat sich ein Streit entzündet, der inzwischen juristische Dimensionen angenommen hat.
Ins Rollen gebracht hat die Auseinandersetzung Mark Waldrep mit seiner Webseite, der selber auf der Messe ausgestellt hat, der aber nichts mit dem Kabelgeschäft zu tun hat (so weit ich weiß). Es geht also nicht darum, daß sich hier zwei Konkurrenten gegenseitig bekriegen. Die beiden Artikel, die er zu diesem Thema geschrieben hat, sind inzwischen wieder entfernt, was die Firma Nordost per "Cease and Desist Letter" erzwungen hat. Also eine Abmahnung bzw. Unterlassungerklärung.
Es fing offenbar damit an, daß ein Besucher der Messe ("Patrick") einer Vorführung von Nordost beigewohnt hat, bei der der Vorführer angeblich die Lautstärke etwas höher gedreht hat, als die teureren Kabel vorgeführt wurden. Das scheint ein gern benutzter Trick von Kabelverkäufern zu sein, Der gleiche Mark Waldrep berichtete schon im Januar davon, wie dieser recht billige Trick in einem Demovideo von HDMI-Kabeln der Firma AudioQuest benutzt wurde.
Der inzwischen entfernte Text der ersten Beitrags von Waldrep lautete wie folgt:
In case you missed the comment from Patrick regarding the Nordost power cord demo at the recent AXPONA Show, I’ve copied it below. Patrick was the young man that informed me during the show that he had some serious doubts about the legitimacy of the Nordost power cord demo. He wrote:
“I witnessed the power cord demo. Here’s what took place. The Nordost representative only swapped the power cable on the CD player – he did not swap any cables in the preamp. Here was the procedure.
He would turn off the CD player, unplug the power cable and plug in a seemingly better quality cable. As the cables got progressively more expensive, I was sitting in the front row and personally witnessed the representative increase the volume on the preamp from 58 to 61 (the preamp had a digital volume display that was easy to read when you’re sitting 5 feet away). This increase took place when the representative got into the $1000 and up power cords.
There was also another curiosity. The representative would play the same tracks generally for an AB comparison – but he continually seemed to be stumbling through the same CD to find the right track. In the beginning, he was playing Track 1 (again sitting 5 feet away gives you a clear line of sight to the display). Around the same time that he increased the volume on the preamp ever so slightly, I also noticed that the CD player was now on Track 7 – but it was the same exact song.
I can assure you that I did not go into the demo looking for any kind of tricks. This was my first audio show and I was genuinely curious if I could detect a difference. Needless to say, the volume increase was disheartening and I certainly won’t be buying any expensive power cables. I’m glad I learned that lesson early on in life."
If true, Patrick’s indictment of the Nordost demo would be more fuel to the fire that the high-end cable companies are literally scamming customers by faking their demos. In the interest of getting to the bottom of this issue, I spent over 30 minutes in the Nordost room (Westin Room 450) getting the same demo. In fact, the first demo that the Nordost representative played involved the differences between an expensive power strip when placed on the floor vs. the same power strip elevated by “Sort Kones”, the conical isolation accessories that “enhance” the fidelity of a system by minimizing the vibrations that “create timing errors that smear and distort the music”. The sound of the playback system with the cones was noticeably louder than without. Even the explanation on the Nordost website doesn’t claim that using Sort Kones will increase the amplitude of your system. But when the power strip was elevated, the volume was louder. What was the presenter doing to make it change?
To be continued tomorrow…Der zweite Artikel, den Waldrep ebenfalls zurückgezogen hat, lautete wie folgt:
This post is a continuation from yesterday. You can read the first part by clicking here.
Then I sat through the power cord swap out demo. I sat in the front row of their demo room. The presenter swapped out the power cord to the disc player…and only the disc player. He started with a simple IEC power cord, which probably cost about $1.50. He played about 30-45 seconds of a track from the CD. He stopped the player and turned off the power to the unit. He connected a $200 power cord from the Nordost product line. He powered up the CD player, stood in front of the player, and played the same piece of music once again. The sound coming from the speakers was noticeably louder…by about 1-2 dB. The Nordost guy stood to the side and expressed his satisfaction that the change was immediately obvious and repeatable. The volume setting on the front of the amplifier was the same in each case (unlike the change reported by Patrick…I think the presenter knew me and wasn’t going to risk moving the volume knob). This was proof positive that a “better” power cord results in “better” sound.Ich denke es ist klar warum Nordost das nicht stehen lassen wollte, denn wenn stimmt, was Waldrep schreibt, dann hat der Nordost-Vertreter durch Manipulation der Lautstärke bei der Demo geschummelt. Man könnte es auch Betrug nennen.
Nordost doesn’t build its power cords to meet certain price points. He explained that the company delineates their products by performance levels. He passed around the transparent power cords so that attendees could see the construction of the cables, the careful windings, the wires that keep the insulation from touching the power leads, and the heft of the $6000 Valhalla 2 cable (don’t you ever wonder about the AC cabling that is inside the walls? Wouldn’t that limit the sound?). The demo continued with successively more expensive cords connecting the CD player to the power strip. And each time the music amplitude associated with the more expensive cable was higher. It was not subtle, however the volume on the preamplifier remained the same (unlike the experience reported by Patrick above). The presenter stated that the expensive power cord “acts like a power conditioner” in removing the artifacts and sonic degradation coming from the wall. Was he saying you don’t need a power conditioner…just a $6000 6-foot power cord?
It was like a magician’s trick. Somehow the presenter was making a change to the system without turning up the volume. There was more output coming from the speakers after the swap. At first I couldn’t figure it out…until Patrick commented on his experience during an earlier demo. The volume on the amplifier didn’t change but the track played on the CD was never repeated more than once. I found that curious. The Nordost presenter would play some music and then swap the cable and replay the same piece of music. But instead of swapping out a new power cord and playing the same track for the third time, he always migrated to another track. This truck me as strange. Why wouldn’t he simply repeat the track a third or fourth time? At one point in the process, he turned to me as he was selecting the track number on the CD player and said, “I’m not sure which track number I played last?”
The disc that he was playing was not a commercial replicated CD. It was custom made for their demo. I believe the disc contained two copies of each track. One that was mastered slightly louder than the other. How else could I account for the difference in volume AND the fact that he didn’t go back and play the same track a third time. There were only two copies of each tune on the disc…not three or four.
I think that explains the increased volume that the audience experienced throughout the demo. The presenter played the same music from a different track…one that was 1-2 dB louder. It wouldn’t be hard to pull this off. In fact, as a former mastering engineer, I could create a custom CD-R that would retain the same track number so no one would be the wiser. I regret not recording the whole session or keeping track of the track number being played. I thought about it before heading upstairs but my wife was using my iPhone to run credit cards at our sales table.
Like the AudioQuest/Home Entertainment YouTube video earlier in the year, the Nordost demo was simply not believable. Small isolation cones and expensive power cords do not cause an audio system to get louder…if they do anything at all. The companies behind these audiophile products don’t even make that claim. There’s nothing more compelling or noticeable during an audio demo than comparing two music tracks with one louder than the other. If a power cord resulted in an increase in the volume of the output signal then using a Valhalla 2 power cord to connect a lamp to a wall socket would cause it to glow more brightly…and that doesn’t happen!
As I wrote this article, I went online and read a number of very positive reviews about Nordost cables…including a number that praised the Valhalla 2 power cords. One of them contained this sentence, “The results were stunning. Even with competing systems in adjacent rooms rattling the walls, it was easy to hear the much lower noise floor and improved soundstaging, texture and decay. Cash’s ragged voice sounded like he’d leaned an inch closer to the microphone, as well as pulled off the foam sock.” When a singer gets an inch closer to the microphone, the output amplitude of the microphone goes up. The reviewer was reporting an increase in volume and thinking the cable was the cause…it wasn’t. There are slick published “Guides to High-End Cables” full of glowing reviews and glossy photos of cables. Reading them will cause your head to spin…complete BS.
Cable vendors and the press that uniformly support them with ridiculous “reviews”, are not being truthful about the relative merits of their products. Overpriced cables…analog and digital…are not worth the money. It’s really that simple.
Nun gut, Waldrep kann es wohl schwerlich beweisen, er kann bloß seine eigene Beobachtung schildern, deswegen hat er sich wohl auch entschlossen, dem Säbelgerassel der Nordost-Anwälte nachzugeben. Aber Waldrep ist kein Laie, der auf der Brennsuppe daher geschwommen kommt und irgend einen Unfug erzählt. Was er schildert ist plausibel. Und wahrscheinlich auch kein Einzelfall.
Diese und die AudioQuest-Episode zeigen meiner Meinung nach ein paar Dinge:
- Die Verkäufer von überteuertem Zubehör verstehen genug von Psychoakustik, daß sie wissen was man mit ein bißchen mehr Lautstärke erreichen kann. Es wird Zeit, daß das breite Käufervolk begreift, wie wichtig stringente Lautstärkekontrollen bei solchen Vergleichen sind.
- Die Konkurrenz im Kabelmarkt der "gehobenen Klasse" ist so groß, und die Verkaufsmargen so attraktiv, daß jegliche Hemmungen fallen, was die Verkaufstricks angeht. Waldrep schreibt die Lautstärkeunterschiede seien "not subtle" gewesen. Man wollte offenbar absolut sicher stellen, daß der Unterschied auch gehört wird.
- Man braucht faule Tricks, um teure Kabel verkaufen zu können.
- Zu wenige Leute durchschauen noch immer diesen Betrug. Wenn bei einer Kabelvorführung deutliche Lautstärkeunterschiede zu vernehmen sind, dann müßten eigentlich faule Eier nach vorne fliegen.
- Den schönen Schein müssen notfalls die Rechtsanwälte verteidigen.
Und man sollte in solchen Vorführungen wesentlich kritischer sein. Setzt Euch da rein und beobachtet was der Vorführer macht. Nehmt das Lautstärkethema ernst, aber konzentriert Euch nicht zu sehr darauf, es gibt auch andere Tricks. Generell verdächtig ist, wenn nicht sicher gestellt ist, daß Ihr immer derselben Audio-Probe in immer derselben Lautstärke zuhört. Es ist einfach, mehrere leicht veränderte Proben auf eine CD zu brennen, und die nacheinander vorzuführen. Und wenn Ihr ein begründetes Verdachtsmoment habt, äußert es so daß es möglichst viele Leute mitkriegen, nicht in Privatgesprächen hinterher. Eure Eindrücke dürft Ihr schildern, das kann kein Rechtsanwalt verbieten.
Die nächste Gelegenheit dafür ist schon in ein paar Tagen in München auf der High-End. Nordost findet Ihr auf dem Stand Nr. A4.1 E114