 Willkommen zu Christian Engelmann und Anton Schlesinger. Das ist ein bisschen einschüchternd hier, so ein großer Raum. Hallo. Das Thema von meinem Vortrag ist ein neues Audioformat MQA Master Quality Authenticated. Und wie der Vortragsname schon andeutet, ist es mehr als ein Format. Um das zu erklären, wie wir zu diesem Titel gekommen sind, müssen wir einiges abdecken. Und hier ist die Struktur von unserem Vortrag. Ich werde also jetzt mal ein bisschen über die Audio-Liebhaber und die Audio-Daten-Container sprechen. Dann kommt das Format an sich, dann kommt der Blick darauf, wo die ihr eben verstecken. Und am Schluss werden wir erklären, warum wir das Klepper finden. Es ist schön wieder hier zu sein. Ein paar von euch kennen mich vielleicht. Ich habe schon zwar mal bei anderen Konferenzen gesprochen, eher so zu Digital Identity Themen. Authentizierungen. Und dieses Mal muss ich zugeben, ich liebe Audio und ich glaube, dass diese zwei Kabel unterschiedlich kriegen. Ich sollte ein Millionär sein. Wie einige von euch wissen, die Foundation hat also versprochen, wer da den Unterschied erkennen kann, der kriegt eine Million Dollar und ich denke, das ist unterschiedlich. Aber keiner konnte diese Unterschiede herausfinden in Millionen Gewinnen. Ich würde wahrscheinlich bei diesem Test auch durchfällen. Aber wenn ich das eine oder das andere reinstecke für eine Woche oder so und dann das andere für eine Woche, dann habe ich eine Präferenz. Und ich kann es nicht erklären. Aber wenn du mich fragst, oder wenn du mich in einer Matratze fragst, ich müsste nicht zwei Matratzen zu unterscheiden, wenn ich mich einfach drauf lege. Aber wenn ich jeweils eine Woche drauf schlafen würde, dann würde ich schon einen Unterschied sagen. Anton ist eher auf der objektiven Seite. Aber was ich versuche darzustellen ist, dass das ein Markt ist, der in der Grenzzone von Messbarkeit operiert und davon auch profitiert. Und diese Wahrnehmung von Menschen ist nicht überall gleich, und es ist auch schwierig herauszufinden. Und es gibt Märkte, die das ausnutzen. Und diese Märkte werden fast nicht merkbare Unterschiede angeboten. Und jetzt frage ich euch mal hier, wer von euch ist ein Gamer? Wer von euch hat ein 240 Hertz Monitor? Zwei. Wer von euch hat eine schnelle Maus? Ein paar mehr. Habt ihr das Gefühl, dass das ein Unterschied macht? Das sind alles Objektivisten, Skeptiker. Wenn man das vor 100 Jahren erzählt hätte, die hätten das nie gedacht. Und jetzt sind wir über diese Raten noch ziemlich weit rüber, und alles, was übersichtlich hat, ist super. Und trotzdem verkauft uns Apple noch sehr, sehr viele höhere Datenraten. Es zeigt sich, dass solche Randfaktoren, haptische Interaktion mit der Maus, mit dem Bild schon so was, das modifiziert diese Schwellen der Wahrnehmung. Und im VR-Kontext gibt es tatsächlich Kopfschmerzen im Wortsinn. Und wenn man John Carmich liest, dann sagt er, ok, da geht es sehr, sehr genau in diesem Tweet hier zum Beispiel, um visuelle Artefakte, die normale Benutzer gar nicht sehen halt. Das ist also ziemlich einfach über Audio-Liebhaber und ihre 2000 Dollar Ethernet-Cables sozusagen, sich drüber lustig zu machen. Hier sieht man noch diese Pfeile, möglicherweise wissen die Pakete sonst nicht, wo sie hin sollen. Und solche Sachen untergibt es eine ganz, ganz Menge Art von Beispielen davon. Die gibt es natürlich jede Menge Quellen für Scherze über audio-viele Menschen. Aber wir wollen uns was anderes angucken. Wir wollen uns über das MQA-Format unterhalten, wollen uns das anschauen und gucken, wie das im audiophilen Sektor aussieht, um das sozusagen auf eine clevere Art und Weise diese Randeffekte ausnetz, um einen neuen Kanal zu entwickeln, um Audioinhalte zu vertreiben. Und wir glauben, dass es da Faktoren gibt, die außerhalb der Klangenwellen sozusagen lieben, die dazu beitragen, wie diese Musik auf eine bestimmte Art und Weise vertrieben wird. MQA steht für Master Quality Authenticated und verspricht in Studioklangen zu Hause. Dort sieht man die Webseite, da sieht man eine Seite von der Webseite quasi. Werde Teil der Revolution in aufgenommener Musik und es gibt eine ganze Menge, die man aus diesem Begriff erstmal rauslesen muss, Master Quality Authenticated, authentische Masterqualität, um euch eine Idee zu geben. Ich habe gesagt, ich bin ja ein autofieler Mensch, aber natürlich bin ich manchmal auf der anderen Seite, nämlich auch auf der Seite der Musikproduzenten. Ich habe diese Metalband namens President Evil erwähnt. Ihr solltet euch die Wellenform einfach nicht angucken, weil es klippelt einfach von vorne bis hinten, hat einen Dynamikbereich von 3 dB für die Leute, die wissen, was das ist. Ja, wir sind mit Ministry getourt und auf der anderen Seite sitze ich natürlich, oder bin ich auch interessiert in so akustische Musik. Das bin ich im Hansa Studio in Berlin, wo David Bowie, David Bowie YouTube ihre Produkte haben. Und wir haben das hier aufgenommen von Beatrix Becker. Und das ist Piano und Clarineten und Schellomusik und eine ganz wunderbare Platte. Zurück zu MQA. Ihr werdet also verstehen, dass als Auduliparber und als jemand, der sich im Studio auch gerne aufhält, dass ich vertraut bin, wie Musik vertrieben wird. Und dieses Marketing-Slogan von nimm mich mit ins Studio-Studio-Sound, da hebe ich natürlich die Augenbrauen, weil merkwürdig. Also wenn mir außerdem jemand verspricht, dass sie auch ein digitaler Detail authentifizieren wollen, da erhebe ich das noch mehr, dann wird sogar mein professioneller Neugier geweckt. Ich habe hier bereits Vorträge gehalten über die Geschichte von Identifizierung von Medien und habe darüber auch veröffentlicht. Und alles, was sozusagen eine Authentifizierung verspricht und was sowas verspricht, dann ist für mich tatsächlich interessant. Was sie also sagen, ist das Folgende. Es klingt genauso, wie die Audio-Tontechnik es gehört haben und das werden sie auf dem Playback-Device sicherstellen. Wir werden das so authentifizieren. Alle Leute, die sich mit digitalem Rechtsmanagement auskennen, sollten jetzt mal ein bisschen skeptisch sein über solche Ansprüche, die da hochgestellt werden. Wir werden zeigen, dass es tatsächlich begründet ist. Aber der Teufel steckt auch hier wieder im Detail, weil MQA hat ein sehr, sehr cleveres Design, wie sie digitales Rechtsmanagement wieder zurück in die Musikdistribution bringen. Einige von euch wissen möglicherweise, die Musikindustrie hat das mehrmals versucht und es ist immer fehlgeschlagen. Es hat niemals geklappt, dass quasi digitales Rechtsmanagement tatsächlich an Endverbraucher weiterverkauft wird. Und die meisten Kanäler, die es heute sage, gibt, die sind ohne DRM verfügbar. Also nochmal, das ist die Webseite hier von MQA und ihr könnt sehen, wie sie das erklären, die Autifizierung sicherstellen. Sie haben diesen interessant Begriff Providence. Und das Wichtige ist, dieses blaue blaue und das grüne Licht, was auf dem Gerät angehen soll, wenn eine MQA-Datei tatsächlich auf diesem Gerät authentifiziert und authentisch wiedergegeben wird. Also mit diesem Anspruch, es klingt genau wie im Studio. Um zu verstehen, was sie damit meinen mit dieser Qualität in diesem Makronym dort, ist es wichtig, ein Stückchen in der Geschichte zurückzugehen und mal kurz nochmal ein Hintergrund über das digitale Auto zu geben. Also was ist Qualität? In den 80er Jahren war das so. Digitales Audio wurde der Welt vorgestellt, zumindest an den Endverbraucher. Und hier sieht man die CD, wie sie von Sony beworben wurden. Das müsste von 1984 sein. Und das Format unter der CD ist das so genannte Redbook-Audio, wo wir einen Signal haben, das gesammelt wird mit 16 Bit und 44.100 Hertz. Also 44.000 mal eine Sekunde. Und diese 16 Bit gibt uns knapp 17.000 verschiedene Werte für den Pegel, den der einnehmen kann. Und mit 44,1 Kilohertz können wir bis zu 22 Kilohertz Frequenz abbilden. Das ist 10 Prozent höher als das, was Menschen, also sehr, sehr junge Menschen hören können. Die meisten Musik heutzutage wird in diesem Format immer noch aufgenommen und weiter verbreitet. Dieser Standard, wie gesagt, der Audio-Welt ist auf 44,1 standardisiert. Der Videostandard ist auf 48K standardisiert. Und wenn man also DVD oder Blu-ray hat, dann habt ihr möglicherweise von der 48 Kilohertz Semper-Ray. In den 90er Jahren haben wir also gesehen, wie Musik-Herstellung voll digital geworden ist. Das sind also 20 und 24 Bit Konverter in den Studios angekommen. Es sind höherer Samplingeraten angekommen. Das war ein Konverter von 90ern. Die 24 zeigt, dass er also 24 Bit machen kann. Und es gab auch einen Versuch, das den Verbrauchern zu verkaufen. Die SA-CD, die ist von Sony 99, das ist mit DSD-Encoding vertreten worden. Hat 120 dB range geboten. Und ging bis 30 Hz. Aber wie viele von euch wissen, ist das am Markt nicht wirklich angenommen worden. Und dann gibt es nicht mehr. Und dann gibt es nicht mehr. Das ist genau dann rausgekommen, als die CD-Formate rausgekommen sind, damit sie ein neues Patent- und Lizenz-Regime haben, um einen haben zu können. Warum ist das im Markt nicht angekommen? Nicht nur, weil die Leute es nicht hören konnten, sondern weil um die 2000er Wende die MP3s rausgekommen sind und MP3s rausgekommen sind. Und MP3 den Markt auch einmal beherrscht hat und der Steve Jobs gesagt hat, dass die Bequemlichkeit, die Qualität übertrefft. Er hat Apple mit dem iPod herumgedreht, wo man 5.000 Songs drauf bocken konnte. Und er wusste, wovon er redet. Er liebte Audio und er hat nur Platten gehört und hat ein Audio-System gehabt, was also 50.000 Dollar mehr gekostet hat. Und das hat also den Markt für High Quality Audio gekält. Musikliebe haben, oder ... Die haben natürlich ... religiöse Kriege gegen MP3 gekämpft. Und haben gesagt, das ist furchtbar. Und das zerstört ... das Hörvermögen einer ganzen Generation und haben auch behauptet, dass das Hirnschäden verursacht. Die Musiklistener haben natürlich die Hörvermögen der ganzen Generation gekämpft. Ja, wird die nächste Generation überhaupt noch das hören können, was wir hören konnten? Die werden kompletten ... Kontakt zur Realität verlieren, wenn sie mit solchen Formaten konfrontiert werden. Die Audio-Fielen haben auch ... diese alten Medien ... hinter sich gelassen und sind in die neue Welt eingetreten. Hier sind Streaming-Verstärker, also entweder vom lokalen Netzwerk oder vom Internet, systemisch reinbringen können. Und das bietet DSD an. Und es hat auch den Zugang zu höheren Betraterfalls ermöglicht. Das ist wichtig, weil wir im Kontext von MQA da zurückkommen. Jetzt können wir natürlich nach den Zusatznutzen von diesen Geräten suchen, die über 16K hinausgehen. Aber ich persönlich denke, es gibt Individuen, die in der Unterschiede hören können. Jetzt schauen wir mal, wie es heute so aussieht. Wir sind am goldenen Zeitalter für Audio-Fiele, weil solche Sachen sehr gute Qualität über Streaming mit sehr niedrigen Preisen kommen. Und die können Verlustfreie Files in online Stores kaufen. Und ihr könnt sehen, dass einige der gegenwärtig berühmten Platten in so einem Audio-Format angeboten wird. Das wäre 2496. Oder man kann sogar Streamen mit dieser Auflösung über das Internet. Hier ist eine kleine Webseite, wo man die unterschiedlichen Formate vergleichen kann. Man gibt irgendetwas ein, irgendeine Band oder so, und dann listet er auf in was für Formaten das verfügbar ist. Also dieses Jahrzehnt ist ein goldenes Zeitalter. Man kann also im Prinzip diese Files in der gleichen Auflösung abspielen, wie sie in den Studios gemastert und aufgenommen worden sind. Und in diesem Kontext ist ein Format gestartet in 2014 und auch vertrieben. Hier in London war der Launch Event. Sieht ein bisschen nach dem Sauron-Turmhaus in der Mittelerde. Und da haben sie behauptet, dass sie eine revolutionäre Verbesserung in Audio-Qualität angebrochen haben. Peter Craven und Bob Stuart sind die Erfinder von diesem Format. Und die haben also in einem Journal für Audio-Engineering-Society publiziert. Sie behaupten, dass also die Überschänderung und die Neurowissenschaftler mehr erkennen können. Also die Auflösung von Zeitinformation ist sehr, sehr wichtig und bezieht sich da halt auf Neurowissenschaften. Also da sind sieben Neurowissenschaftliche Papers und von diesen sieben Stück hat nur ein was, eines was mit Menschen zu tun und die anderen sind halt auf Tiere bezogen. Ja, und es ist ein möglicherweise ein Fehler zu geben, aber es ist ein Fehler zu geben. Es ist ein Fehler zu geben, es ist ein Fehler zu geben, es ist möglicherweise ein Fehler zu glauben, dass diese Tiere komplett anders hören als wir und dass sozusagen ja, sie höre Frequenzen wesentlich besser als mir, deswegen ist es vielleicht ein Fehler zu sagen, sich auf dieses Paper zu beziehen. So, was Sie halt gesagt haben, Sie wollen sozusagen die Zeitverschiebungsfehler innerhalb von Konvertern ausgleichen können. Dann sagen Sie, es gibt dort so zeitliche Verschmierungen, das sagen Sie hier, da gibt es also ein Problem mit Zahlen, es ist genannt Blurring, also so Verschmierungen und dieser zeitliche Verschmierungen, das ist im Grunde der Hauptmarketing-Idee hinter MQA, Ihr Qualitätsargument ist, dass es eben besser klingt, was Sie dort machen, ruht zum großen Teil auf dieser Annahme dort. Nicht, dass sozusagen der Studierende nach Hause gebracht hat, sondern auch, dass Sie die zeitliche Verschmierungen reduzieren. Das Format, so sagen Sie es, hat Mechanismen um diese zeitlichen Effizienzen, die in allen Systemen mit Analog-Digitalkonvertierung auftreten und ja, Sie sagen halt, okay, das ist revolutionär und sagen, sondern wir wollen Musik also auf ein komplett neues Niveau nochheben, das ist tatsächlich aus einer Online-Publikation, was man hier sieht, also der absolute Sound, so heißt dieses Ding, lasst die Revolution beginnen, heißt der Artikel und hier vergleichen Sie Bob Syrt sogar mit Einstein und sagen Lord Cavendore, es gibt nichts Neues, was sozusagen in der Physik entdecken ist, sondern das Zitat sagt, man kann nur sehr, sehr viel präziser messen. Wenn man weiter da reinkommt, sorry, das ist das kleinere Text, man kann es nicht so gut lesen, aber im Grunde sagen Sie, einfach es gibt Thomas Kuhn Sachen sozusagen, die Struktur von wissenschaftlichen Revolutionen und reden über ein Paradigmenwechsel im digitalen Audio, sagen, okay, das ist wie das körperkarnische Weltmodell, das dann einfach so setzt hat, also richtig große Sachen, die im Audio passieren, das weiß ich noch nicht gehört, aber wir betreten jetzt gerade einen neuen Paradigma, ein neues Paradigma und das wie überhaupt hier stehen, ist sozusagen ein Teil der wissenschaftlichen Krise, wir gehören nämlich zur alten Welt und denken, ja, möglicherweise doch nicht so ganz. Ja, also natürlich es gibt eine riesige Debatte, die sagt, okay, was ist mit solchen Behauptungen, wie man sie hinstellt und viele von dieser Debatte findet auf einer Seite in einem Computer-Audio-File statt und da gibt es besonders diesen Thread, den ich hier zitiere, der ist im 2. Januar von diesem Jahr eröffnet worden, hat inzwischen 250.000 Views und das ist interessant, weil es gibt ein paar sehr, sehr Leute mit großem Gewicht, die dort publizieren und diesem Thread schreiben und ja, es gibt sehr, sehr viele Kritiker, zum Beispiel Brian Lucy ein Mastering-Ingenieur, der Sexcramies gewonnen hat und halt Depeche Mode und Marilyn Manson und so weiter gemastert hat und der sagt halt diese MQA Dateien, die man jetzt sozusagen streamen oder sich anhören kann, sind nicht in ein Mastering-Studio erstellt worden, sondern in einem auf automatischer Art und Weise irgendwo in der Cloud encodiert worden. Also diese Behauptung, man bekommt den Sound, den der Künstler und der Mastering-Ingenieur direkt gehört haben ist auf jeden Fall falsch, das ist für die aktuellen MQA-Falls nicht da, wir müssen annehmen, dass es auch weiterhin falsch bleibt für die Dateien, die noch kommen werden, weil es gibt einfach keinen kommerziellen Konverter, der MQA-Coding unterstützt. Niemand, der ein Studio hat, kann dieses Format überhaupt einsetzen im Moment, jetzt. Man muss diese Dateien irgendwo hinschicken zu jemanden, der das tatsächlich encodiert und signiert werden und dann kommen sie dort wieder raus. Ein Teil dieser Kontroverse sind ein paar Leute online, die richtige Forschung gemacht haben, zum Beispiel diesem Blogger hier, und ein anonymer Blogger, der gesagt hat, okay, wir machen mal einen Blind-Test von dem ganzen Teil. MQA-Versus andere Hochauflösendateien, ja, schaut euch das mal an, es ist ziemlich kompliziert, was er macht, denn weil diese Encoder halt nicht frei verfügbar sind, können wir tatsächlich nicht Musik in MQA encodieren, das geht einfach nicht, und in den letzten vier Jahren hat diese Firma überhaupt niemanden erlaubt, ihn einfach Dateien zu schicken, um einfach mal einen Vergleich zu ermöglichen hat, dass man ein MQA-Fall mit einem anderen PCM encodiert Format hat, irgendwie vergleichen kann, also es gibt da, er hat einen ziemlich interessanten Art erfunden, um diese Limitierung zu umgehen, kann ich jetzt nicht weitere eingehen, schaut euch die Webseite an, ein weiterer Hacker, der sich das Ganze angeguckt hat, ist Mars Wulgard, der für die Socksbibliothek sozusagen oder für das Sockspaket, das hofft, der als Entwickler tätig ist, der hat ein GitLab-Konto, und dort findet man verschiedene Filterkoffizienzen zwischen MQA und verschiedene Werkzeuge, um so in Kontrollbits und in diesem Stream quasi, um sich diesen Kontrollstream von MQA mal anzugucken tatsächlich, das sehen wir auch später im Vortrag nochmal, wenn es dran ist, um das also zusammenzufassen, so weit 2017 wurden 24 Bit-Dateien, so wie sie aus dem Studio kamen, wurden tatsächlich an Audiofile Menschen rausgegeben, das war erhältlich, die können also sich genau das anhören, was im Studio passiert, auf eine gewisse Art und Weise, zumindest natürlich gibt es andere Sachen, wie ist der Raum ausgestattet, wie sieht die Abspielkette aus, es gibt da noch eine ganze Menge Parameter, die das beeinflussen, aber ist das eigentlich wichtig? Denn die meiste Musik wird ja in verlustbehafteten Formaten, über Spotify oder so was, über Streamingdienste und auf solchen Lautsprechern hier angehört, Mono, Bluetooth, Lautsprecher. Also in diesem Kontext ist die Frage, was verspricht MQA jetzt, in dem Kontext authentischen Klang und sie versprechen auch eine Klangverbesserung, um diese temporale Verschmierung sozusagen zu reparieren. Anton, der an diesen Dingen arbeitet, der wird diese Ansage jetzt mal ein bisschen genau unter die Lupe nehmen. So wie Christoph sich vorgestellt hat, mache ich das jetzt auch mal. Mein Hintergrund ist in digital audio. Mein Hintergrund in digital audio hat 1993 angefangen, also diesen CD-Player gekauft hat, zusammen mit dem Verstärker. Und zwar Echo Speakers. Und das war der einzige Zeitpunkt in meinem Leben, wo ich als Zuhörer sorgfältig Audio zugehört habe. Immer wieder habe ich meine Lieblingsplatten gehört, hauptsächlich Dance Music und den Player, den habe ich immer noch, und der ist immer noch gut. In 2000 habe ich an der TU Ilmenau in der Nähe von Leipzig studiert und habe die Vorlesungen von Karl-Heinz Brandenburg gehört, der in den 90ern eine Ringe-Forschungsgruppe geleitet hat, die den MP3-Algorithmus entwickelt hat. Und im letzten Jahrzehnt bin ich sehr faul geworden und habe runtergeladen und MP3s und Streaming angefangen. Aber Onkyo will mir wieder was verkaufen und ich möchte das auch bald machen, das Geld ausgeben. Ich habe hier ein paar Zweifel mit einem MQA und warum das so ist, werde ich jetzt mal gleich erklären. Also ich finde die Audio-Qualität von MQA nicht so gut. Lass uns mal diese Audio-Technik genauer anschauen. Es gibt nicht so viel Information von MQA, was sie tatsächlich in einem Algorithmus machen. Christoph hat gesagt, es gibt hauptsächlich zwei Convention Papers, Vortrags-Papier, dann gibt es Patente, die die wichtigen Teile verstecken und um deren Möglichkeiten sich zu verändern oder Geld zu machen, maximieren. Und wir haben aber jemanden, der hat ein Reverse-Engineering gemacht. MQA ist ein Endcoder-Decoder-System. Das ist in einem Container drin, so wie Flak oder Alak, oder Microsoft Wave. Und es kann von Standard-Audio-Spielern in Hardware und Software gelesen oder abgespielt werden. Aber MQA will die gesamte Audio-Kette ersetzen. Sie haben die digitalen Analog- und analoge- digitalen Konverter. Der Hauptansatz ist, die Filegröße zu reduzieren und anstatt 24- oder 22-Bit Files über das Internet zu schicken, dann kann man das über das Internet auspacken. Wenn man das dann wieder auspackt, kann man trotzdem die hohe Qualität haben. Das sind jetzt mal die Audio-Qualität. Also MQA behauptet, das ist Verlustfrei- und Studio-Qualität. MQA ist kalibber. Je mehr man bezahlt, desto mehr Bandbreite kriegt man. Man kann also von den Kilohertz viermal auseinanderpacken. Das ist höher als aktuelles Audio mit 24-Bit und 192-Kilohertz. Wenn ich jetzt hier eine Raumkompensierung oder eine Lautnesskompensierung mache, dann verliere ich die MQA Lizenz. Und dann ist es nur noch CD-Qualität oder darunter. Eine Behauptung ist, wir befürworten Verlustfreie Kompression, Verlustfreie Verarbeitung und hier reichisches Ab- und Rauf- und Rundersampling. Wir legen einen Fokus auf Qualität und Effizienzzuwachs, wenn der Endcode und der Decoder sich gegenseitig kennen und genau die analogen Konverter auf die Konverter abbestimmt sind. So, und die Verlust behaftete Kompression verliert Information, egal ob das Maximum-Redundancy in einem Audio-File, das ohne die Verlust ist. Jetzt geht es hier um Channel-Informationstheorie, wo halt steht, wie viel Entropie davon tatsächlich mit übertragen werden kann. Wie viel Entropie davon hat die Entropie-Optimisation und Flack-Kompression für einen bestimmten High-Resolution-Data-Rate 50% Also, da war jemand, der hat für ein bestimmtes File, 50% File, größer reduziert. Mit Flack hat er 50% erreicht und MQA überhaupt 75% erreichen. Es ist offensichtlich, dass das ein Verlust behafteter Prozess sein muss. Das kommt auch in den Paper von Stefan Otto raus, dass ich euch hier unten benenne. Also, dieser MQA-Ansatz gibt einen re-kodiertes und es gibt einen besseren Sound und eine niedrigere Datenrate. Wenn man das mit dem umgeplanten kodieren und abspielen, vergleicht. Also, dieser MQA-Ansatz gibt einen re-kodiertes und erster Riesel, das eine Frage�도-Riesel gives us an frame Central und dannrichtet er diese Przy wydaje, Ich zeige das Schema von dem Sampling auf der oberen Seite. Ich habe eine bandbreiten limitierte Zeitfunktion, die wird in der Zeitdomäne multipliziert, mit Pulsen multipliziert, im dritten Schritt. In der dritten Zeile haben wir das Multiplikationsergebnis. Auf der rechten Seite ist das Frequenzequivalent. Das Zeit eingeschränktes Signal wird eingeschränkt. Bei dem High Resolution Audio ist es 24 Bit pro Sample. Wenn man jetzt ein Low Pass Filter drauf setzt, dann kann man das ursprüngliche Analog-Signal wiederherstellen. Selbst exakt zwischen den Samplen des Skrittensignals. Was MQA jetzt ändert, ist zum Beispiel folgendes. Es geht darum, dass Sie einen Basspline-Kirnel verwenden für dieses Sampling-Schema. Das soll tatsächlich die Zeitauflösung des Ganzen verbessern. Das hat Christopher bereits gesagt. Sie heben da hervor, dass Sie die Wahrnehmung von Menschen von Trasienten in einer halben Mikrosekunden genauer erfassen können. Dieser Basspline-Kirnel soll also diesen Klang wesentlich akkurater wiedergeben. Der Punkt ist, dass Sie den Low Pass Filter am Schluss geändert haben, der dieses Vorringing verhindern soll. Sie wollen damit beweisen, dass Sie mit diesem Kernel die Blurring in der Zeitauflösung erhalten können. Und damit die Signalverzerrung aus der Analog-Digital-Kodierung wieder aufheben können. Also, verbessert das tatsächlich die Soundqualität. Die Zeitauflösung des Ganzen, ich sollte mal kurz mit einem Hörtest anfangen, den Christopher bereits erwähnt hat. Es gab keine Präferenz in diesem Hörtest, die auf MQA sozusagen hindeutet, dass das besser ist. Verglichen mit anderen hoch auflösenden Audio-Formaten. Tatsächlich ist es so, dass in manchen Situationen sogar das andere Standard hoch auflösende Formate bevorzugt wurden. Wenn es die Zeitauflösung geht, verbessert das die Soundqualität. Wenn man sich ihren Behauptungen anschaut, es sollte die Audioeignisse als kurzer als 10 Mikrosekunden, also entsprechend der Bandweite von 100 MHz, das ist tatsächlich fragmürdig. Ich denke nicht, dass das tatsächlich der Fall ist. Das nächste ist, ist es sozusagen auf jeden Song angepasst. Sie sagen, okay, sie variieren die Zeit- und Frequenz-Trade auf ihrer Filter sozusagen. Aber wenn sie einen adaptiven Filter einsetzen, dann wissen wir eher tatsächlich nicht, was daran an einem bestimmten Song angepasst werden soll. Wir kennen die Informationen einfach nicht. Dort, wo es um diese minimal Phasenfilter geht, die dieses Vorklingen, Vorringing verringern soll, diese Filter ändern halt den Frequenzantwort, die Phasenantwort und die Amplitude des ganzen Signals. Das hat Stefan Hotho auch sehr schön gezeigt in seinem Paper und im letzten Punkt, den ich machen möchte auf dieser Folie hier ist, dass diese Fensterfunktion in der Zeitdomäne angeht, um dieses Ringing quasi, also dieses Selbstresonance der Filter zu verhindern. Nach dem Abseits des Filterzentrums und um das sozusagen mit und da zusammen die Zeitauflösung zu verbessern und diese Signaländerung zu kompensieren. Das ist ein Punkt, wo Stefan Hotho sich das angeguckt hat und gesagt hat, der zeigt ganz klar, dass diese sogenannte Appodization, also diese Fensterfunktion einfach nur ein Lowpassfilter ist, anstatt die Soundqualität zu verbessern. Also brauchen wir MQA Verbesserung nach dem, was wir heute kennen aus den Neurowissenschaften oder aus der Medienproduktion. Sie sagen also, okay, wir brauchen eine Zeitauflösung von sechs Mikrosekunden und ja, da geht es sozusagen um das Hören mit zwei Ohren und natürlich können wir Zeitdifferenzen von, die geringste Unterschiede, den wir hören können inzwischen zwei Signalen, sind zehn Mikrosekunden Abstand, aber das hat natürlich zu tun mit einer zentralen Vergleich von Klanken zwischen den Ohren und da sozusagen das Nyquistel mit gilt im Raum, geht das im Grunde nur bis hin zu 1,3 Kilohertz und danach wird es halt nicht mehr eindeutig und wenn man natürlich sieht, was bei Mäusen zum Beispiel der Fall ist, deren Ohren sind einfach sehr viel näher zusammen, deswegen können sie einfach kleinere Unterschiede feststellen, als dass ein Mensch mit seinem größeren Kopf kann und ja, aus der Seite der Medienproduktion gibt es tatsächlich keinen Grund dafür, weder künstlerisch noch wissenschaftlich dann noch irgendwas besser machen zu müssen, als wir es jetzt schon machen können, weil wenn man alle Variablen sich dort anschaut, dann ist das in Multikanaldateien bereits drin, die Übertragungskette ist sowieso immer frei von Einflüssen, die Musik ist die Nachricht, die Musik ist die Message und schließlich wird das Ganze interpretiert vom Abspielsystem, das Abhören, wir brauchen also keinen Kanal, der das Ganze noch mal vorverarbeitet, was in unserem Kopf dann stattfinden soll. Ja, eine allgemeine Frage, brauchen wir auch auflösendes Audio, wenn wir das Ganze aus der Neuro-wissenschaftlichen Perspektive uns mal anschauen, um uns Musik anzuhören. Ich habe hier so ein Graf von Zwickler und Farstel, Psychoakustik und die Hörschwelle für die Stille sozusagen, ist diese durchgezogene Linie hier unten, die zeigt ganz deutlich, wir sind überhauptlich in der Lage, jenseits von Sachen, wo wir mal 20 kHz Schall überhaupt wahrzunehmen. Musik hat einen Amplitudenspektrum mit 1 über F und das heißt, über 20 kHz ist sowieso die Energie dieses Klangs sehr, sehr gering und aus meiner Perspektive her, ich kann mir kaum vorstellen, dass wir da in der Zuhörende Lage sind, so etwas zu hören, weit über 20 kHz, so oder so. Auf der Produktionsseite sieht es so aus, dass wir Filter brauchen, die Interpolations machen und für diesen Fall wollen wir natürlich, wenn wir wesentlich deutlich höhere Auflösung haben, der Punkt dort ist, dass wir tatsächlich die Aufnahmen so erhalten können, wie sie sind. Wenn wir Musik also archivieren, dann ist es natürlich gut, eine ganze Menge Samples zu haben, damit wir genauer interpolieren können, wenn es mal irgendwann Fehler gibt in der Lagerung zum Beispiel. Also es gibt kein Beweis in unserer Nachforschung, dass die Audioqualität mit MQL besser ist. Es ist tatsächlich ein verlustbehaftetes Format, es ändert die Frequenzantwort, es ändert die Bitbreite und wir sehen, dass die Audioqualität tatsächlich runtergeht, die in zumindest in der aktuellen Version möglicherweise nicht höherbar ist, aber der Algorithmus ist halt nur so halbwegs beschrieben und seine Nachteile gerade für hoch aufgelöstes Audio sind durch Marketing-Slogans wie Deblering oder so was, halt sehr versteckt. Also wenn so eine Infrastur einmal etabliert ist, dann kann die Audioqualität auch einfach runtergeeskaliert werden. Und diese Idee von Kernel Optimization, ein als sich selbst anpassendes Coding-Schema, das kann tatsächlich auch einfach bei mp3 halten. Außerdem, man sollte daran denken, es gibt freie hoch auflösende Codecs, die tatsächlich komplett verlustfrei wie Flak zum Beispiel komprimieren. Internetbandbreite ist in der westlichen Welt zumindest auch überhaupt kein großes Problem mehr. Und die wächst auch noch weiter. Es gibt also überhaupt keine Veranlassung für verlustbarhaftetes Audio und natürlich ist die Musik, die es im Moment noch gibt, einfach in CD-Qualität gespeichert. Und wenn wir die jetzt einfach hoch sammeln, dann verringert sich sogar der Rauschabstand des Ganzen. Okay, alright. So, thanks Anton. Okay, I'll show that. Good. So the question is, where is the DRM? Wo ist denn jetzt das DRM? Anton hat es gezeigt. MQA ist cleverer darin, wie sie das codieren. Soweit wir das wissen, das ist ein proprietärer Technologie und alles was wir haben ist reverse engineering von Leuten online und Publikationen. Und das hier ist das Paper von Anton Hotto. Wie diese Schema funktioniert. Und da oben sind 24 Bits Samples. Das ist aufgeteilt in zwei Teile. Baseband sind die Audio Bits und Subband sind die Daten Bits. Die nehmen wir in 24 Bits Sample, schmeißen 8 Bits weg und dann stecken sie andere Sachen unten in den 8 Bits. Wenn man jetzt nachschaut, die Geschichte, sind wir wieder da zurück. Nach den 80 hatten wir die CD, 16 Bits und 44 kHz. So wieder dasselbe erklären. Da kriegt man zwischen 15 bis 17 Bits dynamische Bandbreite mit 48 kHz. Und alles was darüber ist, ist in eine verlustbehafteten Kompromierungsmethode codiert. Wie das genau im Detail funktioniert, wissen wir nicht. Es ist ein sehr cleverer Weg, weil man halt dieses große Spektrum in ein paar wenigen Bits reinkriegen muss und das in den 6, 7, 8 Bits erklären, die man zeigen, die man da sieht. Also es irgendwie geben die schon zu, dass Sonja und Philips mit den 16 Bits bei dem angekommen sind, was die Menschen gut hören können. Und alles was darüber ist, ist jetzt nicht so dützlich. Wir können was anderes damit machen. Was tun wir denn da rein? Das ist eine ziemlich komplizierte und ausgefeilt kryptografische Methode. Hier ist ein MQA Deck. Und das zeigt, ob das File authentisiert ist oder nicht. Authentisierung ist ein loaded term, ein behafteter Begriff. Und das was wir hier machen, ist, wer es hergestellt hat und dass es nicht geändert worden ist. Und das kann man nur mit Kryptografie garantieren. Immer wieder hören wir Geschichten, wo Kryptografie gehackt wird. Und MQA muss halt jetzt Methode um das sich jetzt machen. Jetzt haben sie sich mit UTIMACO zusammen getan. UTIMACO ist im Bankbereich sehr stark. Und hier ist die Webseite von UTIMACO. Und die bieten Hardware-Security-Module an. UTIMACO hat jetzt ein White Paper zu MQA rausgegeben auf ihrer Webseite, wo sie nicht wirklich viele Details rausgeben. Aber es gibt darauf raus, dass eine Publikie-Infrastruktur ist. Und es gibt also auch die MQA-Infrastruktur. Und das Hardware zu mindestens mal in den Inkodier-Stellen drinnen ist. Und die Konvertiere in den Studios solche Hardware haben müssen. UTIMACO hat auch gesagt, hat ein Buch auf ihrer Seite an, und das war ein Buch, wo man auch auf der Webseite auf ihrer Seite angeboten, was die Audiojournale bis jetzt noch nicht gefunden haben. Diese Hardware-Module, die machen es möglich, diese Schlüssel und dieses Verfahren da mit reinzustecken, und wie es genau funktioniert, ist nicht beschrieben. UTIMACO hat nutzbar, gibt wahrscheinlich den Keymanagement-Dienst in-house raus. Und jetzt frage ich das Publikum, ist das ein DRM? Ich frage jetzt, ist das ein DRM? Ich frage jetzt, ist es kein DRM? Ja, MQA sagt, das ist kein DRM. MQA hat keine Technik außerhalb des Studios. Und das ist wie ein großer Teil der Narrative in der Online-Debate, weil MQA und ... Und sie wiederholen immer wieder, dass sie kein DRM haben. Das ist kein DRM, weil ihr die Files kopieren könnt. Aber Kopierschutz ist nur eine Form, das Ziel von DRM, ist es, die Rechte der Benutzer zu verwalten, und zwar sowohl das Erlauben als auch das Verbieten von Zugriff. Und MQA schränkt ein den Zugriff auf die höhere Auflösung. Und gibt da halt der Zugriff nur, wenn man einen MQA-Converter hat, auf diesen Sachen frei. MQA ist sowas wie ein Premium-Model. Man kriegt ein Pfeil, was man überall abspielen kann. Aber wenn man die teuren Sachen haben will, dann muss man halt ein Gerät kaufen, mit der mehr Software so aufs läuft. Wo machen Sie das? Die MQA-Firmware ist reverse-engineered worden. Und die zeigt auch, dass Kopierschutz schon vorbereitet ist. Die verschlüsseln die Files. Warum machen Sie das? Die Streaming-Dienste haben eine schlechte Situation, da gibt es keine Gewinne. Amazon verkauft Prime, Apple verkauft Telefone. Das heißt also, man muss Geld außerhalb vom Streaming-Service machen. Amazon verkauft zurzeit die meisten Lautsprecher der Welt. Unsere Interpretation, was sie versuchen ist, dass es einen neuen Lizenzierungsstrom für die Musikindustrie zu erzeugen. Und diese Elemente von der Hersteller-Kette bereuchten eine MQA-Lizenz. Die Software zum Aufzeichnen, die Software zum Mixen, die Künstler müssten ihre alten Sachen umkundiert haben, die Streaming-Service bräuchten Lizenzen. Warum ist es clever und verdeckt? Also ich denke, diese Nutzung von den 24-Bits sind sehr gut genutzt und es ist schwierig zu finden. Wenn ihr jetzt fragt im Kontext der Konferenz, ich soll was tun, dann sage ich euch, was ihr tun könnt. Ihr könnt genauer nachschauen, was die da tun und das publizieren. Vielen Dank. Vielen Dank für den Talk. Wir haben jetzt noch 5 Minuten für Fragen und Antwort. Bitte stellt euch an die Mikrofone. Haben wir eine Frage aus dem Internet? Nein? Am Mikrofon 1 gibt es eine Frage. Hallo, vielen Dank für den Vortrag. Du hast gesagt, dieses Reverse in der Trainering, dieser Firmware, haben Sie da drinnen nicht diese komplizierte Hardware drinnen? Es ist eine spezifische Firma, die in einem besonderen Produkt war, Blue Sound. Ich weiß jetzt nicht, wie das Ding sicherheitstechnisch geschützt ist. Die Hardware-Sicherheitsmodule sind momentan kein Teil von den Verbraucherprodukten. Die sind ein Teil aus dem Verteilerkontext. Wie die Verschlüsselung funktioniert zwischen den Files und den Verbraucher und Konvertern ist noch nicht bekannt. Es gibt ein paar Anzeichen, wie es funktionieren könnte. Aber die Hardware-Module sind eher auf der Produktionsseite der Kette. Wir haben noch eine weitere Frage. Vielen Dank für den Vortrag. Ich habe zwei Fragen. Die erste ist, denkst du, dass dieses Marketingkonzept überhaupt Erfolg haben kann? Die zweite Frage ist, denkst du, dass Musikenkodierung anders ist als mehr Kanalencoding, anstatt Sample Rate und Bits weiter zu erhöhen? Vielen Dank. Das ist ein gutes Beispiel, wie man was nicht markieren sollte. Die haben jetzt große Uferunsicherung bei den Hardwareherstellern und bei den Verbrauchern geweckt. Die sind rausgegangen. Und haben große Dinge versprochen. Man kann also die Audio sie haben versucht, die Audio-Fielen übers Ort zu hauen und waren überrascht, wie viel Kompetenz sie tatsächlich in diesem Publikum haben. Die Frage ist jetzt noch mal, wie entwickelt sich das Inkodieren von Musik über noch mehr Kanalencoding? Haben wir 16 Kanäle drin? Oder wird das immer noch mehr? Werden wir die Bitrate erhöhen? Das ist wahrscheinlich eine Frage für Anton. Ich kann das nur als Audio-Fieler-Mensch. Der Markt ist tot. Für den Verbraucher ist das ein Problem. Das ist ein Problem. Für den Verbraucher sind alle mit Bluetooth Lautsprechern zufrieden. Das ist Mono. Die Leute, die was mögen, die haben Stereoanlagen und mehr Kanäle haben Probleme mit Räumen. Es könnte sein im Audio-Videosektor, dass da noch mehr verkauft wird. Aber allgemein ist das ein gelöstes Problem. Wir haben jetzt hier Raumkorrekturen und Phasenkorrekturen. Für die Lautsprecher, das muss man probieren. Zwitschers. Parameter für das Inkodieren ist in Vielfalt. Das ist ein Problem. Das ist ein Problem. Das ist ein Problem. Was man mit Bet neighborhoods inkodieren ist in Fairq. clay audio verwendet. Wenn sie einen Raum für Multikanals setups beschreiben und dafür die Parameter übertragen. Vätscher, Bryan Bbeatts. nichts von jemandem gehört, der das so zu sagen erwähnt. Ich denke die Geschichte über diese Authentizität quasi, die Autorisierung und so zu sagen, ja ja, Entschuldigung. Ja, es ist großartig. Ich mache die noch irgendwelche Behauptungen, dass diese irgendwelche virtuell Analogen von irgendwelchen Konvertern haben oder diese Geschichte ist einfach, ist einfach total verrückt, was sie da vorschlagen. Ja, das ist tatsächlich in einem Marketing Materialien, da wird es Fingerabdrund genannt und damit kompensiert der digitalen Analogkonverter für die Fehler, die aufkommen. Und in dem MQA-File ist also dieses Gerät eingetragen. Aber das ist das, was wir gesehen haben bisher, kann das nicht bestätigen. Der Encoder erscheint den Song zu interpretieren und überlegt sich dank, wie viele Bits in der dynamischen Range kodieren soll und macht diese Kompression. Es ist, wir haben keine solche Beschreibung des Raumes in der Kette gefunden. Ja, vielen Dank noch mal für den Talk.