 Ja, herzlich willkommen. Das ist scheinbar ein sehr nördiges Thema, selbst für die Gulaschprogramme hier Nacht. Und zwar geht es jetzt um OSPARK, die Open Source Podcast Audio Chain. Und wenn ich mal kurz ins Auditorium fragen darf, wer hat denn schon mal was mit Podcast gemacht? Und wer überlegt sich, vielleicht mal Podcast zu starten? Okay, gut, dann habe ich auch dazu was zu sagen. Das ist jetzt natürlich ein sehr spezielles Tool. Das ist halt einen Teil, den man in der Erstellung eines Podcasts brauchen kann, abdeckt. Und allgemein braucht man noch viel mehr dazu. Und rein mit Technik kann man keinen Podcast machen. Aber ganz grundsätzlich, wenn ihr euch überlegt, einen Podcast zu machen, so reicht euch eigentlich erst mal eine richtig gute Idee. Was wollt ihr der Öffentlichkeit mitteilen? Was wollt ihr sagen, wenn ihr zum Sender werdet? Das Wichtigste ist die Idee. Wenn ihr dann aufzeichnen wollt, dann könnt ihr das schon allein mit einem Smartphone machen. Wenn ihr dabei ein bisschen bessere Qualität haben wollt und auch weniger Arbeit, dafür gibt es ausgezeichnete Tools und Communities. Ganz da kann man entweder mit einem Smartphone oder mit einem externen Digitalrekorder aufnehmen oder man benutzt direkt Ultraschall zur Veröffentlichung Potlaf, verbessert den Klang mitophonik oder stellt Fragen im Sendegate. Also wollt ihr Podcast machen? Schaut ins Sendegate. Dort findet ihr wirklich zu allen Themen etwas und könnt auch alle Fragen stellen. Ganz wichtig, wenn ihr euch überlegt, mal mit einem Podcast zu starten, ist das wundervolle Projekt der Podcastpartner, wo auch gute Freunde mitmachen. Die haben sich zum Ziel gesetzt, ganz besonders am Anfang zu helfen. Wie starte ich den Podcast? Worauf muss ich achten? Wie können die verschiedenen Tools miteinander benutzt werden? Wie verbessere ich meine Gesprächsführung? Alles das kann man dort beantwortet bekommen. Und hier zum Beispiel der Martin macht den Staatsbürgerkunde Podcast. Die Melanie zeigt für Wissenschaft und die haben wirklich Erfahrung und möchten nicht nur neuling helfen, sozusagen in diese Podcastszene hineinzukommen, auch zum eigenen Podcast helfen, sondern schauen sich auch immer um nach Leuten, die schon Podcast erfahren sind und eventuell anderen um die Arme greifen können. Ich selbst habe ein Podcast, den mache ich zusammen mit meiner Kollegin Gudrun Teter. Und zwar machen wir den Modellansatz Podcast. Das ist ein Podcast über Mathematik, über Modelle und die Anwendung. Und da sprechen wir mit Studierenden, mit Absolventen, aber auch mit Forschern und Lehrenden und werden dabei glücklicherweise ganz hart kräftig von der Fakultät für Mathematik am KIT unterstützt. Also ist ein Karlsruhe-Podcast. Und ja, als sie den Podcast gestartet haben, waren wir schon in tollen Räumlichkeiten mit wunderbar klaren Linien, mit sehr schön glatten Wänden und jeder, der versucht, mal ein Podcast aufzunehmen, überhaupt etwas mit Audio zu machen und immerhin herum sind glatte Wände. Dann bedeutet das Problem. Das bedeutet nämlich, dass das, was man sagt, mehrfach ins Mikro kommt, selbst wenn man so schöne Head-Sets benutzt. Der Schall kommt von überall her und man hat einfach ein unglaublich schlechtes Signal, besonders wenn man zu zweit, also wenn man jemand andern spricht und nicht nur alleine spricht, dann gibt es immer den Effekt des Übersprechens. Das heißt, was die erste Person sagt, wird durch zweite Mikro aufgenommen, aber noch nicht mal direkt, also auf jeden Fall zeitverzögert, hört sich an wie ein bisschen Hall, aber über hundert verschiedene Wege und das hört sich einfach richtig schlecht an. Ja, eben letzten Jahr ist die Fakultät in der Neuesgebäude gezogen, ins renovierte Fakultätsgebäude, sogar preisgetrönt, hat leider noch mehr glatte Wände. Das Problem hat sich für uns nicht verbessert, sondern ist eigentlich noch ein bisschen schlimmer geworden. Und auch wenn ich versuche, manchmal so in Räumen aufzunehmen, die ein bisschen, ja, zum Beispiel so Stoff an den Wänden haben, das ist ein riesiger Vorteil, der schluckt nämlich den Schall im Gebäude selbst. Wenn man dort mit den Kolleginnen oder Kollegen spricht oder mit Absolventinnen und Absolventen, dann haben wir immer das Problem. Ja, was haben wir da gemacht? Na, wir haben uns eine Audiochain gebaut. Diese Audiochain ist so, wie man es halt macht, wenn man erst mal etwas sich zusammensteckt, um erst mal eine Lösung dafür zu kriegen. Ich habe ein Makefile aufgesetzt, habe ein Mittel-Speche, die mir alle wirklich ein Konstrukteur natürlich mit Socks, dem Swiss Army Knife of Audio Processing, eine Pipeline gestrickt, die schon mal so ein bisschen bessere Signale rausbekommen hat aus den Aufnahmen. Es hat sich aber rausgestellt, auf jeden Fall braucht man auch ein Leveler. Das macht Socks nicht so gut, aber ganz klar ein Crossgate. Was ist ein Crossgate? Ein Crossgate regelt immer die andere Seite herunter, die gerade nichts sagt. Und das hilft, um übersprechen zu verhindern. Denn, wenn jemand nichts sagt, kann das Mikro abgeschaltet werden, der Heil kommt nicht an. Das System muss nur lernen, ab wann es annimmt, dass tatsächlich dort ein Signal vorhanden ist. Dann bekamen wir eine Anfrage aus der Studierendenschaft und es hieß, ja, ihr macht ja so einen schönen Podcast, können wir nicht auch sowas machen, auch zu diesen Themen. Und wir haben auch eine ganz tolle Idee für ein neues Konzept und da würden wir gerne eure Pipeline benutzen und nicht sozusagen auf eine andere externe Software zurückgehen. Also jeder, der halt wirklich hochqualitativ das machen will, mit weniger Ecken und Kanten, dem seiophonik empfohlen. Fantastisch das System. Nur war da halt die Frage, nee, das sollte bitte auch möglichst so sein, wie wir das machen. Ja, und da hat jeden Problem. Ich habe es zusammengehackt. Das war jetzt nicht wirklich in einem guten Zustand, dass ich also nicht ruhigen Gewissens das rausgeben konnte. Und dann ist die Entscheidung gefallen, alles dies wissen mal in eine Software zu stecken. Und diese Software ist die Open Source Podcast Audio Chain aus Pack, die ja verschiedene Features hat. Man kann damit mehr Kanal Podcast abmischen. Man kann Intros und Outros davor und dahinter hängen. Es gibt einen adaptiven Audio Leveler. Das heißt, Leute, die vielleicht unterschiedlich laut sprechen, werden auf eine Lautstärke gebracht. Es hat Filter gegenüber sprechen, wie zum Beispiel das Crossgate. Man kann damit mit Mono, Stereo oder mehr Kanal aufnehmen. Es hat auch so ein bisschen speziellere Sachen. Darauf komme ich später noch, wie zum Beispiel, dass man lange Pausen aus dem Gespräch herauskürzen kann. Kann mp3, org, Wavefiles, Bilder erzeugen. Und ist auch komplett, das war für mich wichtig, in durch die Command Line Version automatisierbar im Makefile. Aber, ja, da ich gefragt wurde, auch mal dafür vorzutragen, auf der Subscribe-Konferenz habe ich auch eine GUI dafür gemacht, weil viele jetzt nicht unbedingt mit so einem Kommando zeigen, Utilities so gut zurechtkommen. Damit es aber offen ist für die Integration und verschiedene Projekte und ihr daraus machen könnt, was ihr wollt, habe ich es unter die MIT Open Source License gestellt. Das heißt, ja, einfach sagen, woher es kommt und ihr könnt damit Geld machen, wenn ihr das wollt oder es einfach in andere Open Source Projekte mit einnehmen. Das ganze Projekt ist recht jung. Also dieses Übertragen in ein Projekt in Ostfark. Das habe ich im Februar gestartet. Im März habe ich es dann auf GitHub gestellt und im Sendegate, wie vorhin schon erwähnt, ja, der Community bekannt gegeben. Im April habe ich dann die GUI für OSX, Linux und Windows geschrieben und im Mai die 1.0 released und auf der Subscribe 7 der Podcastekonferenz in Berlin. Also, ich bin zuletzt in Berlin, die nächste ist in München. Und jetzt hier auf der GPN vorgestellt. Ja, oder stellt sie jetzt gerade vor. Das heißt, es hat noch Ecken und Kanten, aber vielleicht ist es für einige von euch etwas, was ihr nutzen wollt oder mal hineinschauen wollt. Es ist ein Bindeglied zwischen der Aufnahme und dem Schnitt bis zur Publikation. Der Schwerpunkt liegt darauf, dass man robust damit aufzeichnen kann. Das heißt, ihr steckt es in eure Pipeline rein und es macht, sollte in den meisten Fällen das tun, was ihr wollt und ich wollte es einfach auch schlank haben, weil die Erfahrung zeigt, sobald man sagt, ich brauche dafür Diesel und jene Bibliothek, hat man viel Spaß beim Installieren. Und ich sehe es eher auch als ein Baukasten, wo man verschiedene Sachen ausprobieren kann. Ich würde nachher ein paar Weißfile geben, was ich damit gemacht habe, wo ihr wahrscheinlich nicht im ersten Moment daran denkt, dass man das mit so einer Audio-Chain umsetzen kann. Und deswegen soll es auch eine Plattform für neue Verfahren und eben auch Experimente sein. Das Ganze läuft bei euch auf dem Rechner. Das heißt, ihr müsst nicht im Netz sein, müsst nicht irgendwo die Daten hinschicken. Und wie gesagt, wenn ihr das irgendwo in andere Projekte aufnehmen wollt, bitte, ich freue mich darüber. Man kann das entweder in eine Kommande-Zeil nutzen oder mit dieser wundervollen, nicht volierten, grafischen Oberfläche. Die habe ich mit FLTK gemacht, einfach aus dem Grund, dass es wahnsinnig schlank und ich kann gleich auf alle Plattformen gleichzeitig entwickeln. Ich werde jetzt im Folgenden ein bisschen die Oberfläche beschreiben. So, wenn ihr das benutzen wollt, was könnt ihr dort reinstecken? Wie geht ihr damit um? Und als allererstes müsst ihr euch für den Modus entscheiden. Wollt ihr eine Stereoproduktion machen, eine Monoproduktion? Oder wollt ihr, wenn fünf Kanale reingehen oder zehn, dass auch wieder zehn Kanäle rauskommen, weil ihr womöglich irgendwie anders damit arbeiten wollt? Das ist die erste Entscheidung. Speziell, wenn ihr Stereo verwendet, braucht ihr noch zusätzliche Information. Denn wenn ihr sagt, ihr wollt Stereo machen und ihr steckt verschiedene Sprecher rein, dann macht dieses System für euch daraus Stereo. Der nächste Teil, das sind die Segmenten. In den Segmenten trägt man zum Beispiel die Intro ein, dann das eigentliche Gespräch und hinten die Outro. Und am Ende muss man auch sagen, welche Dateien sollen erzeugt werden oder welche Medien. In jedem Segment findet ihr dann den mittleren Teil, wo ihr dann sagen könnt, was in jeweils die Quelldateien und welche Filter wollt ihr drauf loslassen. Und in ganz unteren Bereich findet ihr dann das eigentliche Kommando, jetzt render das Ganze, arbeite und gleichzeitig auch das Ganze als Kommando-Zeilen-Interface. Das heißt, wenn ihr sagt, ich will jetzt noch mal wissen, wie würde ich das automatisieren mit dem Kommando-Zeilen-Tool und entsteht die entsprechende Kommando-Zeile. In den Zieldateien könnt ihr angeben, ob ihr jetzt mp3, wavefile, ockfiles oder eine Wellenform als net-PBM erzeugen wollt und könnt für mp3 und ock auch gleich die Metadaten angeben, weil das sonst ein bisschen hässlich ist, das immer noch nachträglich per Hand für alle Formate reinzumachen. Wenn jemand Interesse hat, dass auch Obus unterstützt wird, das ist eigentlich ein paar Zahlen gut. Jetzt dazu im Einzenen. Der Modus der Produktion ist eben, was wollt ihr für eine Datei erzeugen? Das kann Mono sein, aktuell Intensitätsstereo, Laufzeitstereo oder Mehrkanal. Speziell, wenn man Stereo erzeugt oder ich muss mich einfach die Frage stellen, warum ist eigentlich Stereo interessant für ein Podcast? Weil sehr, sehr viele Podcasts senden ihre Produktion komplett in Mono. Interessanterweise senden sie in Mono, aber es ist eine Stereo- und p3-Datei. Sie würden Platz sparen, wenn sie es als reines Mono senden. Ich finde aber, es ist ein riesiger Vorteil, wenn man tatsächlich Stereo verwendet. Denn wenn mehrere Personen dort sprechen, um man dem Hörer so einen gewissen Hinweis gibt, ja der eine ist ein bisschen weiter links, der andere ist ein bisschen weiter rechts oder sie spricht in der Mitte, dann gibt es den Hörer nicht immer einen riesigen, also schon mal eine weitere Information, wer das ist und auch mehr Hinweise, wie man das dann auch unterscheiden kann. Teilweise gibt es auch ganz tolle Effekte, dass man es gefühlt hat. Man sitzt zwischen den Leuten und es ist noch so intimer in dieser Situation, was Podcasts sowieso sind, dass man also wirklich den Gespräch noch besser lauschen kann und die Situation hat. Die sitzen dort um einen herum. Man muss nur darauf aufpassen, dass man die Intensitätsunterschiede nicht übertreibt. Weil es gibt nichts Schlimmeres, als andauernd sozusagen von einer Seite belabert zu werden. Da würde man sich einfach in die Richtung drehen, um diese Situation zu verändern. Wenn aber die Leute den Podcast mit Kopfhörern hören, können sie das nicht. Man kann nicht plötzlich sagen, ich drehe mich nach da, nur weil es dauernd auf der Seite ist. Deswegen muss man diese Intensitätsunterschiede wirklich in Maßen halten. Also plus oder minus 10 Prozent auf den beiden Seiten geht. Da drüber wird das schon ein bisschen kritisch. Was man sich aber auch immer überlegen muss, viele Leute, oder ich habe keine Zahlen, aber es gibt einige Leute, die nur Mono hören können. Wie zum Beispiel, weil sie einen Rechner haben, der nur einen Lautsprecher hat oder ein Mobilgerät, das nur einen Lautsprecher hat. Dann wird das Gerät, oder weil es die Personen möchte, das nach Mono zurückmischen. Das ist bei einer Stereo-Intensitätsstereo, wo man einfach auf der einen Seite etwas lauter macht, auf der anderen Seite etwas leiser, gar kein Problem. Das lässt sich wunderbar zum Mono zurückmischen. Bei einer anderen Art von Stereo wird das schon ein bisschen interessanter. Was man auch beachten muss, ist, dass die Kompassionsraten dadurch, dass man Stereosignale erzeugt, ein bisschen schwächter werden. Das heißt, wenn man sagt, man will in der bestimmten Qualität seine MP3- oder Octatile erzeugen, dann wird die ein bisschen größer werden, weil plötzlich mehr als nur ein Kanal übertragen wird, sondern zwei unterschiedlichen Kanäle. Sagt man hingegen, ich habe eine feste Bitrate, dann wird die Soundqualität eventuell ein bisschen runtergehen. Aber da muss man halt einfach hoch genug in der Bitrate gehen. Also wer sowieso mit 128k Bit kodiert, der ist schon jenseits von gut und besser. Also da müsst ihr euch keine Sorgen machen wie ein Stereo. Was Ostpacno bietet, ist, dass ihr einmal genau dieses Intensitätstereo macht. Das heißt, ihr habt zwei Kanäle und der erste Gesprächspartner ist so mehr auf der rechten Seite, ist da einfach lauter, mit 100%, auf der anderen Seite vielleicht nur mit 80, dann die zweite Gesprächspartnerin ist in der Mitte, hat auf beiden Seiten je 90% und der dritte Gesprächspartner ist wiederum halt auf der linken Seite und vielleicht dort 100% und dort nur 80%. Auf die Art und Weise kann man schon für einen gewissen Stereo-Eindruck vermitteln, der auch nicht zu stark ist, aber den Hörern schon mal hilft. Das ist das herkömmliche Intensitätsstereo, ist sehr einfach. Eine andere Variante, die man wählen kann, ist das Erzeugen von Stereo durch Laufzeitunterschiede. Das ist eigentlich die natürliche Art, wie man auch Stereo hört. Denn wenn ich jetzt von dort etwas höre, dann ist die Distanz von dem, was er jetzt sagt, zu mir hier rüber, zu den verschiedenen, zu den beiden Ohren, unterschiedlich lang. Und diese Unterschied bedeutet das Signal, was ich höre, kommt auf dem Ohr später an, als auf diesem Ohr. Also gerade wenn die Person voreimsitzen auf einem sprechen oder gerade, wenn es um tiefere Frequenzen geht, so 1.000 Hertz oder unter 2 Kilohertz, ist dieser Teil, dass die Laufsunterschiede größer sind, der größere Teil, der einen Effekt darauf macht, dass man Stereo hört. Für höhere Frequenzen ist es so, dass unser Kopf die hohen Frequenzen ablockt, aber tiefe Frequenzen gehen um den Kopf herum, weil einfach da ab so Kilohertz, glaube ich, ist es nur die Wellenlänge von der Kopfgröße. Das heißt, wenn man Stereo erzeugen hat, hat man eigentlich die beiden Varianten, so als Hauptvarianten, dass man sagt, man macht Intensitätsunterschiede, das wäre bei hohen Frequenzen die richtige Variante, bei tiefe Frequenzen, Laufzeitunterschiede. Das sind ein paar Millisekunden und halt eine Distanz von, sag ich mal, 10 cm vielleicht, wenn jemand von dort spricht, 20 cm, wenn es direkt von der Seite kommt. Das kann man einkodieren und hat aber einen entscheidenden Vorteil, dass man das nicht gehört, ohne dass es auf der rechten und linken Seite unterschiedlich laut sein muss oder gar nicht so stark unterschiedlich laut sein muss. Das heißt, man hat dieses Problem nicht, spielt zum Beispiel jemand nur die rechte Seite ab oder linke Seite ab, dann kommt es immer noch mit der gleichen Qualität drüber, als würde quasi nur eine Seite, als würde es komplett gehört werden. Problem ist aber, wenn man die Laufzeitunterschiede wählt, dass, was kann ich noch, dass die beiden Signale, die zu einer verschiedenen Zeitpunkt kommen, aufeinandergelegt werden und dann gehen hohe Frequenzen also ein bisschen verloren. Das hat man in Überlagerung, wo sich bestimmte Frequenzen gerade sich auslöschen können und das hört sich dann ein bisschen, wenn es extrem gemacht wird, wie durch ein Rohr gesprochen an. Aber ein bisschen ist das auch der Effekt, wenn man zum Beispiel Radio hört und plötzlich von Mono auf Stereo umstellt, dann sieht man sich klar an, dass das normal ist, dass man diese Laufzeitunterschiede hat und die auch da einkodiert sind und die eliminieren halt eher hohe Töne. Ich habe es eingebaut, damit Leute das auch probieren können, im Podcast auch damit Stereo zu machen. Da würde ich sagen, probiert es aus, macht es moderat und schaut mal, ob das irgendwie einen besseren Stereo-Effekt erzielt. Aber ich sage jetzt nicht, dass das die beste Variante ist, die man auf Stereo und Podcast kodieren kann. Ein bisschen weniger mögen sie die Kompassionsverfahren, aber das ist die Variante. Die Segmente, die im Ostpark betrachtet werden, das sind genau die Teile, die durch die gleichen Filter gehen sollen. Ein Segment kann, wie gesagt, das Intro sein. Da will ich natürlich keinen Crossgate drüberlaufen lassen, sondern da will ich, dass das Stereo-Signal direkt durchgeht. Das ist eine Dynamikanpassung. Aber der zweite Segment kann zum Beispiel das eigentliche Gespräch sein. Ein drittes Segment könnte eine Tonspur sein, die ich aus dem Internet hatte, wo ich während des Gesprächs etwas abspiele, was aber durch eine andere Filterchain durch sollte. Dann kann man sagen, das zweite und das dritte Segment ist parallel. Das dritte Segment soll einfach roh durchgehen, weil es schon Stereo ist. Das zweite Segment, wenn ich Personen habe, ich habe einen Wildaufstereo, die bekommt dann natürlich auch ein Leveler und eben das Crossgate dort hinein. Jeweils kann man dann eingeben, was ein Segment-Typ das ist. Für Voice ist sozusagen schon voreingestellt, ja, da wird es ein Leveler haben, nachher nochmal den Dynamikumfang maximieren. Und dann gibt es jeweils an, wie von diesem Segment ins nächste Segment überblendet werden soll. Entweder kann man sagen, das nächste Segment ist parallel oder es gibt einen Überlappen. Wir sind gleich laut und werden in diesem Fall vier Sekunden gleichzeitig gespielt, eben vier Sekunden übereinander geschoben. Oder man kann sagen, es soll fading, dass in diesen vier Sekunden das erste Signal in den Jahr nach Null geht und das zweite von Null nach 100% in den Jahr hoch geht innerhalb der in vier Sekunden. Bei zwei Sekunden sind beide dann in der Mitte. Wenn man jetzt in einem Segment ist, kann man angeben, welche Ton-Dateien, welche Kanäle sind da jetzt eigentlich drin. Das können halt, zum Beispiel vom Rekorderaufgrund eine einzelne Spuren sein. Hier habe ich sozusagen hier vom Zoom Track 1 und 2 gehabt. Man kann aber auch Stereospuren hineinstecken. Die würden das mal standardmäßig als zwei eigene Kanäle aufgefasst. Würde man aber sozusagen das Mixsignal von den beiden haben, kann man sagen, Stereo soll nach Mono gemixt werden oder nur das linke oder rechte Signal davon übernehmen. Wenn man zum Beispiel den Fall hat, dass sozusagen alle Personen mit Mono aufgenommen wurden, aber eine Person mit einem Stereomikro aufgenommen wurden, dann findet ihr das vorher nach Mono heruntermixen. Sonst werdet ihr da in Probleme reinlaufen, weil das System denkt, naja, das sind hier zwei Kanäle, womöglich zwei unterschiedliche Sprecher. Das mag das System nicht. Es ist da nicht sehr intelligent. Ihr müsst einfach sagen, wie es abläuft und ablaufen soll. Die verschiedenen Filter, die man dann auswählen kann, sind hier zum Beispiel der Leveler, das Normalisieren des Pegels, Crossgate, Crossfilter, Trim, also vorn und hinten Stille wegschneiden, die in der Aufnahme, also lange Pausen herausnehmen oder das Signal komplett rausnehmen. Bei einem Einzelnen. Der Leveler ist dafür da, dass man sozusagen ein Signal, wie jetzt oben, das aus verschiedenen lauten Bestandteilen besteht. Das hat erst jemand ganz leise gesprochen und dann ist er sehr laut geworden, dass man das auf eine gleichmäßige Lautstärke bringt. Das Verfahren, was ich da verwende, ich berechne die Energie, das richtet sich jetzt nicht nach diesen Rundfunkstandards, sondern es ist eine Methode, ich betrachte die Energie in einem bestimmten Zeitraum und versuche die Energie konstant zu halten, es sei denn, es ist stille da drin. Das ist ähnlich, wie das auch in diesen anderen Standards betrachtet, aber keine Frequenzabhängigkeiten, also Energie heißt einfach lautstärke Energie. Das Normalisieren ist eine globale Anhebung oder Absenkung des Signals. Innerhalb von Ostpark wird alles in Float gerechnet, d.h. da gibt es keinen Übersteuern, will ich aber nachher es auf 16-Bit-Rändern, und das hebt einfach den Maximalwert in den vollen 16-Bit-Bereich. Eigentlich so der Standard, den man am Ende nochmal rüberlaufen lässt. Das Crossgate ist wie gesagt eines der Hauptkriterien, warum ich das Ganze überhaupt gestartet hatte. Das ist so der typische Fall. Auf der linken Seite seht ihr ein Gespräch, wo die erste Person die ganze Zeit redet und was ihr da unten in klein seht. Das ist einfach der Hall, der vom zweiten Mikro von der zweiten Person wird. Irgendwann wirft die zweite Person dort etwas ein und ist danach wieder still. Was das Crossgate nun macht, es nimmt sich bei beiden Kanälen so diese durchschnittliche Lautstärke und versucht zu erkennen, wann ein Kanal aktiv ist. Wenn ein Kanal aktiv ist, also da gibt es so eine Abwägung, bist du bei 100% oder nicht, und nur wenn jemand bei 100% ist, wird der Kanal komplett aufgemacht, ist er drunter, aber niemand anderes, wenn beide aufgemacht werden, wenn aber der eine ein bisschen leiser ist, dann wird er auch ein bisschen runter geregelt. Das ist nicht ganz optimal, sieht man auch hier an der Stelle, wo die zweite Person etwas hineinwirft, wird er erst ein bisschen runter geregelt. Bitte, sprecht nicht gleichzeitig. Aber das ist ein extremer Fall. In vielen Fällen funktioniert es einfach trotzdem, weil wenn beide als normal sprechend erkannt werden, bleiben auch beide Kanäle offen. Das Problem, was sich nun rausgestellt hat, das löst noch nicht alle Aufnahmesituationen. Es gibt einfach Situationen, die sind noch schlimmer. Es ist noch mehr Hall da drin. Manchmal sogar der Hall so schlimm, dass der Hall durch zweite Mikro lauter ist, als wie die zweite Person spricht. Also ich habe solche Aufnahmen gesehen und solche Aufnahmen sind auch bei uns im Podcast drin. Man hört es noch nicht. Warum? Weil ich mir noch ein anderes Verfahren überlegt habe, was ein bisschen weiter in die Daten reingeht. Und zwar, typischerweise, wenn zwei Personen miteinander reden und Podcast aufnehmen, sitzen sie in einem bestimmten Abstand, den sie so ungefähr einhalten. Das heißt, ich kann die Aufnahme nehmen und einfach mal analysieren, nach welchem Abstand kommt euch das Signal auf der anderen Seite an. Und umgekehrt, das ist nicht der gleiche Abstand. Weil bei der einen Person, das Mikro vielleicht so gedreht, dass es in die Richtung direkt guckt, beim anderen geht es vielleicht in die andere Richtung und muss erst oben über die Wand gehen. Dann kann ich so erwarten kann, wenn es Übersprechen gibt, wann das ankommt. Leider bleiben die Leute nicht so still sitzen, sondern bewegen sich mal vor und zurück. Das heißt, es hilft mir nicht, sozusagen diesen optimalen Abstand zu wissen, sondern ich muss immer in diesem Bereich ein bisschen suchen. Erkenne ich, dass das Signal, was ich auf dem anderen Mikro höre, so zum Hauptteil ein Übersprechen ist, wenn ja, macht den Kanal dicht. Und das seht ihr auf der rechten Seite. Unten ist das Signal komplett weg, was Übersprechen war, als der zweite Kanal ein eigenes Signal bringt. Dass also nicht mehr das Übersprechen Dominant ist in den Signal, sondern da ist noch was dazu gekommen, geht der zweite Kanal auf, aber der erste wird nicht zugemacht. Weil der erste kein Übersprechen vom zweiten Kanal hat. Da muss ich jetzt aber sagen, das erste Verfahren, das Crossgate, der ist robust, den könnt ihr fast immer laufen lassen. Es sei denn, ihr habt den Fall, und vielleicht sogar jemand, wenn reingeretet wird, einfach leise wird und trotzdem will man es noch drin haben, dann wird es schwierig mit dem Crossgate. Habt ihr aber ganz schlimme Fälle, probiert den aus, der ist aber experimentell. Die Fälle, wo er nicht so gut funktioniert. Aber es geht auch da auch, Sachen auszuprobieren. Ein anderes Beispiel ist, dass herausschneiden von langen Pausen. Also wie gesagt, ihr könnt auch, wenn ihr sagt, ich will jetzt nicht Stereo mit Ostpark erzeugen, aber ihr könnt eure Original-Dateien reinstecken und bekommt nachher die gleichen Dateien raus nur mit weniger Pausen. Das ist gedacht, wenn man ein Gespräch hat, wo plötzlich eine riesige Pause entsteht. Also meistens, als ich persönlich finde, Pausen sind sowas wie das White Space in Dokumenten. Man braucht es einfach, um ein Bild als Ganzes zu sehen, um zu sehen, was ist wichtig. Wenn jemand eine Pause macht, wird es danach wichtig. Die Pausen brauchen nicht beliebig lang sein. Und wenn eine Pause schon mal mindestens eine halbe Sekunde lang ist, dann kann man sagen, davon kann man, wenn es nachher fünf Sekunden sind, ein bisschen was abschneiden. Es ändert nichts im Gespräch. Es wird aber flüssiger. Das wollte ich mal ausprobieren und habe erst mal so ein sehr, sehr zurückhaltenden Pausenkiller eingebaut. Wie man hier sieht, das war ein 30-Sekunden-Signal einfach, wo längere Pausen waren, ein bisschen zurückgezogen. Das ist wirklich sehr moderat. Ich dachte mir, das ist ein bisschen so ein interessanter Filter, den man mal probieren kann, bis mich eine gewisse bekannter Person auf angesprochen hat, dass er ein Problem hat. Und zwar hat Tim Pridlov erzählt, also erst mal, ich weiß nicht, ob das schon mal jemand gesehen hat, viele Podcasts fangen inzwischen an, oder online zu stellen. Ich glaube, das gibt es auch auf Facebook. Und dort kann man schon mal so ein 30-Sekunden-Ausschnitt hören. Wer spricht da? Was ist das für eine Person? Da sucht einfach der Podcast etwas aus. Welcher Bereich ist es besonders interessant und liefert diesen Audioschnipsel als Video nach Twitter rein. Das Problem ist bei der ganzen Sache, also erst mal, das ist super angekommen. Wir waren alle begeistert aus dem Forschergeist, das Problem war es, dass Twitter sagt, ihr müsst dort ganz, ganz harte Kriterien erfüllen. Und hier hatten Kriterien bedeuten, es dürfen nicht mehr als 30 Sekunden sein. Gut, jetzt will man vielleicht gerade was reinbringen, was 33 Sekunden lang ist. Und nicht unbedingt genau 30 Sekunden, weil dann würde man ihn abschneiden. Wie kriegt man das nun da rein? Da war einfach die Frage von Tim, dieser Pausenkiller dort, kann man den nicht irgendwie so eine Zielgröße machen? Ja, kann man. Und das möchte ich euch kurz mal vorspielen. Das hier ist theoretisch. Also, das ist einfach ein kurzes Stück. Das war jetzt die Originalgeschwindigkeit. Und man kann jetzt den Auspark eingeben, dass man das einfach kürzen kann. Jetzt seht ihr hier, das ist 90 % auf 90 % gekürzt. Also eigentlich sollte die da jetzt nichts gehört haben, der Unterschied zu den anderen Beschleunigungsverfahren ist, dass hier nichts gekürzt wird an den Stellen, wo jemand spricht, sondern nur in den Pausen. Und dadurch bleibt die Qualität perfekt. 80 %. Ich habe immer feste Länge jetzt gelassen. Ihr solltet jetzt noch nichts gehört haben. Das Signal ist deutlich zusammengeschoben. Die längeren Pausen werden im gleichen Maße gekürzt wie die kürzeren Pausen. Aber nur in der Stille wird gekürzt. Gehen wir mal zu 70 %. Und das ist so der Moment, wo man sieht, jetzt ist da eigentlich keine Pause mehr da, die man noch kürzen kann. Jetzt merkt man schon, das ist schon ein bisschen härter geworden. 70 % würde ich in diesem Fall nicht gehen, aber es hängt immer von eurem Gesprächspartner ab. Wie viele Pausen dort gemacht wurden und wie lang sie sind. Natürlich wollte ich bestimmt hören, wie sich das auch noch kürzer anhört. Ja, das wird schon ein bisschen heftig. Und das ist der letzte. Jetzt werden natürlich auch Sachen rausgekürzt, die ich in diesem Fall auch noch kürzer gesprochen habe. Weil er sucht nach Pausen und wenn er mehr kürzen muss, als Pausen da sind, sucht sich das System leise Stellen aus, weil das wird schon nicht wichtig gewesen sein. Also, so weit könnte es nicht treiben. Aber wenn ihr 33 Sekunden habt und wollt ihr auf 30 % bringen, auf 90 % gar keine Frage, auf 80, 70 % hängt davon ab, wie das Gespräch vorher ist. Gut, dann kommt noch diese schöne Frage. Warum in aller Welt die Bilder haben, die die Sprache rausschmeißt. Ja, die Antwort ist, einfach um Vergleiche machen zu können. Wie gut ist meine Aufnahmesituation? Denn wenn ich die Sprache rausschmeiße, also genau das Gegenteil mache, dann kann ich mir den Noisefloor anhören. Und nicht nur den Noisefloor in dem Sinne, wo überhaupt nicht gesprochen wird, sondern auch mit allen Nebengeräuschen. Das heißt, da brummt was, atmen kommt zu stark drauf, ist natürlich immer eine Frage, wo man schneidet. Aber was ich rausgestellt habe, das ist eigentlich ein ganz interessantes Tool, um einfach zu sagen, ich nehme die Aufnahme, nehme alles sozusagen an Sprache raus und vergleiche das Ursprungssignal, wie laut war das und wie laut ist sozusagen das Rauschen, das unten dran ist. Dann bekomme ich nämlich die Information darüber, was mein effektiver Dynamikumfang ist in meiner Aufnahmesituation. Also dort, wo ich dort aufgenommen habe, mit den Mikros, mit den Geräten, mit den Umgebungsgeräuschen, mit dem Mikros umgehen. Dafür werde ich euch nachher noch ein großes Beispiel geben. So, Target zu erzeugen, ist jetzt einfach wieder noch Standard. Man kann angehen, ich will gerne MP3-Datei haben, Org-Datei oder ich will eine Wellenform erzeugen. Also alle Wellenformen, die ihr hier seht, sind direkt mit Ostpark erzeugt. Wer zum Beispiel auch mal Interesse hat, das zu benutzen, um nachher so ein Video daraus zu drehen, das ist gerade noch nicht veröffentlicht, aber das mal so eine Wellenform sieht, dass man so ein Film erzeugen kann, unter Previews. Das wird im Kürze wohl auch drin sein. Ich muss aber euch aber nur sagen, ich habe jetzt diese verschiedenen Bibliotheken nicht in Ostpark reinkompalliert, sondern es sucht nach Lehme, es sucht nach Ockeng in eurem Fahrt. Seht zu, dass es so drin ist, dass es findet. Also unter Mac kann ich euch sagen, wie es klappt unter Linux, unter Windows, vielleicht kennt sich da jemand aus, wie man da etwas in den Fahrt steckt oder wie man es sonst machen könnte. Wenn ihr da bessere Ideen habt, sagt Bescheid. Ich habe schon in den sehr guten Vorschlag bekommen, einfach als Backend, nicht auf Flame und Ock zu gehen, sondern gleich FFM-Pack zu nehmen. Vielleicht geht es auch darüber, da hat man die ganzen Probleme nicht mehr und man könnte auch Chaptermarks einführen. Dass man Metadaten noch angeben kann, ist eigentlich Standard. Es ist nervig, wenn man das getrennt für MP3 und Ock machen will. Wie gesagt, Opus, wenn Interesse besteht, das einzubauen ist keine große Sache. Wenn ihr das dann starten wollt, seht ihr unten auch immer, also im Command Line Tool, natürlich unten immer komplett aufgeschrieben, wie sehr der Aufruf aus. Wenn ihr das in eine Kommando-Zeile machen würdet, der ruft dann nicht die Kommando-Zeile auf, sondern intern speichert das sich nur ab und danach habe ich den gleichen Source für das Rendern, ob es eine Kommand-Zeile ist oder die GUI. Dann startet ihr das und dann rennt das alles durch. Das ist eine lange Dauer. Wenn ihr 4 Stunden aufnimmt mit 4 Kanälen, dann geht dem Rechner ein bisschen speicher. Die Waves speichere ich einfach als Floats, als Area von Floats. Das heißt, ich brauche doppelt so viel Platz als normale 16 Bit, weil ein Float hat 32 Bit. Dann gibt es viele Kopien von den Sachen drin. Das heißt, wenn ihr vorher 2 Gigabyte an Daten habt, dann braucht ihr zum Rennen garantiert 8 Gigabyte. Das heißt, wenn ihr eine andere Swapspace habt oder motiviert mich, dass ihr es mal einbaut, dass ihr Sachen, die ihr nicht braucht, mal kurz aussagert. Was ich euch jetzt zeigt, war jetzt das grafische User-Interface. In der Kommando-Zeile gibt es viel mehr Funktionen als im grafischen Interface. Zum Beispiel dieses Kürzen auf bestimmte Längen, habe ich noch nicht in die GUI exportiert. Es gibt auch viele mehr Optionen, die ihr eingeben könnt. Es gibt verschiedene Einstellungen. Welche Lautstärken will ich drin haben oder welche Bereiche, wie ich zu Lautstärkebestimmung habe. Das seht ihr im Source. Ist alles dokumentiert, Source-Dokumentation. Ansonsten schreibt eine Nachricht, wenn ihr da Fragen dazu habt. Anwendung. Ich bekam mal die Frage, also erstmal, ich hoffe, ihr habt von LIGO gehört, von der Gravitationswellenastronomie. Die Gravatorien in Hartford und Lewington nichts anderes als riesige Mikrofone. Mikrofone, die das weiß ich nicht mehr, 4.000 Kilometer, glaube ich, entfernt voneinander sind, an der Ost- und Westküste der Fahnden starten und jeweils 4 Kilometer lange Membrane haben. Nein, sie haben keine Membrane, sondern es sind Laser. Laser durch die Spiegelsysteme, die werden noch wichtig, die Spiegel hin- und zurückgelenkt werden und sich gehen, die so in einem rechten Winkel aufgestellt sind. Das heißt, die werden unterschiedlich beeinflusst. Das heißt, kein Unterschied zwischen den beiden Phasen anmessen, wenn eine Gravitationswelle durchgeht, weil der Raum gedehn wird. Und diese Veränderung kann man interpretieren als ein Tonsignal, da diese Systeme besonders sensibel sind im Bereich von 30 bis 8.000 Hertz. Das heißt, das ist etwas, und das ist der Grund, warum wir einfach deren Daten nehmen können und die in Ostpark reinwerfen können. Denn ein guter Freund hat mich gefragt so, ich habe da ganz viele Signale gehört. Ich finde das super spannend. Ich interessiere mich für Astronomie, habe auch ein Buch darüber geschrieben. Nur sagt mir niemand, wieso werden immer verschiedene Signale abgespielt. Wenn da zwei schwarze Löcher zusammengeknallt sind, das wurde ja aufgenommen angeblich, mit zwei Observatorien und warum werden immer verschiedene Signale abgespielt. Habe ich gesagt, hm, keine Ahnung. Hört sich aber interessant an. Ich glaube, ich gucke mir das mal näher an. Ich schicke das mal in die Audio-Pipeline rein. Die Rohdaten sind nämlich glücklicherweise zugänglich. Das sind einfach Textdateien, also zum Beispiel, man kann die auch in HDR5 herunterladen, aber es gibt die auch als Textdateien, wo nichts anderes als lauter Float-Zahlen ineinander drinstehen. Und als, ja, ich habe einen kleinen Importfilter gemacht, der einfach ASCII-Dateien statt Wave-Dateien einlädt, das direkt mal reinspielen und meiner Hältern so was. Das sind jetzt 32 Sekunden Rohdaten vom Ligo-Experiment. Die wie? Jetzt hören. Etwa in der Hälfte des Signals hört ihr sie, wie zwei unfassbar große schwarze Löcher zusammenkleiden. Weil, man könnte sich vorstellen, wie so zwei Magnetik, also Kugel-Magnetik, die zusammenlaufen, das immer schneller zusammenkommt. Und wenn sie so schnell zusammenkommen, entstehen halt diese wahnsinnigen Massen, die da kommen, einfach an so eine Rotation, die laufen zusammen und diese Wellen bereiten sich aus mit immer höherer Frequenz. Habt ihr's gehört? Nee. Mein Freund, ich soll doch sagen, er ist blind. Deswegen interessiert er sich besonders natürlich für diese Audisignale und die Astronomie hat auch gesagt, er hat nichts gehört. Warum? Wo sollen da die schwarzen Löcher zusammengeknallt sein? Der Grund ist, dieses Audisignal ist recht speziell. Ich habe mir das mal angeguckt und das ist jetzt sozusagen das Frequenzbild. Übrigens, das ist exakt das gleiche, was auch die Forscher dort machen. Die schauen sich immer sozusagen dieses Rauschen an und man sieht dort ein wahnsinnig großen Berg an Rauschen im Bereich bis, sag ich mal, also auf jeden Fall bis 40 Hertz und eigentlich bei 60 Hertz ist auch nochmal ein riesiger Pieck. Was in aller Welt ist denn das? Also, und überhaupt, wenn ihr euch solche Wellenformen anguckt, das sind 30 Sekunden, normalerweise müsste es voll sein. Warum sehe ich denn da Wellenformen? Der Grund ist, genau das, was ihr gerade gesehen habt, da sind unwahrscheinlich starke Störsignale im niedervrequenten Bereich drin. Weit jenseits von dem, was wir hier hören können, wir haben jetzt gerade hier kein Subwoofer, eben, was hätte nämlich die Erde beben sollen, da wir hier volle Kanne, Signale um 10, 20 Hertz gespielt haben, das ist ein Luftvibration. Und das ist so laut. 7 dB bis 90 dB da unten. Also sollte da unten ein Signal sein, da vorne in diesem niedervrequenten Signal hört man nichts, weil da nur Störung ist. Interessant sind diese Piecks hier. Da ist einer bei 30 Hertz, da ist einer bei 60 Hertz, hat jemand eine Idee, was das sein könnte? Stromnetz. Stromnetz, steht in den USA, 60 Hertz, Netzbrummen. Also selbst die Forscher, die Physiker mit den hochgenauen Geräten plagen sich damit rum, mit Brummschleifen. Klingen sie da nicht raus, weil das so wahnsinnig genau aufnimmt. Also die messen sogar, wenn Flugzeuge über die Geräte fliegen. In dem ganzen unteren Bereich, Seismik, da bewegt sich die Erde und alles Mögliche andere. Und man sieht da ungefähr ab 300 Hertz einen riesigen Pieck. Das sind die Spiegel. Die Spiegel, die andauernd versuchen, wieder auszugleichen, dass die Laser wirklich immer in ihrer Bahn bleiben und die fangen ab 300 Hertz an zu rauschen und zu stören. Aber zwischen 80 bis 300 Hertz ist ein Stahl, ein Tal der Stille. Wenn also wir irgendwas hören, dann sollten wir uns das mal genauer angucken. Und das kann man mit Ostfark tun. Es gibt da ein Bandpassfilter, wie lieb ich genau ist. Ich mache da eine Faltung, das heißt, man kann angeben, wie steil soll der Filter sein. Und hier habe ich angegeben, ich hätte gerne ein Filter, ein Bandpassfilter zwischen 80 und 300 Hertz. Also eigentlich ist das da drin, um zu sagen, ich will zum Beispiel Regenzen unter 50 Hertz nicht in der Aufnahme haben, was normalerweise sehr gut ist, weil da ist nur Rumpeln drin. Aber in dem Fall hier macht das ein riesiger Unterschied. Und den können wir uns auch mal anhören. Ganz anderes Geräusch. Und nach 16 Sekunden kann man das hören, was man hier auch sieht. Das war es. Es ist noch nicht sehr deutlich. Da kann, was hier zum Beispiel viel gemacht wurde, ist, dass sie gesagt haben, okay, ich matche meine Simulation. Also ich erwarte ja, wie hört sich das an, wenn ich zufälligerweise 2 schwarze Löcher hören würde über dieses System. Ich matche eine Simulation darauf an und kann ein idealeres Signal rauskriegen. Dann hört sich es noch besser an und man macht noch andere Filter dort mit hinein. Das ist ein bisschen schwerer zu hören. Aber jetzt können wir natürlich noch wieder ein anderes Feature von Ospreck benutzen. Und zwar sagen, ich hätte gerne alle Stille rausgefiltert. Man sagt, dass Stille ist ziemlich laut. Dann bekomme ich zum Beispiel noch ein anderes Signal, was noch deutlicher macht. Jetzt habe ich genau reingeredet in den Moment. Da waren die schwarzen Löcher. Sehr laut. Dass man einfach nochmal rausfiltern kann, wenn man das auf der anderen Seite sieht. Man sieht sogar, dass auf der einen Seite das Signal ein bisschen früher ankommt als auf der anderen. Das Signal kam nicht direkt von oben, sondern leicht schräg. Es ist auch das unteres Phasenverdreht. Man kann die sogar, wenn man das ein bisschen korrigiert, die paar Millisekunden, die es unterschiedlich ankamen, aufeinanderlegen. Man muss es nur Phasen verdrehen. Es ist wirklich das gleiche Signal. Wenn überhaupt Signale erkannt werden, dann kann man das auch noch ein bisschen auf der anderen Seite sichern. Ansonsten nimmt man an, dass es irgendeine Störung oder etwas anderes ist. Rauschen rausrechnen ist unwahrscheinlich schwer. Geht eigentlich gar nicht. Aber man kann versuchen, möglichst viel davon zu erkennen. Was jetzt auch noch hier zu hören war, ist auch noch ein Netzbrumm. Ich habe da eine Frequenz vom Netzbrumm drin. Das ist dieser dominante Signal. Da können wir auch einen sehr scharfen Filter noch mal reinsetzen. Das ist auch ein besseres Signal rausgegangen. Aber das ist dann nicht mehr das vollkommen Original. Die sind hier wirklich hergegangen. Ich erwarte nicht zum Signal. Und die waren schockiert, als sie das plötzlich gehört haben. Ihr braucht nur in die Podcasts von Tim oder von Heulge, die da zu dem Thema rein hören. Raumzeit oder Resonator. Da wird das in aller Länge beschrieben, wie sie auch begeistert waren. Und zuerst noch nicht geglaubt haben, was sie da gehört haben. Weil einfach es war viel zu gut. Das ist jetzt etwas speziell. Das wird jetzt Leute nicht so sehr interessiert. Es sei denn, sie sind jetzt auch in dem Podcasting-Business. Ich habe euch erzählt, wenn ihr Podcast machen wollt, reicht ein Mobilgerät aus. Oder man nimmt im Telefon aus selbst Toxilla. Alexa hat am Anfang einfach in das Handy reingesprochen und damit aufgenommen, das funktioniert. Wenn ihr aber hingegen ein bisschen professionelleres Equipment haben wollt, dann könnt ihr sowas benutzen. Das hier ist das Biodynamic DT297. Das ist quasi so der Goldstandard für die Aufnahme. Und die Frage ist jetzt, wie gut ist das eigentlich? Und da hat Reif Stockmann im Sendegate ein Thread gestartet, wo er alle möglichen Headsets mal ausprobiert hat und gegenübergestellt hat. Und da hat sich herausgestellt, dass es sehr, sehr interessante Alternativen gibt. Ja, das Zoomhalse 6 ist kein Headset. Er hat es einfach mit dazugenommen. Da ist auch das iPhone 6S mit dabei. Er hat einfach erstmal diese verschiedenen Beispiele, die Tonbeispiele hineingestellt, die man sich anhören konnte. Und da ist es schon mal sehr interessant, was rauskommt. Aber ich habe es einfach mal auspackt darüber geschickt und gefragt, was ist denn jetzt eigentlich die Dynamikumfang? Und wie hört sich dieses, sozusagen die Stille dort mal an? Das ist Reif Stockmann, wie er ins Headset reinatmet. Also in diesem Noisefloor ist auch das Atmen drin. Aber das ist ja auch eine Eigenheit im tatsächlichen Signal sieht man nachher oder auch bei dieser Auswertung sieht man, dass das Atmen jetzt sich nicht stark auswirkt. Man misst tatsächlich die Noisefloor, man sieht, man kann Dynamikumfang theoretisch erreichen also schon praktisch von etwa 11,812 Bit. Die meisten der MicroStore erreichen diesen Bereich. Interessant ist dieses Superlux HMC 6060. Da ist jetzt nicht in diesem, also da muss ich sagen, das hat auf jeden Fall in der Aufnahme auch ein ganz, ganz besonderen Klang, hört sich an, wie das Beidynamik, man muss ein bisschen noch mal Filter übermachen, aber man muss darauf achten, wie man es betreibt mit welcher Versorgungsspannung. Ich werde gleich nochmal das genauer zeigen. Es ist auf jeden Fall viel, viel billiger und deswegen super spannend. Das gibt es auch als USB, man sollte aber dort die, dann bringt es einem nicht, dass man das so ein übertrimmetisch übertragen wird. Ganz genau, man kommt dann halt hier mit so einem symmetrischen Kabel nachher an. Ist auch ein Headset. Hier zum Beispiel den Neusfloor vom Zoom H6, das ist das XY und wenn man jetzt einfach sich mal nur blind die Zahlen anguckt, welches Micro hat einen tollen Dynamikumfang, dann stellt man fest so Apple-Earports. Ich komme. Also, dieser Dynamikumfang ist nicht alles, weil wenn nur bestimmte Frequenzen durchkommen, bringt mir das nicht viel, dass ich das noch mal im Umfang habe. Es ist aber einfach noch mal ein Entscheidungsmerkmal mehr, mit dem man das ein bisschen analysieren kann und man sieht hier, das Superlux-HMC 6060 hat sich vielleicht wahnsinnig toll an, ist aber im Dynamikumfang ein bisschen schlechter. Jetzt könnt ihr mal sagen, Moment mal, ich habe da eben grad dieses Rauschen gehört. Erst war es toll und dann war dieses riesige Störsignal da drauf. Ja, das war ein Beispiel von ihm, wie er einmal mit dieses HMC 6060 hat die Eigenschaft, dass es mit 48 Volt nicht funktioniert. Es hört sich grauslich an und auch dieser Neusfloor wird auf einen Schlag ganz, ganz übel. Ich habe das einmal ausprobiert, wie sieht's denn aus, wenn ich nur die Aufnahme mit den 24 Volt nehme, wie ist da den Dynamikumfang? Er wurde nicht besser. Denn es ändert sich nur, welche Frequenzen da drin vorkommen im Rauschen. Das ist ganz interessant. Der Neusfloor bei dem HMC 6060 ist, wenn man ihn mit 24 Volt betreibt, unwahrscheinlich niederfrequent. Wenn man also diesen Radfolg, den auch Reif dort im Sendegeld geschrieben hat, macht ein Tiefpassfilter, macht ein Hochpassfilter rein, dass er so rumpeln unten rausnehmt, das ist sogar doppelt gut, weil ihr dann auch das Rauschen wegricht. Was sozusagen von in diesem Gerät selbst drin ist. Wenn man es dann nochmal mit der höheren Frequenz macht, dann ändert sich der Neusfloor nicht in der Lautstärke, nur es sind einfach Frequenzen, die wir viel besser hören. Das da vorne ist unwahrscheinlich niederfrequent, aber es ist ein starkes Störsignal. Fand ich auf jeden Fall sehr, sehr spannend. Ich dachte, es würde besser werden, wenn ich mir ein reines Signal nehme, wurde es aber dann nicht. Auf jeden Fall, wenn ihr euch überlegt, ins Podcast einzusteigen mit Profi-Equipment und ihr wollt 39 Euro anstatt 310 Euro für diese hier ausgeben, dann habt ihr die Alternative, was ihr beachten müsst und welches Audio-Adapter ihr dafür braucht, findet ihr im Sendigate. Genau. Das ist alles, was ich euch jetzt mal erzählen wollte. Eigentlich habe ich ja auch nicht nur das Projekt wegen unseren Studierenden gemacht, sondern auch, weil ich die Gelegenheit haben wollte, auf der Güllersporanierenacht auch was zu programmieren. Sprecht mich an, wenn ihr Ideen habt, wenn ihr weiterentwickeln wollt oder bestimmte Funktionen haben wollt. Natürlich könnt ihr auch gucken, ob ihr nicht auch tolle Gespräch-Fahrten habt, weil ich bin nicht nur hier, um Podcasts Software zu entwickeln, sondern ich werde auch einige Podcasts aufnehmen, sowie es auch einige andere Podcasts, die hier gibt, die auch hier auf der GPN Aufnahmen aufnehmen werden. Ansonsten, falls ihr mein Interesse an Mathematik habt, hört den Modellensatz rein. Ansonsten freue ich mich riesig, dass ihr euch für OSPAC interessiert habt und ich hoffe, euch hat der Talk gefallen. Tatsächlich mache ich das, aber nicht aus dem Grund, dass ich nicht glaube, dass die Aufnahme gut geworden ist. Also bei den Aufnahmen, die ich mache, weiß ich, also ich weiß, worauf ich achten muss, bei der Aufnahme, dass da kein Problem nachher gibt. Nur machen wir recht ausführliche Show-Notes. Also ich finde es persönlich eine Unsitte, wenn Show-Notes eine Auflistung von Links sind. Wenn auch nur die Uhrzeiten dabei sind, ist das nett, das ist ein gutes Feature. Aber es ist kein Zusammenhängen der Texte. Das sind ja andere Dinge, die ich finde, die sind ein bisschen zu nahe von der Nachricht. Deswegen sollten Show-Notes auch ganze Sätze sein. Dazu bietet es gerade auch für den Wissenschaftspodcast diesen riesen Vorteil, dass man die Hinterrundinformationen liefern kann, die im Gespräch vielleicht nicht so genau gebracht wurden. Oder wo das Gespräch ein bisschen in Richtung gegangen ist, dass man es falsch verstehen kann. Das setzen wir dann in den Show-Notes richtig. Das heißt, ich hör mir das an, natürlich auch in höherer Geschwindigkeit. Und Tippe währenddessen die Show-Notes, setzt ihr die ganzen Links mitten rein. Dann steht vielleicht da die Bezeichnung des WGP der Artikels drin. Aber eigentlich meine ich, womöglich etwas anderes darunter. Wenn ich z.B. einfach nur Grafen schreibe oder Grafen, das kann 20 und 100 Dinge bedeuten. Das muss einfach durch den Satz dazwischen erklärt werden, was es eigentlich ist. Das mache ich einfach. Deswegen ist in meinem Vorgehen immer so, dass ich es mir grundsätzlich anhöre, währenddessen Tippe, aber natürlich in höhere Geschwindigkeit. Das, was man in Ostpark eingibt, ist der Lauf, die Distanz. Und das rechnet da oben. Wenn du 44 Kilo als hast, musst du rechnen 33 Meter pro Sekunde also 330 durch 44.000. Und dann gibt man halt an, wieviel Zentimeter man Laufzeit unterscheiden will. Ich benutze beispielsweise 3 bis 8 Zentimeter. 20 Zentimeter wäre das Maximum. Ich habe auch ein paar Audio-Dateien dabei. Ich weiß jetzt nicht, ob die jetzt wirklich Stereo senden. Das ist ein interessantes Thema. Da kommt man in den Bereich hinein, wenn man zum Beispiel Skypad, das man mit Skype aufgenommen hat, man will nachträglich Signale wieder synchronisieren. Da hat zum Beispiel die Partei A aufgenommen, die eigene Sprache auf dem Kanal B, was habe ich über Skype reingekommen und der zweite halt genau umgekehrt und die möchte ich zusammenführen. Dafür muss man halt gucken, dass man das Signal mal beschneutig, mal verlangsamt, damit die wieder synchron sind. Und genau dafür hatte ich eigentlich auch dieses Pausenrausschneiden reingemacht, um das später reinzuwachen. Ich muss aber sagen, das brauchst du nicht mehr. Weil es gibt inzwischen eine viel bessere Lösung. Der kleine orangene Kasten. Jetzt bin ich in den Namen entfallen. Studio Link. Viel bessere Qualität als Skype. Ist direkt integriert in Ultraschall. Bitte nehmt das. Dann braucht ihr das nicht mehr, aber vielleicht kommt es irgendwann mal aus dem Park rein, dass man auch tatsächlich solche Signale synchronisieren kann. Denn wenn man halt in den Pausen rauskürzt, das ist eigentlich die perfekte Gelegenheit, wo man etwas beschleunigen, also hauptsächlich ja beschleunigen will. Ja? Ehrlich gesagt habe ich es noch nicht gemacht. Ich habe keinophonik. Nein, ich komme momentan kaum mit der Ehe. Meine Kollegin ist veröffentlicht. Also wirklich gerade im Akkord und ich schaffe es gerade mal, die Sachen alle durchzuküllen während des Programmierens. Nein, das habe ich noch nicht gemacht. Man muss sagen,ophonik ist auch intelligenter. Hier muss man es angeben und hat nochmal deutlich mehr Sachen mit da drinnen. Natürlich, über kurz oder lang werde ich mir auch mal Gedanken drüber machen, dass man auch mal ein paar Sachen erkennt. Aber im Bund genommen, ich höre, ob eine Aufnahme nachher gut ist oder nicht. Also Probleme, die ich hier habe, wie zum Beispiel das Übersprechen, nicht erkannt wird. Passiert einem auch beiophonik. Man kann es in der Freakshow manchmal hören, dass der eine spricht und beim anderen kommt es rein. Aber natürlich istophonik viel älter als das letzte und ein fantastisches Produkt. Das hier ist eher für die Leute, die ein bisschen mehr ins Getriebe fassen wollen. Vielleicht kriegen wir auch Sachen rein, die auch dann inophonik irgendwann reinfliegen werden. Das wäre fantastisch. Das wäre genau im Sinne der Sache. Wenn jemand aber erstmal eine komplette Lösung haben will, wo er nicht sich die Finger schmutzig machen will, dann sollte man das natürlich benutzen. Aber wenn jemand das mal machen kann und feststellt, da sollte man drehen oder hier sollte man drehen, das wäre riesig für beide Projekte. Dass man einfach sieht, was kann man machen, was kann man ändern. Ich möchte eigentlich auch noch eine Funktion einbauen, dass man nachher automatisiert Tests machen kann. Das ist nicht dadurch, dass sich eine Änderung in der Software plötzlich Sachen nicht mehr funktionieren, die vorher ganz teuer geklungen haben. Aber das ist gerade bei Audio ein bisschen spannend, weil was ist noch gut genug, da muss man halt ein bisschen fasi arbeiten, dass man sagt, okay, das ist noch etwa so, wie es vorher war. Ja, das kann doch sein, das ist neu. Dann hört man halt rein. Hauptsache der Tests sagt, hallo, hier ist was anders. Dann höre ich rein und sage wunderbar, gefällt mir besser. Momentan merke ich es dadurch, dass ich, wenn ich die Wellen forme, ins Kit einschweichere von den Testfällen, dass die sich geändert hat, dann weiß ich, da ist im Audiosignal was anders geworden, weil ich irgendwas gemacht habe, ist aber halt nur eine 1 zu 1-Bit-Copy wird da verglichen. Das heißt, es ist nicht irgendwie mal ein bisschen fasi, was eigentlich sein sollte. Also grundsätzlich freue ich mich erstmal, danke, Ergänzung bekommen. Inzwischen gibt es auch, wonach schon gefragt wurde, eine, wie nennt man das, zsh und tab completion. Ich habe mal gelesen, wie es funktioniert, hab es da ganz schnell wieder zugemacht, erschien mir zu kompliziert, aber es gibt eine lange Man-Paid. Also die ist schon drin. Gut, ihr findet mich bis Samstag Nacht hier auf der GPN, wenn ihr Fragen habt, kommt zu mir, und ich komme gleich nach Neman.