 Ja, herzlich willkommen zu einem Electronic Window Vortrag, er freut mich, dass ihr alle gekommen seid. Und ja, ich will direkt mal vorgreifen, was eigentlich das Ziel ist unserer Community, nämlich diese ganzen Hackbases, Makerspaces, Hackbases, Fablabs, die es mittlerweile gibt, besser zu vernetzen. Meistens weiß man ja nicht mal, was in der nächsten Stadt überhaupt so passiert und kann sich dementsprechend auch nicht so gut austauschen. Wir könnten halt viel größere Projekte stemmen, wenn wir irgendwie lernen, besser zusammen zu arbeiten und Verbindungen knüpfen zwischen Menschen mit Technik und irgendwas tun, um diese Konventionellisierung der Makerszene aufzuhalten und das hier uns selber zu bemächtigen oder so. Ja, wer fragt euch, einige von euch fragen sicherlich, weil es ein elektronisches Fenster überhaupt ist. Das schnell erklärt. Es ist im Prinzip so was wie Skype, nur halt als Box an der Wand mit freier Software. Und der Hauptunterschied zu Skype ist, dass die Leute, die man da sieht oder kennenlernt, vorher nicht kennen muss. Weil diese Fenster sind immer zwischen zwei Spaces installiert. Und ja, das habe ich ja mit diesem mobilen Testaufbau dabei, wo wir gerade grund eines völlig unerklärlichen Bugs das Rosenwerk in Dresden nicht sehen, aber hören. Und die hören uns auch, schien zumindest so eben. Ja, sagt mal, was macht die? Er lügt nicht, er hat recht. Ja, cool, vielen Dank. Genau, es gibt mittlerweile zwei von diesen Fenstern in Dresden. Und eins im Potsdam in Freiland in München haben wir ein Workshop gemacht. Da haben jetzt vier Spaces mittlerweile, so ein Window. Und jetzt eventuell schaffen wir es noch, das Hillhacks Hackbase irgendwo im Himalaya-Vorland zuzuschalten. Hier live auf die GPN 2017. Ja, ich fange mal an, was für diesen Projekt überhaupt die Anforderungen waren. Die Software ist noch nicht ganz fertig, aber eignet sich jetzt so allmählich für so eine Vorführung. Und im Moment muss man halt noch Kommandos eingeben und das Ding manuell starten. Das Ziel soll sein, dass man wirklich so ein Gerät hat, wo drei Knöpfe dran sind an aus, nächster und keine Ahnung, Klingel, das müssen sich dann die User-Interface-Experten noch überlegen. Ja, da gibt es also noch was zu tun, aber an sich läuft das Ganze auf dem Raspberry Pi und vermeidet auch soweit es geht, irgendwelche zentralen Server. Und, ja, dass die Vermindung verschüsselt sein soll, muss ich nicht weiter sagen, freie Software. Ja, in dieser Stelle, den letzten Punkt mit der Verschüsselung können wir quasi direkt abhaken. Da habe ich eine Software von meinem guten Freund Zocker genommen, die nennt sich PierVPN. Und die kümmert sich schon selber um die Konnektivität, also hinter irgendwelchen Routern per Hohlpunching oder Reling eine Verbindung herzustellen. Und damit wird dieses Videotelefoniethema schon mal ein ganz Stück einfacher. Ja, und zu der Entscheidung vom Raspberry Pi als Videostat-Plattform. Die Dinge haben halt den Vorteil, dass sie unglaublich billig sind und in jedem Hackerspace bestimmt endutzend davon ungenutzt rumliegen. Und die können tatsächlich in echtzeit hard to text-4 codieren. Und das kann man auch auf Linux tatsächlich nutzen, nicht nur mit irgendwelchen binären Envoid-Blobs, wie das bei anderen Devices der Fall ist. Man kann so eine Pi-Kamera per CSI-Konnektor anschließen und ja, mit dem Audio hakt es halt so ein bisschen. Also, ich habe das hier mit der Pi-Kamera geschrieben, USB-Webcam würde auch gehen, aber nicht gleichzeitig mit dem Audio über USB. Das gerät dann schon an die Grenzen dieses kleinen Geräts. Deshalb ist unser Ziel, da so ein Speakerphone-Shield zu entwickeln für das Pi, um diese Audio-Funktionität nachzurüsten. Und das zu einer vollwertigen Videotelefonie-Software auszubauen. Aber ansonsten läuft die Software, die wir verwenden natürlich auch auf einem normalen Linux-PC. Ja, angefangen hat diese ganze Geschichte November 2015 auf dem Treffen oder beziehungsweise der Jahresmitgliederversammlung des Verbundsoffener Werkstätten. Das klingt ein bisschen trocken, ist aber tatsächlich so ein bisschen wie der große Kongress, aber für Maker. Und waren ungefähr 200 Leute eine Woche in Dresden, haben so alles mögliche gewerkelt. Und da war ich zufällig auch da und habe diese Idee vom E-Window kennengelernt von der Lorenza aus Italien, die hier im Bild auch zu sehen ist. Und dachte mir, ja, das ist ja voll einfach. Da installe ich einfach irgendeine Video-Chat-Software, so wie Blindenphone oder Akiga auf dem Pi. Und skripte mir irgendwas, dass die Verbindung automatisch aufgebaut wird. Ja, Pustekuchen. Also so richtig funktioniert nichts von dieser Software hauptsächlich, weil die halt nichts von dieser Video-Beschleunigung weiß. Und diese Spitzstellen dafür nicht benutzt. Das schließt auch diese ganzen Web-ATC-Geschichten ein. Also irgendwelche HTML5-Abs, die man im Chromium-Brauser schreiben kann, das läuft sogar erstaunlicherweise auf dem Pi 3, ist aber nicht toll. Und ich wollte mal kurz erwähnen, was es eigentlich mit diesem Web-ATC-Standard auf sich hat. Kurze Umfrage, wer von euch hat schon mal gehört oder weiß ungefähr, was das ist? Okay, einige, aber nicht alle. Der Web-ATC ist eine HTML5-Erweiterung, um so Video-Chat-Geschichten als Web-App im Browser zu bauen. Und was wir da gemacht haben, ist im Prinzip einfach diesen existierenden SIP-Standard, der relativ viele Protokolle zusammenschichtet. Hier ist das so angedeutet. Also das wäre quasi hier die rechte Kolumne der rechter Haufen da. Das, was traditionell bei SIP zum Einsatz kommt. Nur, dass da oben so ein Web-ATC das Signalling weglassen wurde. Das heißt, dass man dann diesen Verbindungsaufbau manuell entgegennehmen muss in JavaScript-Code, das irgendwie über Web-Sockets oder so an den Servers schicken und das der letztendlich im anderen Browser landet. Und dann können diese beiden Browser tatsächlich peer-to-peer miteinander sprechen. Und sowohl Mediadaten als auch beliebige Daten der Teilübertragung. Ist schon ganz spannend, aber ich finde es nicht so geil, dass man dann immer noch so ein Server braucht. Es zwingt dann auch HTTPS und diese ganze Zertifikat-Kopfschmerzen. Und es ist trotzdem nicht so richtig sicher, weil diese Zertifikate der eigentlichen Media-Stream-Vermindungen nicht geprüft werden. Also es wäre technisch möglich, das sicher zu machen, aber es ist mehr so Pseudo im Moment. Und das Hauptding, was mich als Hardware-Namen-Entwickler eigentlich wormt, ist, dass es unglaublich ineffizient ist, diesen ganzen Browser rundherum, um das eigentliche Ziel, die Videotelefonie laufen zu lassen. Und der Browser auf, zumindest auf Nicht-Endwall-Plattformen, nicht von Videobeschleunigung weiß. Und das jetzt für mich so auch nicht ohne weiteres möglich ist, in den Chrome-Code reinzugehen und das da mal nachzurüsten. Man macht sich ein bisschen abhängig von den Browser-Entwicklern, finde ich, wenn man sagt, es ist mir zu schwierig, Medienanwendung zu programmieren. Das ist halt für unseren Ansatz nicht ideal. Ich bin dann irgendwann auf so eine Software gestoßen, die nennt sich Bersip. Das ist eine minimale SIP-Implimitation, also quasi der Standard für Internet-Telefonie und Video-Telefonie. Es ist sehr schön geschrieben, so alles in C-Code, basiert auf einer eigenen Library für diesen SIP-Kram, den es mitbringt. Man kann relativ einfach Module schreiben für Videocodex oder neues Ausgabemodul, zum Beispiel für das Raspberry Pi, das habe ich gemacht und deshalb kann man das jetzt schon so ungefähr benutzen. Das verbleibende Problem macht dem Webcam und Video-Ging, sich der Tonübertragung zuzuwenden. Das ist tatsächlich nicht so einfach bei so einem Set-System wegen diesem Echo-Problem. Also das heißt, ich habe hier so einen kombinierten Lautsprecher und Mikrofon und normalerweise würde das Mikrofon alles, was der Lautsprecher wieder gibt, aufnehmen und der andere würde das hören als Echo. Das ist unglaublich nervig und unterbindet sofort jede Konzentration für jeden, der das schon mal erlebt hat. Und wenn das beide haben, dann kann sich das auch gegenseitig hochschauen können, so eine Feedback-Sleife. Das klingt dann ungefähr so, also mit der Wisztu von die Spreche, das ist ein Problem, das gelöst werden muss, bevor man sich darüber unterhalten kann. Wenn man nicht jetzt so ein Richtmikrofon nehmen will, das heißt, man sieht jemand im Fenster, man muss dann das Mikrofon nehmen, um zu ihm rüber zu rufen, Hallo, ist da jemand? Das ist irgendwie doof und hat mit der natürlichen Kommunikation nichts zu tun. Und deshalb ist jetzt unsere Vorleih für die Lösung, diese sogenannten USB-Speaker-Vons zu verwenden, die gleich den Algorithmus zur Echerunterdrückung in so einem DSP eingebaut haben. Der Cooler wäre das natürlich, wenn das, also das macht schon Sinn, das direkt auf der Soundkarte zu machen, auch wenn das im Prinzip auch ins Software geht, aber ich weiß noch nicht so genau, ob das dann auf einem Pi zu Friedenstellen funktioniert mit der begrenzten Rechenleistung. Und deswegen halte ich im Moment für die optimale Lösung so eine Art Soundkarte fürs Pi zu entwickeln, das auch den limitierten USB-Bus umgeht und eben diese Echerunterdrückung mit eingebaut hat. Und ja, so gibt es da noch tausend andere Sachen, die gemacht werden müssten. Und ja, wir brauchen Leute, die da Bock haben, mitzuentwickeln. Und ja, vielleicht auch in dieser Idee der Vernetzung von Spaces interessiert sind. Also es würde schon so ein wenig auf das bringen, wenn von einem Konzept begeistert seid, das einfach weiter empfiehlt oder mal in einem lokalen Space diskutiert, ob man sowas vielleicht haben will. Vielleicht erstmal nur mit ein, zwei anderen Spaces aus der Umgebung, die man schon kennt. Und ja, jetzt wäre eigentlich der Livestream nach Indien angedacht. Da hat sich auch überraschenderweise vorhin jemand gemeldet. Und ich schreibe dem mal, dass er jetzt versuchen kann, hier mal rüber zu rufen. Ja, ansonsten wird das noch über die GPN passieren. Also Hillhacks ist so eine, by the way, so eine Hackbase in Indien, wo in drei, vier Wochen, glaube ich, so eine Menge Hacker aus Indien und Europa und aller Welt draußen campen und da irgendwie Koden und Zeug machen. Und das könnte vielleicht ganz interessant sein, sich hier auf der GPN mal jemanden dazu unterhalten. Ja, ansonsten, das war mein Vortrag. Hier sind meine Kontaktdaten, wenn da noch irgendwelche Fragen bestehen sollten, vielleicht auch bei der Livestream oder Aufnahmezuhörerschaft. Und ja, wir sehen uns dann hoffentlich bald im Fenster. Vielen Dank. Okay, gibt es noch irgendwelche Fragen? Ja, die Frage war, ob es in den Hackspace-Prozesses schon gibt, irgendwelche Entscheidungsprozesse oder Abstimmungen gab darüber? Ja, soweit, ich weiß nicht. Also, ich habe die Dinge einfach dahingestellt und gesagt, ist zum Testen. Aber das ist auch schon in anderen, ich glaube, im Fablight München zum Beispiel gab es eine sehr kontroverse Diskussion zwischen Leuten, die halt als Videoüberwachung sehen, was ja irgendwo technisch auch korrekt ist. Es ist so eine Art gegenseitige bidirektionale Bild- und Tonüberwachung. Aber ja, das hängt auch mit der Frage zusammen, wo das Ding genau ist. Und ja, das wird sich noch zeigen, wie man das diskutiert. Ah, schade. Ja, vielleicht wird's mit LAN noch besser funktionieren als mit dem WLAN. Ich weiß nicht genau, woran es liegt. Okay, aber ich habe ein Signal aus Indien bekommen, dass sie jede Sekunde quasi jetzt einkommen müssten. Ja, ansonsten werde ich das Ding noch irgendwo aufstellen. Denn der grüne Koffer ist ja markant wiederzufinden und ja, das wär's dann von meiner Seite. Ah, da ist noch eine Frage. Ah, die Frage über wie viel Bandbreite man braucht. Das kommt natürlich sehr darauf an, was man für eine Qualität erwartet. Ich würde mal sagen, so ein Megabit einzuplanen wäre schon ordentlich. Und meistens ist es halt deutlich weniger. Also wenn ein Fenster auch nichts passiert, geht ja die Bittrate vom Videocodec auch runter. Und da hat sich jetzt im Durchschnitt, sage ich mal, so 200, 300 Kb pro Sekunde gesehen. Genau, das hat auch Chat-Roulette für Hacker Spaces kam gerade wieder. Also das ist quasi der Default-Modus. Man schaltet das Ding an und das wird irgendeine Verbindung hergestellt. Aber man kann auch gezielt Spaces anrufen. Ich bin mir jetzt nicht sicher, ob ich da eine Frage richtig verstanden hab. Ah, okay, die Frage war, wie dieser Peering-Prozess in einem VPN funktioniert. Es gibt einen initialen Server, zu dem sich alle zuerst verbinden. Der ist im öffentlichen Internet. Und der sorgt dann für die Vermaschung der einzelnen Knoten untereinander. Und dann können die in der Regel auch direkt miteinander kommunizieren. Vielen Dank fürs Zuhören.