 Ihr bekommt also einen kleinen Einblick daran, welche Infrastruktur jedes Jahr aufgebaut wird. Ein Applaus für all die Leute unserer verschiedenen Infrastruktur-Teams. Und wir fangen mit Leon und der 32C3-Knock-Rückschau an. Guten Morgen, zusammen. Das ist der Knock-Vortrag. Ich fange mit den schlechten Nachrichten an. Wir hatten dieses Jahr keine Sauna. Die Probleme waren ganz interessant dieses Jahr, weil wir einige Probleme hatten, Backbone-Hardware zu bekommen, das ziemlich ernsthaft war. Normalerweise haben wir einen Sponsor, der uns eine Tonnenweise Ausrüstung leidt und dann haben wir alles aus einer Qualle und wir haben einfach nur eine Wunschliste hingeschickt und dann haben wir alles, was wir haben wollten, zurückbekommen und konnten das nette Netzwerk bauen mit den ganzen Features, die wir nicht wirklich brauchten, aber die einfach Spaß gemacht haben. Aber dieses Jahr hat dieser Sponsor schon gesagt, dass er das wieder machen würde, aber dann hatten sie ein paar interne Schwierigkeiten und konnte das nicht mehr machen. Und davon haben wir ungefähr eine Woche vollem Aufbau erfahren und hatten dann im Grunde gar keine Rückgratausrüstung. Also zurück zu den Wurzeln. Was haben wir in den Jahren davor gemacht? Wir haben eine ganze Menge Leute angerufen und eine ganze Menge Angebote bekommen von den tollen Leuten, die uns geholfen haben. Wir haben uns entschlossen, dass jeder Knock seine Fritzbox mitbringen würde und dann würde schon alles gut gehen. Also die Temperaturen waren dann immer wunderbar in einem Raum. So heiß werden die Fritzboxen ja nicht. Das ist also passiert. Und dieses Jahr mussten wir einige Notfallplanungen machen. Wir haben Hilfe von ganz vielen tollen Firmen bekommen. Insbesondere Team-Makes aus Nürnberg, die waren wahnsinnig hilfreich und haben uns Sachen aus ihrem Lager mitgebracht. Und haben Leute dazu gebracht, dass wir ihre Sachen benutzen können. Und wir haben spätabends noch lange mithin telefoniert mit Team-Makes, die waren wirklich hilfreich. Vielen Dank. Unsere andere Firmen haben auch geholfen. Insbesondere Huawei über die Firma namens Teni CT, die uns ein paar Router geliehen hat. Secure Link, eine nieländische Firma, hat uns mit Ausrüstung geholfen und E-Kicks. Und sie haben uns einen großen Router und ein Switch ausgeliehen, den wir im Datenzentrum, im Rechenzentrum verwendet haben. Und am Ende hatten wir hier diese Ausrüstung. Gelächter im Publikum. Es ist im Grunde eine Mischung verschiedener Hände, was das Netzwerk, das den Aufbau ein bisschen interessant gemacht hat. Aber es hat ganz gut funktioniert. Und wir hatten sogar den Force Ten Router, die E600, die wir zum ersten Mal beim 32C3 benutzt haben. Die wir von einem Freund von mir, von einem Freund von uns bekommen haben. Das Schöne daran ist, dass wir sie nicht zurückgeben müssen. Das war also wirklich hilfreich. Ich glaube, es funktioniert jetzt. Mit der ganzen Ausrüstung, die wir bekommen haben, sind wir hingegangen und haben innerhalb von einer Woche das Rückgraten-Netzwerk komplett neu gebaut. Und wir wussten, was wir benutzen müssten und wie viele Ports in jedem Patchroom brauchen würden. Aber das ganze Routing-Center, das wir vorher hatten, wir könnten es vielleicht in den ersten beiden Vorderen rein sehen. Und mit scharfen Augen auch in den hinteren rein. Aber das zeigen wir später auf den Folien auch noch mal. Und das ganze Rückgrat haben wir nochmal neu designed. Und dieses Jahr haben wir einfach aus Layer 2 Backbone gebaut. Nichts aufregendes, wir mussten es einfach zum Laufen bringen. Und das Routing wurde vor allem auf den Vorweis in den größeren Patchrooms gemacht. Und seit wir hier im CCH waren, waren wir in dem Datenrechenzentrum von ICH 8, wo wir zweimal großen Ablink auf zum CCH zurück hatten. Und dann hatten wir ein paar Upstream-ISPs. Zum ersten Mal hatten wir 10 Gigabyte von der deutschen Telekom hier im CCH. Also zum ersten Mal, seit wir hier waren, hatten wir tatsächlich Redundanz beim Ablink. Wenn der Ablink zum IPHH fehlgeschlagen wäre, dann hätten wir immer noch 10 Gigabyte zur deutschen Telekom gehabt, als 10 Gigabit. Das war es ziemlich cool, war eigentlich. Und beim IPHH waren wir an den E-Kicks angeschlossen, an Kaya Global, KPN und LVL kommen. Unsere anderen drei Upstreams. Und beim E-Kicks haben wir vor allem mit dem Rootserver mitgemacht. Und dann hatten wir einen Server an KB Deutschland. Und wir hatten zwei Peering-Press von einem ISP, der seine PGP-Session nicht eingerichtet hat. Das heißt, auf die warten wir noch. Die haben immer noch ein paar Stunden, bevor wir unsere Ausrüstung runterfahren. Vielleicht schaffen wir es ja am Ende noch. Und mit all diesen ganz großen ISPs, die wir als Upstream hatten, hatten wir ein paar Probleme oder ein paar Herausforderungen, zwischen den ganzen Ablings zu balancieren. Also wir hatten, haben Traffic von einem Ablink auf den anderen und zurückverteilt. Und das Ganze ein bisschen zu, um das Ganze ein bisschen zu balancieren. Und damit ihr alle gleich schon ins Netzwerk kommt. Und das haben wir am Ende ganz gut geschafft. Wir haben ein paar Beschwerden bekommen. Und DDoS Angriffe kamen auch ziemlich schnell rein. Also ich glaube, da waren wir jetzt erfolgreich. Und nach diesen ganzen Jahren haben wir das E600 kaputt gemacht oder das haben wir benutzt. Wir haben es dann in Berlin benutzt, dann im CCS erst mal nicht mehr, dann beim Camp wieder. Und jetzt haben wir endlich die Grenze gefunden. Weil ja, dass immer diese eine Kiste war, die immer den Herausforderungen des Kongresses gestellt hat. Aber dieses Jahr, glaube ich, haben wir die T-Ken-Tabelle gefüllt, die nicht mehr als 16 in IPv6-Nachbar-Entries ausgehalten hat. Also ich glaube, du hast drei Einträge pro Gerät, aber das sind natürlich nicht so viele. Deswegen war diese Kiste einfach zu klein, um diesen ganzen Traffic auszuhalten. Aber ja, wir konnten das lösen, indem wir das Routing auf ein anderes Gerät verschoben haben, dass wir noch rumliegen hatten. Das hat also funktioniert. Ein anderes Problem war, dass wir zum ersten Mal ein DDoS Angriff hatten. Also jemand hat versucht, unser Netzwerk von außen anzugreifen. Im Grunde haben sie zwei unserer 10 Gigabit Ablings mit DNS Traffic gefüllt. Das war also ein Abend mit ein paar Problemen für uns. Er hat sich gerichtet gegen einen der Colos Server. Also wir wissen nicht wirklich, ob sie versucht haben, das Event anzugreifen. Oder einfach nur einen spezifischen Server, der ihn nicht gefallen hat. Aber wir konnten das lösen mit unseren Upstream-Nocks. Das hat also gut funktioniert. Und dann haben wir versucht, mit KPN dieses Jahr, einem unserer Ablings, eine 100 Gigabyte Leitung zu ihn zu legen. Sie haben Hardware arrangiert, um diesen Test durchzuführen mit uns, aber am Schluss hat es nicht funktioniert. Wir haben verdächtigt, dass es an einem kaputten Kabel liegt und dann haben sie uns ein neues Glasfaserkabel geschickt. Aber es hat auch nicht funktioniert. Aber dann ist es vielleicht eine kaputte Landkarte. Am Ende mussten wir schon wieder die 10 Gigabit von einer Uhr obernehmen. Aber das ist okay, wir brauchten die ganze Brandbreite nicht. Es wäre einfach nur schön gewesen, die Technologie mal testen zu können. Und am Ende hatten wir ein paar Probleme mit dem EPV6-Routing auf den Huawei-Routern. Die haben erst mal ganz gut funktioniert in den meisten Orten. Aber in einem der Patchrooms, wo wir eine ganze Menge WLAN-Endpunkte hatten, schien es so, als würde ihnen der Speicher ausgehen, indem die Adressen gespeichert werden. Und wir haben gemerkt, dass das vor allem bei EPV6 war. Wir haben einen merkwürdigen Paketverlust gehabt auf manchen WLAN-Netzwerks. Das war also ein ganz schön schwieriges Problem zum Debaggen. Und am Ende haben wir dann rausgefunden, dass es mit dem Camp zu tun haben musste. Und dann haben wir das meiste Routing wieder zurückverlegt auf den E600 und haben natürlich sichergestellt, dass es immer noch unter 16.000 Nachbarn waren. Aber am Ende war die Latence auf den EPV6-Netzwerken wieder normal und alles war wieder gut. Wir haben immer noch nicht wirklich rausgefunden, was passiert ist, aber es musste irgendwas in der Art gewesen sein. Und wir hatten das gleiche Problem wieder mit den WLAN-Netzwerken, wo wir ungefähr 8.000 Nutzer oder so drin hatten. Und das haben wir am Anfang geroutet auf den E600. Und auch da haben wir dann Probleme bekommen. Dann haben wir das auf einen NX80 verschoben und dann haben wir ein bisschen hier den Traffic lokal hin und her geroutet und dann war es okay. Inzwischen drin haben ein paar Leute versucht, sich Spaces erlauben und Sachen an unseren Monitoring-Server geschickt. Und das hat das Monitoring ein bisschen an Teil der Zeit zerschlossen. Aber am Ende war das dann auch okay und haben einfach die entsprechenden IP-Adressen blockiert. Und dann konnten wir sehen, dass das Netzwerk sowieso gut funktioniert hat. Also das war auch in Ordnung. Und dann hatten wir ein paar merkwürdige, ein paar vermischte Notizen. Wir haben gemerkt, dass der Facebook-Traffic nicht wirklich hoch war. Der hat es nicht in die Top 200 der Estarts geschafft. Wir haben den Spaß gemacht, dass der meiste Facebook-Traffic von einem Besucher in einem Facebook-T-Shirt kam. Und auch interessanterweise, es gab mehr V6-Traffic zu Facebook als V4-Traffic. Und für den Kolo haben wir dieses Jahr ein paar Anforderungen gesehen. Nach der Sorte, wir brauchen... Es gab Leute, die mehrere 10-Gig-Kanäle für ihre Server haben wollten und wir machen das gerne, wir stellen das gerne zur Verfügung und wir stellen gerne so viel Bandbreite zur Verfügung wie möglich. Aber es gibt Grenzen. Und zumindest für diesen Kongress war 10-Gig wirklich genug für eine Server im Kolo. Die Leute konnten nicht wissen, dass wir das Problem mit dem Backbone usw. hatten. Aber bitte richtet eure Herausforderung ein bisschen an der Realität aus. Das ist alles, was wir dazu sagen. Wir haben ein paar interessante Fakten herausgefunden, die Leute uns nicht sagen konnten, als wir nachgefragt haben. Wir haben 1.2 Multimut-Glasfaser in diesem Gebäude und mit der hektischen Hardware-Anschaffung vor dem Aufbau kamen wir in die Situation, dass wir 40 Gigabyte Ethernet-Links zwischen manchen Orten laufen lassen mussten. Also wir brauchten nur 10, aber wir hatten das Equipment nur für 40 Gigabit. Deswegen mussten wir uns entscheiden, ob diese links auf der Infrastruktur, die dafür nicht gebaut ist, funktionieren würden. Die Glasfaserkabel können auf 100 Meter verlaufen, aber wir haben es für 190 Meter auf den schlechten Glasfaserkabel geschafft, die wir hatten. Und noch eine interessante Tatsache, die auf dieser ... Oh ja, gar nicht zu sehen ist. Der größte Auschaffung nach draußen waren 21 Gigabit pro Sekunde, was ungefähr 4 Gigabit mehr als letztes Jahr sind. Also das wächst immer noch. Hier ist ein schöner Diagramm. Das zeigt nur, wie viel wir auf unserem Backbound-Link hatten. Das haben wir erst vor einer Stunde gesehen. Ich dachte, das wäre vielleicht ganz spannend. Da haben wir das Ende des Kolos angekündigt. Und da sind wahrscheinlich alle von euch zum Kolo gelaufen und haben ihre Server rausgenommen. Deswegen ist der meiste Traffic jetzt wahrscheinlich weg. WLAN? Wir haben WLAN? Nein, aber ernsthaft, wir haben WLAN. Dieses Mal haben wir ein Ruba-Controller benutzt. Es war in einem Hochverfügungheits-Setup mit 10 Gigabit-Links zum Kolo. Wir haben 145 WLAN-Router im Gebäude verstreut. Und im gesamten Gebäude haben wir 20.000 einzigartige Clients gesehen. Wir hatten maximal 8.150 Clients. Es ist also nicht mehr als 9.000. Unser WLAN-Team hat das es offenbar nicht geschafft. Aber ernsthaft, wir haben 40% von Geräten im unverschlüsselten Netzwerk gesehen, was wir wirklich nicht erklären können. Weil wir versucht haben, die Leute ins verschlüsselte Netzwerk zu bringen. Wir hatten die 32 C3 SSID und die 32 C3 Open SSID. Und irgendwie waren 40% der Leute im unverschlüsselten Open-Netzwerk, obwohl wir sogar eine Android-App für die Konfiguration zur Verfügung gestellt haben. Und wir hatten Apple und Windows-Profile einfach, damit die Leute das verschlüsselte WLAN benutzen. Trotzdem haben 40% gesagt, violo. Vielleicht sehen wir nächstes Jahr eine Abnahme in diesen Zahlen. Das wäre ganz schön. Und natürlich die unumgänglichen Benutzernamenstatistiken. Denn ihr wisst ja, ihr könnt jeden Benutzernamen, den ihr haben wollt, aussuchen. Nummer 7 ist immer noch eine Verbesserung von letztem Jahr. Letztes Jahr war es nur die AF. Die Gerätestatistiken. Dieses Mal hat Linux gewonnen. Zusammen mit anderen. Nein, zusammen mit Android. Und Trafficstatistiken. Wir haben durchschnittlich 3 Gigabit pro Sekunde gesehen, aus dem WLAN hin und zurück gesendet. Das Maximum hat 4,5 Gigabit pro Sekunde. Und Zahl 1 und 2 waren natürlich die vollsten Gegenden. Die hatten maximal 1,57 Gigabit pro Sekunde. Und in dieser Ausrüstung haben wir die höchste, haben wir deutlich höhere Durchfinitznutzung als in normalen, wenn um diese Größe gesehen. Also irgendwie seid ihr deutlich aktiver im Internet als andere. Das ist merkwürdig. Wir können das auch sehen. Das ist die Nutzung des 5. Herzch-Netzwerks in Zahl 1. Also alles wird benutzt. Wir haben echt keine freien Frequenzen mehr. Wir versuchen so viel Traffic wie physisch möglich ist, durch diese Frequenzen zu schieben, die wir haben. Und dieses Jahr haben unsere WLAN-Leute beschlossen, mal ein Probe-System zu bauen, damit sie vielleicht die Qualität des WLANs, das sie gebaut haben, überprüfen können. Vorher konnten wir sie einfach mit überprüfen, indem wir schauen, ob Beschwerden ankommen. Aber diesmal hatten wir tatsächlich Daten. Und sie haben 5 Open-WRT-Geräte gebaut mit WPA-Sublikent und haben dann automatisierte Teste darauf laufen lassen. Ich glaube Pinkchecks. Und schon können wir ein DHTP-Lease bekommen. Lass uns mal versuchen, diese Datei über DHTP runterzuladen und schauen, wie lange es dauert und solche Sachen. Also ihr könnt sehen, dass die Download-Geschwindigkeit auf 15 Megabit pro Sekunde begrenzt war und in der Nacht konnte man diese Geschwindigkeit tatsächlich erreichen. Aber sobald die Leute reingekommen sind, ist die Geschwindigkeit gesunken. Das sind interessante Daten für uns, wenn wir das Netzwerk für das nächste Event bauen. Wir hatten ein paar Probleme mit dem WLAN oder ein paar Herausforderungen. Wir hatten Performance-Probleme mit den E600 am ersten Tag, die sich aufgeborscht haben, weil der Cam ausgegangen ist. Eine ganze Menge Latente zum WLAN und dem meisten Netzwerk-Traffic, der durchgeht. Als wir den Traffic vom E600 weggeleitet haben, hat sich die Durchleistung verdoppelt nach dem Tag 1. Deswegen haben wir gesehen, dass wir die Grenzen des E600 erreicht haben. Aber das haben wir euch ja gerade schon erzählt. Und wir haben die physischen Grenzen in Saal 1, 2 und 3 erreicht in die meiste Zeit mit 100 Prozent Kanalnutzung. Das habt ihr gerade gesehen. Entweder brauchen wir ein größeres Spektrum oder eine effizientere Nutzung des Spektrums, das wir schon haben. Und was das angeht, bittet unser WLAN-Team euch. Wenn es Leute gibt, die Ahnung von diesem Thema haben, die wissen, wie man WLAN-Netzwerke für 12.000, 15.000 Leute baut, mit der Bandbreite, die wir hier haben, dann würden wir gerne mit euch reden darüber, wie das funktionieren kann. Bitte kontaktiert uns. Ihr könnt natürlich auch so mit uns reden, aber wir brauchen nicht die Erfahrung von jemanden, der eine Fritzbox zu Hause hat. Die haben wir nämlich auch. Wir brauchen also wirklich die Erfahrung von Ingenieuren und Leuten, die solche Hochkapazitätenetzwerke mit vielen, vielen, vielen Nutzern und hoher Bandbreite betreiben. Und das letzte Problem, das wir hatten, war die WLAN-Alarme. Das hatten wir letztes Jahr auch schon. Wenn ein bisschen Rauschen auf einer Frequenz ist, dann fährt das WLAN einfach runter, weil es glaubt, oh, da kommt, das sind Radar-Signale von den Fluglotsen oder so und dann muss es runterfahren. Das ist ein bekannter Bug in den Arubas oder sowas in der Art, nehm ich an. Und es ist immer noch nicht behoben. Wir sehen dieses Problem nach wie vor, aber anscheinend ist es in den neuen Geräten besser, die wir von dem wir aber noch nicht so viele hatten. Ja, 50 Prozent immerhin. 50 Prozent der Leute konnten das WLAN weiter benutzen, als dieses Rauschen kam. Ein anderes Problem ist, dass es gibt Leute, den wir denken müssen. Wir haben kein besseres Bild gefunden. Ich wollte wirklich den tollen Leuten vom Dog Help Desk Lanken, die immer unser Firewall sind und sie nehmen eure ganzen Anforderungen und wollen euch helfen und leiten die ernsten Sachen an uns weiter. Damit wir auch wirklich Zeit haben, auf dem Netzwerk zu arbeiten, danke dafür. Zum Schluss die traditionelle Dank an die Sponsoren. Das sind die Firmen, die dieses Ereignis überhaupt möglich machen. Insbesondere in der Situation, wie wir sie dieses Jahr hatten, wo wir keine Ausrüstung hatten, macht es toll, dass wir so viele Firmen hatten, auf die wir uns immer noch verlassen konnten, die einspringen und immer noch das zur Verfügung stehen, was sie können. Noch mal vielen Dank dafür. Gibt es Fragen? Vielen Dank für die tolle Arbeit, die ihr gemacht habt. Zwei schnelle Fragen bezüglich des WLANs. Wie viele WLAN-Router gab es in Saal 1 und habt ihr nur einen einzigen Kanal pro WLAN-Router benutzt oder gab es mehrere Kanäle auf einem? Hier ist der WLAN-Experte. Wir haben 18 Access Points in Saal 1 benutzt und wir haben so ziemlich alle Frequenzkapazitäten ausgenutzt. Heute haben wir andere Channels und jeder Access Point hat 5 GHz Radio. Ich glaube, das ist auch die Controller-Lösung. Die sehen einander und da haben wir das anders gemacht, aber wir werden das statistisch zuordnen. Die interessanteste Frage ist, wie habt ihr das Peering mit der deutschen Telekom hinbekommen? Es war einfach nur Transit, nicht Peering. Wir haben einfach ein paar Leute angesprochen. Es ist so nicht reproduzierbar. Aber wir hoffen, dass wir es nächstes Jahr reproduzieren können. Ja, ihr schon nicht. Warum ist das Vicky Down? Applaus? Ich möchte das dieses Jahr noch mal betonen. Wir betreiben nicht events.jzc.de Die letzte Frage aus dem Internet, was sind die lustigen Dinge, die ein paar Leute das Monitoring System gemacht haben? Da war einige Pakete, die sehr hohe Belastung auf die Maschinen gebracht haben, aber sonst nichts. Vor ein paar Jahren hat ein Kollege und ich eine Studie gemacht, in der wir Tausende Geräte im ganzen Internet gefunden, die unsichere RSA-Verschlüsselungskies für SSH und TLS hatten wegen schlechten Zufassagengeneratoren und deswegen diese ganzen Netzwerke kompromittiert haben. Ich frage mich, ob ihr uns vielleicht dabei helfen könnt, weil eine ganze Menge davon Fritzboxen waren. Wir geben all unsere Fritzboxen zurück. Also wir haben die dann nicht mehr. Ich glaube, nächstes Jahr könnt ihr das unverschlüsselte WLAN vielleicht unterbinden, indem ihr vielleicht seinen Namen geplügt, an den Krippel oder in Secure oder so. Ja, wir können versuchen, dass stärker die Leute davon abzuhalten. Wir haben die letzten Jahre auch den Namen, Legacy oder Slogan gegeben, aber wir können da noch was machen. Eine Frage zu WLAN, insbesondere in Saal 1. Lasst ja die Router bei voller Leistung laufen oder müsst ihr das reduzieren, damit die Zellen kleiner sind? Ja, wir haben nicht mit voller Energie die Geräte laufen lassen. Ich frage mich, ob wir nächstes Jahr vielleicht besseres WLAN in den Toiletten haben könnten. Das Lustige ist, das war tatsächlich auf der Liste für dieses Jahr. Ich bin mal nicht sicher, was da schiefgelaufen ist. Wir wissen es, also wir sind ja und es tut uns leid. Habt ihr versucht das unverschlüsselte Netzwerk abzuschalten? Naja, wir haben es nicht versucht. Wir wissen halt, was passieren würde. Wir wollen es halt nicht. Wir wollen die Leute dazu bringen, das nicht zu nutzen, aber wir wollen halt eine Verbindungsmöglichkeit herstellen. Und es ist halt ein Hacker-Event. Naja, es ist ein Hacker-Event und wenn man es halt nutzen würde, dann kann man es halt für Sniffing-Sachen und so. Wie viele Abuse-Nachrichten habt ihr bekommen? Leider haben wir diese Zahl dieses Jahr nicht. Oder ich hab sie nicht. Hallo? Skrollen, skrollen. 248 Mails und 98% davon waren automatisiert wegen irgendwelchen Portscans und so. Und wir hatten glaube ich ungefähr 10 Anrufe, wo einer eher ernst war und die meisten waren relativ unwichtig. Ah, okay. Ich habe einen Anruf bekommen, aber das war, weil jemand Spam-Email gesendet hat. Okay, thank you very much. Okay, ich denke wir sind fertig. Okay, alright. Who's next? Okay, wer kommt jetzt? Blankstairs. Blanke Gesichter. Looks like a Vogue-Review. Ja, das sieht wie ein Vogue-Review aus. Hat irgendjemand den Raum schon verlassen, haben wir neue freie Sitzplätze. Ich seh hier ein und da drüben ein, weil da hinten Leute stehen und die können vielleicht einen Platz finden. Alright. Gut. Kommt weiter rein, findet freie Plätze, die Leute halten ihre Hände in Luft. Applaus für die Vogue-Review. Okay, manche von euch wissen es vielleicht letztes Jahr. Waren wir mehr oder weniger als Wireless-Operation-Center, weil das der größte Teil unseres Teams, der konkret solch anheimgefallen ist. Dieses Jahr wollten wir es verbessern. Und das hat mehr oder weniger funktioniert. Wir hatten ein paar raue Rachen, aber keine ernsthaften Krankheiten. Also ich glaube, das war ganz gut. Die Ausrüstung war ähnlich wie letztes Jahr. In jeder, jedem Saal hatten wir jetzt zwei bis drei Kameras. Zwei in den ersten Hauen und in den Sechs und G. Und die wurden mit Hardware-Video-Mixern gemixt und jeder Menge Equipment dazwischen, was zum größten Teil von Blackmagic-Design gebaut wurde. Also Video-Mixer, Signalumwandungen, die Skalierung, Backup-Aufnahmen auf SSDs und so weiter. Wir wurden gebeten, mehr darüber zu reden, wie der eigentliche Signalfluss aussieht. Deswegen habe ich eines der Bilder eingebaut aus dem Site 2. Man benutzt besser den Cursor. Hier wird das Sprechersignal eingespeist. Das geht dann an einen Switcher, der seine Ausgabe an den Projekter gibt und auch eine Rückschleife an den Video-Mixern geben kann, der an die Kameras angeschlossen ist. Und da gibt es eine Skalierer, der die Ausgabe des Bildschirms zurückgibt an die Video-Mixer, damit wir den Infobiemer, der das Ding ist, das in den Pausen spielt und in den Stream einspeisen können. Eine Sache, die wir machen, die vielleicht nicht so offensichtlich ist, wenn ihr solche Videosachen vorher noch nie gemacht habt, ist, dass wir das Audio-Signal später erst einbetten. Das heißt, die Mixen des Videos passiert ohne das Audio und wir haben einen zentralen Ort, wo das Audio aller Säne gesammelt wird und gemischt wird und wir verteilen das und wir betten das Audio dann erst nach dem Mixen ein, was eine ganze Menge Sachen einfacher macht, aber auch von Zeit zu Zeit seine eigenen Probleme verursacht, weil das nicht lokal ist. Und wenn es ein Problem mit dem Saal gibt, dann müsst ihr mit der zentralen Audio-Regie reden und mit denen euch absprechen und das verursacht ein paar Probleme, aber die meisten davon konnten wir beheben, zumindest in den Releases, wenn auch nicht in den Streams. Und dann teilen wir das Signal auf eine Backup-Aufnahme, die einfach nur alles auf SSDs aufnimmt. Wir hoffen, dass wir die nie benutzen müssen, aber es hat uns schon mal ein paar Mal dieses Jahr den Arsch gerettet und in den Jahren davor auch. Und die gehen dann in separate Boxen, eine davon macht die eigentliche Aufzeichnung und die andere macht den Stream. Und ja, das hier ist das Steuerungspanel von dem Mixer. Das ist Halle 2, also etwas mehr komplex als Halle G oder Halle 6. Halle 1 ist ziemlich ähnlich. Und ich denke, ich habe alles gut abgedeckt. Das war das einzige Bild, das ich dazu gekriegt habe. Wir haben einen großen Audio-Mixer, der alle Audio-Signale sammelt und auch die Übersetzungs-Signale einsammelt. Und dann können wir die ganzen Signale halt balancieren nach dem Audio-Mixen vom Kongresszentrum, sodass wir schneller reagieren können, das sonst nicht möglich wäre. Und um dann halt auch die Übersetzungs-Streams anzubieten. Wir haben auch das Sendezentrum dieses Jahr gemacht. Wir hatten das bereits letztes Jahr und wir haben uns entschieden, einige experimentelle Sachen gemacht für die Forschung. Wir haben halt Software-Mixer gemacht, die auch HD-Qualität können. Wir haben auch, ein unserer Teammitglieder hat auch diesen Software-Mixer programmiert. Er basiert auf G-Streamer und wir haben es vorgetestet. Aber das war das erste Mal, wo wir es auch vor einer großen Konferenz angewendet haben. Und es hat ziemlich gut funktioniert. Es gab einige Schluckauf, aber es gab keine bleibenden Schäden. Wenn ihr wollt, wenn ihr HD-Software-Mixer braucht, es ist Quell offen, ihr könnt auf GitHub gehen und ihr könnt uns gerne Patches senden. Bist du wirklich der Aufnahme? Wir hatten 134 Stunden Vorträge und das Beinhalten nicht das Sendezentrum, weil das ein anderes Projekt war und entsprechend nicht dadurch getrackt wurde. Das sind einfach nur Hallen 1, 2, G und 6. Wir veröffentlicht alles in 8 verschiedenen Formaten und einmal diesen 3 Formaten und auch in verschiedenen Qualitätsstufen. Wir machen auch nur Audio-Only, also nur Sprachaufnahmen. Man kann auch nur die Autosignale runterladen. Wenn man auf media.cc.de raufgeht, dann merkt man, dass man manchmal einen komischen Mix von Audio und Video mit Übersetzungen kriegt. Das hat wahrscheinlich irgendwas damit zu tun, dass man halt etwas mit dem Browser zu tun. Es gibt irgendwelche Probleme mit den Brousern und deswegen sollte man das lieber mit einem richtigen Videospieler abspielen. Die moxen auch die ganzen Audio- und Videotrecks und wenn ihr damit Probleme habt, dann ladet euch die Datei einfach noch mal runter und spielt sie mit VLC oder so ab. Dadurch hatten wir über 1.000 Stunden von Multimedia-Dateien zu codieren und die Sachen hochzuladen. In CPU-Zeit ist das ungefähr 3.000 Stunden encoding time. Der Veröffentlichungszustand ist, wir haben jetzt schon alle Talks jetzt bereits veröffentlicht. Als ich diese Slides zusammengestellt hatte, dann hatten wir bereits 130 von 152 Talks veröffentlicht im Web und jetzt müsste die Zahl wahrscheinlich schon höher sein. Wir versuchen, viele Talks wie möglich online zu stellen, bevor wir hier raus müssen und die Sachen abbauen müssen und wir hoffen, dass die meisten Talks hoffentlich heute rauskommen und der Rest wird dann hoffentlich die nächsten Tage verfügbar sein. Und wir müssen die Hardware natürlich auch mit nach Hause nehmen. Es wird ein bisschen dauern noch. Also das wird halt die nächsten paar Wochen dauern, aber ansonsten haben wir es ja größtenteils. Also ihr könnt auf media.cc.de gehen oder wir haben es auch auf YouTube veröffentlicht. Bezüglich Streaming. Also das war eh nicht wie letztes Jahr. Wir haben RTMP dieses Jahr nicht mehr unterstützt. Deswegen gab es nur HLS und WebM und die meisten Leute hatten halt auch und die einzigen Geräte, die HLS unterstützen nativ sind Apple-Geräte. Das waren ungefähr 10 bis 20 Prozent. Wir werden auch HTTPS auf allen Relays unterstützen und das haben wir dieses Jahr gebaut und das war im Wesentlichen möglich, weil Letzten Crypt uns die Zertifikate bereitstellt. Weil Wildcard-Certificates einfach super teuer sind und man, die halt nicht bezahlen muss bei Letzten Crypt. Und es macht auch kein Spaß, das mit anderen Certificate Authorities zu machen. Das ist wie unser CN-Content Delivery Network. Also wie unser Datennetzwerk aussah. Das war unser Quellserver in einem Kollokationsort hier im Konrasszentrum. Und wir haben dann die Daten an, die äußeren Server verteilt und ungefähr 300 Megabits Streamdaten müssen halt bewältigt werden pro ... Also wir hatten halt 17 von diesen Außenknoten, glaube ich, und zwei in diesen Servern waren in den Vereinigten Staaten, sodass die Leute in den Vereinigten Staaten einen lokalen Server hatten. Wir hatten auch ein Server innerhalb dieses Gebäudes, um halt die Leute davon abzuhalten, die Leute davon abzuhalten, den Mediaserver vom CCC zu verwenden, sodass man auch weniger Roundtrip-Time hatte. Okay, FeFest Einfluss ist immer noch eine Sache. Hier sieht man halt 5.500 Zuschauer bei FeFest Vortrag und wir sehen auch hier rechts den Peak bei Hackagepity. Wir haben fast 20 Gigabit Streams ausgeliefert, aber 10 Gigabit war so ungefähr der Durchschnitt an einem normalen Tag. Es war ein bisschen mehr letztes Jahr. Dieses Jahr hatten wir ... Also wir hatten dieses Jahr hochdefiniertes Video als Default angeben, weil ... Okay, also wir haben über 100.000 Terabyte an Streams ausgeliefert und Streaming zu deutschen Telekom ist kein Spaß. Anmerkung ist übersetzt, ich bin jetzt gerade nicht mitgekommen. Wir mussten Leute auf spezielle Unterserver umleiten, weil die kein so beschließendes Pairing zur Telekom-Server hatten. Und das Meister hatten wir viel Hilfe bei. Okay, weitere Teams, die nichts mit dem Videoteam zu tun hatten oder zumindest nicht das Videoteam waren, aber damit was zu tun hatten. Es gab das Untertitelteam, das dieses Jahr wieder mit Live-Untertitel in Halle 1 und 2, die Talks Live mit Untertiteln versehen haben. Und sie haben halt über 2 Millionen Buchstaben halt getippt. Ich habe die Zahlen leider nicht zeitnah gekriegt für diesen Talk, also sie haben über 60 Engel gehabt dafür und was Engel angeht, die Videoengel und Leute, die Kameras bedienen und werden so 250 Engel insgesamt für insgesamt das Medienteam. Ich habe versucht das Translation-Team anzurufen, aber das Telefon hat nicht geantwortet. Also Hallo vom Translation-Team hier auf dem Stream. Also die Zahlen hier sind nicht vollständig auf den Folien. Wir hatten 3 deutsche Vorträge und 9 englische Vorträge. Und wir hatten 105 englische Talks, die von Englisch nach Deutsch und 19 Talks, die von Deutsch nach Englisch übersetzt wurden. Und außerdem, ich denke, das ist auch das erste Mal, wo wir 3 Audio Tracks veröffentlicht haben. Und das war auch das erste Mal, dass wir ein Video mit 3 Audio Tracks veröffentlicht haben. Und das war einmal ein Video, wo auch Schweizerdeutsch eine Rolle gespielt hat oder mit übersetzt wurde. Also wo es auch nach Schweizerdeutsch übersetzt wurde. Und das war bei Hackageppedy gestern Nacht. Wenn ihr mehr wissen wollt, wie das Post-Processing funktioniert und dann schaut einfach mal hier vorbei. Der Aufbau, der da beschrieben ist, ist jetzt nicht unbedingt 100% der gleiche wie beim Kongress, aber es ist schon sehr nah dran. Und wir sehen uns dann bei der Easter-Hack. Und habt noch einen schönen Tag. Okay, wir werden jetzt die Sprecher gleich wechseln. Mikrofon 1 und 2, nur ein paar kurze Fragen. Die erste Frage des Internets ist, waffert immer noch, was waren die Audio-Probleme bei dem Eröffnungsereignis? Also er kann ein bisschen mehr darüber erzählen als ich, aber... Was war... Also irgendwas Magischöße ist passiert. Und wir können die Magie nicht mehr machen. Die Magie ist weg. Ja. Andere Fragen? Ja. Habt ihr darüber nachgedacht, die Streams über DVD zu übertragen? Ja, darüber haben wir nachgedacht. Wir wollten es eigentlich letzten Kongress als Vorbereitung für das Camp machen. Aber wir haben uns entschieden, das nicht zu machen, dieses Jahr in diesem Gebäude, weil es nicht so sinnvoll ist oder hilfreich ist, weil die übertragen das Signal als innerbis-Gebäude ist nicht so super. Und die letzten Kongress war die technischen Probleme zu, ich glaube, umgehen. Wir könnten natürlich eine Antenne auf das Dach vom Gebäude packen, aber das ist nicht passiert wegen... wegen Lizenzproblemen mit den Radioregulatorien. Okay, ich denke, uns geht die Zeit aus und auch um den anderen Teams auch eine Chance zu geben, zu sprechen. Jetzt das GSM-Review. Hallo, hallo, ja, sehr gut. GSM. Wir hatten ein Testnetzwerk wieder dieses Jahr, aber es gibt ein GSM, es gibt ein Problem mit dem GSM-Spektrum in Deutschland gerade. Und die Bundesnetzagentur hat 2015 das Test-Spektrum wegautzoniert, das Deckt-Guardband zwischen den Frequenzen von GSM und Deckt liegt. Weil dieses Spektrum zwischen den beiden Frequenzen liegt, wurde es traditionell freigehalten, weil es so ineinander sich reinlaufen könnte. Aber jetzt ist es weg, es wurde versteigert. Und deswegen konnten wir keine Test-Lizenz mehr bekommen. Und es sah richtig schlecht aus. Als könnten wir gar keinen Spektrum bekommen. Und Harald Wettel, einer der Entwickler von Osmalkom, hat ein Blog-Post geschrieben über dieses Problem. Und ein paar Tage später, er hat in seinem Post geschrieben, dass er so aussehen würde, als hätten wir gar keinen Netzwerk wegen dieser Situation. Und ein paar Tage später konnte er einen anderen, viel besseren Blog-Post schreiben, der gesagt hat, dass wir ein Netzwerk haben würden. Wir haben irgendwie Kontakt zu Vodafone bekommen. Und wir haben gesagt, wir benutzen das gerade noch gar nicht. Deswegen ist es okay, dass ihr das noch einmal benutzt. Sie haben uns die Erlaubnis dazu gegeben. Und wir haben uns bei der Bundesnetzagentur beworben. Und wir haben nochmal eine letzte Test-Lizenz bekommen. Das war toll. Wir hatten sieben BTS im Gebäude. Ein paar sind noch da. Das sind ein bisschen weniger, als wir letztes Jahr hatten. Jedes war auf seiner eigenen Frequenz. Und eine in den Sälen, in 1, 2 und 3G, eines im GSM-Saal, eins hier draußen im Foyer und eines als zwei Schockwerke weiter oben und eines im Hackcenter. Aber wir haben eine neue Sache gemacht dieses Jahr. Wir haben den Half-Rate-Audiocodec implementiert. Was bedeutet halt, dass wir doppelt so viele Telefonate wie letztes Jahr abwicheln konnte. Und jetzt gibt es auch eine funktionierende Open Source Implementierung davon, was die wirklich während dieses Kongresses erst fertig geschlägt wurde. Und wir haben auch zum ersten Mal GPRS betrieben für das ganze Ereignis. Auf einem Time-Slot, also das ist ein Achte der Frequenzkapazität, die wir für Paketdaten beigehalten haben. Und das wurde funktioniert und es hat funktioniert. Die Sache ist, wenn man sowas macht, dann muss man vorher herausfinden, wie viel Frequenzspektrum du den Paketdaten zugestehst gegenüber den Telefonanrufen. Und das kann man dynamisch nicht wirklich gut machen. Deswegen haben wir klein angefangen und geschaut, wie es weitergeht. Wir hatten ein paar Anschlüsse. Ich werde euch das gleich in einer Grafik zeigen und diesmal keine blöde Box. Das ist also schön. Die maximale Aktivität, 66 Anrufe in einer Minute. Das war die maximale Auslastung des Netzwerks und 38 SMS pro Minute waren die maximalen. Die totale Anzahl der SMS, das sind 15.909, sehr gut gemacht. Es scheint so, als ob 450 davon nicht zu ihrem Ziel geschafft haben. Vielleicht war das Telefon aus. Es gab keinen Anschluss unter dieser Nummer. Wer weiß? Es gab GPS-Traffic, nicht keine Gigabytes. Aber megabyte, immerhin. Lass uns mal klein anfangen. 116 megabyte wurden empfangen von dem Netzwerk. Also von Geräten gesendet. Und 475 megabyte wurden vom Netzwerk übertragen, also von Geräten empfangen. Und ein paar schöne Diagramme. Das ist ein Screenshot, den ich vor ein paar Minuten gemacht habe. Die drei ganz oben habe ich schon erklärt. Das sind die Anzahl der Anschlüsse und die Gesamtzahl der Nachrichten und der GPS-Traffic. Und unten seht ihr die Auslastung der Kanäle. Also wie viel Aktivität auf jedem der sieben BTS-Geräte war. Und was machen wir nächstes Jahr? Wir wissen es noch nicht. Es sieht noch nicht so gut aus. Es ist ziemlich sicher, dass Vodafone in nächstem Jahr seinen Spektrum benutzt wird. Dafür haben sie es sehr gekauft. Das ist ein trauriger Panda. Wenn ihr irgendwie die Möglichkeit habt, uns zu helfen mit ein bisschen Spektrum in der Innenstadt von Hamburg zwischen Weihnachten und Neujahr 2016, dann würden wir gerne mit euch reden. Und das ist wirklich eine einzigartige und wichtige Gelegenheit um Open Source Software zu promoten. Und Technologie, die wir haben, vielleicht habt ihr Haralds Talk, über die das neue 3G-Netzwerk gehört, das also langsam abhebt. Und nächstes Jahr, wäre ich wirklich begeistert, wenn wir das implementieren könnten. Ich habe schon erwähnt, wenn ihr uns helfen könnt, dann kontaktiert mich bitte. Wir haben tatsächlich noch eine halbe Kiste zum Karten übrig. Also könnt gerne auf uns zukommen nach dem Vortrag. Das ist alles von mir. Ich glaube, wir können Fragen annehmen. Okay, also wir wechseln jetzt Kostisch. Brecher aus und in der Zwischenzeit nehmen wir ein paar Fragen entgegen. Wenn ihr eine Frage habt, dann rennt zum Mikrofon. Wenn der Signalengel eine Frage hat, dann meldet er sich auch. Eine Frage ist, gab es irgendwelche besonderen Dienste, die ihr über GPRS zur Verfügung gestellt habt und gab es WAP-Seiten vom Kongress? Erinnert du euch noch an die? Es gab keine speziellen Services, die wir angeboten haben. Es gab auch kein WAP. Aber wenn ihr Interesse daran habt, dann geht den Kontakt mit mir. Es gibt noch etwas, was ich erwähnen will, mit den SIM-Karten. Die SIM-Karten vom letzten Kongress und die letzten vom Camp und die von diesem Event. Die sind alle Java-Karts. Wenn ihr die Schlüssel von diesen SIM-Karten haben wollt oder herauskriegen wollt, dann kontaktiert uns. Es gibt auch die Qualco, die kurz vor dem Kongress veröffentlicht wurde. Perfekt, eine schnelle Frage noch. Habt ihr probiert, Textnachrichten von VoiceOverIP mit SMS zu kombinieren? Das könnte interessant sein, zu funktionieren. Wir haben versucht ... Ja, ihr könnt ja VoiceOverIP benutzen, um Textnachrichten zu verschicken. Ist es nicht möglich, damit SMS zu schicken? Nein, wir haben das nicht versucht. Es gibt kein SIP zu SMS Gateway. Es ist ein interessantes Projekt, daran könnte man mal arbeiten. Sollte relativ einfach sein. Die Struktur ist relativ kompatibel. Letzte Frage. Eine Frage ist, welche Art von Hardware habt ihr in eurem Netzwerk verbaut und in den BTS? Die Hardware war ... Was war der zweite Teil der Frage? Ich habe vor allem die BTS interessiert. Super BTS. Es hat eine Internetverbindung zu einem Server, wo wir oben BSC ... Ich weiß es nicht. Wir haben noch zwei Minuten über die Seidenstraße. Aber wir müssen eventuell überziehen. Hallo, wir sind das Team, die die Seidenstraße aufgebaut hat. Aber wir waren auch auf dem Camp. Und einige Leute denken auch, wir waren nicht da, aber wir waren doch da. Unsere Village wurde ... wurde zu einem anderen Ort gebracht. Deswegen kommt nicht das Netzwerk, das wir wollten. Teilgrund war, dass es gab Sicherheitslinien, die wir nicht überschreiten durften. Wir haben es versucht, sie zu durchkreuzen. Aber die Erde in Wildenberg ist wirklich sehr schwer aufzukriegen. Wir hatten auch eine Stattung, die auch die Infrastruktur der Seidenstraße zeigen. Es gab ungefähr 118 Kapseln, die gesendet wurden. Es gab leider ... 4 Regen. Und ... also unsere Messung, die wir haben, die wir haben, waren leider nicht so outdoorfähig. Und deswegen ... waren nicht so zuverlässig, wie wir es gerne gehabt hätten. Das Netzwerk dieses Jahr ... sieht so aus. Es ist deutlich größer als beim letzten Konkass. Und dieses Jahr ... konnten wir auch all den Traffic von einem einzigen zentralen Knoten zu verwalten und zu bewältigen. Und dadurch konnten wir alles zum Zentralnot schicken und dann weiter verteilen. Einige neue Entwicklungen. Für das Camp hatten wir ... wir wollten die Statistiken von allen Knoten sammeln. Weil wir ein großes Netzwerk bauen wollten oder geplant haben. Mit Knoten, die weit auseinander sind. Wir brauchten auch ... also wir bräuchten halt ein, zwei Kabelbus, der billig ist und die Kommunikation erlaubt. Das ist ein, zwei Kabelbus. Und auf GitHub gibt es da ... gibt es die Hardware-Beschreibung dazu. Und deswegen ... der zentrale Ansatz ... erfordert, dass wir einige Kommunikationsmöglichkeiten hatten. Und deswegen hatten wir halt ... diese Telefone. Die haben wir insbesondere im Morgen angewendet. Wenn halt ... Leute da waren, die das benutzt haben. Das ist ein Router. Es war wirklich spaßig. Es hatte drei Röhren. Eine Röhre ... die aus dem ... eine Röhre kommen aus dem Hackcenter. Eine zum Pock. Und die letzte Röhre ging zum ... naja, das erzählen wir später. Das war wirklich lustig. Also aufgrund des ... zentralen Ansatzes ... wir konnten saugen als ein Service anbieten. Das hat das ... Lernproblem halt beseitigt. Wir wussten nicht, wer wirklich ... wir ... wer einen elektrischen Schalter ... bereitstellen könnte. Also haben wir einen anderen Ansatz verwendet. Wir hatten dann die dritte ... Röhre am Router. Das war gut, um Podcasts ... also zu kontrollieren und ... ja. Weil es auf der Bühne vom Senderzentrum war. Also ... das war fast alles. Wir würden gerne ... mehr Leute haben, um uns zu helfen. Wenn ihr uns helfen wollt, das alles aufzubauen. Dann kommt hier an Tag-3 vorbei und helft. Wenn ihr coole Ideen habt, dann kontaktiert uns über die Medienliste.