 Hallo und Willkommen zum Infrastructure-Review vom Herztet3 2020, was so hell ist passiert, wie konnte das passieren? Zusammen mit mir ist Little Warm, der hilft mir mit den Slides und vielem anderen. Ich will mal sagen, es war ein echtes Fuck-Up, also mehr Leute, mehr Teams, mehr Streams, mehr alles und das erste Team und Little Warm, das erste Team ist der Schock, ich muss zum Schock gehen, es ist ein echter Stress, wir hatten nur 8 Heroes für die Talks, wir haben 51 Talks angestellt, alle waren zu Hause, was echt anstrengend war. Wir hatten alle eine Tonne Excitement und Anstrengung, hier kann man sehen, was wir gesehen haben und so sieht das dann in echt aus. Ja, das war schon hart, echt für uns, also wir hatten hier die Setups, die wir hatten, wir waren echt glücklich, dass wir einen total neuen Operations-Center aufsetzen mussten, was wir wirklich wollen, dass wir es auf YouTube gefüllen können, das war echt sowas von anstrengend und wir hatten ungefähr, Achtung, wir sind ein bisschen unvorbereitet, ich muss mal eine Notiz hinhaben, es waren 20 Teilnehmer, die ein neues Team am ersten Tag gemacht haben. Sie haben 23 Shows gemacht, zehn aus Video-Aufzeichnungen, 20 Mal war die Pizza hier und wir haben 23 Mathe-Portals während der Preps getrunken, weil alle diese Leute online sein mussten, die komplette Zeit, also mein ganz großes Applaus für diese Leute, das war echt cool, was die gemacht haben, danke, was ihr gemacht habt, danke, was ihr auch ins Gym geparkt habt, das war ein tolles Team und wir hoffen, dass wir mehr von euch sehen. Yousuf bitte übernehmen. Oh, nein, mein Fehler, ist da Heaven soweit, wir müssen jetzt zum Heaven Infrastructure-Review gehen. Okay, du hörst mich noch? Ja, hallo, ich bin der Razielos dem Heaven und ja, Heaven ist ready, so welcome. Ich bin Raniel aus dem Heaven und ich stelle euch die Infrastructure-Review vom Heaven Team vor. Wir haben Statistik für die Engel vor ein paar Stunden vorbereitet und dieses Jahr haben wir nicht so viele Engel, die im vergangenen Jahr, weil das Event ja remote war, aber wir hatten 1.487 Engel, die registriert waren und 710 davon sind angekommen und von 300 davon haben wir jetzt eine Ficht übernommen und insgesamt ist die Arbeit bis jetzt beträgt sich auch 17 und 75 Wochen und für die 183 World haben wir auch ein paar goodies vorbereitet, Leute konnten uns besuchen und wir haben dafür ein paar badges gegeben und jeder Engel, der zum Beispiel unseren abgelaufenen Feuerwäscher gefunden hat und auch ein Feuer im Himmel gewischt hat, hat einen badge bekommen, das erste badge davon haben 232 Engel bekommen und noch weniger, aber 125 Engel haben es geschafft, dass wir uns helfen, dass der Feuer erzulöschen, dass der Himmel ausgebrochen ist und mit diesen Zahlen springen wir jetzt auch in unseren Heaven und ich möchte euch ein paar Pressionen davon zeigen. Wir hatten ein ordentliches Team, das herausfinden sollte, was der Himmel tun könnte und wir brauchen jedenfalls unser Heaven Büro und das haben wir auch mit Respekt eure Privatsphäre getan oder Datenschutz, das heißt wir unsern Wolken waren so weiß wie zuvor und das heißt wir konnten euren Nickname nicht sehen und ihr konntet einfach arbeiten, ohne dass wir euch nach eurem Namen fragen mussten, aber wir haben auch ein paar Geheimlänge vorbereitet zu unserem Backoffice im echten Leben, im echten Event, passiert es immer wieder, dass manche Abenteurer ihren Weg in unser Backoffice finden und die Möglichkeiten mussten wir jetzt auch wieder bereitstehen und manche Abenteurer haben versucht den Weg in unser Heiliges, haben versucht den Weg in unser Heiliges Backoffice zu finden, aber nur weniger waren auch erfolgreich. Wir hoffen, dass jedenfalls alle ihren Weg wieder zurück in die echte Welt aus unserem Labyrinth schon haben und wir haben auch keinen Kosten und Mühen gescheult um ein paar extra Updates für unsere Engel bereitzustellen. Wir wollten ein bisschen Multi-Instance Support bereitstellen, das heißt manche unserer Engel haben es auch geschafft sich zu teilen und mehr als einen Engel gleichzeitig zu bedienen. Das heißt wir haben versucht die gleichen Dinge bereitzustellen, die wir auf dem Konkretz auch machen würden, aber jetzt eben aus unseren Büros in der Ferne. Und eine letzte Sache, die normalerweise nicht gesagt werden muss, aber dieses Jahr mit diesem sehr anderen Event ist es glaube ich wichtig oder notwendig, dass der Himmel als Repräsentationsinstanz für die Leute, die dieses Event großartig machen, dass der Himmel sagen muss, was wir normalerweise für gegeben annehmen und das ist vielen Dank für eure Hilfe, vielen Dank für alle Teilnehmenden, alle Teams, die es geschafft haben, unseren echten Konkretz, den viele, viele dieses Jahr nicht erleben konnten auf eine neue Bühne zu bringen. Wir haben es online versucht, das hatte seine Höhen und Tiefen, aber ich glaube immer noch, dass es ein großartiges Abenteuer für alle war und aus dem Team kann ich nur sagen vielen Dank und ich hoffe, ich sehe euch alle in der Zukunft wieder bei einem echten Event. Tschüss und frohes neues Jahr. Hallo zurück. Wir springen jetzt zu den Signalengeln. Die Signalengel zu weit. Hallo. Ja, hallo. Willkommen zum Infrastructure Review der Signalengel. Also ich habe ein paar Sachen vorbereitet für euch. Das war für uns das erste Mal, das wäre eine vollständig remote Q&A-Frage genannt wird. Programmen durchgeführt haben. Wir hatten ein paar Erfahrungen vom Divock und wir hatten ein paar Unterstützungen von da gekommen, aber ob das nur zu vergleichen, also uns vergleichen. Ein Signalengel im Raum haben dort Harold redet auf der Hühne und dann haben wir die Mikrofon und dann Hatset und dann machen die das und remote konnten wir das natürlich so nicht machen, weil es wäre jetzt ziemlich anstrengend für gute Audio-Systeme. Wir brauchen also ein neuer Remote Q&A-Frage. Wir entschieden, dass wir das, die Mikrofon über ein Pad machen, wir auch die Fragen ins Pad sammeln und dann kann der Harold die Vorlesen und dann gegenüber dem Speaker aussprechen. Und wir hatten 157 Geschichten und davon sind fünf nicht gefüllt worden. Am Anfang, weil es nicht genug Leute gab, die bereits da waren, sind technisch haben wir mehr als fünf, weil für ein paar Gründe es gab DJ Sets, die nicht wirklich talk sind und die haben natürlich dann auch keine Frage oder Antwort-Sessions. Wir hatten 61 Angels mit vier Supportern unterstützt. Wir haben weitere 60 zusätzliche Angels, die wollten eigentlich dabei machen, aber die dann bei der Reduction nicht dabei gewesen sind. Und für jede Session hatten wir ein Pad erstellt, wo die Fragen reinkommen von IIC und von Twitter und wo wir dann ein bisschen, wenn man ein bisschen mehr Pads als Talks haben. Wir haben da ein paar Statistiken, wie viel Fragen vor Talk reingekommen sind, was wir normalerweise erwarten ist. Das ist eine Frage pro Linigit und paar haben mehr als eine Zeile gebraucht. Deswegen, wenn es strukturierte Fragen mit Abschnitten gewesen ist, ein paar Fragen wurden gelöscht von den Angels, wenn sie fertig waren und es gab auch ein bisschen Chat zwischen Harold und Angel in den Pads gewesen. Wir haben einen Partner Strip gehabt, das sich die alle anguckt, die dann zählt und die Header herausnimmt und am Ende hatten 479 Pads und 1780 Zahlen, wenn wir jetzt die statischen 9 Zahlen pro Pad ausgenommen haben. Das heißt wir ungefähr 9 Fragen, also ungefähr Fragen, aber es ist eine abschätzbare Zahl pro Talk. Genau. Und bis ich daraus gelernt habe, nie die Einleitung verpasst. Als nächstes kommt die Aufnahmeleitung. STB, bist du da? Ich bin hier. Tatsächlich. Die etwas Äteren erinnern sich vielleicht an diese Melodie, schlecht gesungen von eurer Wenigkeit und anderen Mitgliedern der Aufnahmeleitung. Und warum das relevant? Für uns ist darauf komme ich später zurück. Was macht die Aufnahmeleitung? Das ist die Kommunikation zwischen allen, die an der Produktion beteiligt sind, den sowohl hinter als auch vor der Kamera. Und unsere Arbeit begann sehr früh. Im Grunde Anfang November, als wir die Speaker technisch vorbereitet haben und ein bisschen geübt und probt haben, den Studios zu ermöglichen, die Produktion tatsächlich zu koordinieren, die technische Seite wurde vom Bock übernommen. Da hören wir später noch mehr zu. Aber all diese Menschen zu synchronisieren und dazu zu bringen, gut zu arbeiten, das war eine große Herausforderung und das hat eine Menge Mumbles erfordert mit vielen Menschen darin. Wir haben uns nur um die zwei Main- und Hauptkanäle gekümmert. Es gibt noch viele weitere Kanäle, die von den dezentralen Organisationen gespielt werden. Dazu hören wir gleich noch mehr. Aber wir haben Informationen bereitgestellt und versucht, Wikis Seiten mit relevanten Informationen zu füllen. Und das war unsere Hauptaufgaben. Was bedeutet das Spezifische? Das ist ein Produktions-Setup. Wir hatten 25 Studios, hauptsächlich in Deutschland, auch eines in der Schweiz. Die haben Hoffnungen vorproduziert für manche Speaker. Viele hatten auch Live-Setups für ihre eigenen Kanäle und auch für die zwei Hauptkanäle. Und ich habe alle aufgebistet, die an der Live-Produktion beteiligt waren. Es gab 19 Kanäle insgesamt. Eine Menge Sachen sind passiert. 25 Studios und 19 Kanäle, die Inhalt dieser Studios gesendet haben. Das ist also so ähnlich wie Eurovision, wo du verschiedene Studios hast und dann versuchst, den Inhalt zusammenzufügen. Das Wok hat den technischen Teil dieser Aufgabe hervorragend erledigt. Aber tatsächlich alle auf den gemeinsamen Stand zu bringen, das war nicht einfach. Wir hatten über 350 Talks insgesamt 53 in den Hauptkanälen und all das zu koordinieren, damit wirklich alle die Speakerinformationen haben, die sie brauchen und all diese Organisationsarbeit war wirklich eine Menge Arbeit. Wir hatten kein Studio für die Hauptkanäle, aber die Live-Kanäle haben tatsächlich die Produktionsstätten für die Speaker bereitgestellt. Das heißt, wir können uns die nächste Slide anschauen. Da sind noch ein paar mehr Zahlen und ein paar Bilder von uns bei der Arbeit. Wir hatten 53 Talks in den Hauptkanälen, 18 davon waren im Chorus aufgenommen und wurden dann abgespielt. Wir hatten drei, wo Leute tatsächlich vor Ort in einem Studio waren, wo sie ihren Talk gehalten haben. 32 wurden live über das Internet gestreamt, so wie ich jetzt mit verschiedenen technischen Teilen, die euch das Wok gleich genauer erklären wird. Wir hatten eine mini Q&A's, ich weiß nicht genau, wie viele Talks tatsächlich Frage und Antwort-Segmente hatten, aber die meisten hatten das und die waren immer auch live. Wir hatten 63 Speaker insgesamt und für die haben wir auf jeden Fall die Live-Frage und Antwort-Session vorbereitet. Wir haben ihnen den Setup geholfen, mit der Aufnahme geholfen, wenn sie ihre Talks in Chorus aufnehmen wollten und wir hatten für jeden Speaker eine bis zwei Stunden Arbeit aufgewendet, um sicherzustellen, dass sie in guter Qualität auf den Bildschirm aufteilen. Und dann während der vier Tage mussten wir natürlich zwischen dem Master Control Room und den Studios koordinieren, um sicherzustellen, dass die Speaker da waren, wo sie sein mussten und um technische Probleme gleich aufzubügen, falls z.B. die Aufnahmeleitung Probleme gemacht hat oder Fehler gemacht hat und ein Talk nicht rechtzeitig herausgehen konnte, dann haben wir die Arbeit übernommen. Vielen Dank noch mal dafür, Verständnis. Entschuldigung, falls es manchmal erst am Tag zwei geklappt hat, euch auf den Bildschirm zu bringen, aber ich bin sehr froh, dass wir es geschafft haben, das noch auszubügen. Das ist alles von der Aufnahmeleitung und ich glaube als nächstes ist das Wok dran. Danke, STB. Ja, das ist richtig. Als nächstes ist Kunzi und Mitchell, Alex, die auf uns warten. Das ist Franzi vom Wok, 2020. 20 war das Jahr. Hi, hier ist Franzi vom Wok. 2020 war das Jahr der Verteiltenkonferenzen. Wir hatten zwei Devox und Fosconn um zu lernen, wie wir Remote Calls mit einigen Sachen und GC Aufzeichen machen. Wir hatten eine Menge andere Events, die einfach nur Streaming waren, also Business as usual. Für AC3 haben wir das emittert, für zwei Virtual Locations, jetzt sind es sieben mit einer totalen Bandbreite von ungefähr 80 Gigabits pro Sekunde. Wir hatten zwei neue Mirrors für Media2CC.de. Jetzt haben wir auch das Frontend ausgerollt. Wir haben zwei neue Transcoder, APHAS und Hans Cicita. Wir haben jetzt zehn APHAS mit eigenem Produktion auf Media2CC.de. Die Frage ist, wird es, skalieren wir das gut? Wir sehen, dass es tatsächlich gut gescaled hat. Wir haben Content für 25 Studios und 19 Channels. Wir haben echt eine Menge Rekorde, die wir auf Media2CC in den nächsten Tagen publizieren werden. Manche wurden bereits publiziert. Das heißt, wir haben eine Menge Content, die ihr euch angucken könnt. Jetzt wird Alex etwas erzählen über den technischen Teil. Hi, ich bin Alex, aber jetzt erzähle ich euch ein bisschen mehr über die Organisation. Ich war zwischen den Vogue und dem eigentlichen Produktionsteam und wir hatten zwei Mainchannels, eins und zwei. Die wurden von den Studios produziert, die auf dem ganzen Rand herangelegt haben. Diese ging in unser Industry-Lay in Ilmenau. Ilmenau waren die Leute, die die Translations gemacht haben und die Records gemacht haben und das dann zurück publiziert haben. Zum anderen Studios haben ihre eigenen Channels publiziert und die gingen auch auf andere Studios und den Mixdown gemacht haben und dann CDNs gewesen gemacht haben und wir haben es dann zu den Studios publiziert. Das ist nicht der gleiche Setup, wie wir das letzten Jahr gehabt hatten. Auf der nächsten Slide kann man sehen, wo das hinführt. Eine Menge Kommunikation. Wir hatten das Limeproasing-Team, wir hatten die Produktion in Ilmenau, die wir koordinieren mussten. Wir hatten die Studios, wir hatten die Studios und Angels, wir hatten ein paar Leute hier, ein paar Leute CDNs, ein paar Webleute, wir hatten ein bisschen Dokumentation. Das haben wir uns einfach mal die Pfade für die Koalition aufgezeichnet. Bei die alle Leute dann sieht das wirklich aus wie die Welt, aber es fühlt sich so an, weil es aber total verloren hat. Woher seid ihr gerade? Was man da alles konzentriert, was man da konzentriert. Aber lasst uns mal die Studios angucken. Das ist jetzt das Studio von Konzentrieren. Auf der nächsten Slide zieht man das Studio Setup von Chaos West.tv. Danke Chaos West für die Produktion für euren Channel. Auf der nächsten Slide sieht man das Wikipacker Fernsehstudio von WTF. Absolut nichts Endefähig Chaos of Recording. Aber ein paar Studios sehen mehr nach Studios aus. Das nächste ist das Hack. Bei dem Hack sehtet ihr ein paar Bloopers, mit denen wir arbeiten mussten. Z.B. hier seht ihr gerade, da war eine Katze auf der Kamera. Ja, und Alex sagt, es lag ein bisschen fast über die offenen Kastrukturen. Hier kann man sehen, es ist ganz schön schick und künstlerisch, aber wenn man es genau anguckt, dann sieht es ein bisschen ekamäßig aus. Und für die nächsten Studio sieht man das Chaos Studio Hamburg. Ja, genau, im Chaos Studio Hamburg hatten wir zwei normale Workcases, wie ihr sie von den normalen Konferenzen kennt, und die produzierten auf der On-Site im normalen Studio. Und als sehen wir noch ein paar Bilder von der Chaos West, die TV sieht auch eher aus wie ein normales Studio. Da hatten wir ein Distanzmasken, all die Sachen, die wir machen mussten, damit wir trotzdem in der gleichen Location sein konnten. Aber an der Stelle sind zwar die guten Sachen angucken, also ein kleines Problem. Das zweite Mal, als wir zusammen sitzen und uns unsere schönen Kaffahne anguckt haben. Oh, viel mehr Connections da kommen, viel mehr Leute rein, haben uns gefragt, wie machen wir unsere Cash an? Das wissen wir nicht, aber die Namen der Verbindung wurden immer mehr. Was machen wir jetzt? Naja, wenigstens gucken sich die Streams ja an, die auf Webseite sind, dann ist es ja egal, der Injections funktioniert ja. Und dann haben wir auf einmal uns das anguckt, naja, irgendwas hat vielleicht doch nicht so gut gegrillt, und dann sagen wir den nächsten Slide das Problem. Wir haben ziemlich schnell geswitched von, oh, wir gucken noch auf diesen Topic Graph, und dann dachten wir uns, das müssen wir uns mal nochmal gucken. Wir bekommen so viele Message auf Rockets Chat und Twitter, und sie, dann mussten wir auf einmal eine Menge Fragen und Menge Phone Calls und so weiter, dann mussten wir priorisieren, erst die Hafe dann die Kommunikation, sonst die Kommunikation nicht aufhören. Und da sehen wir, dass wo das Problem eigentlich war. Wir hatten eine Menge Verbindung auf unsere Streams Webseite, dann zu den Note Balance, dann zu den DNS Server. Und eine Menge von denen waren irgendwie deformiert, das wirkte fast wie ein bisschen wie ich bin. Aber wir mussten vor allem auch mit den Passiver-Gasiven Nachrichten von allen vielen Leuten klarkommen. Wir können doch mit Streaming arbeiten, was macht er denn hier? Und dann haben wir mit dem Info Team sammeltet. Wir skalieren und dezentralisieren. Wir müssen nicht mehr Wandhabotzen, aber wir können euch mehr Wand berichten, wenn ihr das wollt. Und dann, mal was jetzt zu unterbrechen, das ist die Zeit, alles unterzuschalten, nein. Die Studios können ihre Endpoints behalten und die können weiter Streamen einfach, wie ihr wollt, verfragen. Wir wollen im Kontakt bei euch bleiben und mit den Studios und wir wollen Content mit euch machen und euer Software verbessern. Zum Beispiel das ISDN, das Internet Streaming Note, das Projekt für Recordingshaltung für kleinere Kameras, um zwei Speakers. Das braucht auf jeden Fall developer und Kevin braucht Entwickler und Tester. Was ist Kevin? Ja, da haben wir noch ein Slide für gepackt. Kevin steht kurz für Killer Experimental Video Internet Noise. Wir wollten ursprünglich OBS Ninja benutzen, aber da gibt es ein paar Lizenzprobleme, nicht alles ist bei OBS und es ist Open Source und deswegen haben wir uns entschieden unser eigenes OBS Ninja ähnliches zu coden. Wenn ihr da arbeiten wollt, dann mit euch bei uns oder schreibt es weg. Das ist alles vom Bock. Und dann gehen wir jetzt zu C3Lingo. Ich bin Oskar von C3Lingo. Wir springen direkt in die Statistik, die ihr seht, haben hier 138 Vorträge, die ich mal übersetzt und es sind viel weniger Sprachen als ob den anderen Chaos-Events bisher, weil das Team für die zwei Sprachen, das alles andere macht, alle Sprachen übernimmt, die nicht Deutsch und Englisch sind, konnten wir nur fünf Vorträge ins Französische und drei ins Brasilianisch-Portugiesische übersetzen. Und wenn wir uns anschauen, wie viele Vorträge wir übernommen haben, dann sehen wir, dass wir auf den Hauptbühnen, also RCA1, RCA2 alle Vorträge übersetzen konnten. Und in den anderen Sprachen haben wir nur 15 Prozent der Vorträge übersetzen können und 50 Prozent. Ansonsten haben wir 68 Prozent auf den anderen Bühnen übersetzen können, aber keine davon wurden in anderen Sprachen als Deutsch oder Englisch übersetzt. Ein paar globale Statistiken. Wir hatten 36 Übersetzer in die insgesamt 106 Stunden und 7 Minuten Vorträge in andere Sprachen übersetzt haben, simultan. Und die meisten Stunden, die jemand übernommen hat, waren 16 Stunden. Der Durchschnitt liegt bei ungefähr 3 Stunden Übersetzung im Dorf des gesamten Events. Ich habe auch noch ein paar Anekdoten, die ich erzählen können und ein paar Leute, die ich nennen. Wir hatten zwei neue Übersetzende, wir hatten mit dem Digitalenformat neue Probleme. Zum Beispiel manchmal, wenn zwei Menschen übersetzen, beginnt eine Person etwas zu übersetzen im falschen Stream und dann glaubt die andere Person, sie hätte einfach nur mehr Delay oder einer hat einen geringen Delay unter plötzlich glaubt, dass die andere Person Gedanken lesen kann, wobei der Stream schon ein paar Sekunden weiter voran ist. Das hatten wir bisher bei Events in der physischen Welt nicht. Auch der R3S-Bühne ist das Audio für uns manchmal rausgefallen, aber bei einer unserer Übersetzer diesen Vortrag schon einmal übersetzt hatte oder schon mal zumindest teilweise, als er danach abgebrochen wurde, wusste diese Person schon das meiste über den Vortrag und konnte eine Art Powerpoint-Caraoke übersetzen und den Vortrag also fast nur von den Slides ohne Audio übersetzen. Das letzte, was ich sagen möchte, ist bei den beiden Teammitgliedern, mich zu bedanken, die diesmal nicht mit uns übersetzen konnten, weil sie sonst so viel übernommen haben und das sind STB und CUTTY. Und das ist alles von C3Lingo. Vielen Dank. Hallo, hallo. Jetzt kommen wir zu dem Untertitel-Team und mit den Slides, die ihr jetzt gerade schon gesehen habt. Alles klar. Hallo, ich bin TD vom Untertitel-Team. Und nächstes Leid, bitte. Ich möchte kurz mal kurz zeigen, wie wir von dem Code zu unterstützen bekommen. Wir machen also eine Text-Erkennungssprach-Erkennungs-Software, die ein Transkript macht, die die Software macht. Dann gibt es, wir machen ein bisschen Auto-Timing und dann haben wir Subtitel-Timings und dann haben wir Menschen, die sich das angucken. Nächste ist Leid. Wie gesagt, man sieht, wir haben hier Subtitels an verschiedenen Niveaus und Verfertigstellungen. Man sieht die Zahlen gehen alle nach oben, wie es sollte. Insgesamt hatten wir 68 Engel, die vier Schichten gemacht haben, 83 Prozent. Sie sind an zwei Stiften gewesen, 10 Prozent. Unsere Engel haben zwölf oder mehr Schichten gemacht und insgesamt hatten wir 382 Stunden für 47 Stunden Material. Wir hatten zwei Releases für RC3 und hoffentlich mehr und 33 Releases für alle Konkretzer. Wir haben 41 Stunden Transkripte, 20 Stunden getimt und 51 Hours dann schon fertig in der Details-Katrouill-Stufe im nächsten Leid. Wenn man Transkript hat, dann kann man da coole Sachen machen. Zum Beispiel, wenn man kann wirklich schauen, was wichtig für etwas war, wichtig war vor allem das Word People und wir warten natürlich auf andere coole Ansätze, die machen, um das alles zu trecken. Haben wir ein High-Performs, ein Kanban benutzt und da wäre kein Windows im CCA-Volumen. Haben wir das verrückt, weil es hier ist, deswegen nutzen wir jetzt eine Kanbansoftware. Schönen Sonnen. Danke, wenn ihr euch dankbar zwischen den Kongressen könnt hier auf unser Untertitelteam Webseite gehen. Wenn ihr euch für uns interessiert, dann kommt es auf Twitter und es gibt hier auch einen Link, wo die Subtitel sich darauf finden. Danke schön. Vielen Dank. Bevor wir weitergehen zum Poco Drake auf uns wartet, bin ich mir sicher, dass euch alle fragt, warum diese Leute immer sagen, nächste Folie. Wartet noch ein bisschen am Ende dieser Infrastructure Review haben wir eine Meta-Infrastructure Review, aber zuerst zu Studie 1. Seid ihr bereit? Hallo, ich bin Drake vom Phone Operations Center und ich will euch unsere Zahlen präsentieren und vielleicht ein paar Anidoten am Ende unseres Teils. Also weiter zur nächsten Folie, bitte. Zuerst den Zahlen. Ihr habt 1.195 Anschlüsse registriert. Das sind ungefähr 500 mehr als beim letzten Kongress. Ihr habt auch 21.000 andere Folie gemacht. Das sind ein bisschen weniger als beim letzten Kongress, aber wir sind trotzdem noch sehr stolz darauf, wie ihr unser System benutzt habt und es ist trotzdem sehr stabil gelaufen. Und wie ihr seht, hatten wir auch 23 Deckt-Antennen auf diesem Ereignis, auf diesem Event. Also weiter zur nächsten Folie, bitte. Das ist unser neues Feature. Das heißt, die Event from Decentralized Deckt-Infrastructure, die wir für dieses Event vorbereitet haben, die App-DDI. Wir hatten 23 RFPs online und mit 38 Deckt-Telefonen, die daran angeschlossen waren. Aber wir haben nicht nur in Deutschland gedacht, wir hatten sogar eine mobile Station, die in Österreich oder zumindest über die Grenze nach Pasta ausgestreitet hat. Das heißt, wir hatten ein Decentralisiertes Event. Wir haben auch ein paar Anekdoten. Vielleicht haben einige von euch bemerkt, dass wir eine funktionierende öffentliche Telefonzelle hatten, wo ihr andere Leute auf ihrem SIP-Telefon oder über das SIP-Telefonsystem anrufen konntet. Und Matti haben auch in unserem System gespielt und gestern hat jemand angefangen, C3-Fire einzuführen. Das heißt, ihr konntet einen Flammenwerfer über unser Telefonnetzwerk kontrollieren oder steuern. Und ich möchte euch ein Video zeigen, auf der nächsten Folie, bitte. Ihr seht, dass das C3-Fire-System tatsächlich von einem Deckt-Telefon irgendwo in Deutschland gesteuert wird. Wir haben euch auch SSTV-Dienstleistung zur Verfügung gestellt über die Telefonnummer 2029, wo wir Bilder von Eventfond empfangen konnten, Konntets, also so wie eine Postkarte. Ihr konntet diese Telefonnummer anrufen und Bilder halten, diesus oder anderen Bilder. Das ist eigentlich alles von Eventfond und damit möchten wir Danke an euch alle sagen für das nette und tolle Event und tschüss von den ersten Certified Assembly POC. Danke schön, POC und hallo GSM. Ja, hallo, ich bin von GSM-Teams dieses Jahr. Etwas anderes, wie ihr euch vorstellen könnt. Und jetzt mal die nächste Zeit, weil wir haben uns hinbekommen, ein kleines GSM-Netz aufzubauen und auch ein paar Karten registriert. Also wo sind wir jetzt gerade? Echtes Leid? Also wie ihr sehen könnt, genau im roten Punkt. Es gibt nicht mal eine wirkliche Rundführung. Wir haben über die fünf Endgeräte als bekommen. Wir hatten fünf Extensions gehabt, die registriert haben mit vier SIM-Karts und drei Orten. Bei GSM-Teams beginnen zwei Nutzer, einen Netzwerk, da kein Problem. Das schauen wir jetzt mal genauer an. Die Abdeckung, wir hatten ein ganzes Netzwerk aufgebaut. Wir hatten zwei Basisstationen, Belly, eins im Accuspace in Norden. Einer unserer Mitglieder ist aktuell in Mexiko. Dort hat er dann einen Rühm- und Chaos-Netzwerk dort aufgebaut. Das ist im Grunde unser Netzwerk. Bevor wir die nächste Leid gehen, wir haben aktuell was wir bisher gemacht haben. Wir haben zwei Leute, ein statt 10 bis 20 und wir hatten Spaß, unser Netzwerk aufzubauen und uns dafür vorzubereiten für den nächsten Grundres und nächstes Leid. Jetzt mache ich mit Edge Computing abschließend. Wir haben unsere Edge-Fähigkeiten verbessert. Wir hoffen, dass dieses Jahr besser wird und vielleicht das letzte nächsten Jahr dann remote oder sogar mehr so Spaß. Danke an Linform, der die ganze Zeit als Slight DJ arbeitet. Aber jetzt gehen wir bitte zu den Hexen, die als nächstes dran sind. Was sind Probleme ohne Menschen? Wir hatten ungefähr 20 organisierende Hexen und insgesamt 40 Events, aber ich bin mir sicher, dass ich nicht alle davon kenne. Unsere Welt ist ziemlich groß. Wir brauchen 70 Millionen Pixel, die wir in der ganzen Hexenwelt gezeigt haben. Das waren hunderte von Commits in unserem GitHub. 130 Menschen haben das Fireplace-Batch bekommen und hunderte haben unseren Swimming Pool ausprobiert und dafür ein Batch bekommen. In 1949 haben wir gezeigt, wie dediziert sie waren und alle Denkmale besucht in unserem Assembly. Und Tag 0 hatten wir kein Lag im Big Blue Button und haben jede Menge Menschen auf einmal in unserer bis zu 133 Menschen im Big Blue Button. Wir sind jetzt bei 400 Hexen in der ganzen Welt. Wir haben auch neue Twitter Accounts bekommen. Wir haben über 200 neue Twitter Accounts. Aber nicht nur in der Witselwelt, sondern auch in der physischen Welt, wo wir aktiv haben. Wir haben unseren 50. Dudibike mit Liko-Controller und so weiter verschickt. Und leider sind wir jetzt, haben wir diese Hosen leider nicht mehr auf Lager, aber im Januar werden wir dann wieder haben. Dankeschön. Und dann müssen wir noch Grüße schägen an die Chaos-Parten. Und jetzt treffen wir einen. Das ist Mike vom Chaos. Wir haben eine Menge Leute auf dem Chaos vor ausmenuitäten getroffen. Und wir sind Mentoren, die jetzt seit acht Jahren unseren Mentis bei Chaos Events helfen. Und es war ein gutes Zeichen. Wir hatten 65 Mentis und Mentoren gehabt, die auf der Welt waren zwei, die sich in der Welt getroffen haben und zwei, die jetzt in den neuen Mentis getroffen haben auf der neuen Karte mit 137 Kilo Pickeln. Und hier ist ein kleiner Teil unserer Assembly mit unseren Propeller hat. Danke für Azariel, Nullroute und Jali, die, wir freuen uns darauf, die neuen Mentis beim nächsten Chaos-Event zu treffen. Nun kommt, was wir mal nachschauen. C3Adventure, seid ihr bereit? Hallo, ich bin Null, ich bin Matt und wir reden über das C3Adventure, die 2D-Welt und was wir getan haben, um das online zu bringen. Als wir angefangen haben, haben wir überlegt, wie wir ein Konkessartiges Adventure zur Remote Experience bringen können und im Oktober haben wir mit der Pikron besonnen. Wir hatten ein paar Schwierigkeiten. Wir konnten mit der Abschrie-Murges hier unsere Schwierigkeiten beurteilt haben. Und weil Kongress einfach der Konkess ist oder die Remote Experience die Remote Experience ist, mussten wir Features recht spät erst einbauen und mit den Features am Tag 1 Merging. Das ist erst um 34 passiert, die Vatentifizierung und am Tag 2 haben wir endlich die Instanz-Hipfer gefixt, wenn man in einen Teil der Karte zum anderen springt, aber dann lief es sehr gut und ich hoffe, ihr habt alle die Badges genossen, die heute in die Bade gekommen sind. Seit wir angefangen haben es zu implementieren, gab es 400 Tip Commits in unseren Repository, eigentlich durch der Abschrie-Murges, aber ich finde interessanter ist, was passiert ist, seit das ganze Leid vergangen ist. Wir hatten 292 Commits, die Dinge gefixt haben und das Erlebnis für euch verbessert haben. Um das alles online zu bringen, mussten wir nicht nur über das Produkt selbst und die Welt selbst nachdenken, sondern auch überlegen, wie es deployed werden soll. Der erste Commit in Deployer, also einem Hintergrund-Service, der die Experiences bringt, ist am 22. November passiert. Der erste Klonen der Work-Adventure-Instanz wurde durch den Deployer am 8. Dezember gestartet und ein paar Tage vorher wurde ich ein bisschen überwältigt und konnte nicht mehr die Arbeit überlegen, weil ich beide Projekte koordinieren musste. Das heißt, mein Kollege hat übernommen und hat mir sehr geholfen und ich gebe jetzt weiter an ihn. Am Tag minus fünf habe ich einen Nachricht von einem Freund bekommen, der meinte, hey, ich brauche Hilfe und dann habe ich gesagt, okay, los gehts. Okay, wir können jetzt eine Instanz spornen und uns das Schrafen von dem Deployer und dann hört meine Musik auf. Ich höre Musik über das Internet und ich frag mich, warum sie stoppt und dann fiel mir auf, oh, da sind eine Menge Stinge im Lock plötzlich. Am Tag minus vier fiel mir auf, dass der Deployer alle paar Sekunden eine Kopie von sich selber spawnte. Seit Tag minus vier bis Tag eins haben wir das Munde neu geschrieben und am Tag eins sind wir bereit oder fast bereit. Ich habe vergessen zu sagen, dass als wir fast 200 Instanzen einmal deployen wollten, es auf einmal nicht mehr funktionierte, weil alles dann ein Timeout werden würde. Wir haben das schnell gepatched und um 13 Uhr hatten wir unser erstes Deployment. Das hat funktioniert und alles war in Ordnung. Aber warte mal, warum sind alle auf einer Instanz? Es steht sich heraus, dass wir einen Bug hatten, nicht dem Deployer, sondern in der App, der euch von der Lobby in die Lobby auf eine andere Karte bringen würde. Das heißt, wir hatten eine Menge Probleme mit Menschen, die einander nicht sehen konnten, weil sie alle auf verschiedene Instanzen, der in falschen Instanzen der Lobby waren. Und wir haben hart gearbeitet und wir können sehen, dass wir hart gearbeitet haben, um euch in der Assembli zusammenzubringen. Ich glaube, es ist uns gut gelungen. Ihr könnt den Separationsgraph hier sehen. Der erste Tag war unser fasster Beliebisher und am zweiten Tag fanden wir, war es ein bisschen weniger, aber wir hatten immer noch tausende User gleichzeitig. Die Beliebesinstanz war die Lobby natürlich. Die zweite Beliebesinstanz war die Hardware Hacking Area, eine Zeit lang. Und dann das SIRT, glaube ich. Insgesamt hatten wir 205 Assemblies. Die Zahl wurde jeden Tag größer, weil die Leute natürlich den ganzen Konkret über an ihren Karten gearbeitet haben. SIRT hatte eine Zeit lang über 1000 aktive Karten, was er den Maps Server hat abschützen lassen. Einige von euch haben vielleicht gemerkt, dass sehr mehrere Male an Tag 3 abgestürzt ist und sie haben ihre Zahl an Karten auch 255 reduziert und das war dann in Norden. Am Ende von Tag 3 habe ich gezählt, dass es ungefähr 628 Maps gab. Nicht alle davon waren unbedingt verfügbar, weil das mitten in der Nacht war. Aber in den Karten, die ich gefunden habe, wurden über 2 Millionen Tyres verwendet und die könnt ihr selber erkunden. Ich hätte selber erkunden können, aber das hier zu deploymenten hat auch Spaß gemacht. Um kurz eins zu greifen, ich will wirklich allen danken, die Arbeit in Karten gesteckt haben und diese Erfragung zum Funktionen gebracht hat. Wir haben die Erfragstruktur gebraucht, aber ihr habt den Spaß mitgebracht und dafür möchte ich euch allen danken. Die mehr auf der Erfragstruktur passiert, desto mehr Spaß haben wir. Ich hasse es zum Beispiel zu starten und das habe ich irgendwo doch nicht getan. Ich habe fünf Stunden in der Nacht geschlafen und dann hat mein Kollege fünf Stunden am Tag geschlafen und in der Zeit waren wir wach. Der Abtime-Rekord sind jetzt aber 30 Stunden unter Unterbrechen, denn es war so wichtig, ich war 27 Stunden am Stück wach, weil es so wichtig war, das zu euch zu bringen. Wir haben konstant Sachen, neue Deployt. So, wie es gebaut ist, habt ihr nicht gemerkt, dass ihr aus der Instanz gekippt wurde, aber in eine Zeit lang könnt ihr irgendwo mehr reingehen. Aber ich habe lange gewitzelt, dass ich Pseudo-Cubanitis implementiert habe, weil es sich selber deployt. Aber am Tag 3 habe ich gemerkt, dass ich die wahre Erleuchtung erhoben habe, weil wir entschlossen haben, alles auf einmal neu zu deployen. Der Grund ist, dass wir unter DDoS ergriffen litten und wir Dinge ändern mussten, um das zu beheben. Wir haben das getan und dann war alles in Ordnung. Aber dann habe ich einen Tipp für ihr gemacht und dann ist das die Problemen schwer geschlagen und als das passiert ist, wurden alle Server gelöscht. 450 Server wurden gelöscht, was ich glaube, was eine einzelne Zeile war. Das war kein Problem, es war am Schluss dann alles in Ordnung. Es ist wichtig, dass diese 450 Server von hits nah zur Verfügung gestellt wurden. Wir hätten das ohne ihre Infrastruktur, die Cloud nicht leisten können. Der Grund, warum wir danach so schnell wieder ans Netz gehen konnten, war, dass die Server gelöscht wurden, aber fast sofort neu provisioniert werden konnten. Das ist alles. Vielen Dank, dass ihr unsere Infrastruktur ausprobiert habt und danke. Dankeschön, CtryAdventure. Das war offensichtlich die erste Konferenz, nicht Mathe-Bottle runterfallen hat. Vielleicht versuchen wir es nächstes Jahr mal. Dann die Launch. Da muss ich jetzt auch für die nächsten Slides mal bitten. Ich soll vorlesen, Tender wurde gemördert. Und alle haben dafür gesorgt, dass die Launch das geworden ist, was sie jetzt ist, waren also Leute in Berlin, Mexico City, Honduras, London, Zürich, Stockholm, Amsterdam, Ostdeutsch, Lasko, Leipzig, Santiago de Chile, Prag, Hamburg, Yorker, Krakow, Tokyo, Philadelphia, Stanford, Main, Köln, Moskau, Taipei, Bern, Hannover, Shanghai, Seoul, Hong Kong, Karlsruhe und Guatemala. Dankeschön. Das nächste ist das Hub. Die Software ist in Django beschrieben und sollte für das nächste Event benutzt werden, aber es ist natürlich ein neues Software, muss man eine Menge Integrationen live während der Setups an Tag 0. Ich präsentiere für das Hub, weil ich präsentiere das Hub. Es ist eine Software, die wir für diese Konferenz geschrieben haben. Sie ist basiert auf verschiedenen Komponenten. Alle davon sind auf Django basiert. Es soll in zukünftigen Events wiederbewendet werden. Unsere Hauptheroswörter ist, dass es ein neuer Software ist. Wir haben sie geschrieben und viele Integrationen waren erst an Tag 0 oder Tag 1 möglich. Und sogar noch an Tag 4 haben wir noch eine Menge Updates und Commits beinters Propository produziert. Wir haben vielleicht gesehen, haben wir die ganze Nacht in den Commits geschrieben, ein paar um 6 Uhr morgens, das tut uns leid. Und für die Zahlen, wir benutzen die Plattformen sehr reichlich. Einige Zahlen sind schon wieder aus den von den 360 Assemblies, die sich registriert haben, wo du nur eine kleine Zahl akzeptiert. Einige davon waren die Leute, die einen Workshop machen wollten und versucht haben, eine Assemblie zu registrieren oder auch Duplikate, also organisiert euch bitte. Wir haben 940 Events im System. Ihr erstellt immer noch welche. Vielen Dank. Die werden mit den Studios koordiniert, das heißt, sie integrieren all die Events von einem Studios, all die Self-Organized Sessions und alles. Inzwischen im Moment habt ihr 411 Badges erstellt und davon haben wir 9269 Achievements und 18.000 Sticker. Die Dokumentation war leider 4.04, weil wir wirklich sehr beschäftigt waren, das Software zu schreiben. Einige Dokumentationen wurden schon geschrieben, mehr wird noch später zur Verfügung gestellt. Wir werden das ganze Ding natürlich auf dem Source oder als auf dem Source zur Verfügung stehen, aber momentan sind wir noch in der Produktion und räumen ein bisschen auf. Und schließlich für ein paar Zahlen, die Anfragen pro Sekunde waren ungefähr 400 mitten in der Nacht. Als die Welt redeployed wurde, hatten wir nur so ungefähr 50 Request pro Sekunde, aber es waren später bis zu 700 pro Sekunde. Und die Authentifizierung für die Welt, für das der 2D-Adventure waren ungefähr 220 Request pro Sekunde, mehr oder weniger stabil, weniger einigen Bugs und wegen starker Beanspruchung. Wir sind dankbar dafür, dass ihr die Plattform und den neuen Hub verbindet habt und hoffen euch beim nächsten Event zu sehen. Vielen Dank. Und das Nächste ist Peter Maas. Er ist vom C3-Auty-Team. Da wird uns jetzt MBSR und sein Team dieses Jahr gemacht haben. Zum C3-Auty war ich beschäftigt dieses Jahr, wie ihr schon sehen könnt, wie ihr bei den Zahlen auf der nächsten Slide sehen könnt. Wir haben 37 Autie-Angels und heute hatten wir die 200 Stunde erreicht von Schichten. Wir hatten zwei 10-Orga-Mompers, die zu dem Event geführt hatten. Und wir hatten fünf Millionen Minike, also einzelne Pixels in der Oppostorium. Wir haben das mal den kleinsten Fairy Dust vom C3-Alt von einem tatsächlichen Filter im Internet gemacht. Und der treatis solches ist das Einzige, was im Video heute gerade hierbei ist. Auf unseren nächsten Slide seht ihr, dass wir außerdem sechs Panel-Diskussionen vorgerechnet haben für autistische Kreaturen, die ihre Erfahrungen in den Sonnen wünscht, das Spiel, damit wir untereinander uns austauschen konnten. Wir hatten einen Talk, einen Podcast und ein externes Panel. Wir hatten bis zu 80 Teilnehmer pro Panel. Aufgeteilt werden wir fünf Breakout-Buttons, geteilt werden, dass sie einen Rutsch-Diskussur haben konnten. Als 1.000 Zeilen-Zion. Aber 1.000 Zeilen mag dort während nicht genug für mich um mein Dankbarkeit auszudrücken für all die tollen Kreaturen, die uns geholfen haben, diese Erfahrungen stattfinden zu lassen für alle Audities und so da ein paar euch bald zu sehen. Ich glaube, ich brauche ein bisschen Einsamkeit für mich selbst. Bis. Thank you, Betalas. So, bist du bereit, das nächste Video? Das bleibt ja ein Video. It's from the C3 Exclusion Center. I don't know their short name. C3 IOwok. C3 IOwok. 3, 2, 1, los. Hallo, ich bin NWNG from C3 IOwok. Dieses Jahr haben wir viel an C3 IO-Freiheitsguides gearbeitet. So, Video abzuspielen ist heutzutage sehr schwierig, weil wir Dinge nur live gemacht haben. Live bedeutet, dass viele, viele Pixel von diesem Glas durch all diese Kabel geleitet zu euren Gläser an eurem Bildschirm geleitet werden müssen. Also, ich glaube, wir probieren das noch mal mit dem Video. Hello, ich bin NWNG von dem neuen C3 Inclusion Operations Center. Dieses Jahr haben wir an C3 IO-Freiheitsguides gearbeitet, die Assemblies es leider nicht tun sollen, das eventuell alles verbessern, besonders für Menschen mit Behinderung. Wir haben auch individuell mit Teams gearbeitet, um rauszufinden, was immer noch verbessert werden können, aber es gibt wirklich noch viel zu tun. Außerdem haben wir einen kompletten, ein komplett vollständigen Guide mit C3 IOwok.de. Vielen Dank für uns. Danke für das Video. Endlich, unsere Technik. Vielen Dank für das Video. Ich kenne sich damit aus und er wartet in Studio 1, um uns etwas zu erzählen über C3 Gelb. Willkommen, ich kucke immer noch auf die Festplatte, vielleicht erinnert euch daran, wenn wir uns anfangen. Es muss disinfiziert werden, also richtig gute Synthesien werden. Also, das ist der Ausleben am Ende des Events. Wir haben 777 Handweichmöglichkeiten und 3 FFX Müll-Entsorgungsmöglichkeiten. Wir haben das Datum von nahezu allen von 175 Desinfektionsmöglichkeiten und obwohl, zu einem schönen Moment, da wir in der 2D-Welt, da mussten wir einen Channel angehen, weil 2 digitale Katzen und auf die Hand wollen wir an, das muss mir helfen. Wir haben ein paar Optionen, viel Arbeit gehabt. Wir hatten ganz ein Corona-Sachen, einige Sachen, die liefen wir haben. Wir werden nach einem Engel des Infektionsbilds wegarbeiten, um da die maximale Möglichkeit für die Sauberkeit zu haben und außerdem reden wir mit dem Bock auf, wir vielleicht ein paar Globuli Maxi Cubes nutzen können für den Chunk auf dem nächsten Event. Um ein paar Mabachblüten zu bekommen, bauen wir jemand, der beim Potenzieren helfen kann für die homöopathische Substanzen. Also, wenn Sie da Lust drauf haben, dann schreibt uns einfach eine Info an Infoet.csd. Danke, Kritis. Ich freu mich, deine Stimme zu hören. Ich kenne dich sonst nur von Twitter, wo ich deine Sachen retweet und du meine, nein, du meine eigentlich nicht, vielleicht wirst du das erinnern. Vielen Dank. Aber ChaosPost war auch dabei. Und Trilater, von dem wir vorher schon gehört haben, hat noch mehr zu erzählen. Willkommen, ich bin's wieder. Ich habe mich da ein bisschen anders angezogen. Ich bin hier nicht mehr für die Signal-English, sondern für die ChaosPost. Wir hatten einen Online-Büro, das ist ja wieder ein Online-Postart, die wir schon bei dem Teambox und ich habe einiges an Statistik für euch. Wir hatten 5 von 760 Nachrichten, die insgesamt übermittelt wurden. 12 davon konnten wir nicht ausliefern, weil Postfecher nicht existierten oder voll waren. Wir haben Mails an 43 TIDs ausgeliefert. Die meisten gingen an.de.com.org.mit.at für Österreich. Die hatten einige Motive zwischen denen ihr auswählen konntet. Das bei die Piste war die Fairy Dust bei Sonnenuntergang. Das haben 95 von euch ausgewählt. Was ist es mit der Di-Extremistqualität? Die geringste Zeit von dem Eingang bis zum Ausgang der Nachricht waren etwas mehr als 4,2 Sekunden. Die höchste Verzögerung waren sieben Stunden über Nacht, als keine Mitarbeiter verfügbar waren, die entweder geschlafen haben oder eine Launch beschäftigt waren. Die durchschnittliche Nachricht hat 33 Minuten gebraucht von unseren Briefkasten bis zum Postausgang. Ein paar Spaßfakten. Wir hatten an den ersten Tagen Probleme an T-Online auszuliefern. Das wurde aber später gefixt. Ein provider wollte unsere Mails nicht annehmen, weil sie den Domain am RC3.world enthielt, weil neue Domain kruselig sind. Aber das haben sie sehr schnell gefixt mit einem netten Kontakt auch. Manche haben versucht, digitale Postkarten an Mostodon-Accounts zu schicken, weil die aussehen die Email-Accounts, glaube ich. Wir hatten auch ein neues Feature diesmal. Das war unsere Entfänger mit bestimmten Namen. Wir konnten es also zum Beispiel Mail an das Search schicken, ohne ihre Adresse zu kennen. Und sie hatten auch eine wunderschöne Postkartenband, wo ihr alle Postkarten sehen könnt, die ihr ihnen geschickt habt. Das könnt ihr auf Twitter sehen. Vielen Dank. Danke, Chaos Post. Hallo, bist du noch da? Wir sind fast fertig. Ich höre dich. Also jetzt muss ich nochmal ein bisschen Passlights mischen. Ist jetzt noch nicht so viel vorbereitet. Du machst das wirklich gut. Danke, dass du das tust. Ich bin aus Neugier. Hast du Schwierigkeiten, die ganzen Kekse anzunehmen? Ja, ja. Ich habe gehört, dass einige sehr kleine Leute Probleme haben mit der Seite, weil es Kukis gibt. Ah, es ging um Web-Kukis? Nein, ich konnte nur die Webseiten nicht benutzen, weil es zu viele Leute da waren. Das war oft eins meiner Probleme. Aber ich hoffe, du siehst nicht, was ich jetzt gerade mal mit der Grund mache, unsere Pads zu starten. Was ich eigentlich mir sagen wollte an euch alle, das war der erste Konkret, bei dem wir so viele Frauen und so viele Nichts ist, Leute, die die Shows geliefert haben und vor den Kameras waren und alles hergestellt haben und aufgebaut haben. Danke, dass ihr das gemacht habt. Danke, dass wir mehr und mehr divers werden jedes Jahr. Das kann ich nur um so unterstützen. Und jetzt stellen wir zum C3 Infrastructure. Ich glaube, eure Fragen werden beantwortet. Und ich versuche, das zu machen. Aber ich finde sie nicht. Ja, willkommen zum Infrastructure Review der Team Infrastructure. Ja, hier vom Team Infrastruktur. Ich bin nicht ganz sicher, ob ich die neueste Version der Folien habe, weil das Team schon zu ist. Linfo? Kannst du das noch mal neu starten? Also im Ende Grunde ist das jetzt Powerpoint Karaoke ohne Musik und ohne Folien. Ja, warten wir noch ein paar Sekunden, bis die Folien da sind. Wir haben ja kaum überzogen. Ja, wir sind gerade in der Mitte. Das kommt in der Mitte der Folien eigentlich. Aber dann fangen wir damit an. RC3 Info. So, nächstes Live. Nächste Folie. Handelich, also Info. Wir hatten neun Terabyte RAM und 1700 CPU-Kerne. Und während des ganzen Events nur eine SSD ist gestorben. Also, das lässt sich nicht vermeiden, alles geht kaputt. Fünf tote Rate Controller. Und größter als haben wir es einfach mit neuen Servern ersetzt. Und 100% Abtime. Also es war alles immer online. Wir hatten 42 Stunden Startbildschirme von professionellen Servern. Und wir sind jetzt zertifizierte Enterprise Observer. Wir hatten weniger Besucher mit IPv6. Nur ein paar komische, nicht ordentlich gemanischte Netzwerke. Wir hatten immer noch viel zu wenig IPv6. Wenn ich sehe, ob das die richtigen Folien sind. Und wo wir im Text sind. Ja, Patrick. Vor dem Kongress gab es eine Voraussage. Keine Chance, dass es keine DNS geben wird. Und ja, lasst uns direkt zum nächsten Thema. Betriebssystem. Wir haben 300 Notes mit Ansible zur Übung gestellt. Keine IPs wird es in Zugang. Wir haben minimale Logging eingestellt. Wir hatten nur ein paar Warnungen, die verfügbar waren. Keine Infologs, keine Debuglogs. Also so wenig Logs wie möglich. Manche Software wollte einfach nicht aufhören. Das haben wir dann also auf Null verschoben. Dass es nicht gespeichert werden konnte. Ansible war ein magisches Diploment. Und wenn irgendwas kaputt war, war das meistens ein Netzwerkproblem. Die große Zeit hat das funktioniert. Einmal war es kaputt. Also wenn etwas kaputt war. Das Thema ist natürlich schwierig, weil das Netzwerk-Team sagt, es war nicht dein Netzwerkproblem. Da gibt es internen Streitigkeiten. Und oft gab es einen Infrastrukturangel oder Engel, der einfach etwas frei freak war. Aber darüber wollen wir jetzt nicht reden. Und jetzt wollen wir mit unserem Goldsponsor DDoS24.net reden. Weil das unser Goldsponsor DDoS24.net hat geliefert. Es gab eine große Nachfrage. Und sogar durch den meisten Anfragen, also zu den Zeiten, als die meisten Anfragen reden kamen, konnten wir die meisten davon auch beantworten. Also wir waren tatsächlich, es war beeindruckend, wie schnell wir Sachen online bringen konnten. Wir hatten 6 Locations. Die 6 haben sich sehr unterschiedlich verhalten. Also alles einzigartige Schneeflochen, 2 Terabyte-Raben, 10 Gigabyte pro Sekunde. Einmal hatten wir, kurz, wir hatten sogar eine 1 Terabyte pro Sekunde in Finneban-Verbindung. Aber die konnten wir leider nicht verwenden. Und ein Admin hat sich, hat niemals die Server eingebaut. Also wir haben einiges gelernt. Und die Daten hier seht ihr auf dem Screen. Das lohnt sich glaube ich nicht, das jetzt alles vorzulesen. Aber wir mussten etwas kreativ werden mit der Hitze. Weil die Temperaturmanagement schwierig werden. Als nächstes war Frankfurt. Da hatten wir 600 Gigabit Ablink. Wir haben davon nur 22 benutzt. Und auch hier, durch unseren Premium-Sponsor, DDoS24.net. Es gab keine Netzwerkverstopf. Und 1,5 Gigabyte pro Sekunde waren IPv6. Wir hatten eine volle A3-Architektur. Und zwischen 26. und 27. hatten wir eine Nachtschicht, um mehr Server einzurichten, weil die Lieferung zu spät kam. Fun Fact über das Datacenter war, dass die maximale Bandbreite 50 Gigabyte pro Sekunde war. Wir hatten auch die meisten manuellen Interventionen. Wir hatten auch hardware in Stuttgart. Das war sehr einfacher Aufbau. Dank 9er und Team hatten wir zwar eine Nachtschicht, aber es war sehr einfach. Und es war auch das ruhigste Datacenter. Von Tag-5 bis jetzt hatten wir da nichts. Keine Zwischenfälle. Also, wenn ihr in Stuttgart seid, jetzt könnt ihr anfangen mit den Zwischenfällen. Jetzt ist es schon gesagt. Wir haben ein Hardware-Rate-Controller gekillt. Also konnten wir nur noch 2 verwenden. Hamburg war der kleinste von der Uptime. Das konnten wir niemals wirklich benutzen, weil der Boot kaputt war. Und dann hatten wir noch die Hatsnap-Plout. Vom Datacenter haben wir eine Covid-Warnung bekommen. Hatte uns aber nicht betroffen, weil es zum Glück eine andere Location war. Aber vielen Dank für die Warnung. Also ein Teamleiter hat eine Sponsor, hat auch einen Proxmox installieren müssen, ohne dass er wusste, was er tut und ohne uns Bescheid zu sagen. Und wir mussten dann auch einiges umziehen, bevor wir den Boot... Wir mussten Lorry umziehen, bevor wir das richtig starten konnten. Aber lass uns jetzt weitergehen. Wir hatten in der Maximum 1105 Nutzer gleichzeitig. Wir hatten 204 Konferenzen gleichzeitig. Die größte Konferenz war 1994, Leute. Also diese Daten sind von gestern. Vielleicht kam heute noch was größeres. Und mein Beileid an eure Computer, die da teilgenommen haben, das muss hart gewesen sein. Und der Peak Traffic, der rausging, war 1,3 Gigabit pro Sekunde. Und wir hatten 3 Viertel der Teilnehmer mit Video. Und ein Viertel dementsprechend ohne Video. Unser Gizzi war komplett automatisiert. Also von 0 auf Gizzi in 15 Minuten. Wir hatten es in 4 Shards. Wenn einer runtergegangen ist, dann waren die anderen immer noch da. Es gibt natürlich Sachen in der Infrastruktur, die man nicht wirklich skalieren und klassern kann. Die Gizzi Video Glitches waren bei 42% Peak. Und da haben wir also ein bisschen zu viel eingebaut. Dazu wird es in Zukunft auch ein Video geben. Und in den nächsten Tagen werden wir auch 4 Car Streaming einschalten. Also warum nicht benutzen. Und wir wollen dem FF Meet Projekt vielen Dank ausrichten. Sie haben uns geholfen, wie wir die Last richtig verteilen und wie wir damit umgehen können. Und ja, dektcallout, also dass wir mit dem dektsystem raushelfenden können. Wir haben lange versucht, den Call in, Call out. Ja, wir haben lange versucht, das zum Laufen zu kriegen, aber es hat nicht ganz geklappt. Gizzi RC 3.world wird über das neue Jahr, also über den Jahreswechsel laufen. Ihr könnt euch also mit euren Freunden da treffen. Bitte bleibt in der analogen Welt getrennt. Bitte helft den Virus nicht weiter zu verbreiten. Weiter zu monitoring. Ja, erstes ist es wirklich lustig, wie ihr diese Seite hinzugefügt habt. Ja, ich hoffe mal, dass Linfoam das jetzt nicht neu lädt. Ist gerade, ist alles gut, einfach zu lassen. Also monitoring. Wir hatten Prometheus mit dem Alert Manager und natürlich die einzige Quelle der Wahrheit, Netbox. Wir haben 34.858 kritische Warnungen oder kritische Alarme. Und mein Telefon ist jetzt definitiv mehr geworden, bei 13.070 Warnungen. Ja, wir haben uns um etwa 100 davon gekümmert, also war es relativ schnutzlos. Ja, es ist wichtig, dass man sich darum kümmert, wenn es Missrausfälle gibt und wir haben zwei E-Mails von Hessner bekommen, dass irgendjemand aus unserer Infrastruktur nicht so sehr mochte wie wir. Und wir haben einen Anruf bekommen an der Missbraus-Hotline und die wollten wissen, ob man noch Tickets kaufen kann. Leider gab es keine mehr. Wir haben ein Premium Answerboard Deployment, komplett durch Thüringen komplettes Jammel. Das klingt jetzt ziemlich hustelig. 130.000 DNS Updates. Also das Weltteam hat mit dem Redeployment wirklich ein Stresstest hier gemacht. Und danke für Flupke und er hat auch einen Logpost darüber geschrieben, wie man mit NixOS veröffentlichen kann. So, nächste und letzte Slide von uns. Die Liste der Sponsoren. Danke an euch alle. Es ist nicht möglich so ein großes Event ohne euch zu machen. Und das ist alles. Großartig. Vielen Dank für alles, was ihr gemacht habt. Das ist wirklich unglaublich. Ich habe euch versprochen, dass es einen Blick hinter die Kulissen dieser Infrastruktur Review gibt. Und ich habe da bitte auch nichts zu tun. Alles wurde von anderen Mädchen gemacht. Ich bin nur ein Herald, der irgendwie in dieses Stream gestörpert ist. Und ich sage einfach nur, scheitet um, wohin auch immer zeigt uns die Magie. Vor drei Stunden habe ich ein Aufkommen. Hallo, und willkommen zum letzten Teil der Infrastruktur Review. Und da bin ich großer aus Karlsruhe. Vor drei Stunden habe ich einen Anruf an den Mitarbeitern bekommen. Und er hat mich befragt, wie ist es mit dem letzten Talk, den wir haben. Es ist vielleicht ein bisschen kompliziert. Und er meinte, okay, wir haben einen Speaker, einen Herald. Oh, wie immer. Und dann haben wir das geschrieben, wir haben nicht nur einen Speaker, wir haben 24. Und dafür haben wir Chaos West angerufen und gesagt, hey, oder eine Einfachschuhe aufgebaut, die Dampfkupfe euch jetzt in ein paar Minuten, in ein paar kurze Minuten erklären wird. Vielen Dank. Ich habe ein Sticker verloren. Nachdem wir Chaos West angerufen haben, haben wir uns diese Monstrosität eines Videoclastes überlegt. Wir fangen hier an. Die Teams gestreamt über OBS Ninja auf drei Chaos West und drei Chaos West Studios, die wurden zusammengebracht über AT&P in unseren Licks 1, mit einem Dokabestudio. Und dann haben wir das in Licks 2 gepoppt, was es weiter zum Bock gepoppt hat. Die Folien wurden über ein anderes OBS Ninja direkt in Licks 2 eingebaut, die kamen von Lindworm. Und das Closing, das ihr gleich hoffentlich seht, kam auch von dort. Und diese von Lindworm wurden direkt über OBS Ninja an den Licks 1 angeschlossen. Licks 2 hat auch die Studio Kamera, die ihr jetzt gerade seht. Und für die Kommunikation im Hintergrund hatten wir ein Mumble, das über unser Audio Matrix angeschlossen war. Und Lindworm, Yusuf und die Teams. Und wir im Studio vor Ort konnten uns alle miteinander unterhalten. Und zurück zur Herit News Show, glaube ich, Lindworm will sie euch vorstellen. Hallo, ist Yusuf immer noch da, oder kommt ihr mit? Ja, das wird eine Sekunde dauern. Dankeschön. Für das Video, es war so chaotisch wie der gesamte Kongress, hallo.