 Ich glaube wir fangen gleich an. Das ist der Überblick was wir machen wollen. Ich gebe mal auf der linken Seite so ein bisschen eine Zusammenfassung. Das hat hier in vielen anderen Vorträgen auch schon gegeben über was macht eigentlich den Energieverbrauch unserer Anwendungen aus. Das ist bei weitem nicht vollständig. Die Energie, die Datenschutz ist das überhaupt ein Überspruch. Wir werden die typischen Fehler und Missverständnisse auch sehen. Dann bin ich auch Gründungsmitglied des ÜNEG. Darüber bin ich, darin bin ich über dieses Projekt verwickelt worden und das ist eigentlich eine sehr gute Sache, obwohl wir mit diesem Projekt nicht unbedingt erfolgreich waren. Das werde ich auch erklären. Ich werde auch so ein bisschen erklären, wie man mit Privacy by Design umgeht, unsere Architektur vorstellen und auch mal die Berechnungen anführen, die wir brauchen, um so eine typische einfache Terminbuchungsapplikation. Das ist ja jetzt wirklich nichts Kompliziertes. Aber dann machen man hier schon eine Wissenschaft raus vorzustellen. Das hatten wir an verschiedenen Stellen auch schon gesehen in den Vorträgen. Das ist das, was der Energieverbrauch von unseren Rechenzentren ausmacht. Das ist von 2016 qualitativ, hat sich da nicht sehr viel geändert. Wir sehen, das meiste geht auf die Server und fast genauso viel geht in das Kühlen und das Provisionieren mit Energie, ein bisschen geht auch in Storage und oben in die Netzwerke geht auch noch ein kleines bisschen, aber das ist dann nicht ausschlaggebend. Wichtig ist zu sehen, dass Kühlen und der Energieverbrauch der Server sind ungefähr in derselben Größenordnung. Das kriegt man weg, aber dafür werden wir einen Preis bezahlen müssen. Dann ist auch hier eine Messung, wo wird, in welchem Typ von Rechenzentren wird eigentlich Energie verbraucht. Die meiste Energie 2010 wurde in traditionellen Rechenzentren verbraucht. Das heißt, irgendjemand hat sich ein Hosting Space gemietet, hat Server aufgestellt und dann wurden da die Berechnungen durchgeführt. Das hat sich dramatisch geändert. Die Hyperscaler, also Amazon, Google, Microsoft, Azure, haben extrem zugenommen. Das ist sogar heute noch viel schlimmer als 2018. Das ist der orange Teil, der grau Teil und die anderen Clouds haben auch zugenommen. Das heißt, wir prozentual verlagern wir unsere Last immer mehr von dem traditionellen Modell, wo wir die Server selber eingereckt haben und aufgestellt haben, in irgendeine Form von Cloud, Hyperscaler Cloud oder auch eine andere Cloud. Das heißt, die werden immer wichtiger und das ist halt auch eine Sache, die für die Gesamtbetrachtung ausschlaggebend sein kann. Wenn wir uns das hier in Berlin angucken, das ist also hier um die Ecke, wenn ich die Himmelsrichtung richtig habe, so gut 7, 8, 9 Kilometer weg. Wir sehen hier unten ein Heizkraftwerk. Das ist dieser Bereich und direkt gegenüber ist eines der größten Rechenzentren, wenn ich das größte von Berlin. Das ist hier noch als E-Shelter geführt. Das gehört inzwischen Nippen Telekom und das war das andere Tee. Das war ein Fernschreiber, Teletype, Teletype und Telekom, also NTT. Japanische Firmen hier haben das gekauft. Das ist eine riesen Anlage. Hier ist das Finanzamt Spandau. Hier ist die Nondermallee, wer sich in Berlin auskennt und das alles ist Rechenzentrum. Hier sind die Dieselgeneratoren, Erdöl, Tanks für Stromausfälle und was hier passiert, hier wird also gerechnet. Hier wird eine ganze Menge Abwärme generiert, aber die Abwärme schafft es nicht über die Spree, weil jeder versucht, das an das Heizkraftwerk zu bringen, ist bisher aus ökonomischen und anderen Gründen gescheitert. Also das ist der große Widerspruch, den wir haben, das wurde auch in einigen Vorträgen noch intensiver angesprochen. Wir erzeugen eine ganze Menge Abwärme und kriegen sie aber nicht in die Wärmeversorgung integriert. Das wäre ein eigener Vortrag für sich, war sonst immer, ich habe schon mehrfach jemand von NTT getroffen hier auf dem Kongress, aber das ist definitiv ein Versäumnis, was wir regeln müssen. Gucken wir uns das genauer an, dann sehen wir, das waren diese, Google ist sehr stolz darauf, das ist die PUE, das ist das, was da definiert ist, also der totale Energieverbrauch durch die Nutzlast, also das, was wir wirklich fürs Rechnen für die Netze und das Zeug brauchen, dass sie das auf 1,09, inzwischen glaube ich sogar 1,06 bekommen. Wenn wir uns das aber genauer angucken, sehen wir hier einen weiteren Widerspruch, weil ihr habt ja vielleicht mitgekriegt, dass das Rechenzentrum, was Google in neuen Hagen errichten wollte, nicht gebaut werden konnte, weil sie da zwar Energie haben, da haben sie Glasfaser, aber was sie nicht bekommen haben, ist Wasser zum Kühlen, weil Google nämlich die gute Energiebilanz dadurch bekommt, dass sie in ihren Rechenzentren halt Verdunstungskühlung machen, das heißt, sie ersetzen die Energie durch Wasser, das ist ein generelles Problem in der Energieversorgung, das haben die Franzosen auch gerade mit ihren Atomkraftwerken, man kriegt den Energieverbrauch weg, indem man mit Wasser kühlt, wenn man nicht mit Wasser kühlen kann, kann man immer noch kühlen, man hat aber dann eine wesentlich schlechtere Energiebilanz. Was müssen wir immer im Kopf haben, wenn wir solche Zahlen sehen, Google hier sagt, sie sind 100 Prozent auf Renewable, ja, aber nur wenn ich nicht Wasser dazu zähle. Und Wasser ist immer wichtiger, in Brandenburg, wenn man sich umguckt, der Sommer war sehr trocken, da ist das also wirklich schon eine knappe Ressource. Wenn man genauer hinguckt, das ist so ein Bild, was kostet eigentlich die Wasserbilanz eines Rechenzentrums, dann sieht man so typischerweise 15 Megawatt, das ist ungefähr das, was wir hier in drei Gebäuden eines Krankenhauses haben. Oder 100 Ecker von Mandelbäumen. 100 Ecker sind so ein knapper Quadratkilometer, das ist also eine ganze Menge, verglichen wird das in den USA auch immer gern mit zwei Golfplätzen, das sind also 2,18 Löcher-Golfplätze, das heißt, das ist also vergleichbar mit wirklich wesentlicher Infrastruktur oder man kann es auch verschwenden, indem man Rasen berechnet. Also immer im Kopf haben, das ist nicht, das muss man ja immer in Relation setzen. Wenn man sich das noch weiter anguckt, jetzt gehen wir so in Richtung der Anwendung, was verbraucht eigentlich eine Anwendung, ist das extrem schwer, das zu bekommen, es sei denn jemand muss dafür wirklich Cloud-Ressourcen bereitstellen und auch bezahlen, damit kommt man tatsächlich eine Chance, Daten zu haben und das sind jetzt Maschinen-Learning-Modelle. Das heißt, hier werden irgendwelche Daten gelernt, das geht dann los, das ist so 41 bis 140 Dollar kostet, 12 Stunden dauert, 26 Galonen sind das glaube ich, CO2 produziert, das nächste größere Modell ist dann schon hier und die haben wir schon relevante Modelle, da kommen wir dann schon auf Preise für das Lernen eines Datensatzes von 3.700 bis 12.500 Dollar, das geht dann weiter und so seriöse Sachen kommen dann so, die man wirklich einsetzt, kommt dann auf Kosten zum Lernen von so einer knappen Million bis 3 Millionen mit dem entsprechenden CO2 equivalent. Das heißt, wenn wir Maschinen-Learning-Modelle nehmen und ernsthaft betreiben, sollten wir uns immer angucken, ist das gerechtfertigt, was wir tun? Es gibt euch auch Anwendungen, wo Maschinen-Learning berechtigt ist, es gibt aber auch ganz viele Anwendungen, wo einem damit nur Zeug angedreht wird oder nur Werbung ausgespielt wird und ausgewählt wird, da sollten wir also kritisch hinterfragen, ob das wirklich eine gute Anwendung von Maschinen-Learning ist. Man sieht hier noch die Unterschiede zwischen GPUs, das sind die blauen Sachen, das sind also eigentlich Grafikkarten und TPUs, das sind spezielle von Google entwickelte TensorFlow Processing Units, die also nur für Maschinen-Learning optimiert sind, das ist also Hardware, die für Maschinen-Learning gebaut worden ist und deswegen besonders effizient ist. Kriegt man leider keine CO2-Werte für die TPUs. So, wenn wir das ins normale Leben übertragen, das sind hier amerikanische Beispiele, das CO2-Equivalent von einem Flug in New York, San Francisco sind knapp 2000 Galonen. Ein Mensch im Durchschnitt auf diesem Planeten verbraucht so ungefähr 11.000, die Amerikaner pro Jahr 36.000 paar zerquetschte und die durchschnittliche CO2-Bilanz des Verbrauchs eines Autos über die gesamte Lebenszeit sind 126.000 Galonen. Das sind also die Richtwerte, was verbrauche ich im täglichen Leben, wenn ich nicht aufpasse. Ich bin übrigens mit dem Fahrrad hier. Mein letzter Flug war auch dienstlich, aber manchmal entkommt man nämlich, aber das sind so die Größenordnungen, die wir haben. Das müssen wir immer hier vergleichen mit diesen Modellen. Das hat tatsächlich jemand gemacht, wenn man so ein typisches Modell einfach mal verwendet, kommt man nur auf 39 Galonen, aber was dann auch zu Buche schlägt, ist, wenn ich diese Modelle tune und noch Experimente damit machen, bin ich auf einmal in der Größenordnung des Lebenszyklus eines Autos. Nicht ganz, drei Viertel davon, aber das ist schon vergleichbar. Das heißt, ich komme mit Maschinenlearning problemlos dahin, dass ich ein Modell trainiere, damit rumspiele, dass ich genauso viel Benzin verbrauche oder equivalent dazu, was das CO2 betrifft, wie ein Auto in seinem gesamten Lebenszyklus. Das so als Größenordnung wie Hinterkopf. Die größten Modelle ziehen dann noch viel mehr Energie. Das heißt, das sind dann schon größere Autos oder mehrere davon. Das ist also die Größenordnung, die wir an der Stelle verbraben, indem wir, wenn wir Maschinenlearning ansetzen und verwenden, ohne drüber nachzudenken, ob das nützlich ist. Ja, das ist jetzt ein Training, also das ist normalerweise, wird dann ein Modell aufgebaut. Also Maschinenlearning hat jetzt zwei Phasen, das Trainieren und das Abspielen des Trainings. Das Abspielen des Trainings braucht normalerweise viel weniger Rechenleistung als was Trainieren und das heißt, dass es ein Trainingslauf bis man da ein Ergebnis sieht, was an der Stelle zufriedenstellend ist. Das ist so schwammig, ist das tatsächlich, also man kommt wenig brauchbare Zahlen. Es ist schon das Brauchbarste, was man so ohne Weiteres finden kann. Was man da auch, was inzwischen auch diskutiert wird, ist, wenn ich die Genauigkeit meiner Modelle halt etwas runterfahre. Das heißt, dass ich nicht mehr 64, sondern nur noch 32 Bit Computations auf den Grafikkarten brauche, dann geht das um Faktor 4 runter oder wenn ich einfach sage, ich muss das jetzt nicht auf 95 Prozent optimieren von dem Confidence Level, sondern nur auf 90 Prozent, dann komme ich tatsächlich nur auf 10 Prozent des Verbrauchs. Das heißt, auch im Bereich von Maschinenlearning kann man tatsächlich Abstriche machen, die jetzt auf die Genauigkeit des Modells viel weniger Einfluss haben als auf andere als alles mal erwarten würde. Also man kann Faktor 10 sparen und kriegt 5 Prozent weniger Genauigkeit. Das sind eigene Vorträge, kann ich noch darauf verweisen, habe ich jetzt hier nicht eingeplant. Also das ist so einfach die Größenordnung, was wir hier bekommen. Schlimmster, sinnlose Verschmutzung ist im Moment das mit Bitcoins, das ist im Energieverbrauch zu dem Zeitpunkt gewesen ungefähr auf dem Energieverbrauch von Norwegen. Also das ist diese Zeile hier, das ist sogar noch vor Norwegen. Die Bitcoin-Leute hauen dann aber auch gleich wieder zurück und sagen, ja, unser Bitcoin meinigen kostet so viel Terrawattstunden, aber euer Gaming, das ist ja viel schlimmer als unsere Bitcoins. Also das muss man auch immer sehen, die Grafikkarten, die ihr verwendet im Computer alle zusammengerechnet, wir brauchen dann hier grob gesehen, viermal so viel wie Bitcoin meinigen. Aber die Grafikkarten liefern ja noch irgendwas Sinnvolles, hoffe ich, während ich das bei Bitcoin einfach nicht sehe. Ein weiteres Problem, was wir noch nicht angesprochen haben, da war gerade ein Vortrag über, da wurden Office-Applikationen im Energieverbrauch verglichen, das Ganze ist noch viel schlimmer in der Cloud, weil das ist das Architekturmodell einer typischen Marketinganwendung. Also das ist einfach, ich publiziere irgendwas im Messe, wer sich das anguckt, da sind also jeweils hier Instanzen von Computern in der Cloud, da braucht man mehrere von Business Intelligence Interface, mach hier eine Image-Analyse, hier ist TensorFlow, also künstliche Intelligenz, hier sind Data Warehouses, verschiedene Datenbanken, Kubernetes Cluster und so weiter, Data Processing, um ein Bild zu verarbeiten, was dann eure Aktivität eigentlich bei Double-Click misst. Das läuft die ganze Zeit im Hintergrund und wenn ihr euch gefragt habt, warum ist mein Internet so langsam, nun, dass es nicht mal das Internet langsam ist, sondern in dem Moment, wo ja ein Werbeplatz angezeigt bekommt auf einer Webseite, könnt ihr mal gucken, was der Spiegel oder Heise oder andere renommierte Leute euch an Cookies reindrücken, in dem Moment, wo euch ein Werbeplatz anguckt, wird der Werbeplatz versteigert mit euren Daten. Da kommt also User XY, hat Interesse an Gaming, ist so und so alt, hat ein Einkommen von bis und dann verbietet am meisten auf diesen Werbeplatz und der Werbeplatz wird dann angezeigt, das sind solche Mechanismen, die das dann machen und euch die Werbung zeigen und dann dauert das natürlich, dass diese Werbung euch präsentiert wird, eure Daten sind verkauft, Werbung wird angezeigt und diese Maschine läuft im Hintergrund. Das ist also etwas, was dann auch wirklich, es verbraucht auch wirklich Energie, ich glaube 10% Cloud-Ressourcen gehen in sowas, das war ein anderer Vorteil, aber das habe ich jetzt nicht recherchiert und steigert soll natürlich auch den Konsum steigern. So, das Ganze hat natürlich auch Einfluss auf Privacy, wir sind gerade hier im Bereich Maschinelöarning und da gibt es diese wunderbaren neuen Open-Mai-Image-Generatoren und sowas, das kommt also raus, wenn man irgendwie eingibt Spock gezeichnet von Picasso, Van Gogh, Otto Dix und Botticelli. Das ist wunderbar, ganz nettes Spiel, man kann dann drüber im Nerd-Diskussion machen, ist das jetzt Time-Traveling oder hat irgendjemand die Federation-Data-Bedrankenbank aus dem 23. Jahrhundert gehackt, das sind natürlich Movie-Daten, das ist ganz net als Effekt, wird wahrscheinlich auch nicht so viel verbrauchen, aber das zeigt natürlich, okay, Image-Generierung ist etwas, was wir auf dem Schirm haben und jetzt diese Woche ist es passiert, dass in solchen Daten setzen auch medizinische Daten aufgetaucht sind. Das heißt, das ist ja alles ganz nett mit irgendwelchen Filmfiguren und Spock gezeichnet von Van Gogh ist irgendwie lustig. Das ist nicht mehr lustig, wenn die jetzt in der Medizindatenbank die Bilder von Leuten verkauft werden, die offensichtlich unten irgendwelche Chemotherapien machen und dann auch in diesen Datensätzen auftauchen. Es ist nach heutigem Stand nicht möglich, Bilddaten, die in diese Datensätze reingehen, wieder rauszuholen. Das heißt, wenn die einmal drin sind und gesehen, da wird auch wirklich Geld investiert, dann können die aus Versehen auch im Original wieder rauskommen. Das ist diese Woche passiert und berichtet worden. Das wird auf den Folien auch verlinkt sein. Das heißt, ihr müsst aufpassen, dass dieses Maschinlearning als Paradigma ja eigentlich hat, ich will alle Daten. Wenn man mal Google guckt, das erste Paradigma ist, gib mir alle Daten und dann geben wir euch künstliche Intelligenz. Sie nicht sagen ist, das stimmt nicht für Randfälle. Das stimmt nicht für Minderheiten. In der soziale Daten mit verbunden sind, stimmt das nicht für alle Leute, die nicht männlich, weiß und aus den USA sind. Dann haben wir an der Stelle ein Problem. Und natürlich ist es nicht möglich, oder ist es völlig inakzeptabel, dass medizinische Daten zum Image generieren verwenden werden. Also das ist lustig irgendwie. Und das ist das Gegenteil davon. Also das passiert, da ist wohl eine Festplatte von irgendeinem Arzt mit in diesen Trainingsdatensatz reingegangen. Der Arzt ist inzwischen verstorben und dann haben wir dieses Problem. Das war diese Woche auf Potsdam. Privacy First, das ist also ein ehemaliger Geschäftsführer der Gemartik und der Ion hier aus Berlin hält uns am Dienstag einen Vortag in der Seabase. Hat dann auf die Frage ist, es gibt es irgendwie einen Mittelweg zwischen Sicherheit. Und ja, wir wollen halt mit den Daten arbeiten, hat dann einfach gesagt auf dieser Konferenz, es gibt da kein Mittelweg. Würde ich jetzt auch so sagen, ich sehe da kein Mittelweg. Und dann ist der Arno Elmer aufgestanden. Ehemaliger Geschäftsführer der Gemartik hat da so was gesagt. Ich war ehemaliger Geschäftsführer der Gemartik. Ich kenne mich mit Datenschutz und Sicherheit aus und Cyber schnick schnack schnuck. Und da war stolz darauf, dass er Leute rausgemopft hat aus der Gemartik, die zu viel Datenschutz wollten. Gemartik, das wird alle unsere Patientendaten irgendwann verwalten. Die Patientenakte. Frage ist, würde ich solchen Leuten meine Bilddaten anvertrauen. Es ist nicht besser geworden. Es wird inzwischen berichtet, dass die ganze Sicherheitskultur der Gemartik unterirdisch ist und dass sie dieses Problem immer noch haben. Es gibt ganze lange Threads auf Twitter über dieses Thema. Aber das heißt, wir haben ein Problem, sobald wir in die Nähe von medizinischen Daten kommen. Dass wir höllisch aufpassen müssen, wie wir die Daten behandeln. Das ist übrigens seine neuste Firma, hat also irgendetwas für Smart Home, für ältere Leute gegründet. Das hat, glaube ich, einen Komplett-Leak gegeben, dass man also alle seine Serverdaten runterladen konnte. Der Mann ist Professor hier an der FSO, Wirtschaftsinformatiker. Wollen wir solche Leute eigentlich auf Lehrstühlen haben? Die Leute ausbilden zum Thema Daranschutz und Cyber-Sicherheit. Und das ist jetzt eine rhetorische Frage. So, bevor das alles hochkam, haben wir uns Gedanken gemacht. Wir, das ist also Innovationsverband, öffentliche Gesundheit. Das ist inzwischen ein Verein. Und wir haben uns explizit damit beschäftigt, wie kann man eigentlich so einen Vergabevergang, der sicherheitsrelevant ist, wie zum Beispiel einen Impftermin, wie kann man den Datenschutz freundlich machen, mit minimalem Einsatz von Daten? Und wie kann man das hinbekommen, dass wir wirklich nur die Daten verarbeiten, die wir für das Buchen eines Impftermins brauchen? Das ist keine schwarze Magie. Aber wir stehen natürlich in Konkurrenz mit anderen. Es gibt eine starke Segmentierung. Es hat sich rausgestellt, dass das Datenschutz und Security-Niveau der Lösung fraglich ist. Viel in Skalierbarkeit hat man bei Dr. Leib am Anfang in Berlin gesehen. Das sind die Probleme der Impfportale, die wir gerade haben. Sie funktionieren einigermaßen. Ich nehme mal an im Backend, gehen auch einigermaßen vorsichtig mit den Daten um. Prüfen kann ich das nicht. Wir hatten einige Partner, das ist also von denen, die wir mit denen wir zusammengearbeitet haben, also Infraran. Hat das hier in Berlin implementiert. Die Sprunginnovationsagentur hat da geholfen. Wir hatten Hoster in allen Himmelsrichtungen in Deutschland. Finanzinformatik in München, Jonas, Cis11 hier in Berlin. KPMG hat das Juristische gemacht. Das ganze Wort wird über uns gefördert von der Björn Steiger Stiftung, die sich um solche Sachen auch kümmern. Die haben früher die Notrufsäulen an den Autobahnen gemacht. Das heißt, das ist also einiges an Partnern, was wir da versammelt haben. Was wir haben wollten, war eigentlich 10% mehr Impfung. Einigermaßen dynamischem Einblick, bessere Ressourcen-Nutzung in dem ganzen Thema. Dass man auch Push-Notifikationen bekommt, wenn irgendwie spontan ein Termin frei wird. Wir hatten insgesamt einen 30-Personen-Team, was das in der Freizeit gemacht hat. Wenn wir das mit anderen Lösungen vergleichen, dann sehen wir hier, das war damals der Stand von Dokto-Lib, und das ist das, was wir einfach gesehen haben, was man für eine Terminbuchung nicht braucht. Das heißt, wir haben einfach versucht, wie können wir das so machen, dass wir das mit Security und Privacy bei Design implementieren. Was heißt das? Also alle Daten weglassen, die wir nicht für den eigentlichen Vorgang brauchen. Das ist jetzt keine Geheimwissenschaft. Aber wenn ich mir den Zustand an unsere Universitäten angucke und bei den Professoren, ich habe nirgendwo irgendwo einen Studiengang gefunden, wo Privacy bei Design wirklich mal vorgelebt wird und wo einfach mal Applikationen gebaut werden, die diesen Privacy bei Design-Anspruch erfüllen. Man sieht ganz viele AI-Lehrstühle, also künstliche Intelligenz, dass das nicht völlig frei von Anwendung ist, auch wenn das mal teuer sein kann. Aber es gibt keinen Lehrstuhl, wo das mal gemacht wird. Privacy bei Design entwickelende Applikation nach Kriterien, die so sind, dass wir wirklich davon ausgehen können, es werden keine Daten erfasst, die wir nicht brauchen. Das Ganze war dann natürlich komplett open source, hatte eine CWA Integration, wir hatten auch Telefonsupport angeboten. Das ist im Wesentlichen das Datenmodell. Man sieht, es gibt drei Akteure in dem System, die User, die suchen sich einfach einen Time-Slot, die Provider, das sind alle Ärzte, Apotheken und alle anderen, die bieten Time-Slots an, und einen Mediator, der autorisiert die Provider. Die Provider und die Mediatoren haben einen Private Key, das heißt, wir haben dafür gesorgt, dass der Private Key dann auch bei den Leuten bleibt. Das wird also nicht irgendwo in einer zentralen Instanz verweitet, sondern der Private Key ist wirklich nur lokal vorhanden. Am Backend wird mit dem Public Key überprüft, ob das Ganze wirklich autorisiert ist. Alles ist verschlüsselt immer und transport sowieso, also mit Transport Layer Security, TLS, aber es wird noch mal zusätzlich verschlüsselt auf dem Backend. Das ist also wirklich sicher, dass niemand in der Lage ist, diese Daten zu lesen, wenn nicht autorisiert ist, weil das niemand braucht. Und was ist denn ein Impftermin überhaupt nun? Ich habe an der Stelle eine Datenbank mit einem Angebot, da steht der Ort und die Zeit drin, Postlerzahl, Abfrage der persönlichen Situation, die wird nicht geschmeichert. Ich habe ein Web Client, das Ganze wird dann nur zusammengehalten von einem Token, das heißt, man braucht eigentlich nur ein Token und zu sagen, hey, ich habe diesen Impftermin, ich möchte mich abmelden oder ummelden, und dann kann man diese Mechanik triggern. Ich muss nicht mal eine Telefonnummer hinterlegen, ich muss keine SMS kriegen, was er teuer ist bei diesen ganzen Sachen. Ich muss auch meine E-Mail-Adresse nicht hinterlegen. Ich bekomme ein Token, das kann ich in einem Cookie, im Browser speichern, und dann kann ich darauf wieder zugreifen. Ja, das muss ich sehen können, weil ich muss mir das auch speichern und zur Not aufschreiben. Das reicht tatsächlich, 5 Buchstaben zu nehmen, damit kommt man schon dahin, dass man das auch abschreiben kann. Also das ist jetzt kein Hexenwerk, das ist jetzt nicht ein 80-Zeichen-Hex-String, den ich merken müsste, sondern das ist schon in der vernünftigen Größenordnung. Warum gibt es das alles nicht? Nun, wir hatten ein Angebot, wir hatten natürlich Hosting-Kosten gehabt, DoktorLib hat zum Beispiel angeboten, das alles für umsonst zu machen, im Austausch gegen die User daran. Also wenn ihr wissen wollt, warum DoktorLib überall verbreitet ist, das kostet nichts, aber im Austausch kriegen sie die Daten. Das heißt, wir bezahlen für die Termine bei DoktorLib mit unseren Daten. Das hat AlgorithmWatch dokumentiert und das ist auch bei Frag den Staat herausgefunden worden, weil Frag den Staat hat das einfach mal angefragt und geguckt, wie sind eigentlich die Verträge des Landes Berlin mit DoktorLib? Und dann kam raus, ja, null, können wir halt nicht unterbieten. Und dann machen wir das so. DoktorLib ist eine französische Firmen-Start-up, knapp 800 Millionen-Wert. Das heißt, da ist schon Wumms hinter, aber gut, das sollte man einfach alles transparent machen. Warum? Und sich der Berliner Senat nicht aus der Nase ziehen lassen. Dann haben wir mal hinterher ausgerechnet, was kostet uns eigentlich die Implementierung? Wir hatten natürlich relativ neue Sachen, das heißt, bei Infra-Run hatten wir das klassisch gehostet am Anfang. Wir hatten auch einen full-blauen Cloud-Roll-Out geplant, also Kubernetes-Cluster, alles, was man so braucht im privaten Clouds. Das war aber alles hoffnungslos überdimensioniert. Wir haben auch eine DDoS-Protection angefragt und implementiert. Und dann haben wir mal ausgerechnet, was kostet es so größenordnungsmäßig eine Million Leute, alle sechs Monate zu impfen? Was kostet uns das an Last? Wenn wir jetzt die Buchungszeiten da rein nehmen, 24 Wochen, dann kommen wir so auf ungefähr von morgens, wenn wir annehmen, das ist alles an Werktagen von neun bis fünf, kommen wir auf sieben Buchungen pro Sekunde. Und das Cloud-Divis, was wir dann hätten nehmen können, natürlich ohne Hochverfügbarkeit, und das Geraffel wäre ein Raspberry Pi gewesen. Das heißt, wir hätten das also auch schon auf relativ sparsamer Hardware implementieren. Das war immer unser Scherz. Ja, wir können es natürlich auf ne Riesen-Cloud implementieren. Kubernetes läuft auch auf dem Raspberry Pi, also das hätten wir dann auch noch irgendwie mitgemacht. Da habe ich ja überhaupt keine Hemmung bei sowas. Aber tatsächlich hätten wir nicht das ganze Geraffel gebraucht. Ich glaube, das teuerste und auch vom Energieverbrauch anspruchsvollste wäre die DDoS-Protection gewesen, weil man da wirklich in den Netzwerken aufpassen muss, wenn man gedoßt wird. Natürlich ist so eine Anfrage relativ leicht, mit einem Denial-of-Service-Angriff anzugreifen. Das lässt sich gar nicht verhindern. So, und dann kommen wir auch fast pünktlich zum Schluss. Wir haben also dieses Problem, was wir am Anfang gesehen haben, was sowohl die Daten der Energie als auch unseren Datenschutz betrifft, im Prinzip auch bei Security-Beidesign miterledigt. Es funktioniert, man kann es implementieren. Wir müssen jetzt jetzt den Akademikern erklären, den Professoren, was jetzt auch vielleicht eine interessante Aufgabe ist. Ich mache mal so Witze, so beim TCP-I-Stack, der Layer minus 1 ist die Energieversorgung, minus 2 ist die Kühlung, minus 3 ist das Gebäude und obendrüber sind wir bei Akademiejahr wahrscheinlich auf dem Layer 14 oder 17. Das heißt, wir müssen irgendwie als auch reinbekommen in die Lehrinhalte, in die Köpfe, dass wir Security-Beidesign zum Lehrstoff machen an Universitäten. Es kann nicht sein, dass man da diese Full-Blauen von Google und anderen getriebenen Maschinen-Learning-Modelle als Standard nimmt und dann einfach Security-Beidesign. Das macht man so in einem, ja, für uns war es mehr oder weniger ein Hobbyprojekt, weil wir uns irgendwie beschäftigen wollten in den Zeiten der Pandemie, dass man das so nebenbei macht. Ja, man kann es machen, man kann moderne Techniken einsetzen. Da sind die Links, also BINNOC, inzwischen ein eingetragener Verein mit Kontaktadresse. Das ganze Projekt ist auf GitHub unter slash impfen und da kann man auch die Prinzipien nachsehen. Das meiste ist in Go programmiert gewesen, das heißt auch eine relativ effiziente Programmiersprache. Die Container, die wir da gebaut haben, hatten hinterher einen kompletten Web-Server drin und abgespeckt und gehärtet und gesichert in der Gegend zwischen 10 und vielleicht, wenn es ganz hoch kommt, 20 Megabyte. Also für die jüngeren Megabyte, das war die Einhalt vor Gigabyte, das ist also wirklich keine besonders große Applikation. Und der Schluss, den wir auch daraus ziehen, ist, wir können also im Prinzip eine ganze Menge, wahrscheinlich, wenn wir ehrlich sind, 80 oder 90 Prozent an Energie sparen, wenn wir auf allen Schichten, also von der Hardware bis zur Software, bis zur Datensparsamkeit, alles so implementieren, dass wir damit rauskommen, dass wir wirklich nur das Nötigste machen in der Applikation. Aber das muss trainiert werden, das muss man lernen. Es ist nicht unendlich schwer, das ist also kein Hexenwerk, aber es funktioniert. So, das war's. Vielen Dank und wenn noch Fragen sind, gerne. Ja, dankeschön auf jeden Fall für den unterhaltsamen und informativen Vortrag und ein bisschen Zeit für Fragen, haben wir auf jeden Fall noch? Ja, dann. Was man an Empfehlungen für Ressourcen, wo man Privacy and Security bei Design lernen kann, wenn das nirgends angeboten wird? Das haben wir uns selber beigebracht. Ich selber habe Programmieren gelernt in C auf einem Atari mit einem Megabyte und davon war die Hälfte für die RAM-Disk. Also ich weiß noch, wie das geht. Es gibt viel Unterstützung, wenn man, sagen wir mal, Maschinennahoprogrammiersprachen nimmt. GO ist vielleicht besser als CLC++, aber das ist auch, das ist nicht unbedingt eine der schönsten Sprachen, aber wir werden hier nicht für Schönheit bezahlt. Wenn wir Ressourcen sparen können, da muss man sich vielleicht auch mal von dem Paradigma, ich möchte die schönste Programmiersprache der Welt haben, verabschieden. Man kann sich das Impfprojekt angucken und das im Prinzip durchdeklinieren, wahrscheinlich auch für eine ganze Reihe von anderen Problemen. Ja, meine Frage ist, ich wundere mich echt, also ich habe schon für verschiedene Datenintensive Unternehmen gearbeitet und ich frage mich aber trotzdem, warum die sowas nicht mehr nutzen? Also warum hat sich so etwas in der Wirtschaft nicht weiter verbreitet? Ich weiß, die nutzen die Daten und werden die gerne aus, aber die können sich ja ausschlangen und effizienter machen. Und wenn man bedenkt, dass auch so Verträge wie AWS ja dynamisch sind, also wenn ich mehr Datenverarbeitung habe, muss ich auch mehr an AWS zahlen. Da frage ich mich, warum ist das nicht beliebter? Also ich meine, da hat es die Wirtschaft auch nicht mehr dran. Also wenn wir das bei Google hosten würden, würde Google da so gut wie nichts dran verdienen. Das Problem ist, wenn ich ein Datenmodell oder ein Programmiermodell vorgeschlagen bekomme von einem Cloud-Anbieter, dann hat er kein Interesse daran, kein wirtschaftliches Interesse, dass das Daten sparsam ist. Aber das Unternehmen, das ein Cloud-Anbieter einsetzt, hat ja den Interesse daran, dass das Daten sparsam und weniger von Cloud-Anbietern zu sein. Genau, das ist also die Aufgabe, wenn ihr also jetzt guckt, ihr müsst eine Applikation implementieren. Brauche ich diese Daten alle? Die Antwort kann auch mal ja sein. Also medizinische Daten, Bildauswertung von irgendwelchen Zellen. Ist ein Beispiel, da kann es gut sein, dass man das braucht. Aber wenn ich jetzt hier so simple Sachen machen wie die Terminbuchung, brauche ich da wirklich alle Daten, muss ich wirklich, also Dr. Lib fragt, das Geschlecht des Nutzers ab. Was hier in dem ganzen Impfprozess überhaupt keine Rolle spielt. Also die Nutzerinnen sind da auch, wofür braucht er mein Geschlecht? Ist die Frage, wir brauchen es nicht natürlich, wenn die eigentliche Aufgabe der Dr. Lib Applikation ist, nicht mehr einen Impftermin zu vermitteln. Das ist ein Seiteneffekt. Die eigentliche Aufgabe ist, an viele Daten zu kommen. Und das muss uns immer klar sein, das wird einem auch erst klar, wenn man mit diesen Daten, also mit diesen Problemen arbeitet. Weil natürlich ist man am Anfang froh, ich kriege hier noch einen Impftermin und ich muss ja nicht durch die ganze Stadt, sondern, weil man ist ja einfach unter dem Druck, dass man das nutzen muss. Und das wird einem auch in diesem, in diesem Kontext ziemlich klar, was da für einen Druck auch aufgebaut, politisch finanziell, den man auch einfach erst mal dekonstruieren muss, dass man einfach sagen muss, brauche ich das wirklich? Ja, ich sehe das ja genauso. Ich meine, ich sehe auch ein riesiges Einsprudssparpotenzial an Ressourcen, wenn sich auch, sagen wir von den Seiten, die Leute, die es einsetzen, mehr Gedanken darüber machen, wofür sie es wirklich brauchen. Ja, also das mit 80, 90 Prozent, es können auch 99 Prozent sein von den Ressourcen. Also das ist ein Thema, wo man einfach mal darüber klar werden muss. Wir haben hier ganz viel Potenzial und wir haben nicht viel Abstriche an der Bequemlichkeit und auch noch einen Riesenzugewin an Datenschutz. Tih? Danke erst mal, dass du diese große Nummer aufgemacht hast, und dann kommt jeder zum Frühjahr kommt. Ich würde noch interessieren, jetzt habt ihr das ja fertig gehabt von der Software. Und Rasturin Freiehege ist ja auch gesündert hier hinten. Warum konntet ihr das nicht, auch ohne dass statt für ihn das finanziert, so muss man das starten. Also es sind sehr viele Sachen zusammengekommen. Zum einen ist bei den Gesundheitsämtern dann auch, nachdem eigentlich viel zu viel impfstoffnah war, nachdem also auch keine Werbung gemacht wurde für Impfkampagnen und die Impfgegner, also auch immer einflussreicher wurden in den demokratischen Parteien, ist das nicht mehr mit Druck weiterverfolgt worden. Also wenn du im Prinzip hier so viele Impftermine haben kannst, wie du willst, und das wirklich jetzt kein Problem ist, dann haben die Gesundheitsämter auch den Druck nicht. Und scheinbar sind vielen auch diese Datengeschichten komplett egal. Auch im öffentlichen Sektor haben wir also wirklich auch kein Bewusstsein für Datenschutz und Privacy. Also nicht überall. Kannst du nachbauen, am einfachsten auf Minicube, wenn du Fragen hast, kontaktier mich, kannst du auch für andere Sachen machen, könnte man zum Beispiel auch für was, was ich Bürgerämter in Berlin machen oder wo man hier sonst keinen Termin kriegt, mit vernünftigen Aufwand. Der Hintergedanke war eigentlich soweit. Eigentlich, wenn wir das konsequent durchführen würden, wäre das auch eine Umkehr, nicht ich muss irgendwo hinklicken, um einen Termin zu kriegen, sondern eigentlich könnte man das mit Puschbenachrichtigungen so soweit machen. Der Termin kommt zu mir. Das heißt, die Leute mit Kindern kennen das so irgendwie Pflicht oder die wichtigsten Impfungen. Warum kann mich das Gesundheitsamt nicht an Termine erinnern? Oder diese Lösung könnte mich erinnern. Oder umgekehrt, wenn ich jetzt aus dem medizinischen Kontext rausgehe, warum kann das Bürgeramt mir nicht eine Termine Erinnerung schicken, wenn mein Personalausweis abläuft, dass ich dann irgendwie überrascht bin, oh mein, ich muss mich kümmern und dann sechs Wochen vorher, das sind so diese Albträume, die man eigentlich alle loswerden könnte. Also, es geht ganz viel, weil im Prinzip jede Termin Buchungsanwendung lässt sich relativ vielleicht auf sowas abbilden. Wenn ich jetzt hier nicht ohne Ende Daten brauche, um überhaupt eine Entscheidung zu treffen, ob ich teilnehmen darf oder nicht. Ja, gibt es noch weitere Fragen? Oder ansonsten gibt es vielleicht auch noch die Möglichkeit, Thomas auch so nochmal anzusprechen. Dann nochmal ganz herzlichen Dank für den Vortrag und auch für das Projekt selbst natürlich. Gerne.