 Mein Name ist Melike China. Vielen Dank. Ich bin angefragt worden, heute diesen Programmpunkt zu moderieren. Da oben können wir es auch schon lesen. Es geht um die Verleihung des Weizenbaum Studienpreises, der zum einen herausragende Abschluss arbeiten würdigt, aber natürlich auch Joseph Weizenbaum selber. Einer der Pioniere der Informatik würde ich sagen, dem es vor allen Dingen auch immer wichtig war, die immense Wirkung der Informatik auf gesamtgesellschaftliche Prozesse deutlich zu machen. Wer und wofür dieser Preis jetzt verliehen wird, das erfahren Sie gleich. Er wird seit 2010 verliehen. Das darf ich schon verraten, somit nach meiner Rechnung zum 13. Mal heute. Und ich denke, diese Auszeichnung auch von Abschlussarbeiten ist ganz besonders im Geist von Joseph Weizenbaum zu sehen. Denen ist ja immer darum, auch Innovationen sichtbar zu machen, ganz gleich von welcher Ebene sie gewonnen wird. Und ich freue mich jetzt an der Stelle, zwei Personen aus dem Vorstand begrüßen zu dürfen. Zum einen den Vorstandsvorsitzenden, er ist auch Informatiker Stefan Hügel. Herzlich willkommen und zum anderen Rainer Rehak, auch aus dem Vorstand Informatiker und Philosoph, wie ich gehört habe, eine spannende Kombi. Ja, kommt drauf und übernehmt. Bitte übernehmen Sie. Dankeschön. Für die schöne Einleitung und Beschreibung. Ja, wir sind jetzt angekommen bei der Verleihung der Weizenbaum Studienpreise und man kann vielleicht dazu sagen, man kann vielleicht dazu sagen, Moment, noch nicht. Okay, man kann dazu sagen, es gibt ja eine ganze Menge Abschlussarbeiten zu den Themen Informatik und Gesellschaft, kritische Informatik oder philosophische Betrachtung der Informatik und Technikwissenschaften und der Weizenbaum Studienpreise ist quasi unsere Art, zu zeigen, wenn ihr oder sie heute oder sozusagen in diesem Jahr eine Arbeit oder ein paar Arbeiten zu diesem Thema lesen wollt, dann sind es die. Das heißt unsere Auszeichnung ist gleichzeitig natürlich, wie gesagt worden ist, Remissens an Joseph Weizenbaum, aber eben auch ein Lesetipp und ein Tipp näher rein zu gucken. Das wird jetzt so ablaufen, dass wir jeweils sozusagen begründen, warum wir einen bestimmten Preis vergeben und dann die Preisträgerinnen selber noch so knapp zehn Minuten oder so Zeit haben, um selber ihr Thema vorzustellen und inhaltlich zu zeigen, was sie gemacht haben, was sie herausgefunden haben. Kommen wir also zum ersten. Eine wesentliche ethische Frage bei der Nutzung jeder Form von Technik ist die Frage nach der Verantwortung. Diese Frage stellt sich besonders dringlich bei der Nutzung von Informationstechnik, durch die eine neue Stufe von Komplexität bei technischen Systemen ins Spiel gebracht wird. Heute sind es vor allem die KI-Systeme und die dadurch ermöglichten Systeme. Und so war zum Beispiel das Maschinele Lernen, deren Komplexität die Frage nach der Verantwortung im besonderen Maße aufwirft. Doch auch bei normal programmierten IT-Systemen stellt sich die Frage nach Verantwortung und danach, wie Technik-Wissenschaftlerinnen dieser Verantwortung gerecht werden. David Parnas, Preisträger des FIF, lehnt es in den 80er-Jahren ab, an den Militärstrategieprojekt Strategic Defense Initiative mitzuwirken, SDI. Nicht aus einer pazifistischen Haltung heraus, sondern aus beruflicher Verantwortung. Er war überzeugt, dass Systeme dieser großen Komplexität und mit diesen gravierenden Folgen bei Fehlfunktionen nicht sicher entwickelt und betrieben werden können. Hans Jonas schrieb in seinem Prinzip Verantwortung, dass die Wirkung der Handlung verträglich ist mit der permanent echten menschlichen Lebensauferden. Dies ist der ethische Maßstab, an dem sich die Techn Wissenschaftlerinnen orientieren müssen. Doch auch bei weniger gravierenden Wirkungen stellt sich die Frage nach der Zuschreibung und Wahrnehmung von Verantwortung in der technik- philosophischen Arbeit von Jan Hölzer am Vorabend der Digitalisierung betitelt, die wir heute auszeichnen, werden die Texte drei herausragender Persönlichkeiten der Informatik daraufhin untersucht, inwieweit sich darin Selbstzuschreibungen von Verantwortung finden lassen. Unter Vorabend wird dabei grob der Zeitraum von den 70er-Jahren bis zu 1995 verstanden. Untersucht werden Veröffentlichungen von Josef Weizenbaum, Norbert Wiener und Ray Kurzweil. Dabei wird der Gegenstand die Selbstzuschreibung von Verantwortung durch Technik-Wissenschaftlerinnen dadurch untersucht, dass anhand von Texten der drei Wissenschaftler Josef Weizenbaum, Norbert Wiener und Ray und Kurzweil dazu zusammengestellt, eingeordnet und gegenübergestellt werden. Dabei wird nach der Kategorien Informationsphilosophie, philosophische Anthropologie, Sozialphilosophie und Bildungsphilosophie differenziert. Der Autor wird sicherlich gleich im Detail auf die einzelnen Ergebnisse eingehen. Wir können jedoch vorwegnehmen, dass die Selbstzuschreibung sehr ungleich verteilt ist. Aus Sicht des Autors wurden verschiedene Positionen innerhalb der Technik-Wissenschaften deutlich. Kurzweil zum Beispiel streut nur vereinzeltkritische Betrachtungen und spricht dabei nicht von seiner Verantwortung. Wiener thematisiert die Verantwortung und schreibt sie sich teilweise selbst auch zu. Weizenbaum setzt sich ausführlich mit der eigenen Verantwortung auseinander. Es ist also vor allem Jena, der immer wieder auf die Verantwortung von fessen Technik-Wissenschaftlerinnen hinweist. Dies wird im Abschlusskapitel unterstrichen mit dem Hinweis, dass sich Weizenbaum einmal als Feigenblatt des militärisch finanzierten MIT bezeichnet hat. Die Arbeit bietet einen sehr guten zusammenfassenden Überblick über die verantwortungsethischen Positionen der behandelten Wissenschaftlerinnen. Formal ist sie korrekt, verfasst und sinnvoll strukturiert. Wenn auch das Ergebnis nicht überrascht, wird es stringent und strukturiert herausgearbeitet. Dabei wird eine sinnvolle Aufteilung der Aussagen zugrunde gelegt. Der verwendete Verantwortungsbegriff, der sich auf Vorhaltung und Nötigung zur Verteidigung beschränkt, ist jedoch ein wenig vereinfachend. Hier wäre ein umfassender Verantwortungsbegriff und auch in der Folge eine umfassendere Bewertung wünschenswert gewesen, auch mit Bezug auf weitere Position der Verantwortungsethik aus den betrachteten Zeitrauben, beispielsweise Hans Jonas, Hans Lenk oder Günther Ruppol, wie benannt. Der Zeitraum ist aber gut abgegrenzt. Zusätzlich wäre es sicherlich schön gewesen, die weitere Entwicklungsverantwortungsethischer Position bis zur Gegenwart zumindest kurz anzureißen. Diese Punkte tun der hervorragenden Arbeit von Jan Hölzer aber keinen Abbruch. Insgesamt stellt die Arbeit eine sehr lesenswerten Zusammenstellung dar, Einordnung gegen Überstellung und Bewertung, dreier zentraler Persönlichkeiten der Technik Wissenschaft. Die Jury des Weizenbaum-Studienpreises hat sich deswegen für die Auszeichnung der Arbeit entschieden. Herzlichen Glückwunsch, Jan Hölzer, zum Weizenbaum-Studienpreis 2022. So, zuerst das Wicht, nein, so rum natürlich, zuerst das Wichtige. Herzlichen Glückwunsch. Danke schon. Und mach was weniger für den Kopf oder auch für den Kopf. Das ist weniger für den Kopf als für das Herz, genau, für den Feierabend. Herzlichen Dank und wir freuen uns jetzt drauf gleich noch ein paar Worte von dir zu hören zum Inhalt deiner Arbeit. Dann kannst du das zur Seite stellen und dann geht's los. Vielen Dank für diese wirklich ausführliche Laudatio. Das hatte schon sehr viel vorweggenommen vor den Inhalten. Ich bin auf jeden Fall sehr dankbar für diesen Preis heute und vor allem auch dankbar dafür, dass ich so großartige ProfessorInnen hatte, die mich in dieser Arbeit betreut haben. Das ist einmal Frau Nicole Karafilles und einmal Klaus Arthur Scheier, die mich schon wegen des gesamten Studiums und auch dann während der Bachelorarbeit betreuten. Und diese Auszeichnung ist für mich auch persönlich nochmal ein Zeichen, dass ich damals die richtige Entscheidung getroffen habe. Denn eigentlich hatte ich nach dem Abitur ganz andere Pläne. Ich habe 2017 nämlich nach meinem Abitur erst mal eine Ausbildung zum Fachinformatiker gemacht. Und als ich die abgeschlossen hatte, wollte ich dann eigentlich nur Software programmieren und Probleme lösen. Aber das hat sich dann relativ schnell entwickelt, geändert, weil ich mit einer Kollegin gesprochen habe in meinem Unternehmen und die Arbeit ist schon seit 30 Jahren in einer Abteilung als Sachbearbeiterin. Und auf einmal war sie von so einem tollen Digitalisierungsprojekt betroffen. Und da habe ich das erste Mal für mich reflektiert, was es eigentlich bedeutet, wenn ich diese Software entwickle. Denn sie hat mir erzählt, dass sie um ihren Job förchten muss, weil ich diese tollen Apps programmieren kann. Und diese Frage ist für mich seit dem immer hängen geblieben. Und so habe ich dann 2019 meine Arbeitszeit reduziert und das Philosophie-Studium an der TU Braunschweig begonnen. Und diese Bachelorarbeit, für die ich hier heute geehrt werde, die mir die Möglichkeit gibt, vor Ihnen zu sprechen, das war sozusagen mein erster Versuch, mich diesem Thema Verantwortung philosophisch zu nähern. Und natürlich, es wurde schon gesagt, das Verantwortungsthema ist enorm komplex. Also musste ich es natürlich entsprechend eingrenzen. Das habe ich einerseits getan, indem ich mich auf drei Autoren beschränkt habe. Sie sehen sie ja schon die ganze Zeit hinter mir. Sie wurden auch bereits erwähnt. Die Ende des letzten Jahrhunderts besonders einflussreich in den Technik-Wissenschaften waren. Und das sind einmal Weyman Kurzweil. Vielleicht kennen Sie seine Bücher The Age of Intelligent Machines oder The Singularity is Near. Mittlerweile ist Weyman Kurzweil übrigens Leiter der technischen Entwicklung bei Google. Die zweite Person, Norbert Wiener, ehemalige MIT-Professor und Begründer der Kubernetik. Und Josef Weizenbaum, Welch Überraschungen, den Sie ja sicherlich jetzt schon so einigermaßen einordnen können. Darüber hinaus musste ich auch noch das ganze Thema Verantwortung eingrenzen. Ich habe mich also auf die Selbstzuschreibung von Verantwortung beschränkt und in diesen Texten der Autoren nach Aussagen darüber gesucht, wie sie denn ihre eigene Verantwortung für diese Entwicklungen einschätzen. Und auch mein Verantwortungsbegriff war dementsprechend eng gefasst. Für mich war Verantwortung, die Möglichkeit einer Person, die Folgen ihrer Handlungen vorzuhalten und dann natürlich irgendwo auch die für diese Person die erwachsende Nötigung sich dagegen über irgendwie zu verteidigen, zu rechtfertigen, was da gesagt worden ist. Und so habe ich dann sämtliche Kernpositionen, Aussagen dieser Autoren herausgearbeitet und wirklich nur sporadisch kommentiert oder mal um Sekundär Literatur ergänzt, wenn ich der Meinung war, dass es das Verständnis erleichtert oder auch noch mal einen neuen Blickwinkel auf diese Themen bringt. Und geliedert habe ich dann diese ganzen Inhalte nach vier Bereichen. Sie wurden auch schon kurz erwähnt und diese Bereiche möchte ich jetzt kurz mit ihnen beispielhaft in Anbetracht der Zeit hier für diesen Vortrag anreißen und ganz am Ende sprechen wir nochmal über die Selbstzuschreibung von Verantwortung. Der erste Bereich ist die Informationsphilosophie. Was ist das zentrale Thema? Die Frage, was ist Information? Und damit natürlich auch ganz eng verbunden die Frage, ob wir denn eigentlich Computern alles vermitteln können. Raymond Kurzweil sagt ja, klar, wir müssen das Wissen nur sammeln und dann können wir das in geeignete Datenstrukturen überführen. Norbert Wiener sieht hingegen Information eher funktional. Man könnte sagen, als Nachricht, also etwas zwischen Sender und Empfänger und dann gibt es dann ausgelöstes Verhalten und ein paar Störfaktoren vielleicht, also eine ganz andere Auslegung von diesem Informationsbegriff. Und Weizenbaum macht erst mal einen Schritt zurück, schaut sich das an und sagt, stopp mal, das müssen wir ganz kritisch beleuchten, denn diese Daten da in dem Computer, die sind doch ohne unsere Interpretation von uns Menschen doch eigentlich noch gar nichts wert, die haben doch gar keine Bedeutung, wenn wir sie nicht interpretieren. Weizenbaum gibt dann beispielsweise das Beispiel, dass wir auch gewisse Dinge nicht mal selbst in Worte fassen können, komplexe Gefühle zum Beispiel. Wie wollen wir das dann einem Computer vermitteln? Und Kurzweil und Wiener, für die lässt sich irgendwie alles in Zahlen auflösen. Selbst der Mensch. Aber was ist eigentlich der Mensch? Das ist der zweite Bereich, die philosophische Anthropologie und selbst diese Frage, was ist der Mensch, ist bereits problematisch, denn der Mensch existierte eigentlich nur als Abstraktion. Wir haben es ja im echten Leben dann immer mit Individuen zu tun. Aber wenn Weizenbaum damals gewusst hätte, was passiert, wenn er sein Eliza, sein Shetboard vorstellt, 1966, der wär schockiert gewesen. Und das war er dann auch, als das gemacht hat. Denn das erste, was auch seinen Shetbos als Reaktion kam, kam aus der Richtung Psychologie. Wir könnten doch aus dem Shetboard super einen automatische Psychotherapie bauen. Da müssen die gar nicht mehr zum Arzt gehen, die können einfach damit schätten und können sich dann selbst heilen. Wir geben den gute Tipps, alles automatisiert. Weizenbaum war schockiert von diesen Zitat perversen Behauptungen, dass man einen Mensch einfach als Maschine denkt und sorgt, mit den richtigen Operatoren kriegen wir den schon wieder repariert. Aber bei Kurzweil und Wiener finden sich genau diese Maschinenmetaphern ständig. Kurzweil geht sogar soweit zu sagen, dass die Evolution keine sonderlich effiziente Programmiererin war. Und jetzt endlich mit der Technik können wir all unsere Fehler, unsere Unzulänglichkeiten aus der Welt schaffen. Wir sind das schwächste Gelied in einem Netzwerk komplexer Maschinen. Aber wer sitzt dann eigentlich noch am Steuer? Der dritte Bereich, die Sozialphilosophie. Weimen Kurzweil sagt auf die Frage nach den Folgen der Digitalisierung, it will all depend on who controls the Technology. In dieser Aussage ist die These einer Neutralität der Technik verborgen. Und genau diese These gilt es in dem dritten Kapitel des Hauptteils zu entkräften, über diese verschiedenen Machtverhältnisse aufzuklären. Es geht dann beispielsweise darum, was passiert, wenn gewisse Gruppen, zum Beispiel Frauen, nur wenig oder gar nicht in Entwicklungsprozesse einbezogen werden. Was passiert, wenn das Militär die Forschung finanziert? Und zuguter letzt auch, was denn eigentlich die Technik-Wissenschaftlerinnen mit ihrer Macht anfangen, wenn sie Zitat Weizenbaum sich als hohe Priester darstellen, die dann in ihrer Geheimsprache über die Zukunft beraten, die für normale Menschen gar nicht mehr nachvollziehbar ist. Und genau das bringt auch die Frage auf den Tisch, wie es denn eigentlich mit der Bildung aussieht. Die vierte Perspektive, Bildungsphilosophie. Da habe ich mir dann nochmal die Aussagen angeschaut, die die Autoren zur Bildung treffen, zum Arbeitsmarkt der Zukunft, zur Einführung von Computern in Schulen und mein persönliches Lieblingsthema, das wichtigste Thema, die Ausbildung der Technik-Wissenschaftlerinnen. Wie bereiten wir denn diese Menschen auf ihre verantwortungsvolle Rolle vor? Da können wir nicht einfach ein Wochenend Seminar Ethik machen. Wir müssen eine Persönlichkeit einer Haltung entwickeln, die wir nicht einfach mit einem Wissenstransfer gewährleisten können. Weizenbaum spricht über Vorbilder. Vorbilder in Informatik, die Professoren, die Professorinnen, die als Vorbilder diese kritische Reflektion vorleben müssen, die uns zeigen müssen, wie man denn gewissenhaft mit der Technik umgeht. Damit wir unserer Verantwortung gerecht werden können. Aber wie sind denn diese drei Autoren hier mit ihrer Verantwortung umgegangen? Die Selbstzuschreibung von Verantwortung. Raymond Kurzweil zeigt wenig kritische Reflektion. Für ihn ist die Technik unauffaltbar und vielleicht gibt ihm das ja auch sein Freifahrtschein. In seinem ganzen Buch The Age of Intelligent Machines kommt das Thema Verantwortung kein einziges Mal vor. Bei Norbert Wiener, der zumindest von Weizenbaum noch explizit gelobt wird, dafür, dass er das Böse mit der Technik schon sehr früh in Zusammenhang gebracht hat, sehr früh erkannt hat, was da passieren könnte in der Zukunft, auch da findet sich kaum was, zumindest nicht zur Verantwortung und wenn, dann mit sehr großen Einschränkungen. Und Weizenbaum, der schaut sich das an, diese Entwicklungen und kommt dann zu der Aussage, nur noch ein Wunder kann uns retten. Das bedeutet aber nicht, dass wir uns jetzt zurücklehnen sollen, dass wir einfach nur hoffen müssen, dass es irgendwie besser wird. Nein, Weizenbaum war davon überzeugt, dass wir alle zu etwas größerem Ausersehen sein könnten. Und genau aus diesem Grund können wir nicht sagen, ja, die Ohne macht das einzelnen, was kann ich alleine schon anrichten. Nein, wir müssen die Verantwortung übernehmen, wir können die Verantwortung nicht wegschieben und vor allem nicht in diesen komplexen technischen Systemen, wo man die Verantwortung einfach so verteilt, dass sich am Ende alle anschauen und sich fragen, eigentlich fühlen wir uns alle nicht verantwortlich. Die Verantwortung ist einfach weg. Das geht nicht. Wir müssen uns so verhalten, sagt Weizenbaum, als würde die Zukunft der gesamten Menschheit von uns abhängen. Weizenbaum ist Vorreiter genau dieses Verantwortungsbewusstseins. Und dieses Erbe sollten wir alle antreten. Das ist das Ergebnis meiner Bachelorarbeit. Im Sinne des Friedens und der gesellschaftlichen Verantwortung. Und wie wichtig der Frieden ist, dass uns doch wohl in den letzten Monaten nur allzu eindrücklich klar geworden. Vielen Dank. Die Erhebung und Verarbeitung von Daten spielt eine immer größere Rolle bei der Nutzung digitaler Technik. Sowohl die unsichtbar erhobenen Daten, die wir als Preis dafür bezahlen, eine Vielfalt von Services nutzen zu können, als auch die Daten, die wir bereitwillig den Dienstleistern geben, um sie irgendwo in der Cloud verarbeiten zu lassen. Dazu kommen Daten, die beispielsweise ein Arbeitgeber oder staatliche Behörden erheben und zur Überwachung nutzen. Aus dieser Datennutzung ergeben sich Risiken von unmittelbaren Konsequenzen aus der Nutzung der Daten. Man denke an die Nutzung von Gesundheitsdaten durch Versicherungsunternehmen, zur Risiko- Einstufung oder Nutzung der im Arbeitskontext anfallenden Daten zur Leistungsbewertung oder gar für disziplinarische Maßnahmen durch den Arbeitgeber. Verstärkt werden diese Risiken durch die Nutzung von Systemen maschinellen Lernens, deren Komplexität zu weiter intransparenz der Verarbeitung führt. Christina Hecht untersucht in ihrer soziologischen Arbeit datifizierte Situationen und Gesellschaftsbilder, die wir heute auszeichnen, zwei Arten datafizierter Situationen darauf hin, wie sie solche Gesellschaftsbilder beeinflussen. Im Bereich der Erwerbsarbeit die Nutzung von Daten zur Steuerung der Arbeitsprozesse und im privaten Bereich die Nutzung von Daten zur Optimierung der Gesundheit anhand von Fitness-Trackern. Dazu wurden jeweils fünf Personen anhand eines standardisierten Fragenkatalogs befragt und die Ergebnisse ausgewertet. Die Autorin stellt und beantwortet damit folgende Forschungsfragen. Wie werden datafizierte Situationen erfahren und eingeordnet? Sind diese Erfahrungen und Einordnungen verbunden mit Vorstellungen von der datifizierten gesellschaftlichen Wirklichkeit, wenn ja inwiefern. Der freiwillige Nutzung der Daten in Fitness-Trackern stehen die Probande in positiv gegenüber. Sie empfinden die Effekte, die sich zum Beispiel durch Nudging und Gamification auf Basis der Erfassung von Kennzahlen wie Fitnesspunkten ergeben, als motivierend, ihr Tagespensung zu schaffen. Empfinden dabei aber auch keinen Zwang. Auffällig ist auch, dass Datenschutzbedenken beim überwiegenden Anteil der Befragten keine wesentliche Rolle spielen. Anders bei der Datifizierung im Arbeitskontext. Nudging und Gamification sind hier nicht mehr freiwillig, sondern werden zu einem Zyklus auf Anweisung, Evaluation, Disziplinierung. Hier werden klare Anweisungen erteilt und Ziele gesetzt, deren Basis, deren Ergebnis auf Basis der gesammelten Daten evaluiert wird. Die Performance ist Grundlage der Leistungsbeurteilung und wird beispielsweise bei der Zuteilung von Liefergebieten berücksichtigt bei Leverano. Damit werden die Daten zur Disziplinierung der Mitarbeiter in genutzt bis hin zur Kündigung, wenn die vorgegebenen Zahlen nicht erfüllt werden. Zusammengefasst ergibt sich der Unterschied zwischen Freiwilligkeit der Datenabgabe beim Fitness-Tracking und unfreiwilliger Datenabgabe im Arbeitskontext. Im ersten Fall werden die Daten als dutzend stiftend empfunden, dass die sonst unbestimmbare Aktivitäten zum eigenen Nutzen quantifizierbar machen. Im Arbeitskontext ist dies nicht mit einer Ermächtigung verbunden, sondern wird als Kontrolle empfunden. Die Arbeit ist klar strukturiert, die Forschungsfragen klar benannt und überzeugend und klar beantwortet. Das Ergebnis ist weitgehend konform mit der intuitiven Erwartung, dass die freiwillige Datennutzung positiv gesehen wird als Erweiterung der persönlichen Möglichkeiten, die vom Arbeitgeber erzwungene Datennutzung aber eher negativ. So überzeugend herausgearbeitet, lediglich das Sample von jeweils nur fünf Personen, insgesamt zehn, erscheint etwas gering. Es sind aber auch klar die methodischen Schwächen innerhalb der Arbeit benannt, der Zugangsweg zu den Daten dokumentiert und die dadurch entstandene Verzerrung auch thematisiert, also auch das ist in der Arbeit enthalten. Insgesamt ergibt sich eine überzeugende Überbehandlung des Themas, die wir sehr gerne mit einem Weizenbau beim Studienpreis auszeichnen. Herzlichen Glückwunsch, Christina Hecht, zum Weizenbaum Studienpreis 2022. Ja, so ist das. Sehr groß. Läuft meine Zeit schon? Ja, ich bleibe hier bei der Katze, weil ich so ein paar mehr Folien noch durchschauen muss. Genau, wenn ich meinen Freundinnen von meiner Masterarbeit erzählt habe, dann konnte ich immer so einen kleinen Witz einbauen und den werde ich jetzt hier schamlos recyceln, nämlich, dass nach einem ganzen Soziologie-Studium irgendwie doch die Frage bleibt, was ist eigentlich Gesellschaft? Großes Thema, das musste also beantwortet werden in meiner Masterarbeit. Und ein anderes Thema, was während meines ganzen Studiums zentral war, war die Frage, was machen digitale Technologien mit unserer Gesellschaft? Und wenn man sich dann so anschaut, dann kann man zweierlei beobachten, nämlich auf der einen Seite, dass wir ganz viele Fallstudien und Diagnosen haben zur Auswirkung von digitaler Technik in bestimmten Bereichen, also zum Beispiel Arbeit- und Wertschöpfung oder politische Entscheidungsfindung, politische Partizipation. Und in einigen wenigen Studien werden jetzt langsam auch so individuelle Einstellungen und Deutungen dazu erhoben. Auf der anderen Seite haben wir große, große Diagnosen, also es wird von der Ära der Datafizierung geschrieben, von der Datengesellschaft oder auch vom digitalen Kapitalismus. Und bei diesem zweiten Punkt fehlen wir oder haben mir aber so Studien gefehlt, die da eben individuelle Einstellungen zu diesen großen Diagnosen abfragen. Also könnte man fragen, was ist eigentlich die digitalisierte Gesellschaft? Ein wenig salopp. Genau, die Frage, was Gesellschaft eigentlich ist, da war ich jetzt nicht die erste, die mir die Frage gestellt hat, sondern da konnte ich anknüpfen an die arbeitssoziologische Gesellschaftsbildforschung. Die fragt eben danach, was für Gesellschaftsbilder haben Leute? So, und was sind Gesellschaftsbilder? Erst mal eine ganz blurry Definition, das sind Vorstellungen über die gesellschaftliche Wirklichkeit. Und wenn man das jetzt so ein bisschen genauer, naja, nicht operationalisieren, aber ein bisschen genauer definieren möchte, kann man eben drei Dimensionen aufmachen. Einmal Wahrnehmung und Bewertung der bestehenden gesellschaftlichen Ordnung, der zukünftigen gesellschaftlichen Ordnung und auch ganz zentral die Bedeutung technischer Möglichkeiten. Diese Zentralität kommt eben daher, dass das ein arbeitssoziologisches Konzept ist und wie wir uns alle vorstellen können, macht es einen Unterschied, ob ich am Fließband arbeite oder durchs Amazon wahren Lager laufe. Genau. Was wissen wir aus der Forschung? Wir wissen, oder das wissen wir auch ohne Forschung, niemand kann irgendwie die Gesellschaft an sich unmittelbar erfahren. So, wir können ja nicht einfach heraustreten und sie von außen anschauen. Stattdessen wissen wir, Gesellschaftsbilder basieren auf unmittelbaren Erfahrungen im Alltag von Leuten. Und in diesen unmittelbaren alltäglichen Erfahrungen spiegelt sich sozusagen unsere Verordnung in der Gesellschaft. Da spiegelt sich also die gesellschaftliche Struktur und wir merken irgendwie, okay, wo ist mein Platz da drin? Wir können also sagen, dass Gesellschaftsbilder immer aus einer ganz spezifischen Perspektive auf die Gesellschaft heraus entstehen. Sie sind also, wenn wir mit Mannheim sprechen, seien es gebunden. Gleichzeitig gehen unsere Vorstellungen über die Gesellschaft aber auch über den Bereich unserer unmittelbaren Erfahrung hinaus, zum Beispiel, weil wir Erfahrungen auf abstraktere andere Kontext übertragen. Und wie ich schon gesagt habe, wurde das in klassischen Studien eben vor allen Dingen mit Fokus auf die Erwerbsarbeit gemacht. So, weil man sagt, und das stimmt ja auch immer noch, in der Erwerbsarbeit, das ist der bestimmte Bereich der gemeinsame Lebenslagen und gemeinsame Perspektiven auf die Gesellschaft herbeiführt. Ich habe aber dann in meiner Arbeit angeregt, auch Erfahrungen aus der Privatsphäre im Dain zu beziehen. Und dafür gibt es verschiedene Gründe. Der Wichtigste ist aber, dass digitale Technologien eben auch in diesen Bereich, diesen Bereich so komplett durchziehen. Das heißt, das Schließband ist eben in der Fabrik geblieben. Mein Handy habe ich auch zu Hause dabei. Genau. Deswegen habe ich mit meiner Masterarbeit diese zwei Fragen gestellt, die ja auch schon so vorgetragen wurden. Also, wie werden datafizierte Situationen erfahren und eingeordnet? Erstens und zweitens, sind diese Erfahrungen und Einordnungen verbunden mit Vorstellungen von der datafizierten gesellschaftlichen Wirklichkeit und wenn ja, inwiefern. Datafizierung ist hier das Konzept, mit dem sozusagen die zunehmende Relevanz von Technologien zur Erfassung, Auswertung und Speicherung von Daten abgegriffen werden soll. Um die Fragen zu beantworten, habe ich mir Extremfälle angeschaut. Also, algorithmisches Management in der Erwerbsphäre und Fitness Tracking in der Privatsphäre. Ich habe also mit Personen gesprochen, die regelmäßig und intensiv in datafizierten Situationen verortet sind. Und das war eine ganz kleine Korrektur, wenn Sie mir erlauben, keine standardisierten Befragungen, sondern offene, leidfadengestützte Interviews. Durch die zentrale Gemeinsamkeit, nämlich, dass sich diese beiden Gruppen in Strukturanalogen Situationen wiederfinden, wollte ich herausfinden, was denn die dominanten Deutungen, die dominanten Aspekte von Gesellschaftsbildern im Hinblick auf digitale Technologien sind. Der wichtige Unterschied aber, dass man das einmal in der Erwerbsphäre erfährt, also weniger freiwillig, und einmal in der Privatsphäre, also sehr freiwillig, sollte quasi die Frage beantworten, ob diese verschiedenen Erfahrungen auch zu Unterschieden in den Gesellschaftsbildern führen, so wie wir es theoretisch ja auch erwarten würden. Genau. Was habe ich herausgefunden? Zufrage eins, Erfahrung und Einordnung dataficiert der Situation. Wie er schon gesagt wurde, neben Fitness-Tracker-Inn diese dataficierten Situationen als ermächtigenden Handlungsraum war, weil sie entlang eigener Maßstäbe ihre Ziele individualisiert verfolgen können. Das ist ja auch quasi ein großes Ding bei diesen Technologien, dass es eben zumindest dem Anschein nach irgendwie sehr individuell angepasst ist. Da habe ich hier diese Zitate von meinen Interviewpartnerinnen mitgebracht, also der Fitness-Tracker sagt, ich habe jetzt auch in diesem Jahr jede Challenge geschafft. Ich glaube, das ist natürlich auch so der Motivator, dass man dann ein Jahr voll kriegt. Ich nenne das so Atomic Habits, also kleine Veränderungen im Leben, die sich dann zu etwas Positiven konsolidieren. Auf der anderen Seite haben wir hier einen Arbeiter aus dem Warenlager von Amazon und der steht sozusagen exemplarisch dafür, wie die Erwerbsätigen diese Situation einordnen. Die stehen hier nämlich entweder kritisch oder pragmatisch distanziert gegenüber und denken generell, dass diese Technologien ein potentiell ungerechtes Projekt sind, was Arbeitgeber in einenseitig bevorteilt. Er erzählt, dass dort, also im Handscanner, wird halt alles gesammelt. Wie viel du gepickt hast pro Stunde, wie viel, wie lange du gebraucht hast, wird intern auch noch ausgerechnet und auch noch mit der Performance dann von allen Leuten. So und so, also 100 Prozent wäre gut, darunter hast du irgendwann Managergespräch. Zweite Frage, hängt das Bild von der datatifizierten Gesellschaft mit der Erfahrung in diesen Situationen zusammen? Wie schon gesagt wurde, der zentrale Unterschied ist, dass Erwerbstätige deutlich, deutlich kritischere Positionen hinsichtlich der gesellschaftlichen Ordnung vertreten. Die Rolle der Politik wird kritisiert und vor allen Dingen auch finanzielle Ungleichheit in unserer und damit meine ich jetzt die BRD, also die Deutsche Gesellschaft. Auch, und das sehen wir gleich wieder in den Zitaten, sind sie viel skeptischer, ob der utopischen Potenziale digitaler Technologien. Also eine Lieferandofahrerin sagt zum Beispiel, nee, also klar geht es darum, Effektivität zu steigern, ob das jetzt Effektivität im Arbeitsprozess ist, es geht ja im Prinzip immer darum, Kosten, also Zeit und Kosten zu sparen. Und klar geht das also, ich denke schon, dass das auf Kosten von Arbeitnehmern geht. Im Gegensatz dazu spricht unser Fitness-Tracker von digitaler Glücksählichkeit. Warum Glücksählichkeit? Wenn natürlich alle Rahmenbedingungen so gestimmt sind, dass man sich keine Sorgen mehr machen muss, haben Personen nicht mehr Ängste und ja, verschiedene Ängste oder Missstände, sondern können sich einfach auf die positiven Sachen im Leben konzentrieren. Wir sehen also Erfahrungen von unterschiedlichen dataeffizierten Situationen und unterschiedlichen Gesellschaftsbild. So, soweit so nicht überraschend. Für mich war aber das Interessantest der Ergebnis die zentrale Gemeinsamkeit von diesen beiden Gruppen. Die sind sich nämlich irgendwie alle einig darin, dass Datafizierung als kommerzielles Projekt betrieben wird, von dem vor allen Dingen Unternehmen profitieren. Sie alle von der Politik deutlich mehr Initiative um diesen Prozess zu gestalten. Denn auch da sind sich alle einig, die Erfassung und Auswertung von Daten könnte zur Steigerung des gesamtgesellschaftlichen Wohls für alle beitragen. Und zum Abschluss würde ich noch mal meine Interviewpartnerin zu Wort kommen lassen. Im Idealfall würden wir einfach alle vielleicht weniger arbeiten müssen. In einem Gesellschaftssystem, was irgendwie gerecht wäre, ja, müssten wir einfach alle für weniger arbeiten. Wäre im Idealfall technisch ein Hilfsmittel und würde nicht unseren Arbeitsrhythmus diktieren. Und unser Fitness-Tracker sagt, dass man ja den Markt mehr einem demokratischen Interesse wandeln könnte, indem man halt also die Entscheidung darüber, was überhaupt im Markt passiert oder was überhaupt angezeigt wird, demokratisch gestärkt wird und höheren Zielen, wie zum Beispiel der sozialen Gleichheit oder dem Klimaschutz darunterstellt. Dankeschön. Nein, ich wäre es eigentlich wäre es eigentlich für wäre es eigentlich für das Ding der Verantwortung. Die Technik, genau. Die Technik. Gut, wir kommen jetzt zur nächsten Arbeit, die wir auszeichnen, und zwar Tackling Bias. Danke. Wir kommen jetzt zur nächsten Arbeit, die wir hier auszeichnen, Tackling Bias in Text-Classification with explainable AI. Diese Arbeit ist im Sinne der kritischen Informatik sehr gut eingeordnet und motiviert. Hennigsen begründet und diskutiert die Problematik von Hassrede im Netz sehr angemessen in interdisziplinärer Weise. Die rechtlichen, sozialwissenschaftlichen und menschenrechtsaktivistischen Aspekte abwägend. Das zunehmend Auftreten von immer aggressiverer Hassrede in sozialen Medien hat auch die großen Internetfirmen ihren Geschäftsmodellen zu widerlaufend veranlasst, Gegenmaßnahmen zu ergreifen. Dafür werden derzeit Flagging-Systeme und Moderatoren, die auf Anzeigen hin Hassrede eliminieren, eingesetzt. Hennigsen erörtert ausführlich, weshalb solche Ex-Post-Elimination problematisch ist. Vielmehr müsste sie möglichst ex-ante durchgeführt werden. Sie stellt weiters die Unterschiede rechtlicher und gesellschaftlicher Einordnung der Hassrede zwischen den USA mit dem Freedom of Speech und Deutschland mit dem Konzept verbotener Äußerung da. Hennigsen befasst sich weiter mit bekannten Beispielen diskriminierender KI, künstliche Intelligenz, in Bilderkennung oder predictive policing oder biased Worteintragungen in Sprachmodellen. Und den wissenschaftlichen Versuchen, Fairness, Zurehinbarkeit und Transparenz in KI-Systemen zu erreichen. Manche davon sind selbst unfair, indem sie sich auf bevorzugte Sprachen beziehen. Der technische Hauptteil ihrer Arbeit bezieht sich auf die Gruppen bezeichnet als Indikatoren für Hassrede und die dabei mögliche technologische Erzeugung neuerlichen Bias bei der Erkennung und Elimination von Hassreden mittels Klassifikatoren. Angesichts der ungeheuren Menge an Daten und Texten, die im Internet mittels natürlichsprachiger Systeme laufend verarbeitet werden, ist es unmöglich, Hassrede, Diskriminierung und Bias, händisch zu eliminieren. Es bedarf daher gut evaluierter, automatisierter Mittel, hier, die sich bereits für Fairness etabliert haben, den erklärbaren KI, solche unerwünschten Vorkommnisse zumindest teilweise zu eliminieren. Dies kann immer nur im Wechsel mit menschlicher Bewertung und kontextabhängig erfolgen, die dabei notwendig übers Ziel hinausgeschossen wird, das dabei notwendigerweise übers Ziel hinausgeschossen wird, da dieselben Begriffe sowohl in abwertender Manier als auch im neutralen Kontext verwendet werden, ist ein Phänomen zusätzlicher Erzeugung und Diskriminierung und Bias. Im Bereich natürlich sprachlicher Verarbeitung wird Bias und Diskriminierung automatisiert eliminiert in dem geschützten Attribute wie Gender und Rasse für definierte, geschützte Gruppen aus Sentiment-Klassifikatoren entfernt werden. Wegen der Komplexität der Ambiguritäten von Sprache ist schon das Erste ein schwieriges Problem. Mehr noch das Zweite wegen der Black Box-Charakter, der in natürlich sprachlich eingesetzten KI-Methoden. Dabei werden oft Inigatoren wie LJB TQ oder Muslim als Hassreden definiert, die bei der Verwendung als Klassifikatoren in Sprachmodellen und beabsichtigt wiederum Bias es erzeugen. Etwa bei Minoritäten keine Stimme im Netz bekommen, was Demokratie schädlich ist. Dieser Arbeit wird solcher Bias evaluiert, indem eine Liste aus Gruppenbezeichnern erstellt und strukturiert wird. Während des Trainingsprozesses von solchen Modellen werden durch Erklärungsmethoden Betrachtungswerte für jeden dieser Bezeichner berechnet. Diese Werte repräsentieren die Menge an Beachtung, die das Sprachmodell Worten während der Klassifizierung schenkt. Sie werden später in der Verlustfunktion genutzt, um das Verhalten des Modells zu korrigieren. Nun untersucht Frau Henningsen die Korrelation zwischen Modellentscheidungen und zuvor als neutral angenommenen, zuvor als neutral angenommenen vordefinierten Gruppenidentifikatoren, um Bias in den Klassifikatoren aufzeigen zu können. Um Diskriminierung gegen bestimmte Gruppen einzudämmen, wird die Verlustverhandlungsfunktion aktualisiert, indem zur Regulisierung ein Post-Hoc verfügbarer Erklärungskor verwendet wird, der das Modell für Entscheidungen gegen solche geschützten Terme bestraft. Die Methode ist insofern nicht neu, als sie bereits mit der Erklärmetode SOC für das Vanillamodell erforscht wurde. Frau Henningsen hat die Methode für die Erklärmetode Leim angepasst. Für die Bewertung der reichsortierenden Modelle nach ihrer Leistung und anhand des verbleibenden Bias entwickelt sie ein Test-Set, wo sie Satzvorlagen und die Liste an Gruppenbezeichnern kombiniert hat. Bei der Evaluation zeigt sich nicht nur, dass die verbesserten Modelle, die mit der regulisierten Verlustfunktion trainiert wurden, die Leistung gegenüber dem existierenden Vanillamodell halten konnten und überraschenderweise auch Genauigkeit bieten, sondern dass auch der Modell-Bias reduziert werden konnte. Darüber hinaus untermauern die Resultate die Verbindung zwischen der Leistung eines Modells mit der Untermenge an Aufmerksamkeit, die Gruppenbezeichnern beigemessen wird. Die in perfekter englischer Sprache gehaltene Arbeit enthält eine gute Einführung, ist verständlich geschrieben und zeigt eine Reihe von Tabellen und Grafiken zur Unterstützung der Evaluationsergebnisse. Eine ungewöhnlich lange Literaturliste auf die referenziert wurde ergänzt das Werk. Der Grad der Durchdringung, sowohl der sozialen, rechtlichen und KI-Problematik wie auch der technischen Neuheitswert sind für eine Bachelorarbeit eine außerordentliche Leistung. Herzlichen Glückwunsch, Marte Hennigsen zum Weizenbaum-Studienpreis 2022. Für die wirklich sehr nette Vorstellung und auch natürlich für den Preis hier. Ach so. Genau da, Frau Freutuner. Ist jetzt best, ah ja. Okay, gut. Dann nochmal vielen Dank genau für die Auszeichnung und auch für die sendete Vorstellung. Genau, das ist der Titel meiner Arbeit, Tackling by Syntax Classification with Explainable AI. Und genau, ich habe das im Rahmen meines Bachelorstudiums Informatik geschrieben und jetzt studiere ich Kognitionswissenschaften mit dem Schwerpunkt Ethik der KI in Osnabrück. Soll ich einfach weitermachen? Okay. Genau, am Tag, wo ich die Nachricht bekommen habe, dass mir hier dieser Preis verliehen wird, ist auch diese Nachricht veröffentlicht worden. Und da dachte ich, das passt ganz gut. Und da nehme ich direkt mal als einführendes Beispiel. Wir sind wahrscheinlich irgendwie alle schon mal im Netz auf Hassrede gestoßen in verschiedenster Weise auf verschiedensten Plattformen. Und wie ja auch schon in der Laudatio erläutert wurde, hat das super viel negative Auswirkungen, also von Suizidgefährdung bei Betroffenen bis zu Demokratiegefährdungen oder sogar Genoziden hat es einfach wirklich super viele negative Auswirkungen. Und es geht jetzt also darum zu gucken, wie kann man irgendwie dieses Problem angehen und wie kann man Hassrede im Netz irgendwie auslöschen. Und hier wurde also als Lösung von TikTok Wortfilter benutzt, das einfach verschiedene Wörter, die man dort links sieht, beziehungsweise rechts, die einfach gesperrt wurden, als wenn die in einem Kommentar vorkommen wird dieser Kommentar nicht veröffentlicht. Und das wird natürlich noch später diskutiert, wie sinnvoll das ist. Es wird natürlich aber sofort ersichtlich, dass z.B. dort auch LGBTQ oder Gay oder so benutzt wird, die in superneutralen Kontexten auch benutzt werden können und deren Verwendungen wird dann aber trotzdem verhindert und damit ganze Diskurse von dieser Plattform gelöscht. Und die Lösung könnte jetzt also sein, oh, wir bauen ein KI-System, was lernen kann und das kann dann unterscheiden, ob das Wort in einem hateful Kontext benutzt wurde oder in einem neutralen Kontext. Und genau, also die Problemstellung hier. Wie gehen wir als Gesellschaft mit Hassrede um? Natürlich gibt es nicht nur technologische Ansätze. Da gehe ich später noch drauf ein, aber dadurch, dass es im Rahmen des Informatikstudiums immer erstanden ist, diese Arbeit geht es hier im KI-Systeme zur Klassifizierung von Hassrede. Und, oh, ich muss ja hier weiter drücken. Entschuldigung. Genau. Und diese Systeme, wie auch schon eine Einleitung erwähnt wurde, zeigen auch einen Bias gegen nämlich die bestimmte Gruppenbezeichner von marginalisierten und unterdrückten Gruppen. Das können ganz verschiedene sein. Also es sind dann Gruppenbezeichner, die Menschen aufgrund von ihrem Geschlecht oder Race zu Gehörigkeit irgendwie zuordnen. Beispielsweise schwul, muslimisch, weiß wie auch immer. Und genau, die Fragestellung ist jetzt also, wie kann man diesen Bias begegnen und reduzieren. Um das erstmal ein bisschen greifbarer zu machen, habe ich ein Beispiel dabei, wo auch schon eine Erklär, also eine Methode der Erklärbaren KI benutzt wurde, um darzustellen, wie werden bestimmte Sätze nach hateful oder halt nicht hateful eingeordnet. Und da sieht man den oberen Satz. Ich hoffe, man kann es lesen. I'm a Christian, also ich bin ein Christ. Und die Klassifizierung dort links ist also non-hate. Also es ist nicht hastvoll. Und man sieht auch, wie sehr die einzelnen Worte im Satz dazu beitragen, dass diese Klassifizierung zustande kommt. Also I'm a Christian sind also sehr stark dazu zuträglich, dass das als nicht hastvoll zugeordnet wird. Und da unten sieht man nun den gleichen Satz nur mit einem anderen Punkt am Ende, nämlich I'm a Muslim. Und also ich bin muslim. Und das wird als hastvoll eingestuft. Und man sieht auch, dass, ich halte mal hier fest, dass das Wort Muslim fast allein dafür zuträglich ist, dass das als Hassrede klassifiziert wird. Genau, einen kurzen technischen Exkurs, wie das jetzt hier angegangen wurde, also diese Technologie, die ist KI-System, was der Klassifizierung benutzt wurde, basiert auf dem Transformermodell BRT, BERT, heißt das auch. Und das wird dann gefahren, also das wird auf supergroßen englischen Datensatz trainiert. Und das wird dann nochmal gefein tuned für die spezielle Aufgabe hier, also Hassrede zu klassifizieren. Und dieses System zeigt also ein Bayes, genau. Und das wurde schon an einem anderen Paper, nämlich Kennedy et al 2020 untersucht. Und die haben dann auch eine Methode der XAI benutzt, um das zu reduzieren. Und genau, ich habe das erst mal nachvollzogen, was sie dort gemacht haben und auf dem Bayes noch mal nachvollzogen und dann auch das noch geändert auf die Erklammethode Leim. Konnte dort aber nicht so viele Untersuchungen leider anstellen, einfach aus Grund von Zeitgründen. Viele werden es vielleicht auch kennen. Das ist manchmal bei Abschlussarbeiten und so, dass die Deadline dann immer näher rückt. Genau, erst mal diese verschiedenen Gruppen bezeichnen. Genau, hier sind die also in drei verschiedene Kategorien aufgeteilt. Gender, Sexual orientation, race and religion. Und innerhalb jeder Kategorie gibt es auch noch mal die Unterteilung zwischen discriminated against und not discriminated against. Diese Aufteilung ist auf jeden Fall auch nicht ganz so eins zu eins in der realen Welt zu sehen. Ist jetzt hier erst mal nur zu Analysezwecken. Genau, diese ganzen Gruppenbezeichner habe ich rausgesucht aus verschiedensten Listen oder mir noch selber überlegt und die wurden also benutzt, um dieses System, dieses KI-System zu korrigieren. Also es wurde die Erklärmethode eingesetzt, um die Gewichtung rauszufinden, die dann als korrektiv wieder benutzt wurde, damit das System quasi nicht so viel Wert auf diese Gruppenbezeichner bei der Klassifizierung legt. Und die Hoffnung ist dann quasi, dass sich dieser Bayes reduziert und das wurde also untersucht. Ist jetzt hier mal auf zwei Laptops weiterscheiten. Das ist jetzt vielleicht ein bisschen viel dieser Grafik. Das sind jetzt fast alle von den Gruppenbezeichnern von vorher und zwar nämlich, wie stark die Gewichted wurden von diesem KI-System. Ich habe noch, wie auch gesagt, wurde ein Testzeit konstruiert mit allen Bezeichnern, die hier aufgelistet sind. Ich glaube, es sind 73 oder 74. Und die kommen alle gleich häufig vor und die kommen auch gleich häufig im hateful und non-hateful Kontext vor. Und wurde also untersucht, wie viel Aufmerksamkeit das KI-System diesen Bezeichnern bei der Einordnung, den geschenkt hat. Und hier ist das auch noch nach den Farben, nach den verschiedenen Kategorien aufgelöst. Und wenn dort um diesen Mittelpunkt, ich weiß nicht, wie gut man das sieht, um diesen mittleren Kasten, ein schwarzer Kasten noch drum ist, dann sind das Gruppenbezeichner von Gruppen, die als diskriminiert angesehen werden. Genau, man kann also sehen, es gibt groß Unterschiede, die vordersten sind Homosexuals, Transgender und irgendwie Lesbians. Also alles unter eher diskriminierte Gruppen, denen irgendwie superhohe Gewichtung beigemessen wird. Und jetzt sieht man den Effekt, den jetzt diese Erklär-Methode als Korrektiv hat. Jetzt sind es die Gewichtungen, also nach dem De-Biasing sieht jetzt so aus. Es gibt also nicht mehr so starke Unterschiede, es hat sich alles sehr viel angepasst. Es ist nicht mehr so, dass die, also wahrscheinlich nicht mehr so, dass die alleine ausschlaggebend für eine Klassifizierung sind. Genau, das Gleiche habe ich dann noch mal in einer anderen Grafik hier. Also aufgeschlüsselt nach den verschiedenen Kategorien, die bei den Gruppenbezeichnern zu sehen waren. Da sieht man auch im Blau die diskriminierten Gruppenbezeichner und in Grün die nicht diskriminierten. Es gibt also dort auch groß Unterschiede, wie viel Gewichtung den jeweils zugemessen wird. Also die Gruppenbezeichner von den diskriminierten Gruppen sind also viel stärker zuträglich einer hassevollen Klassifizierung als die, die von nicht diskriminierten Gruppen bezeichnern. Und gut und schön, jetzt hat man also gesehen, okay, wie es irgendwie, so und jetzt natürlich noch nach dem Device sieht es dann so aus. Also auch hier sieht man, es ist deutlich angepasst. Die Unterschiede sind kleiner geworden, es sind immer noch welche da, aber sie sind nicht mehr so groß. Und genau, jetzt kann man sich fragen, okay, die Gewichtung wurde irgendwie reduziert. Toll und schön, aber hat das auch irgendwie überhaupt eine Auswirkung? Also macht das überhaupt was mit der Performance von dem System? Und das sieht man nicht hier, also noch sieht man es nicht, aber das ist nämlich noch vor dem De-Bicing. Das ist die gleiche Grafik wie vor Vierfolien, nur dass jetzt diese grauen Balken da noch bei sind und die zeigen die Performance an für die jeweiligen Gruppenbezeichner. Also wie genau konnten die jeweils zugeordnet werden? Und da sieht man, also rechts ist dann die Skala und da sieht man zum Beispiel für drei Gruppenbezeichner, nämlich Homosexual, Transgender und African, ist die Genauigkeit bei 50 Prozent. Man hätte also genauso gut eine Münze werfen können, ob das jetzt Hassrede ist oder nicht. Das ist natürlich nicht gut. Und jetzt kann man sehen, wie das sich verändert hat. Genau, und da sieht man hier, das ist wieder die nach dem De-Bicing mit den Accuracy-Werten und die sind halt deutlich gestiegen. Ich habe das auch noch mal als absoluten Wert, aber das sind so eine Tabelle mit super vielen Zahlen und das dachte ich jetzt vielleicht ein bisschen zu viel für den Vortrag. Ich habe das Gefühl, ich bin jetzt schon ein bisschen lang dabei. Genau, aber auf jeden Fall die Genauigkeit hat sich auf jeden Fall erhöht und die Performance verbessert, die Inputs konnten also genauer klassifiziert werden und haben weniger Fehler vorgezeigt. Genau, trotzdem muss natürlich diese Technologie und auch diese Befunde hier nochmal diskutiert werden. Das passiert hier auf dieser Folie. Genau, das kann man auf verschiedenen Ebenen machen. Eigentlich wollte ich, dass das so eingeblendet wird. Deswegen ist das jetzt vielleicht ein bisschen viel am Anfang. Aber man kann es auf verschiedenen Ebenen machen. Zunächst einmal zum Beispiel innerhalb dieser Technologie. Also es gibt einfach auch Kritik an dem Ansatz, der jetzt hier vorgestellt wurde, dass zum Beispiel diese Liste der Gruppenbezeichner müsste manuell auf dem neuesten Stand gehalten werden. Man müsste also immer, wenn neue Diskriminierungsmuster sich irgendwie ergeben, müsste das geupdatet werden und noch weitere Sachen, die jetzt aber vielleicht ein bisschen außen, also die hätte ich vorher noch über andere Sachen sprechen müssen, für die ich jetzt hier keine Zeit hatte. Genau, dann noch innerhalb von diesem gesamten Abansatz, Hassrede überhaupt mit Technologie zu bekämpfen. Und zwar, dass man einfach auch... Es gibt sehr viele Lösungswege, das zu umgehen. Also man kann auch einfach die Schreibweise von Worten ändern, indem man zum Beispiel, das wird auch auf TikTok viel gemacht, um diesen Wortfilter, der am Anfang eingeleitet wurde oder der gezeigt wurde, zu umgehen, indem einfach statt zum Beispiel Sex, Sex, also mit SEGGS geschrieben wird. Alle wissen also, was gemeint wird, nur halt dieser Wortfilter nicht. Man hat also im Endeffekt nicht so viel gewonnen. Und das kann halt auch bei zum Beispiel Racial Slurs einfach passieren, indem ich zum Beispiel beim Endwort, dass ich durch eine Drei austausche und sag, wird es nirgendwo mehr erkannt. Und genau, außerdem kommt noch hinzu, dass Sprache extrem kontextsensitiv ist, also dass zum Beispiel auch manche Schimpfworte, die in manchen Kontexten total verletzend sein können, zum Beispiel das Wort Bitch oder so, das kann total verletzend sein, wenn das irgendein Typ auf der Straße zu einem sagt oder im Internet auch. Aber wenn das eine Freundin zu mir sagt, ist das halt ein ganz anderer Kontext und hat auch eine total andere Bedeutung. Und da können halt diese KI-Systeme auch nicht zwischen unterscheiden. Und dann noch darüber hinausgehen, dass man natürlich nicht Hassrede nur allein technologisch begegnen kann. Das ist ein gesellschaftliches Problem und kein technologisches. Diese ganzen Résentiments, die hinter den, also die in den Leuten stecken, die Hassrede mit Internet verfassen, die gehen ja nicht weg, nur weil sie es auch einfach mal nicht posten können. Und die versammeln sich dann, meinetwegen, auf anderen Plattformen und kommen damit noch viel extremeren Weltsichten in Berührung und übernehmen diese vielleicht dann leider auch oder finden irgendwie andere Wege der Äußerung, im schlimmsten Fall irgendwie in der realen Welt, wo sie dann da Leid und Schrecken verbreiten. Genau, von daher muss es auch als solches angegangen werden und kann nicht irgendwie die Lösung sein, ah ja, wir sperren das jetzt und erkennen das nur super gut und dann kann das niemand mehr veröffentlicht werden und das Problem ist weg. Genau, und dann zum Schluss habe ich 90 Tage und weitest mal mitgebracht, nachdem mir auch dieser Preis benannt ist und ich finde, das war irgendwie sehr passend. Ich habe das doch als Einleitungszitat für die Bärtscharbeit benutzt und ja, genau, es wichtig ist immer, in welches gesellschaftliche Umfeld im Massenmedium, egal welches eingebaut ist, jedes Instrument erbt und erhält seinen Wert von der Gesellschaft, in die es eingebettet wirst. Und ich finde den irgendwie sehr treffend und beschreibt es sehr gut, Informatik passiert nicht im Vakuum, sondern hat immer Auswirkungen in der realen Welt und sich dem zu stellen, ist super wichtig und deswegen auch nochmal vielen Dank für die Arbeit des Vereins. Wunderbar, herzlichen Dank. Nun, die Wissenschaft Informatik befasst sich noch nicht zu lange umfassend und interdisziplinär mit Sicherheitsaspekten, insbesondere in der hier behandelten Hardware-Sicherheit. Ein Anfang dazu machte das Zero-Trust-Paradigma später gefolgt von Zero-Trust-Architekturen. Während gespeicherte Daten ursprünglich eng verbunden waren mit der zu gerührigen Hard- und Software-Speichermedien, sind sie heute nur mehr indirekt zugänglich über Mensch-Maschinen-Interfaces. Aber weder ihren Ort noch ihre Spuren, noch Formate, noch Strukturen, noch Zusammenhänge untereinander in den inneren Strukturen von Microchips, Hard-Disk oder Flash-Memories preisgeben. Um Datenmanipulation oder Kopien zu vermeiden, unautorisiert, wäre es umso wichtiger Mittel zum Datenschutz, auch in Hard- und Software, auch von Netzwerken angemessen zu implementieren, dass zumindest das Recht auf informationale Selbstbestimmung auch erfüllt werden kann. Vertrauen beinhaltet nicht nur, dass man etwas weiß, sondern auch, dass es allgemein glaubhaft ist und dass dieses Vertrauen auf gültiger Evidenz beruht. Für vertrauenswürdige Computersysteme muss die Evidenz sowohl sozial als auch technisch gelten. Die European Data General Data Protection Regulation, also die EU-Datenschutz-Grundverordnung, soll zu mehr Selbstbestimmung mittels sozialwissenschaftlicher Mechanismen führen. Hier bedeutet Vertrauen die Überzeugung in die Ehrlichkeit und Integrität einer Person oder Institution. Auch wenn es dafür keine Beweise gibt. Zum Zugang zu sensiblen Daten verlangen Zero-Trust-Systeme ein Sicherheitsrahmen, wo sich alle User identifizieren und autorisiert sein müssen. Das heißt, bevor sie Zugang zu den Anwendungen und Daten erhalten, müssen sie validiert werden. Hier aber geht es um technologische Mechanismen zur Erhöhung von Vertrauen, in dem den Bürgerinnen maximale Einsicht und Transparenz hinsichtlich der Datensicherheit gewährt werden soll. Leider sind für die komplexen Prozesse Vertraulichkeit und Zurechenbarkeit derzeit kaum erreichte Wünsche. Noch schwieriger wäre die Überprüfung der korrekten Implementierung derselben bereits durch professionelle, völlig unmöglich hingegen durchleihen. Die Frage ist daher, wie Vertrauen in ein System bei der Prozessierung sensibler Daten hergestellt werden kann und wie Menschen eine gewisse Selbstbestimmung über Daten erhalten können und Prozesse. Die ervorgelegte Arbeit trägt ein wenig, das heißt, so viel wie maximal in diesem Rahmen technisch sowohl in der Arbeit möglich ist. Ein Problem dabei ist, dass ein Computership eine Operation in einer Black Box ist, und zwar nicht im allgemeinen KI-Sinne, sondern für die menschlichen Sinne allgemein. Egal welche Expertise eine Betrachter in haben mag, sie kann aufgrund des Verhaltens Annahmen über die Vertrauenswürdigkeit machen, aber diese können falsch sein, wenn der Chip schlecht design, modifiziert oder komplex ist. In Hardware Security oder Trusted Hardware nennt man ein IT-Device Trusted, wenn beweisbar ist, dass es nicht korrumpiert wurde, genauer, wenn die Kosten für eine unentdeckte Korrumpierung so hoch sind, dass sie unwahrscheinlich ist. Für das Erreichen informationeller Selbstbestimmung zum Beispiel bedarf es sowohl verifizierbarer Trustable Hard- und Software als auch sozialen Vertrauens in Personen mit Zugang und natürlich auch in deren informiertes Vertrauen in die verifizierte vertrauenswürdige Systeme und die Umgebungen. Das Szenario, in dem die entwickelten Methoden hier exemplarisch vorgeführt werden, ist die Videoüberwachung. Die Kameras, vertrauenswürdige Systeme, nehmen dann die Aufnahmen von Personen, also Personenbezogene Daten, nur in kryptischer Form auf oder verschlüsselter Form auf, wobei der Schlüssel für die Dekriptierung nur in einer vertrauenswürdigen dritten Partei verfügbar ist. Damit sich Bürgerinnen, die sich so überwacht, wissen. Dennoch einigermaßen frei bewegen und äußern können. Da bedarf es aber ihres Vertrauens in die beschriebene Technologie. Herr Felten hat hierzu das Konzept der digitalen Tarnkappe, DCI, Digital Cloth of Invisibility, entwickelt. Im Laufe seiner jahreandauernden Kooperation mit Forschern anderer Fachrichtungen, zum Beispiel Geistes, Sozial- und Rechtswissenschaften, entwickelt. Aber auch die technische Realisierbarkeit mit seiner Arbeit am Beispiel digitalisierter Videoüberwachung umgesetzt. Wenn die Hardware über den gesamten Nutzungszeitraum als vertrauenswürdigen angenommen werden kann, ermöglicht die digitale Tarnkappe personenbezogene Daten automatisiert zu entfernen. Für die Videosequenzen ist die Umgebung dann sichtbar, aber die Personen sind zunächst ausgeblendet. Aber sie ist nur bei vorliegenden entsprechender Legitimationen, wer das dann auch immer ist, selektiv sichtbar zu machen. Fragezeichen. Eine DCI konstruiert also eine Gewaltenteilung für das Sammeln, Speichern und Analysieren von personenbezogene Daten. Es ist ein Mittel, um Datensicherheit mit trusted hardware zu ermöglichen. Sind physical unclonable functions, also PUFS, als Komponenten einer digitalen Tarnkappe Implementierung. Eine Beispielanwendung wurde implementiert. Manch auf eine Frage wurde angesprochen, wie zum Beispiel die Vertrauenswürdigkeit der Hardware auf nachvollziehbar und transparente Weise an Leinen vermittelt werden könnte, oder wer agiert über die verschiedenen Instanzen, der durch die Tarnkappe konstruierten Gewaltenteilung und was macht die gegenüber der Öffentlichkeitsvertrauenswürdig. Andere Fragen wurden leider nicht angesprochen. Also ob dieses Projekt, jedoch selbst Videoüberwachung legitimiert, dies kommt zu kurz. Genauso wer legitimiert sichtbar machen kann oder wie viel Sachkenntnis auf gesellschaftlicher Ebene notwendig ist, um trustable hardware informiert zu vertrauen. Dennoch, Herr Felten hat in seiner Forschung und Implementierung in vielen Veröffentlichungen auch Workshop bekannt gemacht und diskutiert. Wir haben ja eine interdisziplinäre Informatikarbeit, die aus der Kooperation mit anderen Disziplinen heraus zu geeigneten Kombinationen von Bekannten und Neuem aus der Hardware-Sicherheit zur Lösung eines komplexen Problems findet oder zumindest einen Ansatz sieht. Herzlichen Glückwunsch, Linus Felten. Feiten zum Weizenbaum Studienpreis 2022. Schön. Und das Getränk dazu. Herzlichen Glückwunsch. So, jetzt haben wir hier. Hast du die? Hallo, hallo. Okay. Gut, ja, dann also auch hallo von meiner Seite noch mal. Und vielen Dank, dass ich hier sein darf, auch für diese Auszeichnung meiner Dissertation ja, mit dem Titel Take the Power Back, Secrecy Accountability and Trust in the Digital Age, der nicht so sprechender Titel, der jetzt nicht so spezifisch ahnen lässt, worum es da eigentlich geht in der Arbeit. Und es hat zum Großteil den Grund, dass die Dissertation aus zwei Säulen, könnte man mal sagen, besteht, die ein bisschen disjunkt scheinen zunächst, aber dann doch wieder miteinander zu tun haben. Und eigentlich, also die linke Säule hier, die zu sehen ist, sind diese Physically Unclobal Functions, also ein Thema aus der Hardware Security. Und das ist auch so, dass woher kommen aus der technischen Informatik und auch der Lehrstuhl von Professor Becker in Freiburg, an dem ich die Promotion geschrieben habe. Und die andere Säule, diese Privacy Preserving Surveillance, die ist eigentlich mehr so ein Herzensanliegen von mir gewesen, also profiliert, wissenschaftlich habe ich mich eher mit den Physically Unclobal Functions und auch viel mehr veröffentlicht, aber eigentlich motiviert wurde die Beschäftigung mit den Puffs durch Fragestellungen, die wiederum aus diesem gesellschaftlichen Entsprung sind, nämlich wann, wie kann ich überhaupt vertrauen, einem Gerät, dass irgendwie vorgibt, ja ich mache hier nur Privacy Preserving Surveillance, woher soll ich dann wissen, dass da nicht doch irgendwie eine Backdoor eine bewusste oder auch eine Unbewusste drin ist als normaler Bürger, der an der Kamera vorbeigeht oder an dem jeweiligen Sensor. Und da waren eben diese Physically Unclobal Functions eine Möglichkeit, die ich gesehen habe, wie man eben aus der Hardware heraus da einen Beitrag leisten kann. Und das will ich heute nur ganz kurz anschneiden, weil hier ein Weizenbaumpreis, der ist ja natürlich wegen der gesellschaftlichen Implikation und da geht es dann eher um die rechte Säule. Ich sage deshalb jetzt nur auf einer Folie, ganz kurz, was es mit diesen Physically Unclobal Functions auf sich hat und gehe dann noch weiter auf den anderen Teil ein, also ganz grob gesagt. Physically Unclobal Functions kann man dafür verwenden, um einen Chip eindeutig zu identifizieren. Das könnte man ja auch klassischerweise einfach so machen, dass man da eine Seriennummer einbrennt in den Chip oder im nichtflüchtigen Speicher abspeichert. Er hat allerdings den Nachteil, dass es für einen Angreifer der physischen Zugriff zu dem Chip hat, eben relativ leicht ist, den auszulesen, diesen Speicher. Und da wollen eben die Physically Unclobal Functions eine Alternative bieten, indem nämlich diese Signatur, dieses Chips eben da nirgends wirklich physikalisch richtig abgelegt ist, sondern sie wird zur Laufzeit generiert aus physikalischen Eigenschaften des Chips, die im Herstellungsprozess des Chips unkontrolliert passieren und insofern auch nicht willkürlich zu klonen sind. Daher eben Physically Unclobal Function. Und eine Möglichkeit, das zu machen, ist mit so Ring-Ostylatorschaltkreisen. Also das sind Schaltkreise, die einfach nur einen Signal immer so im Kreis laufen lassen und es wird bei jedem Durchlauf immer einmal invertiert, sodass man am Ausgang dann immer diese Oscillation 010101 beobachten kann. Und die Frequenz, mit der das oszilliert, die hängt jetzt von dem Widerstand dieser Leitung ab und dieser Widerstand wiederum hängt von unkontrollierbaren Effekten in dem Produktionsprozess des Chips ab und Konsum dafür sehr zu verwendet werden, einen Chip eindeutig zu identifizieren, sodass man dann als Metapher sagen kann, jeder Chip hat dadurch sowas wie einen Fingerabdruck. Es ist im Endeffekt wiederum nichts anderes, als wenn man jeden Chip auch eine Seriennummer gegeben hätte, aber es ist eine aus Hardware Security Sicht besonders sichere oder mit gesteigertem Sicherheit angesehene Art, ein Chip zu identifizieren. Und was das angeht, eben da habe ich im Verlauf meiner Forschungstätigkeit verschiedene Contributions gebracht und veröffentlicht. Also ich habe mir Implementationsmethoden für Puffs auf FPGAs überlegt, habe mir dazu eigene Metriken entwickelt, um die Qualität zu messen und habe dann noch so ein Problem an Angriff genommen, was bei den Ring-Ostylator-Puffs vor allem vorliegt, nämlich dass die Ring-Ostylatoren geballast sein können und dann auf jedem Chip doch wiederum gleich sind, sodass man das ausgleicht. Und zuletzt habe ich dann noch eine neuartige Form von Ring-Ostylator-Puff, speziell auch auf FPGAs entwickelt, die um ein Vielfaches Platz sparen. Da sind alles das, was es davor bis Jahr gegeben hat. Wie gesagt, das ist komplett anwendungsneutral. Man kann es überall da einsetzen, wo man irgendwie ein Secret in einem Chip braucht, was schwer auszulesen sein soll. Und insofern, wie gesagt, anwendungsneutral. Aber jetzt kommen wir eben zu dem anderen Thema. Es war halt immer mein Anliegen, nicht nur anwendungsneutrale Informatik zu machen, sondern das Ganze auch irgendwie eingebettet mitzudenken. In gesellschaftlichen Kontexten und da eben, wie gesagt, war dann das mit der Privacy Preserving Surveillance ein Thema, was ich eben nicht alleine, sondern mit Kollegen aus anderen Disziplinen an der Uni Freiburg zusammen angegangen bin. Wir haben da ein Center for Security and Society und dessen Rahmen war also diese Kooperation möglich. Und hier möchte ich ganz besonders meinen Kollegen von damals den Sebastian Weidner Volkmann noch mal hervorheben, weil er da maßgeblich mit mir zusammen daran gearbeitet hat. Und er ist inzwischen Junior Professor für Ethik der digitalen Methoden und Techniken an der Ruhr-Universität Bochum. Also ihm gebührt, ein ganz besonderer Dank hier. Ja, jetzt beschreibe ich nur ganz groben Zügen auch, weil die Zeit ja nicht wirklich ausreicht, was wir da uns vorgenommen haben. Ich habe gerade in der Einleitung, da wurde viel auf dieses Thema wie wird der Trust hergestellt, wie kann man den Trust in die Hardware herstellen. Das ist jetzt was, worauf ich jetzt hier in dem Vortrag gar nicht groß eingehe. Das muss dann nachgelesen werden, was ich mir da überlegt habe. Hier geht es erst mal nur um diesen Use Case in der Videoüberwachung, wo auch gebe ich zu einige Fragen nicht komplett von mir behandelt worden. Aber die Stoßrichtung wird auf jeden Fall dann mal klar. Was das Problem an Überwachung ist, muss ich ja hier jetzt, glaube ich, nicht nochmal genauer ausführen. Draußen liegen auch Flyer und von Digital Courage, zum Beispiel, oder Digital Courage und diese Vorratsdatenspeicherung.de. Kann ich also auch sehr empfehlen, wer sich dafür interessiert. Und die Sache ist nur die, es kommt ja dann doch immer manchmal vor, dass dann mal auch sehr medienwirksam was passiert. Wie jetzt hier dieser U-Bahn-Schubsa, das ist jetzt nichts passiert. Die junge Frau ist nochmal glimflig davon gekommen. Aber das ist dann sowas, wo dann das Narrativ kommt. Ja, jetzt hat man ihn durch die Videoüberwachung halt überführt. Und Gott sei Dank haben wir die Videoüberwachung und um Fragen zufolge. Ich meine, die ist jetzt von 2014. Ich weiß nicht, wie es inzwischen aussieht, ist irgendwie in der Gesamtbevölkerung auch die Problematik noch nicht so angekommen, weil die eigentlich ja diese ganzen fragwürdigen Effekte von Videoüberwachung doch zu kritisieren sind. Deswegen ich nicht weiß, wie man sich die Hoffnung machen kann, dass das sobald verschwindet. Und da jetzt eben dieser Ansatz, na ja, vielleicht kann man etwas tun, um das wenigstens ein bisschen abzufedern. Und das ist als auch nicht mal eine Erfindung, sondern diese Idee der Privacy Preserving Surveillance. Das ist ein komplettes Forschungsfeld, wo also gerade in den Anfang der 2000er Jahre viel veröffentlicht wurde, dann ist es abgeappt etwas. Das habe ich also auch in meiner Dissertation alles recherchiert und nochmal zusammengestellt, welche Forschungsgruppen es da waren und wie gab und was deren Ansätze waren. Aber es läuft immer darauf hinaus, dass automatisiert, bevor das Video irgendein Mensch zu Gesicht bekommt, personenbezogene Daten eben da irgendwie geschwärzt werden und mal mit dem Ziel, die hinterher auch wieder de-anonymisieren zu können und mal auch nicht, je nachdem, welcher Anwendungsfall da ist. Aber so könnte man ja sagen, na ja, das wäre doch ideal. Die Privatsphäre von allen, die sich nicht zu schulden kommen lassen, die bleibt für immer geschützt. Und wenn mal was passiert, dann ist es quasi wie bei einem Durchsuchungs- oder Haftbefehl. Dann muss erstmal jemand eine dritte Instanz zustimmen und dann kann in die Privatsphäre einer Person eingegriffen werden, indem sie dann in den Aufzeichnungen de-anonymisiert wird. Ja, und das habe ich nochmal in meiner Dissertation eben aufgegriffen und auch mal wirklich technisch ausbuchstabiert, wieso was denn funktionieren könnte und zwar auch jetzt nicht nur anhand der Videoüberwachung, sondern ich habe das mal ganz allgemein Sensor genommen. Also man kann es für jegliche Arte der Datenerhebung anwenden, wo eben überwacht wird und eben personenbezogene Daten entstehen. Und es entstehen ja oft nicht nur personenbezogene Daten, sondern auch dazu immer so Metadaten, die nicht unbedingt personenbezogen sind. Ich finde immer ganz klar, wo diese Linie zu trennen ist, aber grob kann man es oft doch bestimmen. Und dann ist die Idee, dass eben innerhalb des Sensors, also bevor die Daten überhaupt rauskommen, die personenbezogenen Daten verschlüsselt werden mit einem Schlüssel, der auch von außen nicht zugreifbar ist in diesem Sensor. Da kommt auch Hardware Security natürlich wieder zum Spiel und die nicht personenbezogenen Daten, die können einfach so im Klartext rausgegeben werden in der Videoüberwachung. Also wenn der Sensor jetzt eine Kamera wäre, einfach um es ein bisschen anschaulicher zu machen, da könnte man dann sagen, das sind die Daten, die aufgenommen werden. Und die nicht personenbezogenen Daten wäre also der Hintergrund, alles, wo keine Menschen drauf zu sehen sind. Und die personenbezogenen Daten sind die Bildausschnitte, anhand der man eben eine Person identifizieren könnte. Dass man natürlich auch an der Gangart oder an dem Umriss einer Person Rückschlüsse auf die Person ziehen kann, ist klar. Da müsste man dann hier noch mal eingreifen und vielleicht dickere Boxen um die Person machen. Aber das sind bekannte Probleme und das ist nicht so immer klar, wie man die personenbezogenen von den nicht-bezogenen Daten unterscheiden kann. Aber von der Richtung her soll das mal hier genügen und darzustellen. Und eben auch würde man dann die nicht-personenbezogenen Daten unverschlüsselt rausgeben und die personenbezogenen Daten came nur verschlüsselt raus. Könnte man also nicht die Personen daran identifizieren. Und das ist der gesamte Workflow. Der könnte dann eben so aussehen. Es werden die Daten erhoben, dann anonymisiert abgespeichert. Diese Trennung zwischen personenbezogen und nicht-personenbezogenen habe ich jetzt mal hier von abstrahiert. Und Live Monitoring ist auch nach wie vor möglich, also auch jemand, der in irgendeinem Kontrollraum sitzt und diese ganzen Videostreams von anonymisierten Daten anguckt, der würde auch erkennen können, ob da gerade irgendjemand auf dem Boden liegt oder vorne u-Bahn geschubst wird oder so. Und der würde dem Ziel der Videoüberwachung erst mal keinen Abbruch tun. Und wenn dann es nötig wird, dass man wirklich jetzt mal nachgucken muss, wer hat denn da geschubst oder war irgendwie, dann kann eben so eine De-Anonymisierungsanfrage gestellt werden an eine wie auch immer geartete Keykeeper-Authority. Die haben wir hier jetzt mal so als einen Richter dargestellt. Es muss natürlich kein echter Richter sein, genauso wenig wie das auch hier jetzt ein Polizist sein muss. Das ist einfach jetzt mal erst mal, um das Prinzip zu erklären. Und die können dann eben anhand der nicht-personenbezogenen Daten im Idealfall feststellen, ob das dann eine berechtigte Anfrage ist zur De-Anonymisierung und dann aus einem Schlüssel, dieser Schlüssel ist also das Pondant zu dem Schlüssel, der hier in der Kamera steckt, Subschlüssel erstellen. Denn es ist so, dass jetzt nicht alle Daten mit dem gleichen Schlüssel verschlüsselt werden, sondern pro Datum wird eben von dem Hauptschlüssel ein Subschlüssel abgeleitet, sodass dann eben zielgenau gesagt werden kann, gut für die und die Stellen, da wird der Subschlüssel rausgegeben, sodass dann de-anonymisiert werden können, aber für alles andere nicht. Und genau, dieses ganze Thema mit Trust und Physi-Kliantronik und Double Functions, das kommt dann jetzt wieder hier ins Spiel, nämlich wie sollen die Leute, die jetzt da von den Kameras oder überhaupt von den Überwachungs-Sensoren betroffen sind, Vertrauen darin gewinnen, dass ihnen da nicht nur was erzählt wird und in Wirklichkeit gibt es doch ein Kies-Grow und eine Backdoor und alles. Und da habe ich eben ausbuchstabiert, wie man das technisch umsetzen könnte, auch auf eine demokratische Art und Weise. Ja, das kann ich leider jetzt hier nicht alles bis ins Detail erzählen, aber wen es interessiert, der darf gerne in meiner Dissertation nachlesen. Ja, ich habe schon gesagt, es muss nicht Polizei und Richter sein. Man könnte sich auch simplere Szenarienvorstellungen wie eine Hausgemeinschaft, wo öfters mal der Briefkasten demoliert wird und man will doch jetzt doch mal mit einer Kamera gucken, was da immer los ist, ohne aber zu tracken, wer da wann und wie mit die WM reingekommen ist. Und dann könnte man auch sagen, die Keykeeper Authority, die sind einfach alle. Und man sagt, wenn drei von fünf Leuten ihren Schlüssel geben, dann kannst du ja anonymisiert werden und sonst nicht. Also man könnte diesen Hauptschlüssel so verteilen, dass es eben dann passiert, wenn genug jetzt Schlüssel dazu geben. Genau, also was meine Contributions in dem Feld waren, eben ich habe mir Methoden überlegt, wie man also diese Deanalysierungsrequest auch betrugssicher machen kann, dass man also nicht sagt, hier guckt mal der U-Bahn-Schubster und in Wirklichkeit fordert man die Schlüssel für was ganz anderes an, dass das also ausgeschlossen wird. Dann noch eine Break-Glass-Funktion, wenn also Gefahr im Verzug ist, dass man dann auch sofort den Schlüssel für die so und so viel letzten Stunden aus der Kamera rausbekommen kann. Die Kamera sich aber gleichzeitig als gebraked, also zu erkennen gibt. Dann eben die Frage, ja, wie kann die in Betriebnahme durch bestimmte demokratisch legitimierte Auditoren stattfinden und wie können die Personen, die davon betroffen sind, von der Überwachung im Nachhinein verifizieren, dass die Kamera immer noch in dem Zustand ist, wie der Auditor oder die Auditorin sie hinterlassen hat. Das ist alles in der Dissertation beschrieben. Was unterbelichtet ist, das gebe ich zu. Ich muss sagen, man verfällt da doch so eine Art Soluzionismus. Wenn man da so dabei ist, sich so alles zu überlegen. Ja, wie könnte man das Problem noch lösen und das und das und das. Und dann muss ich zugeben, blendet man einige Sachen aus, was dadurch natürlich überhaupt nicht gelöst wird an Videoüberwachung ist, dass es teuer ist und fraglich ist, ob es überhaupt so viel bringt und ob es deshalb den Preis wert ist. Und es wird ja hier durch nur noch teurer. Das muss man ja auch eindeutig sehen. Und das Problem, dass auch Videodaten zum Teil Leute zu Unrecht haben verurteilt sein lassen. Das wird dadurch auch nicht geteckelt. Also es ist jetzt nicht all Heilmittel, wie man jetzt alle Probleme von Videoüberwachung oder von Überwachung im Allgemeinen löst. Und das muss man auch also sehr aufpassen, dass man so eine Technologie nicht nachher implementiert und wieder zum Feigenblatt von der Überwachungstechnologie werden lässt. Also hier ist durchaus Vorsicht geboten. Aber wenn man die Massenüberwachung schon nicht los wird, dann könnte sie vielleicht durch solche Mittel etwas gemildert werden. Das war jedenfalls so unser Ideal bei der Entwicklung davon. Wir haben es auch bis zu einem Proof-of-Concept gebracht. Also hier zwei Studenten, also einen Studenten einer Studentin ist hier besonderer Dank geschuldet. Aber man hat auch ganz deutlich gesehen, wie kompliziert das ist, dass doch alles so wasserdicht nachher zu machen. Und daran wird sich auch entscheiden, ob so ein System überhaupt im Praxis relevant ist oder nicht, weil es muss natürlich so gestreamlined sein, dass es in Juristensprache wirtschaftlich zumutbar ist. Denn der Gesetzgeber sagt, Videoüberwachung ist eigentlich nur so lange erlaubt, wie es kein wirtschaftlich zumutbares alternatives Mittel gibt. Und ob das jetzt wirtschaftlich zumutbar ist, so ein System zu implementieren, das wird halt erst in der Praxis zu sehen sein. Ja, dann bin ich am Ende und sage noch mal Dank den Betreuer in meiner Arbeit, Professor Becker, Professor Polian und Professor Müller. Sebastian Weidener Volkmann habe ich schon genannt und meine ganzen Kollegen vom Lehrstuhl und die Studenten und Studentinnen, die ich betreut habe. Also ohne die wäre das alles nicht möglich gewesen. Vielen Dank. Kurzer Stau am Bühnenaufgang. So. Ja, herzlichen Glückwunsch auch noch mal von mir. Ich muss ja sagen, gestehen, ich verstehe nur Teile von dem, was ich höre. Ich bin mich Politikwissenschaftlerin, aber was ich verstanden habe heute und was ich wirklich nicht wusste so in diesem Ausmaß, dass wir irgendwie doch als Demokratiefreundinnen und auch Freundinnen des Friedens sehr starke Verbündete haben im Bereich der, das ist Informatik, Technologie. Das finde ich sehr beruhigend, freut mich sehr.