 Ja, guten Abend. Ich muss gestehen, ich bin etwas nervös, denn ich bin sehr lange nicht auf einer Bühne gestanden und bin es jetzt gewöhnt, eigentlich niemanden mehr so recht zu sehen. Im Namen des Humboldt-Instituts für Internet und Gesellschaft und der Bundeszentrale für politische Bildung möchte ich Sie alle ganz herzlich begrüßen zu diesem Vortrag heute Abend. Wir haben einen sehr geschätzten Gast, nämlich Judith Simon und wir haben auch einen Moderator, nämlich Herrn Tobi Müller. Das ist ein ganz besonderer Abend für uns hier heute Abend, denn das letzte Mal, dass wir persönlich physisch zusammengekommen sind, liegt jetzt 18 Monate zurück und das war im Februar 2020. Da dies jetzt das erste Mal ist, dass wir einen Vortrag vor Ort haben können, und zwar nach eben diesen anderthalb Jahren Pausen, möchte ich jetzt diese Gelegenheit nutzen, Sie daran zu erinnern, worum es bei unserer Vortragsreihe Making Sense of the Digital Society geht. Zunächst geht es darum, dass wir hier die großen Fragen der Digitalisierung angehen wie Macht, Kapitalismus, Demokratie, Überwachung und Transformation. Und zweitens haben wir führende vor allem europäische Denker hier als Vortragende, die ihre spezifische Sicht zu relevanten Fragen unserer Zeit vortragen. Dazu gehörte zum Beispiel Manuel Castells, Elena Espósito, Marion Fouca, Shashana Suboff, Josef van Dijk und vor kurzem noch Jan Werner Müller. All diese Denker und Denkerinnen stellen oft ein Gegengewicht zu den populären Amerika-zentrierten Sichtweisen an, die sozusagen den wissenschaftlichen Diskurs hierzu zur Digitalen Gesellschaft dominieren. Und drittens, diese Vortragsreihe soll sozusagen barrierefrei stattfinden und auch für einen Publikum jeden Satz der Wissenschaftler erreichen. Diese Serie begann Ende 2017 und wir freuen uns sehr, dass seither wir in der Lage waren, wirklich sehr bekannte Rednerinnen und Redner hier begrüßen konnten, dass wir ihren inspirierenden Gedanken zuhören konnten und heute haben wir natürlich keine Ausnahme. Und abgesehen von allen, abgesehen von einem sind alle Vorträge archiviert und sie können auf der Webseite des HIG abgerufen werden. Der Vortrag heute Abend ist so Corona sicher wie nur eben möglich, abgesehen davon ist dies möglicherweise der einzige physische Vortrag vor einem echten Publikum, den wir dieses Jahr durchführen werden. Deswegen möchte ich Sie auch einladen zu einem Getränk und einem Snack hier anschließend. Wir wissen ja jetzt seit Corona das Planen oft sehr vergeblich ist und sehr volatil ist und deswegen werden wir alles weitere kurzfristig planen. Bevor ich jetzt das Wort an Tobi Müller weiterreichen möchte, ich ganz kurz unselbst hier vorstellen. Die Bundeszentrale und das HIG haben wirklich hart daran gearbeitet, dass wir haben hart daran gearbeitet, bestimmte Tools zu entwickeln, damit der Wähler und auch die Wechselwähler bei den nächsten Wahlen ein gutes Instrument haben für ihre Entscheidung. Die Bundeszentrale hat also den Wahlomat entwickelt, der braucht nicht weiter erklärt zu werden, denn er wird immer beliebter von Wahl zu Wahl. Das HIG bietet einen Wahlkompass für 2021 an und da erhalten Sie detaillierte Informationen zu den Parteien, zu den Parteiprogrammen in Hinblick auf digital Themen. Wenn Sie sich die Webseite des HIG anschauen, dann finden Sie dort mehr Informationen. Heute beim Vortrag geht es um ein sehr relevantes Thema, nämlich die Ethik der KI und Big Data. Das wird uns vorgestellt von einer der führenden europäischen Forscherinnen in diesem Bereich. Ich danke unseren Partnern und den Organisatoren, die das hier möglich gemacht haben. Und jetzt, ohne weitere Verzögerung, möchte ich jetzt Herrn Tobi Müller hier begrüßen und ihn bitten, uns Judith Simon vorzustellen. Ja, guten Abend. Ich bin jetzt hier sozusagen die Spielezinebenrolle, aber das ist ja insgesamt ein sehr beliebter Austragungsveranstaltungsort hier und normalerweise sind hier Pop-Konzerte, die hier stattfinden. Ja, vielen Dank, Jonathan Hoffmann, für deine einführenden Worte. Danke, dass ich hier wieder als Moderator dabei sein kann und zwar schon im vierten Jahr. Ich glaube, diese Serie, The Making Sense of a Digital Society vom HIG und von der Bundeszentrale für politische Bildung, ist ja schon eine längere Serie. Wir sind hier heute im Spindler und Klatt. Das war mal ein Club, jetzt ist es ein bisschen was anderes und wir sind hier wirklich direkt an der Spree und wir sind hier auch persönlich zusammengekommen. Das ist schon wirklich was Außergewöhnliches. Vielen Dank dafür. Ich weiß ja nicht, was sie genutscht oder dazu gestubst hat an dieser Veranstaltung, teilzunehmen hier von ihrem Fernsehen wegzukommen und deswegen weiß ich wirklich nicht, was sie genutscht hat hierherzukommen. Ganz sicher haben wir davon ausgehen, dass es kein ausgeklügeltes Empfehlungssystem war, dass eben diese Serie oder diesen Redner vorgestellt hat. Aber vielleicht liege ich auch falsch, dass vielleicht sind sie hier aufgrund einer altmodischen E-Mail-Liste oder noch altmodische, vielleicht waren sie ja früher schon bei einer dieser Veranstaltung an einem anderen Veranstaltungsort, bevor diese Pandemie begonnen hat und dass sie damals dieser Serie genauso inspirierend gefunden haben, wie ich das immer finde und vielleicht waren sie auch zielgerichtet angesprochen worden von einem Social Media-Kanal oder einer Suchmaschinenwerbung, aber ich kann, vielleicht ist auch dieser Serie inzwischen, so beliebt, dass sie bei der Suchmaschine schon oben angekommen ist und jetzt sprechen wir über verschiedene Formen von Künstlicher Intelligenz und Big Data, Empfehlungssysteme, Suchalgrößen, zielgerichtete Werbung usw. Und wie gesagt, zielgerichtete Werbung und vieles mehr. Das ist hier nur die Spitze des Eisbergs, von der wir sprechen, wenn wir über KI und Big Data sprechen und das bringt uns zum Gast des heutigen Abends. Sie wird unterscheiden zwischen verschiedenen Arten von KI und Big Data und dann die Frage nach der Ethik stellen, die Ethik hinter diesen verschiedenen Systemen, insbesondere nach dem eingebauten Bias, dem eingebauten Vorurteil, den ethischen Fehlern verschiedener Typen von KI und auch der Ethik der KI-Regulierung mehr dazu. Nach dieser zweiten Einführung werden wir dem Vortrag hören. Wir haben hier erst den Vortrag 40 Minuten, dann werden wir eine kleine Diskussion unter uns haben und dann gibt es auch Fragen hier aus dem Saal und auch von zu Hause. So können Sie Fragen stellen mit diesem participatorischen Tools Slido. Das heißt, wir werden also eine Mischung aus Fragen hier aus dem Publikum vor Ort und Fragen vom Publikum des Digitale Teilen nimmt haben. Und in ungefähr 90 Minuten wird das offizielle Teil dann enden und danach gibt es Getränke am Ufer der Spree. Unser Gast kommt aus Hamburg und es ist im Prinzip ein Wunder, wie hier ist, trotz des Streiks der Deutschen Bahn und auch anderer Verkehrsmittel sind heutzutage schwierig zu bekommen. Vielleicht wäre es eine Möglichkeit gewesen, mit einem Wasserfahrzeug hierherzukommen. Aber auf jeden Fall ist sie hierhergekommen, sie hat es geschafft. In Hamburg ist sie Professorin für Ethik in der Informationstechnologie an der Universität Hamburg. Sie ist auch ein Mitglied des Deutschen Ethikrates, und zwar seit 2018. Und sie war auch Teil der Datenethik-Kommission der Bundesregierung. Dieser Bericht der Datenethik-Kommission kam Ende 2019. Sie ist auch allein Herausgeberin des Woutledge Handburg auf Trust in Philosophy, was vor ungefähr einem Jahr herausgekommen ist. Sie ist Psychologin, Philosophin. Sie hat Philosophie in Wien studiert und auch in anderen Orten studiert. Zu Beginn ihrer Karriere hat sie Software auf Nutzerfreundlichkeit getestet und hat ständig an der Schnittstelle zwischen Philosophie, Hightech und Wissenschaft und verschiedenen Universitäten in Paris dann von Barcelona gelehrt und gearbeitet. Heute allerdings scheint sie die Reise gemacht haben, die am längsten dauert und die am schwierigsten waren, nämlich die von Hamburg nach Berlin mit der Deutschen Bahn. Wir sind froh, dass sie es geschafft hat. Und grüßen Sie bitte mit mir, Judith Simon. Wow, das ist sehr hell. Ich bin relativ klein, deshalb muss ich das Mikro bewegen. Naja, ich freue mich jedenfalls sehr, sehr hier zu sein. Ich kann sie gar nicht sehen, weil es so hell ist, aber dennoch ist es wirklich komisch, jetzt vor einem Publikum zu stehen, nach anderthalb Jahren auf Zoom. Aber ich komme jetzt direkt zu meinem Thema. Der Titel meines Vortrages ist die Ethik von KI und Big Data. Ich glaube, geben Sie mir einen Moment, ich muss ein Wasser mal öffnen. Also, ich möchte Ihnen kurz einen Überblick darüber geben, was Ethik überhaupt mit KI zu tun hat. Warum sollten wir im KI-Kontext über Ethik nachdenken? Dann werde ich kurz darüber sprechen, wie ich KI und Big Data sehe und dann möchte ich Sie auf einige ethische Herausforderungen im Bereich KI hinweisen. Dann komme ich zum Schluss. In den jüngsten Jahren sind einige Politikempfehlungen herausgegeben worden, in denen es oft um Ethik geht im Bereich KI. Die Datenethik-Kommissionen haben wir ja, davon haben wir ja schon gehört, dann gibt es auch noch eine Expertengruppe der Kommissionen in diesem Bereich. Auch Sie haben einen Bericht herausgegeben, Ethik-Guidelines zu vertrauenswürdiger KI. Also, Ethik und KI, das scheint wichtig zu sein. Warum? Also, worum geht es eigentlich beim Thema Ethik? Zunächst einmal stellt Ethik an grundlegende Fragen zum Thema Gut und Böse. Oder was ist richtig, was ist falsch? Und wenn Sie sich die Akteure anschauen, dann ist die Frage, was können wir tun, was sollten wir tun, was müssen wir tun und was können, sollten, dürfen wir nicht tun. Und warum eigentlich oder nicht? Warum finden wir, dass etwas gut oder schlecht ist? Und wenn man sich aus dieser Perspektive KI anschaut, dann ist die erste Frage natürlich, was ist gute und was ist schlechte KI? Oder was können wir mit KI tun und warum und was können und sollten wir nicht tun und warum nicht? Also, das sind die ganz grundlegenden ethischen Fragen im Bereich künstlicher Intelligenz. Wenn wir KI wollen gute KI, und davon gehe ich jetzt mal aus, dann bedeutet das für mich, dass ethische gute KI sehr viele Teile beinhaltet. Es gibt manchmal auch wirklich gute gründe, ethische Gründe, eine KI nicht zu nutzen, beispielsweise im Krieg. Es mag also andere Gründe geben, warum man KI nicht einsetzt, selbst wenn sie besser darin wäre, Zivilisten und Kombatanen zu unterscheiden. Ich arbeite und leere in Hamburg an der Hochschule und ich sage immer wieder auch meinen Studentinnen und Studenten, dass es hier drei Rollen der Ethik gibt in der Ethik. Zunächst einmal gibt es professionelle Ethik. Das ist also eine Perspektive. Hier schaut man sich an, wie Ethik und Ethik zusammengehen. Die Frage ist, wie sollten die Software-Designer sich verhalten? Es gibt hier verschiedene Richtlinien, zum Beispiel von den Berufsverbänden. Und daran kann man sich halten. Eine Richt nur, wie man sich verhalten sollte als professioneller Ethik-Fachperson. Das kann man vergleichen mit Ethik in der Medizin. Da gibt es auch Richtlinien, wie sich Ärztinnen und Ärzte zu verhalten haben. Dann haben wir eine zweite Perspektive, wie man auf Ethik in der Ethik schauen kann. Und hier geht es um die Nutzung. Man schaut sich wirklich die Nutzerinnen und Nutzer an und wie die Technologie eingesetzt wird. Hier sind einige mögliche Fragen, die man stellen kann aus dieser Perspektive. Man könnte sich fragen, sollten Personen rassistische Kommentare im Internet posten dürfen? Was sollte ich tun? Dann die Frage, zu welchem Zweck können wir Kundendaten nutzen? Und dann die Frage, wie sollten Regierungen die Daten ihrer Bürgerinnen und Bürger schützen? Wie sollen verschiedene Werte und Interessen in Einkern gebracht werden? Also hier sehen wir verschiedene Perspektiven. Die Perspektive von Einzelpersonen, von Unternehmen und von Regierungen. Sie alle nutzen Ethik zu verschiedenen Zwecken. Dann haben wir die dritte Perspektive, und zwar Ethik im Design. Hier schaut man sich nicht die Software-Entwickler an oder die Nutzer, sondern die Software selbst. Einmal gibt es hier die ethische Analyse bestehender Technologie und den ethischen Aufbau neuer Technologie. Die Frage ist, wie kann man Technologie überhaupt ethisch analysieren? Und die Idee dahinter ist, Computerethik sollte nicht nur ethische Fragen bei der Nutzung der Technologie anschauen, sondern eben auch ethische Fragen in der Technologie selbst. Dahinter steht natürlich der Gedanke, dass Technologie nicht neutral ist. Computer-Systeme und Software sind eben nicht moralisch neutral, sondern es gibt Tendenzen, gewisse Normen und Standards zu fördern oder eben nicht. Und wenn wir davon ausgehen, dann haben natürlich diese Technologien auch Einfluss auf Werte. Oder können sie untergraben? Und wenn das so ist, dann erwächst daraus eine weitere Aufgabe, nämlich die Technologie so zu entwerfen, dass sie den Normen und Werten unserer Gesellschaft entspricht. Und das wird in den 1990er Jahren so gemacht. Mary Flanigan sagt, wenn eine ideale Welt ist, eine ist in der Technologie nicht nur instrumentelle Werte, so wie funktionale Effizienz sichert und so weiter stärken, sondern auch substanzielle, soziale, moralische und politische Werte einer Gesellschaft und ihrer Menschen, dann müssen eben diese Systeme erstellen bei dem Aufbau dieser Systeme auch diese Werte im Hinterkopf haben. Hier möchte ich jetzt nicht also sehr ins Detail gehen, aber die Frage ist natürlich, wie erreicht man das? Die Idee in Values by Design ist, dass man Werte wie Privatsphäre, Transparenz und Fairness wirklich von Anfang an mitdenkt, und zwar ganz zentral. Idealerweise arbeiten da die Italer zusammen mit Soziologinnen und Soziologen, Philosophen und so weiter. Darauf gehe ich vielleicht später noch ein. Das ist ganz, ganz anders als das, was Virginia Dignan Ethics bei Design nennt. Das heißt, dass man in autonome Systeme quasi ethische Abwägungsfähigkeit technisch einbaut. Wie können wir denn sicherstellen, dass Werte und Rechte, die uns wichtig sind, immer noch ganz zentral für Entscheidungen bleiben, wenn wir Entscheidungen delegieren an gewisse Systeme? Das ist eine wichtige Frage. Also ich habe Ihnen hier diese drei verschiedene Perspektiven vorgestellt, die der Entwickler, die der Nutzer und die Designperspektive. Nun komme ich zum Thema Künstliche Intelligenz und Big Data. Das ist ein nicht ganz einfaches Thema. Wie können Values in Design, denn wie sind die überhaupt denkbar? Als Philosophin schaue ich immer auf die Stanford Encyclopedia of Philosophy, denn wir haben hier sehr gute Definitionen. Diese Definition von Künstlicher Intelligenz als ein Subfeld der IT, das Programme entwickelt, die es Computern möglich machen, Verhalten zu zeigen, das allgemein als Intelligenz bezeichnet wird. Hier konzentriert man sich meistens auf limitierte Applikationen, wie zum Beispiel Sprachübertragung in sehr gut definierten Bereichen. Aber das Ziel, menschliche Intelligenz nachzubilden, ist tatsächlich das Endziel. Wenn Sie sich die Geschichte der Kain anschauen, dann sehen Sie, dass es wirklich aufs und abs gibt, Sommer und Winter. Also Zeiten, wo es wirklich großes Interesse gab und dann wieder Zeiten, in denen es kaum Interesse und auch Geld für diese Forschung gab. Im Moment sind wir wieder in einem Sommer, also es gibt riesiges Interesse an der KI. Und der Grund dafür, warum es hier wirklich wieder eine Veränderung gegeben hat, ist, dass es jetzt sehr, sehr große Datenmengen gibt, die man statistisch analysieren kann. Wenn ich also einmal kurz zusammenfassen möchte, worauf wir uns heute konzentrieren bei dieser Forschung, dann geht es oft um Maschinelles Lernen und gewisse Typen von statistischer Analyse. Also das, was wir als KI bezeichnen, ist oft wirklich statistische Analyse von Daten, Patternerkennung, Maschinelles Lernen. Und dann kommen wir eben auch zu automatischen Entscheidungssystemen. Ich habe Ihnen hier einige Logos abgebildet. Wer forscht in diesem Thema? Wir haben zum Beispiel Spracherkennung, Empfehlungssystemen, Suchalgorithmen, Gesichtserkennung natürlich, also Kameras. Und zu diesem Fall bei dem oberen Bild komme ich noch. Das ist ein Software, die Kompass heißt. Und es geht hier darum, voraus zu sagen, ob jemand erneut straffällig werden wird. Aber jedenfalls geht es, basieren alle diese Beispiele auf Daten und diese Daten werden eben genutzt, um Entscheidungen zu unterstützen. Die sind also nur ein paar Beispiele. Aber wir sehen hier schon, dass es wirklich riesige, verschiedene Technologien sehr, sehr großer Komplexität gibt und eben auch ganz unterschiedliche Kontexte, in denen diese Technologien eingesetzt werden. Und dementsprechend sind auch die ethischen Fragen sehr komplex und unterschiedlich. Und das bedeutet eben auch, dass wir eine Ökosystemansatz brauchen für die politische Regulierung, weil wir eben es mit sehr komplexen Problemen zu tun haben. Und also von ganz unterschiedlichen Standpunkten aus angucken, was die ethischen Probleme sind und wo es vielleicht Lücken und Schwachstellen gibt. Was sind denn ethische Herausforderungen für die KI? Zunächst denkt man also, weil man an die KI denkt und ganz besonders, wenn wir hier auf Maschinelles Lernen eingehen und große Datenmengen, dann kommt man zum privatsphäre Problem. Wenn Sie sich das Datenverwaltungssystem anschauen für Online-Marketing, dann sehen wir, dass wir absolut transparent werden. Also Daten werden genutzt, unsere Daten für Klassifizierung, für Empfehlungen in Suchmaschinen. Und es werden wirklich sehr detaillierte Profile von uns erstellt, Bewegungsprofile im Internet, Klickprofile. Daraufhin werden eben bei sehr sensiblen Themen voraussagen getroffen. Zu rechten sehen Sie eine Grafik aus einer Publikation von Kosinski. Es geht darin darum, wie gut man Ethnicität und Geschlecht vorhersagen kann auf Basis von sehr, sehr wenigen Facebook-Posts oder Interaktionen. Das heißt, wir hinterlassen jederzeit sehr, sehr viele Spuren online, die alle in diese datenbasierten Systeme eingefüttert werden. Es ist natürlich kaum überraschend, dass die Gesichtserkennung noch eine weitere Technologie ist, die hochinvasiv ist und auf KI basiert und auf Maschinell lernen. Die Privatsphäre ist das Erste, woran Menschen oft denken, aber der zweite ethische Problem ist, sind Vorurteile und Fairness. Wie ist es denn mit der Gesichtserkennung? Wenn es perfekt funktioniert, dann weiß man jederzeit, wo sie sind, wo sie sich in der Welt bewegen. Das heißt, man ist absolut transparent in dieser Hinsicht. Das Problem ist aber, dass diese Technologie eben nicht immer gut funktioniert. Das könnte gut sein, aber auch schlecht. Sie können hier das links sehen. Das ist eine Publikation am MIT. Sie sehen hier die großen Softwarepakete, die Gesichtserkennung anbieten. Da können Sie sehen, dass diese nahezu perfekt sind, wenn es bei weißen männlichen Gesichtern, aber die Akkuratheit lässt stark nach, wenn es weibliche Gesichter sind oder nicht weiße Gesichter. Das heißt, manche Menschen werden sehr viel einfacher erkannt. Bei anderen ist die Fehlermage sehr viel höher. Das heißt, als Frau haben Sie zum Beispiel vielleicht etwas mehr Privatsphäre, aber das heißt eben auch, dass die gewisse Aktionen nicht funktionieren. Zum Beispiel, wenn diese Systeme in der Polizeiarbeit eingesetzt werden, dann kann das natürlich für viele Menschen einen Nachteil bedeuten. Kommen wir jetzt zum Thema Vorurteile. Vorurteile in automatischen Entscheidungsfindungssystemen ist das hier nicht nur bei der Gesichtserkennung. Die Quelle kann verbessert werden durch besseres Training. Ähnlich ist es, wenn Menschen aufgeteilt werden, sollen auch verschiedene Gruppen die Therapie oder Pflege bedürfen. Das ist hier eine Studie, die in Science, das Oktober letzten Jahres, veröffentlicht wurde. Sie besagtet, dass farbige Menschen weniger einer Pflegegruppe zugeordnet wurden als weiße Menschen, auch wenn sie genauso pflegebedürftig gewesen waren. Und deswegen bedeutet, dass es sehr viele Menschen in den USA gibt, die nicht ausreichend Pflege bekommen. Das ist jetzt nicht nur eine Sache, die wenige Leute betrifft, sondern wirklich eine zahlenmäßig große Gruppe. In diesem Artikel habe ich auch rausgelesen, dass diese Art von Studien nur selten durchgeführt werden, weil Forscher selten Zugang zu solchen Algorithmen haben und sie dann deswegen natürlich auch nicht testen können. Hier gibt es irgendwo Musik. Das ist ein Falt, den ich zuvor schon beschrieben habe. Das ist das ADM-System Compass. Das wird in den Gerichten in den Vereinigten Staaten um eine Risikobeurteilung zu führen, um zuvor zu sagen, ob jemand, der straffällig geworden ist, in der Zukunft noch einmal straffällig wird. Das ist in Republikan einem Artikel veröffentlicht worden. Dort hieß es, dass es hier ein sehr starkes Vorteil gegen Afroamerikaner gibt. Und als weiße Amerikaner gibt, ist es wahrscheinlich, dass man eingestuft wird, als nicht straffällig in der Zukunft. Und für farbige Amerikaner ist es genau andersrum, dass dort gesagt wird, dass man wahrscheinlich wieder straffällig wird. Und die Fehler sind eben genau umgekehrt eingebaut. Und das ist auch eine proprietary Software. Und das nur am Ergebnis bei der Untersuchung dieser Software konnte man nur am Ergebnis beurteilen, wie diese Software funktioniert. Also gesellschaftliche Typen und Vorurteile, aber auch bestehende Ungleichheiten und Ungerechtigkeiten, werden in diese Technik reingeschrieben. Brennen sein, als es möglich ist. Aber meistens passiert das unbeabsichtigt durch diese Trainingsdaten und die Entscheidungen in Bezug auf die Methode, die verwendet wird. Also, dass vielleicht Daten verwendet werden, passend sind für weiße Gesichter oder dass man bestimmte Entscheidungen trifft in Bezug auf Zielgruppen. Also insbesondere automatische Datenverwaltungsysteme haben, laufen Gefahr, dass man damit an bestimmten Status cementiert. Also, wenn man an einer bestimmten Gruppe zugehört, dann kann es sein, dass in den Daten festgelegt wird, dass die Wahrscheinlichkeit geringer ist, dass man befördert wird und das verfestigt sich innerhalb des Systems. Und wir haben ein doppeltes Transparenzproblem. Das besteht aus zwei Teilen. Das erste nenne ich die funktionale Unklarheit, nämlich der Zugang, mangelnder Zugang zu diesen proprietären Algorithmen. Und diese Algorithmen sind oft nicht zugänglich, weil sie wichtig sind für Wettbewerbsvorteil und deswegen gibt es nur begrenzte Möglichkeiten, diese Algorithmen zu testen oder zu beurteilen, manchmal nur Ex-Ante und manchmal nur Ex-Post, aber eigentlich bräuchte man eine Echtzeit beurteilen. Und dann gibt es noch die epistemische Unklarheit, das kann am Maschinen lernen liegen, aber man muss nicht unbedingt hier hat es zu tun, mit dem Problem zu verstehen, warum ein System in eine bestimmte Art und Weise entscheidet. Und es ist oft schwer zu verstehen, weil das Ganze doch sehr komplex ist, es ist oft nicht klar zu verstehen, wie dieses System vorgegangen ist bei der Klassifizierung und bei der Vorhersage. Diese Transparenz ist auch nutzerrelativ und Aufgaben relativ. Ich möchte vielleicht zum Beispiel wissen, wie dieses System allgemein funktioniert. Man möchte vielleicht wissen, warum, wie man vorgehen muss, um bestimmte Belohnungen zu erhalten. Auf jeden Fall haben wir hier eine doppelte Aufgabe für ethische KI und das wird oft genannt Fairness, Rechenschaftspflicht und Transparenz. Es gibt eine Menge Publikationen hierzu und auch eine ganze Gemeinschaft innerhalb des Bereichs der Maschinen. Lernens Forscher in diesem Bereich, da gibt es eine ganze Konferenz-Serie, die sich mit diesen Aspekten der Fairness und der Transparenz befasst. Aber ich möchte hier einige Herausforderungen darstellen, die es in diesem Bereich gibt. Man muss zunächst unterscheiden zwischen Diskriminierung beim Data Mining und also wir möchten, muss herausfinden, ob diese Maschinensystematisch diskriminiert und das Problem besteht darin, dass man nicht all diese Bereiche gleichmäßig befriedigen kann, wenn sie ein System haben möchten, dass gegen keine Nutzergruppe diskriminiert. Wenn man das positiv wenden möchte, also nicht nur, dass man die Diskriminierung vermeiden möchte, sondern dass man dafür sorgen möchte, dass das Ganze fair funktioniert, das heißt, dass man gegen Ungerechtigkeiten angehen möchte, dies zu Vorgaben, dann wird es noch schwieriger und dann auch eine mathematische Formel für Fairness und dafür brauchen wir eine Rechtfertigung. Also welche Art von Fairness ist am angemessensten? Also zum Beispiel bei einer Wahl hat jede eine Stimme, das heißt, das ist unser Vorstellung von Fairness im Zusammenhang mit Wahl. Bei Steuern sieht es anders aus. Also je nach Bereich haben wir unterschiedlich und vielleicht auch konkurriere Vorstellungen von dem, was gerecht ist. Also jedes Mal müssen Sie neu entscheiden, was am angemessensten ist. Und das führt uns dazu, dass wir unterschiedliche, also differenzielle Vorgehen brauchen. Warum sollten unterschiedliche Menschengruppen anders behandelt? Wenn uns weiter darum geht es bei Ethik. Und jeder besteht Fairness darin, das sichergestellt wird, dass jeder eine faire Wahrscheinlichkeit hat, Vorteile zu erhalten. Oder geht es bei Fairness nur darum, den Schaden zu minimieren und die am meisten, für die am wenigsten bevorteilten. Also ein Fokus im Bereich Maschinenlernen muss sein, Diskriminierung zu verhindern, aber das reicht nicht. Der Fokus beim Maschinenlernen muss auch darauf liegend sicherstellen, dass das Ganze nicht diskriminierend ist, das reicht noch nicht, um eine ethische IID zu haben. Und wir, es müssen angemessene methodologische Entscheidungen getroffen werden, aber die hängen immer vom Kontext und von der Gruppe ab. Also wenn wir entscheiden über bestimmte Fairnessmethoden, dann sollte Methoden, dann sollte das nicht den Software-Entwicklern allein überlassen werden. Wir brauchen oft eine sehr große, breit angelegte öffentliche Debatte und Beteiligung. Also man muss nicht eine solche Debatte zu jedem KI-System haben, aber doch zu jedem sehr invasiven KI-System oder ein KI-System, das viele Leute betrifft. Das bringt mich zum Ende, zu meinen Schlussfolgerungen, in die Herausforderungen für eine gute KI sind vielfältig. Und ich habe hier einige genannt, sie beziehen sich auf den Schutz der Privatsphäre, Vorurteile, Diskriminierung, Mangel an Transparenz, Mangel an Rechenschaftspflicht. Und meinen Studenten sage ich immer, dass Ethik in der Methode liegt, aber Ethik auch darüber hinausgeht. Bei der Ethik geht es bei Ethik auch um die Bildung, aber auch um die Systeme. Aber es geht nicht nur um das, was am Ende dabei rauskommt, sondern Ethik, wo schon mitgedacht wird, wenn diese Prozesse entworfen werden, wenn man Daten auswählt, wenn man eine Methode wählt und so weiter. Da muss schon ethisches Verhalten angewendet werden. Gleichzeitig reicht das nicht, denn einige Probleme haben vielleicht ihre Ursache in den Daten, in den methodologischen Entscheidungen und spiegeln damit einfach nur die Ungerechtigkeiten wieder, die wir sowieso in der Gesellschaft haben. Also reicht das dann oft nicht. Wir müssen also auch andere Beteiligten innerhalb der IT mit einbeziehen, aber auch darüber hinaus. Und ganz zum Ende möchte ich noch sagen, wir müssen uns das auch nicht nur anschauen, wenn das Fehler vor, so hat das Ganze, sondern wir müssen uns auch KI anschauen, wenn KI genau das macht, was sie machen soll. Denn sie wird mehr oder weniger Teil unseres Lebens. Und ganz zum Schluss möchte ich noch etwas sagen zur Beziehung zwischen Ethik, Politik und Gesetz. Was ich hier wichtig finde, ist zu betonen, dass es eine Beziehung gibt zwischen diesen drei Bereichen. Und wir wollen nicht die Ethik reinwaschen oder die Ethik vor allem als Sündenbock nehmen. Also Ethik wird oft als Label verwendet, nur um Regulierung damit zu vermeiden. Das ist ein Trend, der beliebt ist und das ist ein großes Problem. Aber das heißt auch nicht, dass Ethik an sich nutzlos ist. Die Ethik, wie ich schon zu Beginn gesagt habe, möchte uns anleiten, was gut und was falsch ist und uns eine Handlungsentscheidungsanleitung geben für das, was gut ist und was schlecht ist. Das gilt für unser tägliches Leben, aber eben auch für die Technik. Das ersetzt nicht die Politik, aber es macht auch Politik und Gesetzgebung nicht überflüssig. Das beeinflusst natürlich die Politik und Gesetzegebung. Wir haben unterschiedliche Werte, unterschiedliche Vorstellungen von Gerechtigkeit, es gibt auch eine politische Debatte darüber, wie wir die unterschiedlichen Werte gewichten sollten. Und ich denke, wir müssen anerkennen, dass es eine Beziehung gibt zwischen Ethik, Politik und Recht. Und das steht miteinander in Beziehung, wir müssen sicherstellen, dass Ethik nicht missbraucht wird, nur um wirklich Gesetzes- und Regulierung zu entgehen. Und das bringt mich zum Ende. Vielen Dank. Ich glaube, das ist das erste Mal, dass hier ein Vortrag kürzer war als angekündigt. Vielen Dank, dass Sie sich so knapp gefasst haben. Ich denke, wir werden jetzt ein bisschen langsamer werden, denn ich bin immerhin Schweizer, sehen Sie es mir nach. Ich möchte zunächst einmal auf etwas kommen, was Sie am Ende Ihres Vortrags gesagt haben. Wenn ich das richtig verstanden habe, haben Sie gesagt, es ist sehr schwierig für die KI nicht zu diskriminieren. Und diese Verantwortung dafür, ob jetzt diskriminiert wird oder nicht, sollte nicht nur auf den Schultern der Entwickler legen, sondern man braucht einen breiteren gesellschaftlichen Diskurs, um wirklich etwas gegen diskriminierende KI oder IT-System im Allgemeinen zu tun. Wir leben jetzt in einer Zeit, in der wir sehr, sehr starke soziale Bewegungen haben. Also es geht darum, dass verschiedene Identitäten Gehör finden. Es wird Sexismus viel diskutiert, Rassismus. Das sind Themen unserer Zeit. Wenn man aber diesen ganzen Bewegungen in der ganzen Welt jetzt sagt, es ist echt schwierig nicht zu diskriminieren. Wie sollten wir diesen Diskurs strukturieren, um die Verantwortung nicht auf die Entwickler abzuschieben? Nun, ich denke, das hängt wirklich von dem System an, wenn es ein ausgesprochen wichtiges System ist, bei dem es um viel geht. Wir nehmen jetzt mal diese Software Compass. Es ist eine Software, die wirklich eben große Auswirkungen hat, denn es wird eine Vorhersage getroffen, die etwas damit zu tun hat, ob Menschen ins Gefängnis kommen oder nicht, ob sie auf Bewährung frei kommen oder nicht. Es geht hier also wirklich um etwas. Und dann entsprechend muss man hohe Standards haben und sehr viel vorlegen können, was beweist, was man getan hat, was man kann, damit das System nicht diskriminiert. Also wir haben folgende Schritte ergriffen, um zu testen, das uns uns sicherzustellen, dass dieses System nicht negativ diskriminiert gegenüber betroffenen Gruppen. Natürlich kann es kein System geben, das gegen gar keine Gruppen diskriminiert. Also die Gruppen können ja wirklich auch völlig zufällig sein. Zum Beispiel Menschen, die rote Socken tragen und nach Neuseeland in den Urlaub fahren. Also das ist vielleicht eine Gruppe, gegen die diskriminiert wird von diesem datenbasierten System. Natürlich kann man nicht alle diese möglichen Gruppen wirklich testen. Aber man kann natürlich auf die Gruppen testen, die wirklich auch rechtlich festgelegt sind. Es gibt natürlich Diskriminierungskategorien, die rechtlich festgelegt sind. Dann kann man eben zugrunde legen. Und dann kann man vielleicht nicht auf alle diese Gruppen hin optimieren oder zumindest gleichartig. Aber man sollte sich dessen zumindest bewusst sein. Also welche Gruppen müssen denn hier in den Diskurs reinbezogen werden? Na ja, wir haben zu einem natürlich die Entwickler, die einen Problem lösen müssen und optimieren müssen. Dann haben wir die Menschen, die ein System kaufen und die dies verkaufen. Das sind aber nicht die Entwickler. Das ist ein wirtschaftlicher Kontext, in dem diese Systeme sich befinden. Wenn der Staat dieses Systeme nutzt, dann müssen die Standards eben noch höher sein. Je höher die Auswirkungen, je größer Auswirkungen, desto höher die Standards. Und natürlich können die Gruppen, die man mit einbezieht, auch unterschiedlich sein. Sie haben zum Beispiel verschiedene Vertretergruppen, die man vielleicht mit einbeziehen möchte. Wenn es ein System gibt, das gegen Afroamerikaner diskriminiert, dann müssen natürlich die Interessengruppen hier mit einbezogen werden. Jetzt habe ich noch einmal ein Moment, in dem ich mich fühle wie in einer Live-Arena. Das ist jetzt also wirklich hier mein Moment. Aber bitte, liebe Techniker, lassen Sie uns mehr von Judith Simon sehen auf den Monitoren. Sie forschen viel und denken viel nach über das Thema Vertrauen. Im philosophischen Sinne haben wir Vertrauen in Systeme, dass sie vielleicht besser werden können, dass sie in der Zukunft nicht mehr so stark diskriminieren können werden. Ich habe etwas von Ihnen gelesen, wo Sie sagen, dass es natürlich Momente gibt, wo wir der KI gar nicht vertrauen sollten. Wir sollten auch nicht versuchen, hier Vertrauen zu entwickeln. Wir sollten sagen, nein, diesen System vertrauen wir nicht. Wir verweigern Ihnen das Vertrauen. Können Sie bitte dazu etwas mehr sagen? Als Philosophin bin ich natürlich sehr skeptisch, was Vertrauen angeht. Sie möchten wirklich, dass Vertrauen verdient wird. Sie möchten kein blindes Vertrauen. Die Philosophie hat sich und hat das Thema Vertrauen eine ganze Weile lang stiefmütterlich behandelt, denn es ging um Wissen und um Beweise und nicht um Vertrauen. Man sollte grundsätzlich natürlich den Vertrauen, die vertrauenswürdig sind. Und denen, die nicht vertrauenswürdig sind, sollte man nicht vertrauen. Vertrauen ist nicht per se wertvoll. Mir geht es also in der Forschung darum zunächst einmal Kriterien zu etablieren für vertrauenswürdige KI. Denn natürlich, wenn man jemand, der nicht vertrauenswürdig ist, weil er zum Beispiel inkompetent ist, dann kann das ganz furchtbare Folgen haben. Also, man möchte sich immer fragen, welche Checks and Balances gibt es. Man kann nicht alles in Gänze wissen. Irgendwann muss man Menschen vertrauen oder gewissen Daten vertrauen, und das muss irgendwann gut genug sein, auch wenn man keine absolute Sicherheit hat. Für mich ist es wirklich ganz spannend, wann ist etwas gut genug, um vertrauenswürdig zu sein? Das könnte ein Kategorien natürlich auch sein, wenn es um statistische Design geht, also bei Systemen geht es nicht um Sicherheit, sondern eine Annäherung an Sicherheit richtig. Und da kommt dann eben Vertrauen ins Spiel. Ist das nicht also wahnsinnig schwierig, über Vertrauenswürdigkeit zu sprechen? Ja, absolut. Und deshalb ist die Frage des Vertrauens natürlich so spannend. Wir haben ganz viele Grauzonen, wir sind meistens zwischen blinden Vertrauen und absolute Sicherheit. Aber wie man eben zum Vertrauen kommt, das ist ein Thema für sich. Also, man kann die Frage stellen, kann man bei KI wirklich über Vertrauenswürdigkeit überhaupt sprechen? Ich glaube, dass Vertrauenswürdigkeit im Bereich KI wirklich nur sinnvoll ist, wenn es um konkrete Systeme gibt. Man kann Technologie selbst nicht vertrauen, man kann sich darauf verlassen. Aber man kann Institutionen vertrauen, man kann Unternehmen vertrauen, man kann Standards und Rechenschaftsmechanismen vertrauen. Ich möchte jetzt gerne über das Verhältnis zwischen Ethik im Design und Ethik in der Nutzung sprechen. Das haben Sie ja auch schon am Anfang Ihrer Sporttrag angesprochen. Also, um es mal klar zu sagen, kann man ethische Nutzung durch ethische Design quasi festlegen? Nein, natürlich nicht. Man kann sein Bestes tun. Aber stellen Sie sich mal Folgendes vor. Sie kaufen ein Auto. Die ersten Menschen, die Autos gekauft haben, haben wahrscheinlich nicht voraus gesehen, dass es noch mal schwierig werden würde. Aber man kann natürlich auch ein Auto als eine Installation nutzen. Und dann hat es keine Nebenwirkung wie Verkehrstote. Natürlich kann jedes Artifakt genutzt werden auf die eine oder die andere Seite. Das hat nichts mit dem Design zu tun. Aber wenn man eben etwas entwickelt, dann kann man die Technologie dahin entwickeln, dass sie etwas einfacher machen oder schwieriger. Also, Technologie kann privatsphärefreundlich sein oder privatsphärefeindlich. Dann wird es einfacher oder schwieriger, seine privatsphäre zu wahren. Also, man kann einen guten oder einen schlechten Nutzung mehr oder weniger wahrscheinlich machen. Und das ist ja schon relativ viel. Aber natürlich haben die Menschen den eigenen Kopf und können machen, was sie wollen mit der Technologie. Wie kann man denn ethisches Design verbessern der Technologie? Gibt es da Konzepte? Na ja, also Open Source ist da sehr, sehr hilfreich, wenn man etwas offenlegt und Transparenz macht, dann können Menschen schauen, wie etwas funktioniert und können eben entscheiden, ob sie dem vertrauen. Und das ist ganz wichtig. Zum Beispiel bei der Corona-Warn-App, ein aktuelles Beispiel. Hier musste eine Entscheidung getroffen werden, nach einigen hin und her. Und eine Entscheidung, ob jetzt etwas Open Source sein sollte oder nicht. Und der Entwicklungsprozess war wirklich einer dieser Fälle, wo Steuergelder eingesetzt wurden für ein Open Source-Projekt, das dann verbessert wurde durch Feedback. Das heißt natürlich nicht, dass das Produkt prinzipiell ethisch vertretbar ist, aber es ist eben die Wahrscheinlichkeit höher, dass Mängel erkannt werden und dann eben auch behoben. Entschuldigung, ich bin ein bisschen langsamer, als Sie geben Sie mir einen Moment. Also, Sie sprechen ja oft über das, was Sie schwache KI nennen. Die starke KI ist etwas, was der Singularity nahe kommt, also der perfekten künstlichen Intelligenz. Und dem gegenüber steht die schwache KI, über die Sie sprechen in ganz spezifischen Anwendungen, zum Beispiel Gesichtserkennung, Newsfeeds und so weiter. Die Ethik ist natürlich vielleicht ein größeres Thema bei schwacher KI. Ist es hier einfacher Vertrauen zu erzeugen? Nun, Menschen, die mich kennen, wissen vielleicht, dass ich keine der größten Fans dieser Diskussion zu starke KI bin. Ehrlich gesagt, muss ich sagen, dass mir das völlig egal ist. Es gibt so viele Themen, die wir jetzt haben, bevor wir überhaupt zu dieser Fantasie der perfekten KI kommen. Und ich glaube, wir brauchen unsere Energie für die Themen, die jetzt wirklich relevant sind und die Spekulation können wir mal sein lassen. Es sind hier wirklich Fantasien von reichen Technologie-Enthusiasten und das langweilt mich, ehrlich gesagt. Also, kurz und knapp, ich finde, es gibt wichtigere und interessantere Dinge, über die wir sprechen können. Ist es einfacher, mit schwachen Systemen zu arbeiten? Ich glaube, die sind überhaupt nicht vergleichbar. Also, es gibt eine starke KI heute noch nicht. Also, daher ist der Vergleich auch. Der hinkt sinnlos. Wenn wir jetzt eine menschliche Vorurteile vergleichen mit eingebauten, sozusagen maschinellen Vorurteilen, ich meine, es ist ja jetzt wirklich ganz klar, nicht einfach Diskriminierung zu überwinden. Das ist offensichtlich für die Menschen schwierig. Was bedeutet das für die KI? Sie haben hier über große Systeme gesprochen und als Laie würde ich davon ausgehen, dass es wirklich extrem schwierig ist, auch in der Entwicklung dieser Produkte das Thema der Diskriminierung wirklich anzugehen und zu lösen bei schwacher KI. Ja, also das Problem ist, dass das, was wir KI nennen, hier datenbasierte Systeme sind auf Basis von schon alten Daten. Also, ich verstehe die Frage nicht. Ich denke, es wäre vielleicht einfacher, ein Datensatz zu säubern, sozusagen zu reparieren, einfacher als ein menschliches Hirn. Naja, wenn es uns irgendwie möglich wäre, die Stereotypen und Diskriminierung oder Vorurteile nicht nur im Datensatz auszumerzen, dann wäre ich natürlich absolut froh. Aber nur weil Menschen diskriminieren, sollte es eben auch nicht okay sein, dass Systeme das Gleiche tun. Glauben Sie, dass es überhaupt eine Chance gibt, dass diese KI-Systeme, die Sie angesprochen haben, wirklich diskriminierungsfrei werden können? Ja, auf der positiven Seite könnten wir sagen, es gibt schon Interesse daran, die Diskriminierung und die Vorurteile außerdem Maschinen lernen, herauszunehmen. Also, man ist nicht das Problems bewusst. Und zweitens, die Art und Weise, wie man diese Systeme nutzt, ist ziemlich sehr offen. Statt dass man den Status quo mal wiederholt, könnte man das natürlich für andere Zwecke verwenden, also man könnte annehmen, das System lernt. Also ein ziemlich dummes Beispiel. Zum Beispiel Richter sind härter bei ihrem Urteil. Vor der Mittagspause, das könnte ein bisschen künstliches Beispiel, aber wenn das System lernt, dann könnte das das entweder reproduzieren oder man könnte dieses System ersetzen durch ein voreingenommenes System. Oder man könnte das System natürlich auch da so trainieren. Das ist dann sagt, ja, das ist eine Entscheidung von der Mitte. Vielleicht sollte man das nochmal überdenken. Und so könnte Maschinenlernen auch verwendet werden, um die Entscheidung durch Menschen zu verbessern, dass Menschen ein Feedback bekommen, mithilfe dessen, was das System über diese Voreingenommenheit selbst gelernt hat. Das wäre ein positives Beispiel. Ich weiß jetzt nicht, wie optimistisch ich sein sollte in Bezug auf die Bereitschaft des größeren Teils der Bevölkerung, diese Vorurteile tatsächlich beseitigen zu wollen. Keine Ahnung. Und noch eine schwierige Frage, bevor ich dem Publikum hier die Möglichkeit geben, Frage zu stellen über Twitter oder Slide oder hier aus dem Publikum. Also noch eine Frage hier von mir. Hier geht es wieder um das Vertrauen. Ja, bei dieser Serie geht es ja auch immer ein bisschen darum, dass wir auch versuchen zu sprechen über die europäische Rolle im Bereich der IT, Cloud Computing, KI und so weiter. Und Sie haben ja auch viel über Cloud Computing aus europäischer Sicht gearbeitet und in der Datenethik-Kommission gearbeitet. Jetzt meine Frage bezieht sich auf Maßnahmen, die die Datenethik-Kommission vorschlägt, um das Vertrauen in KI zu fördern. Das ist ja hier ein geopolitisches Gut, sozusagen KI. Also Verhinderung von Schaden und so weiter. Das sind ja diese ethische Fragen, wie das umgesetzt wird. Wenn Sie so verschiedene Politiker beraten, wie soll das dann umgesetzt werden? Wie sollen Sie umsetzen, dass es tatsächlich europäischen Fortschritte gibt, um dieses ganze Vertrennen hier überhaupt zu überlegen, um das hier mal ein bisschen dramatisch auszudrücken? Ich glaube, es gibt zwei Fragen, die dem zugrunde liegen, nämlich ersten. Wie stellen wir sicher, dass diese Ziele auch wirklich erreicht werden? Ich glaube, hierzu müssen bestimmte Dinge verpflichtend gemacht werden. Bestimmte Dinge passieren einfach nicht, wenn sie freiwillig sind. Also man kann ein bisschen Auditing durchführen. Man bekommt Fairness und so weiter nicht, wenn es nicht ein gewisses Maß an verpflichtende Überprüfung Auditing gibt, insbesondere für Maßnahmen, die große Auswirkungen haben. Und die zweite Frage ist, wie steht Europa da in Bezug, insbesondere zu USA und China? Wie könnte unser dritter Weg hier aussehen? Ich möchte jetzt hier nicht ganz pessimistisch enden. Wir sind noch nicht am Ende angekommen. Aber es gibt zurzeit noch nichts so etwas wie europäische Datensouveränität. Denn wir haben keine souveräne Infrastruktur und auch keinen souveränen Markt für uns. Aber wir brauchen Initiativen, die im Prinzip wertvoll sind wie GAIA-X und Partner usw. GAIA-X ist das europäische Cloud-Projekt, das im Moment nicht so wunderbar läuft. Wenn man wirklich eine Alternative haben will, dann muss man eine Alternative auch wirklich schaffen. Auf örtlicher Ebene gibt es Alternative und da gibt es öffentliche Open-Source, Open-Data-Initiativen in den Städten usw. Wir hatten ja schon einige Vorstellungen vorgebracht, zum Data-Sharing usw. Dass Unternehmen Daten zur Verfügung stellen müssen, insbesondere große Unternehmen, müssen solche Daten zur Verfügung stellen für das Gemeinwohl. Das sind Initiativen, die wir vorgeschlagen haben. Es gibt eine sehr schmale Linie zwischen Regionalisierung, dass man seine eigene Infrastruktur verschließt und dass man ein gewisses Massankontroll über die eigene Infrastruktur hat und nicht komplett abhängig ist von der Infrastruktur von China z.B. in Bezug auf Daten oder von den USA in Bezug auf die technische Infrastruktur. Ich möchte jetzt nicht so pessimistisch enden. Ich würde gerne etwas optimistischer enden. Wir haben noch ein bisschen Zeit. Diese ganze Debatte ist ein bisschen frustrierend, denn es geht sehr oft um dieses Rennen zwischen China und den USA in Europa. Ich glaube, wenn Europa sich wirklich zusammenroffen würde und eigene Gedanken dazu hätte, wie man hier eine öffentlich transparentere Alternative aufbauen könnte, dann wäre es möglich. Bis zum bestimmten Gemaß haben wir schon Standardsgesetz mit der Datenschutzgrundverordnung, die Frage ist, was passiert mit den nächsten Rechtsakten, welche Auswirkungen werden sie haben, also das Data Governance Rechtsakt und so weiter. Werden wir uns komplett den Lobbyisten ausliefern oder werden wir ein Gegengewicht schaffen? Ich denke, wir sollten auf jeden Fall versuchen, dass das Ganze nicht so geisel der Lobbyisten wird und was können wir machen, dass wir solche Standards schaffen, solche Standards sind, wichtig. Ja, vielen Dank. Bevor wir jetzt die Möglichkeit geben, das Publikum Fragen zu stellen, möchte ich Ihnen meine Techniker nochmal fragen, ob Sie ein bisschen den Ton lauter stellen können für mich hier. Also jetzt Fragen aus dem Publikum. Christian Graufvogel dahinten, der hat das Mikro. Also zunächst mal Fragen aus dem Publikum. Wenn ich Sie im Publikum nicht sehen, weil es da so dunkel ist, also jemand anders muss mir mitteilen, wenn jemand aus dem Publikum eine Frage stellen möchte. Ja, zwei Fragen. Haben Sie der Anhörung im Europäischen Parlament heute zu gehört, wo Margarete Westhager praktisch die Grundlage dafür gelegt hat, falls nicht, was wäre das entscheidende Bestandteil dieser Rechtsakte aus ethischer Sicht, um die DSA zu verbessern. Also ich habe genau zu der Zeit versucht, einen Zug zu erwischen und das war ja ein bisschen schwieriger als erwartet. Ich werde jetzt hier nicht detailliert antworten, weil gerade zugrunde liegende Gedanke ist, nämlich wie wollen wir sicherstellen, dass das Gemeinwohl wirklich im Kern des europäischen Datenmarktes steht, wie wir diesen europäischen Datenmarkt schaffen wollen. Also ich sollte aufhören, immer so pessimistisch zu sein, aber es gibt sehr viel Interesse daran, Daten für werbliche Zwecke zu nutzen, das ist ja auch okay. Aber ich denke, es sollte mehr Drang dahinter sein, diese Daten auch für das Gemeinwohl zu verwenden. Also ich glaube, detaillierter kann ich das im Moment nicht beantworten. Leider kann ich das Publikum hier nicht sehen. Ja, vielen Dank für diesen wirklich interessanten Vortrag, Judith. Meine Frage bezieht sich auf diese Compass Software. Das ist gewöhnt, dass wir ziemlich inkohärente Urteile der Richter vernehmen. Wie kann es sein, dass sie diese hohen Erwartungen an Software dann haben? Und zweitens, meine zweite Frage ist, stimmt es, dass es wirklich kein letztes Maß an Fairness gibt. Und Sie haben ja eine Reihe von praktischen Beispielen hier aufgeführt. Was wären Standards, die wir anwenden sollten auf Menschen und auch auf kaibersierte Entscheidungsfindungssysteme? Sind das dieselben Kriterien oder sollten es unterschiedliche Kriterien sein? Ich glaube, ich denke, die Grundanforderung für Richter und für Systeme ist, dass sie unparteilig sind, unvoreingenommen sind. Das, denke ich, ist wirklich das Ziel, die Norm, die wir anstreben sollten. Und wir wissen, dass ganz viele eben nicht unparteilisch unvoreingenommen sind. Wir wissen, Sie haben Ihre eigenen Vorurteile und das sollte reduziert werden. Aber das ist unser höchstes Ziel, denke ich. Und es wäre wirklich ein großes Problem, wenn wir dieses Ziel aufgeben würde für KI-Systeme, nur weil Menschen es nicht erfüllen können. Das würde nämlich im Prinzip sagen, dass wir noch nicht immer danach streben und auch nicht immer versuchen, dass KI-Systeme dieses höhere Ziel erfüllen sollen, nur weil wir aufgeben, weil wir Menschen es nicht erfüllen können. Und zweitens, man kann ein solches System nicht optimieren für alle Gruppen. Das Mindeste oder das Geringste, was solche Systeme in sensiblen Bereichen machen sollten, ist, dass sie zeigen, welche Methoden sie verwenden und es sollte eine Möglichkeit bestehen, zu überprüfen, ob sie diskriminieren nach Geschlecht, Rasse, Religion usw. Also diese bedeutenden Kriterien, die von Recht wegen schon geschützt sind. Also das, denke ich, ist eine Mindestanforderung, dass das offengelegt wird, sodass Leute dann wenigstens es anfächten können. Das heißt, selbst wenn ein solches KI-System nicht perfekt gemacht werden kann, dann sollte wenigstens die Möglichkeit bestehen, nachzuprüfen, ob man es auf bestmögliche Art versucht hat zu schaffen dieses System. Und wenn man entscheiden muss zwischen unterschiedlichen Wegen der Optimierung, also z.B. was ist das Beste, was man in einem spezifischen Fall erzielen könnte, dann muss in das System eingefüttert werden, wer am wenigsten beurteilt war zuvor. Also zum einen, wer ist am meisten betroffen von so einer Entscheidung und dann muss noch definiert werden, wer zuvor die wenigsten Vorteile hatte. Und das muss in dieses System mit reingebaut werden. Wenn man vielleicht sagt, dass man eine Kultur und die Strukturen der Gesellschaften hineinschauen kann, also wenn man nicht herausfinden kann, wer ist bisher mal meistens benachteiligt gewesen, z.B. im Justizsystem. Das sollte man sich anschauen, das sollte beseitigt werden. Also man sollte anschauen, wer ist bisher am meisten benachteiligt, worden in dem bestehenden System, das sollte untersucht werden und das sollte dann in einem solchen KI-System beseitigt werden. So, wie sieht es aus mit marginalisierten? Die sollten dann auch praktisch die Möglichkeit haben, sich zu beteiligen. Ja, wir brauchen eine solche Betaligung. Man muss erstmal herausfinden, wer beteiligt sein sollte und da muss man sich vielleicht erstmal anschauen, was passiert im eigenen Land, z.B. in Bezug auf Daten, aber auch z.B. in Bezug auf das Bildungssystem. Und das sollte dann beim Design des entsprechenden KI-Systems mit berücksichtigt werden. Gibt es noch weitere Fragen hier aus dem Publikum? Ja, vielen Dank für den Vortrag. Ich höre auch meistens, was Schlechtes über KI und frage mich, wo sind die Vorteile von dem System. Das andere ist das Thema der Erklärbarkeit. Also, was ich jetzt lese und höre, ist, dass man ein präzises KI-System haben möchte, eine große Maß an Genauigkeit hat. Und das wäre dann so komplex, dann wäre es sehr schwer zu erklären, warum das KI-System die Entscheidung so getroffen hat. Und dann gibt es noch ein Argument, das sagt, selbst wenn es Open Source wäre, dann würden wir uns anschauen könnten, weshalb das KI-System diese Entscheidung so getroffen hat. Dann würde es die Tür und Tor öffnen für Reverse Engineering. Und sollten wir uns diesen Argumenten anschließen, gelten diese Argumente, sind die gültig, oder sind diese Argumente eben nicht gültig? Ja, sie sind teilweise zutreffend, aber die Frage ist, werden diese Argumente vorgebracht, um Leute abzuschrecken, oder sollen sie einfach nur ein paar Grenzen aufzeigen? Was verwendet wird unter dem Begriff KI, ist in der Regel sehr komplex, sehr komplizierte Deep Learning-Systeme. Und es ist oft schwierig oder unmöglich, herauszufinden, wie ein System zu seinen Voraussagen oder zu seinen Schlussfolgerungen gekommen ist. Und wenn bestimmte Schritte erklärbarer gemacht werden sollen, indem z.B. bestimmte Schwellen dokumentiert werden, dann kommt man manchmal an den Schritt, wo man Erklärbarkeit gegen Akkurat, Akkuranz abwägen muss, dass man sagt, da so bestimmte Dinge sind, nicht erklärbar, wenn dann die Leistung oder die Präzision gut ist. Aber andererseits, wenn man dann eine gute Erklärung hat, das macht ja auch andere Bereiche geben, wo eine Erklärbarkeit so wichtig ist, wo man so wichtig ist zu erkennen kann, wie dieses KI-System zu dieser Entscheidung kommt, dass das dann vielleicht wichtiger ist als die Akkuranz. Und das muss man also eben abwägen in jeder Situation. Wo können wir z.B. weniger an Erklärbarkeit uns leisten, wo aber Genauigkeit vielleicht wichtiger ist, z.B. medizinischen Entscheidungen. Also, wenn man ein perfektes Tool hat, also wir nehmen mal an, wir haben ein perfektes Tool, das unterscheidet zwischen Krebsgewebe und gesunden Gewebe. Dann möchte man vielleicht einfach nur ein paar Gründe, ist vielleicht die Genauigkeit wichtig und wenn ihr die Erklärbarkeit, also wichtig ist, dass man hier in diesen Schwellen eben arbeitet. Das ist nicht umsonst, das kostet natürlich, man muss also genau darüber nachdenken, wo es wichtig ist, wo es essentiell ist. Und wenn es um Reverse Engineering geht, das hat man natürlich bei der Verbesserung von Suchmaschinen. Also, sobald jemand versteht, wie etwas funktioniert, dann können sie auch dafür sorgen, dass das dann für die Eigenzwecke funktioniert. Also, dann kommt man in so eine Wettbewerbssituation. Ja, vielen Dank. Jetzt könnten wir uns Slido anschauen, Slido oder Twitter. Kann ich vielleicht noch eine Frage stellen? Ja, fassen Sie sich aber bitte kurz, oder können Sie vielleicht noch fünf Minuten warten, dann kommen wir erst einmal zu Slido? Und Twitter, aber ich komme auf Sie zurück. Welten Sie sich dann nochmal? Also, können Sie mich hören? Es gibt einige Fragen auf Slido. Ich komme mal mit der Ersten an. Ich forsche in einer IT-Fakultät. Hier sind 80 Prozent Männer und meist nicht besonders an ethischen Fragen interessiert. Wie bewege ich die Menschen dazu, sich für die Ethik zu interessieren? Also, ich muss sagen, dass ich da sehr verwöhnt bin. Denn an meiner Fakultät gibt es hier wirklich das Interesse an diesen Themen, sowohl von Kolleginnen und Kollegen als auch Studentinnen und Studenten. Also, ich weiß nicht, wie man das am besten anstößt, aber man muss ihm auch wirklich Zeit geben. Ich glaube, man muss mir den Studentinnen und Studenten anfangen. Wenn man sie wirklich kennenlernt in ihrem ersten Semester und sie sich für diese Themen Interesse beweisen, dann hat man sie. Ich habe jetzt eine Pflichtvorlesung im ersten Semester und jetzt kommen immer mehr Studentinnen und Studenten und andere Veranstaltungen. Ich glaube, was die Forscherin und Forscher angeht, das hängt von der Fakultät ab. Ich habe hier wirklich keinen guten Rat für sie. Es stimmt, wenn man vielleicht nicht betroffen ist, dann interessiert einem das Thema weniger möglicherweise. Aber ich glaube, dass das Interesse wächst, insbesondere unter den jüngeren Generationen. Ich glaube, wir haben noch nie so großes Interesse an der Schnittstelle von Ethik und Technologie gesehen wie heute. Das hilft Ihnen jetzt vielleicht nicht allzu sehr. Ich glaube, vielleicht kann man darauf hinweisen auf einige Fälle, wo es schief gegangen ist. Man kann wirklich mal erklären, was das für gravierende Auswirkungen haben kann. Die Menschen denken immer, dass die Technologien der anderen vorurteilsbehaftet sind und nicht die eigenen. Das ist immer ganz, ganz spannend. Es ist sehr viel schwieriger Menschen auf Vorurteile und Voreingenommenheit in den eigenen Daten hinzuweisen als in fremden Daten. Ich denke, Sie können auch einfach sagen, dass Diskriminierung ein Softwareproblem ist. Und fertig. Haben wir noch weitere Fragen von Slido? Twitter? So. Wir haben noch eine Frage aus Südamerika. Wenn es um Gesellschaftsethik geht, was halten Sie davon, dass immer mehr Jobs durchs KI ersetzt werden? Und das ist natürlich ein großes Thema, das ich noch nicht einmal angesprochen habe. Es ist ganz interessant, wenn Menschen über Automatisierung im Berufsleben sprechen, dann heißt es oft, naja, so was passiert immer wieder. Es gibt neue Jobs und alte Jobs verschwinden. Und vielleicht ist das auch jetzt bei der KI so. Aber das hilft natürlich der Person, die redundant gemacht wird, die überflüssig gemacht wird, überhaupt nicht. Also ja, ich glaube, wir werden einen riesigen Wandel haben in der Berufswelt. Und es werden, denke ich, jetzt auch Menschen von der Automatisierung betroffen, sein Negativbetroffen, die es vorher nicht betroffen hat. Und ich glaube nicht so an dieses Narrativ, dass wir alle wahnsinnig viel Freizeit haben werden, wenn unsere Jobs ersetzt werden durch KI. Ich glaube also, wir brauchen wirklich soziale Sicherungsnetze, sehr starke Sicherungsnetze, um diesen Wandel auszugleichen. Und ich glaube, man muss es Menschen, man muss ihnen dabei helfen, mögliche neue Arbeitsplätze zu finden. Dann haben wir noch eine Frage von Twitter. Was sollte Ethik-Design werden für KI-Systeme? Und wer sollte diese Ethik-Design entwickeln? Nun, ich habe ja versucht, klarzumachen, dass Ethik für mich nicht bedeutet, dass man feste Regeln und Richtlinien hat, die man dann anwendet. Nein, es geht eben immer um ein Verhandlungsprozess, in dem man aushandelt, was richtig ist und was falsch und was die Gründe dafür sind. Wir haben keine globale Demokratie und das geht natürlich mit gewissen Problemen einher. Aber es gibt eben globale Unternehmen, die in der ganzen Welt Einfluss haben und das ist also eine schwierige Balance. Man kann natürlich auch nicht sagen, diese Unternehmen sollen bringen ihre eigenen Werte mit und die werden schon überall funktionieren, sondern sie müssen sich auch an die örtlichen Gegebenheiten vielleicht ein bisschen anpassen. Einige der größten Skandale von Facebook bestanden ja darin, dass nicht bedacht wurde, wie Facebook eben in gewissen Ländern genutzt werden könnte. Aber es gibt eben keine Blaupause und es gibt auch keine einfache Lösung, wie man eben zu einer Balance kommt zwischen den eigenen demokratischen Werten und einer Anpassung an lokale Gegebenheiten. Aber ich denke, die demokratischen Werte sollten immer unsere Richtschnur sein. Noch eine Frage, bis wir wieder ins Publikum übergeben hier vor Ort. Was glauben Sie, welche Rolle wird erklärbare KI haben, um Entscheidungsprozesse zu erklären und wie sehr sind Unternehmen verantwortlich für die Entscheidungen, die ihre KI trifft? Nun, es gibt Unterschiede zwischen Verantwortung und Erklärbarkeit. Also man ist verantwortlich für seine Software, selbst wenn man keine Ahnung hat, wie die funktioniert. Und diese Dinge müssen wirklich auch getrennt sein. Selbst wenn man etwas nicht erklären kann, dann muss man immer noch verantwortlich sein und verhaftbar gemacht werden können. Die Frage ist, wie sehr sind die Entwickler und die Nutzer verantwortlich für Schäden, die entstehen, wenn das System selbstlernen ist. Aber irgendjemand muss eben verantwortlich und haftbar sein selbst, wenn sie das System nicht verstehen. Sie müssen eben auch verantwortlich sein für ihre Entscheidung keine Erklärbarheit zu haben. Also Erklärbarkeit ist wichtig, ganz besondere in gewissen Bereichen, wo wir glauben, dass eben Erklärungen notwendig sind aus bestimmten Gründen. Man muss zum Beispiel jemand erklären, warum er einen Kredit nicht bekommt oder nicht freikommend auf Caution. Und da muss man eben ein bestimmtes System dann haben, das sehr erklärbar ist. Und in anderen Szenarien braucht man vielleicht diese Erklärbarkeit nicht so dringend, aber trotzdem entbindet das ein Nicht von Rechenschaftspflichten und von Verantwortung. Also es gab ja noch eine Frage aus dem Publikum. Oh, jetzt kann ich sie sogar sehen. Ja, vielen Dank. Vielen Dank auch für ihren Vortrag. Und ich denke sehr viel über Gesichtserkennung nach. Und es gibt hier große Herausforderungen. Möglicherweise könnte diese Technologie negativ angewendet werden. Denken Sie, Gesichtserkennung sollte verboten werden oder zumindest in bestimmten Kontexten und welche ethischen Grenzen sollten hier gesetzt werden? Ja, das ist ein Thema, mit dem wir uns im letzten Semester sehr, sehr viel befasst haben. Wir hatten ja auch eine ganze Reihe von Gastvorlesungen. Ich glaube, dass weitverbreitete Gesichtserkennung im öffentlichen Raum verboten werden sollte. Und zwar aus dem Grund, dass diese Gesichtserkennung einen sehr vulnerabel macht. Einige Forscherinnen und Forscher in diesem Bereich, die eben auch für ein Verbot sind, bringen oft dieses Argument auf, dass wir so genutzt und so gewöhnen an Gesichtserkennung, also Face ID auf unserem Handy und so weiter, dass wir dann desensibilisiert werden sozusagen für dieses Thema, also während den Anfängen. Aber ich weiß nicht, ob das so stimmt. Also das Gesicht ist natürlich äußerst expressiv und es ist uns wirklich Eigen, so wie auch unser Fingerabdruck. Wir bedecken jetzt unsere Gesichter mit Masken, weil wir einfach sicher sein wollen vor Covid, aber wir merken, was das aus unserer Interaktion herausnimmt. Also Gesichter sind sehr, sehr wichtig. Und mit den Kameras im öffentlichen Raum und Gesichtserkennung, dann nehmen wir also eine Technologie, die wir schon haben, eben Kameras, Überwachungskomeras. Und wenn man die mit Gesichtserkennung kombiniert, dann haben wir perfekte Überwachung. Und das ist für mich ein Problem, wenn wir das noch kombinieren mit Bewegungssensoren, das ist auch eine absolut problematische Technologie, dann ist das sehr, sehr gefährlich. Ich glaube, das Verbot sollte sich beziehen auf öffentlichen Raum, aber nicht auf Forschung. Aber ja, wie gesagt, ich bin für ein Verbot der Gesichtserkennung im öffentlichen Raum. Ich habe auch noch kurze Fragen, vielleicht noch einmal vorher eine Frage aus dem Publikum. Haben wir noch jemanden? Jetzt ist Ihre Chance. Ich kann Sie immer noch nicht sehen. Aber vielleicht haben wir noch eine Frage? Ja, okay, wir haben noch eine Frage aus dem Publikum. Vielen Dank für Ihren Vortrag. Sie würden ja keine Diskussion haben zur ethischen Nutzen einer Atombombe. Sie denken ja nicht, dass es einen guten Nutzen für schlechte Technologie gibt. Aber jetzt sprechen wir über automatische Entscheidungsfindung. Also eine Entscheidung, für die kein Mensch verantwortlich ist. Wie kann so etwas überhaupt ethisch sein? Wenn ich nicht nachvollziehen kann, wer eine Entscheidung getroffen hat und wie und auf welcher Grundlage. Für mich gibt es einfach keine gute Anwendung für schlechte Technologie. Nun, meine erste Reaktion ist, diese nukleare Atomtechnologie wurde entwickelt, als es große technologische Fortschritte gab. Ich meine, man kann natürlich Atomenergie nutzen, um Energie zu erzeugen oder eben auch um eine Bombe zu bauen. Also ist es wirklich, ist die Technologie an sich schlecht oder ihre Anwendung? Und zweite Punkt ist, irgendjemand trifft immer eine Entscheidung. Jemand sagt, etwas, ein Prozess soll automatisiert werden und zwar auf eine bestimmte Art und Weise. Das heißt, jemand, der eben das beschlossen hat, entschieden hat, ein bestimmtes System auf dieser Grundlage entwickelt wird, diese Person ist verantwortlich für die Entscheidung. Und wenn man eben sagt, eine Entscheidung ist irgendwann bei Maschinenlernen nicht mehr erklärbar und nachvollziehbar, dann muss man immer noch sagen, okay, aber jemand hat die ursprünglichen Daten eingefüttert und diese Person ist Verantwortung. Also wir haben keine Mangel an Verantwortung grundsätzlich, aber jemand muss eben zur Verantwortung gezogen werden in der Entwicklung dieser Systeme. Ja, ich glaube, es ist eine sehr, sehr spannende Frage und vielleicht zieht sie noch eine andere Frage nach sich. Gibt es nämlich einen Unterschied zwischen Ethik und Ethik im Allgemeinen und Ethik in der KI? Nun, ich glaube, ich war ja ganz klar. Bei der Ethik geht es darum, was richtig und was falsch ist, was gut und was schlecht ist und was unsere Gründe dafür sind. Wir können Ethik auf KI anwenden und das ist ein weiteres. Der einzige Unterschied ist vielleicht, dass wir jetzt auch versuchen, ethische Entscheidungen auf eine KI zu delegieren. Also haben wir hier noch mal einen weiteren Schritt, eine Meta-Ebene. Und daher ist KI wirklich, hier, das ist ein ganz besonderer Typ von Ethik in der Technologie und es geht nicht nur um die Ethik, die angewandt wird, sondern auch um eine Delegation von ethischen Überlegungen in ein Tool. Das macht es noch mal interessanter, aber die grundlegenden Fragen, die Richtigkeit, was es fern ist, die sind älter als die KI, sagen wir es mal so. Wir sprechen am Ende ja immer gerne über Regulierung, über Politik. Wir sprechen hier über zwei verschiedene Ebenen. Über eine globale Ebene, eine europäische Ebene, EU-Kommission und natürlich auch auf deutscher Ebene. Aber hier sprechen wir immer über Gesetzgebung. Wir haben in Deutschland die Ethik-Kommissionen. Beispielsweise können Sie uns vielleicht jetzt zum Schluss mal sagen, wo die Unterschiede sind auf nationaler, also deutscher Ebene und auf europäischer Ebene im Hinblick auf Gesetzgebung. Ich weiß jetzt nicht, was die deutsche Regierung hier vorhat. Das ist eine Antwort. Ich weiß auch nicht, ob Sie überhaupt etwas vorhaben. Vorhaben können ja eigentlich auch nur Einzelpersonen und nicht eine Regierung insgesamt. Also ich möchte noch mal einen Schritt zurückgehen. Es gab sehr viele Ausschüsse, Kommissionen. Es gab sehr viel Rat, was man in Bezug auf Digitalisierung machen sollte in Deutschland. Das hätte natürlich schneller angegangen werden können. Ernsthafter. Die deutsche Regierung war in den letzten Jahren ziemlich vorne weg bei der Digitalisierung. Aber was auch immer Sie machen. Hier werde jetzt keine Zitat aus der letzten Wahl hervorkamen. Warten wir ab, was mit der neuen Regierung passiert ist. Es gab sehr viel Stagnationen in den letzten Jahren und sehr unterschiedliche Ansichten von den verschiedenen Ministerien. Man bekommt sehr viele unterschiedliche Sichten, wenn man sich zum Beispiel aus dem Sicht des Justiz- und Verbraucherschutzministeriums anschaut, eine andere Sicht vom Innenministerium zum Beispiel. Wenn man diese ganzen Spannungen verstehen möchte, die sich darauf beziehen, wie man KI nutzbar für das Gemeinwohl oder profitabel für die Wirtschaft machen könnte, dass man auch Grundrechte dabei schützt und so weiter. Ich denke, das sind Diskussionen, das sind Visionen oder Vorstellungen, die ich von der neuen Regierung erwarte und das nicht immer das Digitale delegiert wird an das nächste sozusagen, an die Zukunft. Es ist ein sehr interessanter Diskurs gewesen zum Thema Erklärbarkeit. Sie haben das unterschieden von Rechenschaftspflicht. Würden Sie sagen, dass es eine Regulierungsmöglichkeit gibt, diesen Kategorien gerecht zu werden, national oder europäisch. Also politische Maßnahmen, die zum Beispiel eine Erklärbarkeit verschiedener KI-Systeme garantieren würde. Gibt es so eine Möglichkeit? Also wir haben natürlich Richtung Beraten, gerade den wir von der Datenäuropäin von der Deutschen Datenethik-Kommission empfohlen haben, ist, dass je mehr Auswirkungen eine KI-Methode hat, umso mehr Musik geprüft werden, untersucht werden. Es gibt vieles, was ja schon der Datenschutz-Grundforderung unterlegt, aber es gibt vieles und wir brauchen, wenn wir Gesetzgebung brauchen in bestimmten Bereichen, dann kann es keine deutsche Gesetzgebung sein, da muss es eine europäische Gesetzgebung sein. Zum Beispiel dieses Kompassystem, sollte sowas hier Anwendung finden, aber auch zum Beispiel Systeme, die verwendet werden, dafür zu entscheiden, ob jemand einen Kredit bekommt oder nicht. Das muss überprüft werden, dass dieses Systeme nicht systematisch diskriminieren. Und da geht es um ganz grundlegende Dinge, wie ein Kredit für einen Hauskopf zum Beispiel oder auch Sozialleistungen. Das sind Bereiche, wo KI-Systeme zunehmend eingesetzt werden und da muss man sicherstellen, dass das gründlich überprüft wird und das muss wirklich verpflichtend gemacht werden. Denn wir haben hier ein Bereich, das sind Systeme, die verpflichtend sind. Sobald etwas verpflichtend wird für Bürger, dann müssen sie offen sein und damit überprüft werden, überprüftbar sein. Wir sehen uns im November wieder. Ich glaube, da wird es dann einen weiteren Vortrag geben zum Thema Digital Society. Vielen Dank, dass Sie wieder mal hervorgekommen sind aus Ihren Wohnungen nach all diesen Monaten oder Jahren, vielmehr. Und jetzt ist die Terrasse geöffnet für Getränke und ein Imbiss. Vielen Dank an Judith Simon.