 Guten Abend, alle zusammen hier zu Hause oder wo auch immer Sie uns zuschauen. Willkommen zu einem weiteren Event der Serie Making Sense of the Digital Society. Mein Name ist Tobi Büller. Ich bin Moderator dieser Serie, die bereits seit genau drei Jahren läuft. Wir haben eben vor drei Jahren begonnen und wir planen auch die Serie nächstes Jahr vorzuführen mit vier weiteren Daten und hoffentlich werden wir dann eine Präsenzsitzung haben. Wir wissen es nicht, keiner weiß das, aber zumindest ist das unsere Hoffnung. Wir hatten bereits fünf Veranstaltungen im vergangenen Jahr. Nur eine war eine Präsenzsitzung mit Publikum im März, mit Zibeli Kreml. Eine wurden storniert im Frühling und im Herbst, aber ich möchte dem gesamten Team danken, dass diese fünf Veranstaltungen organisiert werden konnten. Ich glaube, das ist ein Erfolg unter den Umständen. Vielen Dank an die Bundeszentrale für Politische Bildung und natürlich auch an das Humboldt-Institut für Internet und Gesellschaft, dass nun diese Veranstaltungsserie kuriert. Wie Sie kennen das schon, wenn Sie in den letzten Jahren dabei waren, wir werden hier ein Interview haben mit unserem renommierten Gast, den ich gleich vorstellen werde. Und wir haben dann auch 15 bis 20 Minuten Diskussion auf der Bühne zwischen uns beiden. Und danach, spätestens, können auch Sie involviert werden, Ihre Fragen stellen. Sie haben hier auch einen Anwalt für Ihre Fragen im Publikum. Das ist Christian Grauf Vogel, der auch bei der Serie teilnimmt. Und es gibt auch einen Tool, slido.com. Das sehen Sie wahrscheinlich auch auf Ihrem Bildschirm. AlexTV ist hier für zuständig. Und auch hier sehen Sie die Links zu den Webseiten des BBB und des Humboldt-Instituts. Unter den pandemischen Umständen fassen wir uns kurz, meist so zwei Stunden. Das war in den letzten drei Jahren der Rahmen. Ich werde mich kurz fassen. Und das sollte ich auch selber. Ja, kommen wir auch bereits zum Thema, denn wer mag schon einem Moderator zu hören? Und wer traut einem Moderator? Gute Frage, denn normalerweise reden Moderatoren ständig und sagen anderen, aber sie sollen sich kurz fassen. Das ist menschlich. Das ist typisches menschliches Verhalten, aber wie sieht es mit Maschinen aus? Traut man Maschinen und wie kann man Maschinenvertrauensvoll gestalten und was genau sollten Sie tun? Und wozu sollten Sie fähig sein und verantwortlich sein? Sie kennen ja Beispielen von Maschinen in unserem alltäglichen Leben, die immer mehr werden, wo auch ganz persönliche Entscheidungen beeinflusst werden, zum Beispiel in der Logistik, in dem Handel von Wertpapieren der Börse. Zum Beispiel, die Börse ist ja teilweise noch nicht einmal mehr physisch da, sondern wird von Algorithmen gestaltet, zumindest teilweise. Und aber auch die vorausschauende Polizeiarbeit oder auch Algorithmen, die dafür zuständig sind, uns vorschlagen, was wir uns anschauen sollen oder unsere Kinder. Oder auch wen sollen wir daten, was machen wir in unserem täglichen Leben. All das ist beeinflusst von Algorithmen oder, und das ist das wichtigste Thema für heute, wo auch unser Gastredner darüber sprechen wird, das betrifft die Maschinen, AVI, autonomes Fahren, Fahrzeuge, die sich die künstliche Intelligenz zu nutzen machen. Wie kann man Maschinen trauen? Das ist der Titel seiner Rede. Und bis zum Juno dieses Jahres war er Associate Professor für Medien, Kunst und Wissenschaften am MET-Institut, wo er ein neues Forschungsfeld gegründet hat, und zwar Maschinenverhalten, Maschinenbehaviour. Darüber wird er sprechen. Das Wichtigste seiner Themen, das sehr viel Aufmerksamkeit genießt, ist das Thema die Moralische Maschine, eine Online-Plattform, die ethisches Dilemma darstellt für autonome Maschinen. Um ein Beispiel zu geben, wie können wir jemanden dazu ermutigen, ein Auto zu kaufen, was eher den Fußgänger schützt, wohin gegen wir lieber als Passagier des Fahrzeugs geschützt werden möchten. Und wie sieht es mit den kulturellen Unterschieden aus? Maschinen treffen ja 40 Millionen Entscheidungen und in einer Minute. Und von daher ist die Frage, wie stellt sich das dar? Seit Sommer dieses Jahres ist er nun Direktor des Zentrums für Mensch und Maschine bei Max Planck, Institut für Bildungsforschung hier in Berlin. Nun, es gibt keine simultane Übersetzung heute, weil wir versucht haben, dass wir nur so wenig Menschen wie möglich hier vor Ort haben möchten in Berlin. Aber es wird eine Übersetzung verfügbar sein, wenn diese Veranstaltung online verfügbar sein wird auf den Webseiten und auch bei YouTube. In seinen eigenen Worten sagte unser Gast, der in Syrien geboren ist, dort auch studiert hat, aber auch in den Arabischen Emiraten, Australien, USA, er sagt, Zitat, wie kann die Wissenschaft uns helfen, Verwerfungen aus den sozialen Medien der künstlichen Intelligenz zu antizipieren, verstehen und aktiv zu gestalten und anzupassen auf unsere Bedürfnisse, unser Denken und Handeln. Nun, ich freue mich sehr, hier Iyad Rachwan Willkommen zu heißen. Vielen Dank für diese Einführung und danke auch Ihnen, dass Sie heute dabei sind. Für mich ist es eine große Ehre, hier Rantall zu nehmen. Danke auch an das Humboldt-Institut, das Sie mich eingeladen haben zu dieser Vortragsveranstaltung. Einführend, oder wie die Einführung bereits sagte, bin ich kürzlich nach Berlin gezogen, um das Zentrum für Mensch und Maschine zu eröffnen. Ich bin Computer-Wissenschaftler, aber ich bin selbstverständlich auch mehr als das. Und zwar bin ich zum Verhaltensforscher geworden und ich arbeite mit Menschen aus der Wirtschaft, Psychologie, den politischen Wissenschaften und so weiter, um einige der Fragen beantworten zu können, mit denen wir uns heute befassen. Der Hintergrund meiner Rede ist die Verbreitung von Maschinen und künstlicher Intelligenz in unserem täglichen Leben. Die Maschinen heute beeinflussen unser Verhalten. Sie beeinflussen die Inhalte, die wir konsumieren. Die Musik, die Bücher, die Filme, die wir uns anschauen, die Nachrichten unserer politischen Ansichten. Sie helfen uns aber auch bei der Navigation und machen uns Vorschläge, wie wir von A nach B kommen können. Aber mehr finden Maschinen auch Verwendung in sehr sensiblen Bereichen. Algorithmen werden verwendet bei der Entscheidung, wer bekommt einen Arbeitsplatz zum Beispiel oder um die Arbeitskraft zu bewerten, wer verliert seinen Job zum Beispiel oder wer bekommt ein Kredit oder finanzielle Möglichkeiten, wer bekommt medizinische Unterstützung und welche Diagnosen bekommt. Dann wird dies auch immer mehr von Algorithmen bestimmt. Letztlich geht es auch um autonomes Fahren, Autos, die uns fahren. Das ist eine Technologie, die sich sehr schnell entwickelt. Wie können wir nun Maschinen vertrauen, dass sie das Richtige tun und dass sie nicht uns schlecht behandeln oder unfair behandeln oder das Probleme entstehen? Gibt es denn auch Möglichkeiten zu Lösungen, wenn etwas schiefläuft? Ich möchte diese Frage in drei Bereichen aufteilen, drei Unterfragen. Die Idee dahinter ist, bevor wir der Maschine vertrauen können, müssen wir uns drei wichtige Fragen beantworten. Zunächst einmal müssen wir verstehen, was kann die Maschine leisten? Was kann die Maschine überhaupt? Welche Fehler kann die Maschine machen, möglicherweise? Und welches Verbesserungspotenzial gibt es für unsere menschliche Einschätzung? Und wo brauchen wir noch menschliche Überwachung? Die zweite Frage ist, wenn wir jetzt wissen, was die Maschinen leisten können, was sollen die Maschinen denn dann leisten? Wo liegen die rechtlichen Anforderungen oder Design-Konstruktionsanforderungen, die das Verhalten der Maschinen festlegen? Was wollen wir, dass die Maschinen leisten? Und die dritte Frage ist, wie stellen wir sich an, dass dies tatsächlich auch umgesetzt wird, dass diese Wünsche und Einschränkungen und Ziele auch in der Maschine umgesetzt werden? Das sind schwierige Fragen, die Computerwissenschaftler heutzutage beantworten, zu antworten versuchen, aber es gibt auch nur Teilantworten. Die erste Frage ist nun, was kann eine Maschine leisten? Wie kann man das verstehen? Nun, zunächst einmal, es sind Computerwissenschaften so etwas wie Mathematik. Hier sehen wir Ezga Dextra, der einmal sagte, die Computerwissenschaft hat so wenig mit Computern zu tun wie Astronomie mit Teleskopen. Und deswegen hatte er auch nie tatsächlich selber einen Computer, sondern erst sehr viel später. Und sehr zögerlich schaffte er sich dann einen an. Er hat dann seine Computerwissenschaften mit Papier und Stift. Denn für ihn war Computerwissenschaften Mathematik. Er hat bewiesen, dass wenn eine Maschine mit einer gewissen Logik arbeitet, die Maschine sich dann in diese oder jene Richtung bewegt und bestimmte Eigenschaften der Maschine versgelegt werden können. Das hatte tatsächlich auch eine lange Tradition in der Computerwissenschaften. Eine weitere Perspektive ist, dass man das als Ingenieurwissenschaft ansieht. Das ist so, als würde man in eine Brücke bauen. Man baut Gebäude, man verwendet Materialien und dann werden Tests durchgeführt an den Gebäuden, verschiedene Lasten werden aufgelegt, die Konstruktion wird verbessert. Das ist ein ingenieurwissenschaftlicher Ansatz. Grace Hopper ist ein gutes Beispiel. Sie war bei der Navy, ein Admiral oder General. Ich weiß nicht genau, welchen Rang sie hatte, aber sie war in sehr früh schon bei den Computerwissenschaften in dem Bereich Ingenieurwissenschaften involviert. Und man sagt ihr nach, dass sie den ersten Computerfehler in einer Maschine gefunden hat. Das war ein Computerfehler andersherum, aber auch tatsächlich ein Bug, nämlich eine kleine Wanze, die man herausnehmen musste. Sie sagte auch, Computerwissenschaften ist eine Wissenschaft. Das sagt ja schon der Name. Herbert Simon ist ein Computerwissenschaftler, ein Psychologe, und er hat in allen drei Bereichen auch als wirtschaftswissenschaftlicher einen Nobelpreis gewonnen und ein Buch geschrieben, die Wissenschaft des Künstlichen. Die Naturwissenschaft ist das Wissen über die natürliche Objekte und Phänomene, geologische Phänomene usw. Und auch künstliche Wissenschaften wie Maschinen, Institutionen und Märkte hat er beleuchtet. Und was wir kürzlich geschafft haben, wir haben eine Gruppe verschiedener Wissenschaftler aus verschiedenen Disziplinen zusammengebracht, um zu beschreiben, wie dieses neue Feld des Maschinenverhalten sich entwickelt. Das sind Menschen aus den Computerwissenschaften, Forscher aus diesem Bereich, aber auch anderen Bereichen, aus der Biologie, Anthropologie, politischen Wissenschaften, Psychologie usw. Und wir haben die These aufgestellt, dass nicht nur Computerwissenschaftler wie Maschinen sich verhalten, sondern auch Verhaltensforscher sollten involviert sein. Eine folgende Frage. Wird ein Algorithmus eine Filterblase erstellen, sodass wir nur unsere eigenen Informationen erhalten, den wir auch zustimmen? Als Ingenieure können wir uns den Algorithmus anschauen oder aber auch als Verhaltensforscher können wir den Algorithmus anschauen, um zu sehen, wie sich das Verhalten entwickelt. Wie verhalten sich die Menschen, die diese Informationen verwenden? Wie entscheiden sich Journalisten? Und die Frage ist, kann auch tatsächlich ein Algorithmus diskriminieren gegen eine Gruppe der Gesellschaft, z.B. im rassistischen Art und Weise. Genauso wie man sich eine menschliche Entscheidung anschauen kann, dort kann man ja auch entscheiden, ist jemand mit Vorteil behauptet oder nicht, genauso beim Maschinen. Dann gibt es autonome Fahrzeuge, autonome Waffen, aber auch das Handeln mit Algorithmen, also die Beispfindung von Diensten und Produkten online, das Online-Dating, Roboter, die mit Kindern sprechen können, welche Art von Unterhaltungen sind, dort gewünscht, wie beeinflussen die Unterhaltungen usw. Und sie können all diese Fragen stellen, entweder als Ingenieur oder als Psychologe, als Verhaltensforscher. Mit anderen Worten, wir können nicht nur die Maschinen bewerten, wenn wir den Quellecode uns anschauen, genauso wenig wie wir das bei einem Menschen tun können, bei dem wir in das Gehirn schauen. Wir haben ja schon tausende von Jahren ethische Standards für Menschen entwickelt, ohne das menschliche Gehirn überhaupt zu verstehen. Und jetzt bauen wir Maschinen, Gehirne sozusagen, die auch komplett außerhalb unseres kompletten Verständnisses stehen. Wenn wir jetzt wieder uns der Verhaltensforschung zuwenden, in den frühen Tagen der Verhaltensforschung, war es ja so, dass man sich vorstellen kann, eine Maschine ist eine Art Maus, die sieht so aus. Und wir schauen uns jetzt diese Maschine an und stellen uns Fragen, indem wir uns die Maus von innen anschauen. Oder aber, hier bei dieser Maus, können wir auch Verhaltensforschung betreiben. Wir sperren die Maus in eine Kiste und kreieren bestimmte Stimuli, die Temperatur zum Beispiel und dann das Verhalten. Zum Beispiel, wie lange schläft die Maus oder wir bauen einen Liberint für die Maus, schauen, wie schnell kommt sie dabei raus, wenn wir ein Stück Käse zum Beispiel ans Ende legen. Das können wir auch mit einer Maschine tun. Wir schaffen eine Blackbox, packen die Maschine dort rein und stellen uns Fragen zu deren Verhalten. Und wenn wir das tun, können wir verschiedene Algorithmen anwenden. Auch gewisse Benchmarks, die wir kontinuierlich anwenden können, um das Verhalten mit den Algorithmen zu messen. Und indem wir das tun, indem wir diese Verhaltensperspektive annehmen und nicht nur den mathematischen ingenieurwissenschaftlichen Ansatz, können wir etwas lernen aus dem Tierverhalten. Und die Gründe der Verhaltensforschung bei Tieren haben den Nobelpreis hierfür gewonnen, um die fundamentalen Fragen der gesamten Biologie und Verhaltenswissenschaft abzudecken. Können wir nun etwas Ähnliches für Maschinen und das Maschinenverhalten darstellen, wie Maschinen sich verhalten, wie es getriggert wird, wie Veränderungen sich darstellen und wie es sich auswirkt auf unser Ökosystem. Nun, das ist tatsächlich eine wichtige Frage, um sicherzustellen, dass man die Frage beantworten kann, was Maschinen tun können, indem man letztlich diese Verhaltensperspektive einnimmt. Die zweite Frage ist, nehmen wir mal an, was eine Maschine kann. Eine Maschine kann hier hinfahren oder dorthin fahren. Eine Maschine kann reagieren, wenn ein autonomes Auto zum Beispiel fährt, reagiert es schneller als ein Mensch. Und nehmen wir mal an, wir können das verhalten und all diese Dinge charakterisieren, wissen wir jedoch manchmal immer noch nicht, wie das Auto sich verhalten soll. Und das ist die zweite wichtige Frage. Um diese Frage konkreter zu gestalten, sollten wir uns ein Experiment vorstellen. Ein Gedankenexperiment. Das deutsche Wort habe ich gerade erst gelernt. Nun, ein Gedankenexperiment folgendermaßen. Wir haben hier ein autonom fahrendes Auto und in der Zukunft schon sehr bald wird dieses autonomer Fahrzeug, zum Beispiel ein Bremsenproblem haben und möglicherweise dann Passanten umfahren. Und wenn das Auto nun aber abgelenkt wird, wird nur ein Fußgänger getötet. Dieser eine Fußgänger wird natürlich sterben, aber die vier, fünf anderen Fußgänger auf der anderen Seite würden verschont bleiben. Sollte ein Auto eine solche Entscheidung treffen? Fragen Sie sich diese Frage selber. Wenn man den utilitaristischen Ansatz anwendet, würde man sagen, ja, ein Auto sollte ausweichen, weil die meisten Menschenleben geschützt werden sollten. Ein anderes Szenario sieht so aus. Nehmen wir mal an, das Auto kann abgelenkt werden, fährt gegen eine Mauer und dann wird der Fahrer verletzt. Sollte dann das Auto immer noch ablenken? Wir haben das als Umfrage gestaltet und herausgefunden, dass die Mehrheit der Menschen der gleichen Meinung sind, was das Auto tun sollte. Die meisten sagen, ja, also, die so wenig Menschenleben wie möglich sollten beeinträchtigt werden und entsprechende Handlungen vollzogen werden. Und selbst wenn die Person, die dann verletzt wird oder möglicherweise getötet wird, im Auto selber setzt. Dann haben wir aber eine andere Frage gestellt. Welches Auto würden Sie denn kaufen? Und da haben wir ein soziales Dilemma gefunden. Die Befragten sagten, ich würde niemals ein Auto kaufen, was mich selber zum Opfer machen würde. Aber für alle anderen ist das in Ordnung. Jeder andere Mensch sollte tatsächlich dieses Auto kaufen. Also, das ist eine Frage, die sich von einem ethischen Dilemma entwickelt hat, was ist richtig, hin zu einem sozialen Dilemma. Wir wissen alle, was das Optimum sein sollte, moralisch. Aber wir können es nicht umsetzen und die Konsumenten werden, letztendlich dieses Auto dann nicht kaufen, um sich selbst zu schützen. Das ist also eine völlig andere Frage, die Frage der menschlichen Kooperation des Vertrauens ineinander, dass wir eben entsprechende Regeln festsetzen müssen für natürlich diese sehr seltenen Unfalls-Szenarien. Wir wollten also mehr Menschen in die Diskussion mit einbinden und wollten das Szenario auch etwas komplexer darstellen, um herauszufinden, ob andere Faktoren auch wichtig sind in der Wahrnehmung der Menschen. Wir haben also eine Website aufgebaut, die Sie auch selber besuchen können, die moralische Maschine. Sie können dieses Spiel auch selber spielen. Das ist sehr lehrreich. Und wurde teilweise jetzt schon in Bücher an den Universitäten aufgenommen. Ein kleines Maschinen-Experiment, das Sie durch eine Übung von verschiedenen Dilemmas geleitet. Ein Beispiel hier, ein autonom fahrendes Fahrzeug, wird hier drei Erwachsene und einen Hund überfahren, aber das Auto hat auch die Option, abgelenkt zu werden. Und dann wird es gegen eine Barriere fahren und der Fahrer wird verletzt. Und da ist immer noch die Frage, wie ist das mit den Passanten? Gehen Sie rechtmäßig oder unrechtmäßig über die Straße? Das kann oder kann man auch nicht mit in Betracht ziehen? Man kann auch die Genderfrage mit berücksichtigen Frauen und Männer und so weiter. Und zu unserer Freude und Überraschung ging diese Website komplett viral und teilweise auch aufgrund der traditionellen Medien. Aber es gab auch viele YouTuber, die das aufgegriffen haben. Das sind also Menschen, die sich selber filmen, während sie an Spielen und Millionen haben dabei zugeschaut. Es ist ein sehr seltsames Phänomen, aber das haben wir hier in diesem Projekt entdecken können. Als wir die Analyse durchführten, haben wir die Website in zehn verschiedene Sprachen übersetzt. Wir haben 4 Millionen User, die 40 Millionen Dilemma sich angeschaut haben. Und eine halbe Million haben eine halbe Million demografische Umfragen ausgefüllt. Das ist der Schnappschuss hier, aber mittlerweile läuft die Website immer noch und wir haben 10 Millionen User bereits erreicht, die 10 Millionen Entscheidungen getroffen haben über die Website. Wir haben die Arbeit auch veröffentlicht. Im Jahr 2018 in Zusammenarbeit mit Wissenschaftlern aus verschiedenen Disziplinen. Und man kann hier die Verteilung der Daten sehen. Es scheint hier tatsächlich eine der größten psychologischen Umfragen von jeher gewesen zu sein. Menschen aus fast der gesamten Welt hat daran teilgenommen Millionen teilweise pro Land. Und jetzt möchte ich Ihnen die Ergebnisse zeigen. Dieses Bild zeigt Ihnen, was passiert, wenn ich ein Szenario nehme und ich ersetze das Ding auf der linken Seite mit dem auf der rechten Seite. Das heißt, ein Szenario, zum Beispiel mit einem Hund oder einer Katze, die sterben wird in dem Unfall. Und ich sage so, jetzt ist es doch kein Hund, sondern ein Mensch. Wiefern verschiebt sich die Wahrscheinlichkeit, dass dieser Mensch überleben wird im Vergleich zum Beispiel zu einem Hund? Hier sehen wir eine Quote von 60 Prozent. Zumindest laut der Meinung der Teilnehmer ist das menschliche Leben hier schützenswärterer. Zweitens, mehr Leben sind zu retten. Das heißt, man präferiert tatsächlich Lösungen, wo ein Leben oder zwei Menschen Leben mehr gerettet werden könnten. Und der dritte Punkt ist junge Menschen. Babys, Kinder werden eher verschont als ältere Menschen. Das sind die drei großen Faktoren. Dann haben wir aber auch noch Kontroverse. Und nicht so kontroverse Punkte zum Beispiel. Da gab es Teilnehmer, die eher einzelne Menschen schützen wollen. Die Leger, die Straße überqueren versus jene, die unrechtmäßig eine Straße überqueren. Die haben einen 30 Prozent Gehöre über Lebenschancen sozusagen. Aber teilweise werden auch Geschäftsleute präferiert im Vergleich zum Beispiel zu Obdachlosen. Wer sollte die Autos jetzt nicht unbedingt so programmieren? Das sage ich ja nun nicht. Aber das ist natürlich ein Fall, wo Gesetze und die Regierung ein wichtiger Rolle spielen in der Festlegung fundamentaler Grundrechte, auch teilweise abweichend von Umfrage werden. Und wir hatten sehr viele Teilnehmer und konnten deswegen auch kulturelle Unterschiede beleuchten. Das war für uns der wirklich faszinierendste Teil der Studio. Und hier möchte ich Ihnen die Präferenzen zeigen. In einem Kreisdiagramm. Am wichtigsten ist halt immer in der Gesetzenwelt das Menschenleben, erhalten von Menschenleben. Jetzt schauen wir uns mal Deutschland an dem Vergleich zum weltweiten Durchschnitt. Hier sehen wir, dass die deutschen Waldspitzweise in Aktionen mehr mögen als Teilnehmer in anderen Teilen der Welt. Auch Menschenleben sind besser zu schützen als das zum Beispiel andere Länder bewerten. Auch Menschenleben sind sehr wichtig. Auch wichtig ist Menschen zu beschützen, die an höheren gesellschaftlichen Status haben, aber nicht so sehr, wie dies in anderen Ländern der Fall ist. Das ergibt auch Sinn für mich, weil Deutschland eine egalitäre Gesellschaft ist, mehr oder weniger. Und jetzt China hier in Grün im Kontrast hierzu. Und das kann man auch für andere Länder durchführen auf unserer Webseite. Sie sehen hier, dass China ähnlich ist wie Deutschland in einigen Bereichen, aber überraschenderweise ist es wichtiger für die Chinesen, dass Menschen beschützt werden, die rechtmäßig die Straße überqueren im Vergleich zu Deutschland. Aber jüngere Menschen, zum Beispiel, scheinen hier nicht eine so hohe Relevanz zu haben. Natürlich möchten die Chinesen immer noch, dass junge Leute mehr geschützt werden, weniger als dies im allgemeinen Westen unserer Welt der Fall wäre. Wir haben also verschiedene kulturelle Variablen untersucht. Eines davon ist der Unterschied zwischen Kollektivismus und Individualismus. Denn im Kollektivismus ist das Individuum ja nur ein Teil einer Gruppe und hat hier einen geringeren Stellenwert. Und deswegen sind auch jüngere Leute nicht unbedingt so präferiert. Die Frage ist jetzt, ob diese Faktoren tatsächlich bei der Programmierung Autonomafahrzeuge mit berücksichtigt werden sollte. Das ist ein Faktor, den wir hiermit beleuchten. Das heißt, die Frage war, was können Maschinen tun? Was sollen Maschinen tun? Und die dritte Frage ist, wie können wir sicherstellen, dass die Maschinen das auch tun? Nehmen wir mal an, wir haben eine Überankunft, was der Standard ist, wie die ethischen Rahmenbedingungen aussehen für autonomes Fahren. Und wie können wir dann sicherstellen, dass diese Standards auch umgesetzt werden? Ich mag dieses Bild der Regulierung des menschlichen Verhaltens. Das ist ein Auszug aus einem Buch von Glenn Lessig, ein Professor an der Harvard-Universität für Jura. Er hat dieses Buch 99 geschrieben, Code in Adelaus of Cyberspace, ist der Titel. Das heißt, das menschliche Verhalten ist reguliert und eingeschränkt durch vier Kräfte. Die erste Kraft ist das Gesetz, was ist legal, wenn etwas illegal ist, geht man ins Gefängnis oder zahlt in Strafe. Aber wir werden auch beeinflusst von den Marktbedingungen und Kräften eingeschränkt von der Architektur und des Umfeldes, das uns umgibt, aber auch Normen und Standards beeinflussen. Was erwarten andere von uns? Und wenn man den Menschen der Mitte jetzt durch eine Maschine ersetzt, wie zum Beispiel ein autonomes Fahrzeug oder irgendein anderer Roboter, dann haben wir hier wieder alle vier Kräfte, die einwirken. Das Gesetz der Markt, die Architektur und die Normen und Standards. Der typische Ansatz, wenn man darüber nachdenkt, wie man eine Maschine überwacht, nennt sich der menschliche Umschlag. Also man hat jetzt hier ein Auto, ein Algorithmus, der sagt, wer geht jetzt ins Gefängnis, wer wird bestraft, wer nicht. Und wenn ein Mensch der menschliche Faktor mit eingebunden wird, ist alles prima. Das heißt, in einem Flugzeug haben wir ein Autopiloten, aber auch noch einen menschlichen Tonnoten im Cockpit. Und dieser Ansatz funktioniert, kann funktionieren, wenn wir alle dasselbe Ziel haben und verfolgen. In diesem Bild sieht man alle wollen dasselbe, wunderbar. Und die Aufgabe des Menschen ist dann, die Maschine zu überwachen, um sicherzustellen, dass genau dieses Ziel, über das wir ja alle übereinkommen, von der Maschine auch umgesetzt wird. Wir stellen aber auch fest, in dem Beispiel und auch in anderen Beispielen, dass Menschen häufig unterschiedliche Dinge wollen, vielleicht aufgrund der Kultur, vielleicht aufgrund der ethischen Rahmenbedingungen. Einige, für einige ist Fairness wichtiger, andere Effizienz, andere kümmern sich um die Sicherheit und so weiter. Und das ist dann unser Problem. Uns überlegen, wie wir übereinkommen können, damit wir wissen, was die Maschine tun sollen, bevor wir sie überhaupt überwachen können. Also ein Schritt davor. In anderen Worten müssen wir hier, nicht nur den Menschen, in der Schleife haben, sondern auch die gesamte Gesellschaft. Also das heißt, der Mensch muss mitinvolviert sein, aber auch eine soziale Übereinkunft, gemeinsame Übereinkunft, was die Maschinen tun und leisten können, wie sie sich zu verhalten haben. Zum Schluss möchte ich noch ein Beispiel bringen. Sie kennen ja hier dieses Beispiel, der autonomen Fahrzeuge. Das ist absolut nicht lösbar, aber wir können es immer noch lösen, indem wir übereinkommen, darüber, wie der Konflikt zu lösen ist in diesem Dilemma. Und ein anderes Beispiel, ein sehr altes Beispiel, was er sich sehr ähnlich ausschaut. Es gibt diese Gestänge, Metallstangen, die man vor ein Auto montieren kann, ein beliebiges Auto. Sie heißen in Kannan, in Australien heißen sie zum Beispiel Kangaroo Stangen, in den USA heißen sie Elch Stangen. Also es kommt darauf an, welche Tiere in welchen Ländern vorhanden sind und die Funktion ist tatsächlich den Fahrer oder die Passagiere zu schützen, wenn man eine Kollision mit einem Tier hat. Studien haben aber in den 90ern herausgefunden, dass diese Stangen auch andere Menschen in Autos und Fußgänger verletzen, und zwar noch mehr als Tiere. Und deswegen wurden sie in Australien, in Großbritannien und vielen Teilen Europas verboten, aber nicht in den USA. Ich weiß, stand der Dinge. Und hier ist jetzt die Frage. Es gibt einen Konflikt zwischen der Sicherheit des Passagiers, des Fußgängers und anderen Fahrzeugen, aufgrund der physischen Beschaffenheit des Autos. Also zunächst einmal gab es Verhaltensstudien, die festgestellt haben, dass diese Autos an anderen Schaden anrichten. Weniger für die Menschen im Auto, aber unter Umständen mehr Schäden an den Menschen außerhalb des Autos. Und deswegen haben einige Kulturen diese Stangen verboten, andere aber nicht, weil sie einfach die Situation anders bewerten. Das können wir in vielen Bereichen beobachten. Bei autonomen Fahrzeugen gibt es allerdings keine sichtbaren Stangen, die man wahrnehmen könnte. Oder die sagen so, das ist der Grund, warum das passiert in den Unfall. Sondern es gibt Algorithmen, die innerhalb des Autos sich befinden, die letztlich über das Risiko befinden. Und deswegen müssen wir ganz besonders vorsichtig sein, denn wir uns das Verhalten des Autos anschauen, bevor wir festlegen, wie das Auto sich zu verhalten hat und festzulegen, was erforderlich ist, damit wir dem Auto auch trauen können. Nun, vielen Dank, Erd, für diesen sehr konkreten Beitrag zum Maschinenverhalten. Und jetzt lasst uns noch ein bisschen in die Tiefe gehen in den nächsten 15 Minuten, bevor wir Fragen annehmen. Und bitte beteiligen Sie sich um das Slido.com. Sie sehen das auf Ihrem Bildschirm, wo und wie Sie an der Diskussion teilnehmen können in einer Minute. Jetzt, Sie haben viele Beispiele gebracht und haben ja auch mit sehr abstrakten Fragen begonnen, als Grundlage für unsere Diskussion. Beginnen wir mit dem menschlichen Verhalten, bevor wir uns den Maschinen zu wenden. Warum? Ich glaube, das kann man so sagen, warum sind wir mehr besorgt über Unfälle im Autonomenfahren, wie zum Beispiel der Uber-Unfall, der ja sehr stark diskutiert wurde. Und ab gleich wird auch wissen, dass wir ungefähr 1,2 Millionen Todesfälle bei Verkehrs- und Fällen weltweit haben und das doch stark reduziert werden könnte mit Autonomenfahren. Ich glaube, 90 Prozent weniger Todesfälle sagten sie und das ist doch eine große Zahl, ein großer Prozentsatz. Und dennoch ist das Vertrauen nicht da. Das funktionieren der Maschinen, zumindest nicht im Moment. Und deswegen sieht es wohl so aus, dass wir eher die Sterbefälle und Probleme mit dem derzeitigen Modell in Kauf nehmen. Die Frage stellt sich nun, wie kommt das? Es gibt viele verschiedene Möglichkeiten hierfür. Ich glaube, ein Grund ist, dass man von den neuen Technologien sehr fasziniert ist. Man schaut sich ganz genau Uber an oder Google oder Tesla diese Firmen an, so dass jeder einzelne Unfall, wie durch eine Lupe betrachtet wird in den Medien, weil die Faszination ja mit diesem neuen noch stark vorhanden ist. Also Teil davon ist wirklich irrational, weil wir einen sehr hohen Stellenwert beimessen diesen Unfällen. Viele Menschen sterben in Unfällen auf der ganzen Welt und da gibt es eben nicht so viele Medienberichte drüber als seitdem. Das ist jetzt ein kompletter Bus mit einer Schulklasse oder so. Und da ist der Fokus ein anderer. Und das bedeutet, dass wir komplett irrational sind. Aber bedeutet das, ist die Frage, ob wir irrational sind? Nein, das glaube ich nicht. Wir haben nur nicht genügend Daten. Diese autonome Fahrzeuge sind noch im Testmodus zum Beispiel, ein sehr kontrollierter Modus. Sie werden tagsüber gefahren, manchmal natürlich auch nachts, aber mit voller Sichtbarkeit, kein Schnee, kein Nebel. Und von daher sind die Szenarien nur limitiert, zum Beispiel auf Autobahnen. Das heißt, wir haben noch nicht genug gesehen. Es ist wie ein neues Tier auf der Straße. Das Verhalten ist für uns noch nicht erfassbar. Wie uns wurde gesagt, dass 90 Prozent der Unfälle weniger stattfinden werden, weil die meisten Unfälle aufgrund menschlichen Versagen stattfinden. Aber wir haben noch nicht ausreichend Daten, um das beweisen zu können, weil viel noch gar nicht getestet wurde. Noch gar nicht alle Fahrszenarien und möglichen Szenarien sind getestet worden. Und deswegen sind die Menschen nicht unbedingt irrational, sondern teilweise auch ängstlich. Ja, auch das wird eine Rolle spielen. Wir studieren dies auch in unserer Arbeit. Schauen Sie doch mal, wie die Menschen sich selber bewerten als Fahrer. Die meisten sagen, ich bin besserer Fahrer als der Durchschnitt, ganz besonders meiner. Das ist richtig. Wir haben alle sehr viel Vertrauen in unsere eigene Fahrweise. Nicht nur beim Autofahren, sondern auch bei anderen Dingen, würden die meisten sich selber besser bewerten als der Durchschnitt der Menschen. Das ist eine, ja, das ist im Prinzip die Wahrnehmung und beeinflusst auch die Art und Weise, wie wir das autonome Fahren bewerten. Wir glauben einfach, wir sind besser. Wir sind in den oberen 10 Prozent und trauen deswegen den anderen nicht. Und deswegen wird das Vertrauen nicht da sein, solange die Fahrt autonome Fahr nicht 99 Prozent sicherer ist als menschliches Fahren. Das ist einfach ein, das ist ein bisschen irrational. Ja, das müssen wir mit in Betracht ziehen. Das so ist der Mensch. Und wir müssen es akzeptieren, weil wir Menschenleben rechnen möchten. Und ich möchte, dass die, dass es nicht zu früh stattfindet, aber auch nicht zu spät. Denn zu früh oder zu spät würde dann eben noch zu mehr Unfällen und führen. Das heißt, eine Technologie sollte erst dann tatsächlich auch umgesetzt und angewandt werden, wenn die Menschen ihr Vertrauen, denn solange das nicht der Fall ist, werden die Menschen sowieso angreifen und möglicherweise noch mehr Unfälle stattfinden. Das heißt, sie verstehen teilweise die Rationalität bezüglich des Vertrauens in das Maschinenverhalten. Glauben Sie denn, dass zum Beispiel ein starker Anstieg von der Verfügbarkeit von wissenschaftlichen Daten das ändern würde, würde dann das Vertrauen hochgehen. Dieses Jahr haben wir ja zum Beispiel gibt es eine Zahl, die uns sehr umtreibt. Das sind 1,65 Millionen Menschen sind an Covid gestorben. Und ich weiß nicht, ob tatsächlich mehr wissenschaftliche Daten und Erkenntnisse das Wahrnehmen des Virus ändern würde. Es gibt ja in Deutschland sogar Menschen, die sagen, das Virus existiert überhaupt nicht. Und die Wissenschaftler sind völlig verzweifelt und fragen sich, wie können wir das ändern? Wir haben immer mehr Daten, wir haben immer mehr Beweise und Fakten. Und trotzdem lassen sich die Menschen nicht überzeugen. Glauben Sie denn, dass das bei den Autos anders sein wird? Nein. Aber die Analogie ist, das Beispiel ist sehr gut. Ich bin kein Experte, was Epidemiologie angeht oder Covid-19 anbetrifft. Ich beobachte das ja auch nur als allgemeiner Wissenschaftler sozusagen. Und ich bin ja kein Spezialist. Aber ich glaube, dass die Covid-Situation uns die Grenzen der Wissenschaft aufgewiesen hat. Es ist schwierig, herauszufinden, wie Covid sich tatsächlich auswirkt. Es gibt Co-Mobilitäten. Das heißt, dass jemand nicht an, sondern mit Covid stirbt aufgrund einer anderen Krankheit. Es gibt sehr viel Unsicherheit darüber, wie das Virus sich verbreitet, wie die Impfstoffe funktionieren, wie das menschliche Verhalten und unsere soziale Kontaktmuster eine Rolle spielen. Es gibt so viel Unsicherheiten. Und so viel wissenschaftliche Forschung, die aber dann doch letztlich sich als nicht zuverlässig unter Umständen erweist, dass sich Ängste ausbreiten, aber auf der anderen Seite auch Menschen sehr überoptimistisch sind. Es ist schwierig, tatsächlich die Causa festzustellen. Und das Gleiche gilt auch für autonomes Fahrrad. Autonome Fahrzeuge gibt es schon im Markt. Und die ganzen Zahlen der Unfälle sinken mit der Ausnahme zum Beispiel von Fahrradfahrern. Wie geht es daran, dass die Autounternehmen die Radfahrer nicht in Betracht ziehen oder es ist das Verhalten der Radfahrer? Und das ist eine Frage, in die man wissenschaftlich nicht belegen kann. Man muss eine Infrastruktur aufbauen und das Ganze randomisieren, um sicherzustellen, dass das Maschinenverhalten sich anpassen kann. Bei menschlichen Verhalten kann man sagen, gut, ich gebe einigen einen Placebo, anderen einen Medizin und dann kann ich herausfinden, wie effizient oder effektiv tatsächlich die Medizin das Medikament ist oder einige bekommen einen Kredit in Höhe von diesem Betrag und andere von jedem Betrag. Und wir sehen dann, welchem der beiden Gruppen geht es letztlich besser. Aber jetzt ist es ja so, wenn verschiedene Unternehmen die Algorithmen aus Gewinngründen entwickeln, was ja normal ist, haben sie kein Interesse an diesen Studien teilzunehmen. Wir haben keine Standardmatrix. Das heißt, wir benötigen immer noch sehr viel Basisarbeit, bevor wir die Kausalenzusammenhänge des maschinellen Verhaltens tatsächlich verstellen können. Ja, das stimmt. Sicherheiten und Unsicherheiten spielen in diesem Jahr eine sehr große Rolle in der Pandemie. Das ist richtig. Und der Zweifel an der wissenschaftlichen Forschlung ist sehr laut geworden. Und wir hoffen einmal, dass der zentrale Aspekt des Zweifels auch sich als fruchtbar erweist, denn letztendlich funktioniert hier auch so wissenschaftliches Arbeiten. Aber lassen Sie uns kurz über kulturelle Unterschiede sprechen. Das wäre ja sehr interessant. Wir haben ja so viele Daten zusammengetragen. Und verschiedene Kulturen haben an der anderen Stelle etwas ältere Leute, Kinder und so weiter anbetrifft. In China zum Beispiel ist das nicht so sehr der Fall. Und da gibt es viele Probleme, die sich daraus ergeben können aus all diesen Fragen. Und die Frage ist jetzt, wie haben Sie diese Daten verwendet in Ihrer Studie? Wer legt letztlich fest, was die Entscheidungen einer Kultur sind? Und wie wird das in die Autos, sag ich jetzt mal, mit eingebaut? Wer entscheidet das? Minderheiten müssen ja auch mit berücksichtigt werden. Verschiedene Wertesysteme. Es gibt freie Gesellschaften, die ja auch immer noch miteinander streiten und da übereinzukommen. Darüber sprechen wir insbesondere hier in Deutschland in den letzten Jahren. Die Frage ist also, wie kann man das definieren? Was ist dominant und vorherrschend in einer Kultur? Und wie kann man das in die Technologie mit einbinden? Wir müssen hier vorsichtig mit umgehen. Das wäre hier nicht das positive, den normativen, oder das imperative, den normativen gegenüberstellen. Sinn und Zweck unserer Umfrage war, festzustellen, wie die empirischen Fakten sich darstellen. Das heißt, die Menschen, die unsere Webseite besucht haben, was denken Sie, wie sollte das Auto sich verhalten? Und die zweite Frage war die normative Frage. Was sollen die Hersteller der Autos machen? Was sollen die Gesetzgeber als Regeln festlegen für das Verhalten jener Autos? Und das sind ja unterschiedliche Fragen. Das können Wissenschaftler nicht beantworten, sondern das müssen Juristen und Politiker beantworten. Und dann kann natürlich auch die öffentliche Meinung oder auch nicht mit berücksichtigt werden. In einigen Fällen werden vielleicht Politiker auch die öffentliche Meinung nicht mit berücksichtigen, wenn sie denken, dass bestimmte Dinge nicht zu priorisieren sind, weil es zum Beispiel mit den Grundrechten der Bürger kollidiert, zum Beispiel, oder der Verfassung. Dann sind das natürlich Aspekte, die wichtiger sind. Es gibt aber auch Fälle, wo es gut ist, wenn man weiß, was die Öffentlichkeit möchte. Das kann hilfreich sein, weil man dann ein Gefühl dafür bekommt, was man möglicherweise vergessen hat. Es gab beispielsweise in Deutschland eine Mission, die vom Transport- und Verkehrsministerium aufgestellt wurde, um einige ethische Standards für autonomes Fahren festzulegen. Und Sie haben zum Beispiel gesagt, das Auto sollte nicht verschiedene Personengruppen diskriminieren aufgrund auch von Alter, Geschlecht oder anderer Umstände. Und das Wort Alter ist natürlich ein Problem, weil viele Menschen vielleicht eher Kinderschützen möchten, dass man sagt, wie ist das, wenn hier ein 20-Jähriger ist und auf der anderen Seite ein 50-Jähriger, die sollten möglicherweise gleich behandelt werden. Aber was ist mit 5 und 70-Jährigen? Also das ist eine Konversation. Es ist wie Politik. Es muss diskutiert werden. Es muss erwogen werden. Und wir haben eigentlich nur ein Abbild der öffentlichen Meinung abgebildet. Aber man muss sicherstellen, dass man auf der einen Seite die Meinungen hat, auf der anderen Seite das Normative, sodass wir eine Interaktion haben, dass man tatsächlich auch die öffentliche Meinung mit in Betracht zieht, aber in anderen Bereichen möglicherweise nicht. Das ist ein großes, großes Puzzle, wie man diese Technologien zusammenstellt. Ja, das Normative ist ja etwas, was Wissenschaftler möglicherweise nicht so gerne diskutieren. Also vielen Dank, dass Sie mit darauf eingegangen sind. Aber ich möchte nochmal auf das Gedankenexperiment zurückkommen und zu schauen, wie sich das auswirkt. Nehmen wir mal an. Ich bin ein typischer weißer Mittelklassemann, der nach Syrien reist beispielsweise. Und ich hoffe, dass das bald wieder möglich sein wird. Die Frage ist, wer wird das Autofahren, wird das Autonomen auf europäischer Art und Weise gefahren oder passt es sich an das syrische System? Also je nachdem, welche politischen Rahmenbedingungen dort gerade bestehen, wir haben ja gerade schon gesagt, dass Syrien auch ein Land ist mit verschiedenen Minderheiten, regionalen Unterschieden. Das heißt, welcher Standard wird das Auto haben? Habe ich ein Gerät im Auto, das mir sagt, so, jetzt bist du von Deutschland gefahren nach Syrien und jetzt wird der Standard umgestellt oder wie wird das funktionieren? Das ist eine sehr wichtige Frage, auf jeden Fall. Ich würde meinen, dass ich mich unbedingt in der Lage bin, diese Frage zu beantworten, weil ich kein Politiker oder Jurist bin. Aber als Leih kann ich das durchaus beantworten. Und ich würde denken, dass wir bereits jetzt universelle verkehrsgerechte Gesetze haben. Grün zum Beispiel heißt immer Fahr, rot heißt Stop oder das Stop-Shield sieht in der ganzen Welt gleich aus. Aber es gibt auch Unterschiede. Zum Beispiel, wie verhält man sich an einer Kreuzung, wer hat Vorfahrt, je nach Gegebenheiten? Also es gibt auch verschiedene Geschwindigkeitsbeschränkungen in den unterschiedlichen Ländern und so weiter. Das heißt, wir haben schon viele Beispiele im Bereich des Verkehrs, wo wir allgemeine Gesetze haben, aber auch lokale Besonderheiten. Und möglicherweise kann man das auch beim Autonomenfahren mit umsetzen, dass es universelle Risikofaktoren und Einstellungen gibt, global plus, möglicherweise auch einzelne kulturelle Prioritäten, die mit berücksichtigt werden. In welchem Umfang das so regional sein soll oder landesweit sein soll, das ist letztendlich dann die Aufgabe der Politiker dies festzulegen. Und dann haben wir natürlich noch die Juristiktion in den USA. Zum Beispiel gibt es unterschiedliche Regelungen in den verschiedenen Bundesländern. Das heißt, es wird eine sehr politische Frage. Das muss man einfach so anerkennen. Das Verhalten von Maschinen ist tatsächlich eine neue politische Arena, weil die Menschen anfangen, darüber zu bestimmen, wie eine Maschine funktionieren soll. Bei Autos ist es vielleicht trivial, ein Auto sollte sicher laufen. Aber wenn Algorithmen Entscheidungen treffen sollen, hinsichtlich der Kremien, hinsichtlich zum Beispiel Straftaten oder wie man Ressourcen aufteilt für ärmere Menschen oder welches Sicherheitsnetz eine Gesellschaft haben soll, in der Zukunft würde ich sagen, dass man nicht darüber streiten sollte, wer im Senat sitzen soll zum Beispiel, sondern eher, welche Algorithmen sollen für was zuständig sein, für welche Funktionen in den Regierungen. Das ist ein bisschen beängstigend. Haben wir die Mechanismen, die Institutionen, die dies leisten können? Ich glaube, das ist immer noch eine offene Frage. Das ist richtig. Das ist ja auch eine Frage des Status der Maschine. Es gibt einen Unterschied zwischen Ethik und der ethik- künstlicher Intelligenz, wie wir ja auch schon vorher besprochen haben. In Europa hatten wir diese Debatte ja schon überall, weil die Europäische Union nun auch erwägt, dass Roboter-Persönrechte bekommen sollen und dann wurde dieser Prozess allerdings gestoppt. Ich habe darüber nicht mehr sehr viel gelesen. Das heißt, invasive Roboter, die zum Beispiel bei chirurgischen Interventionen eingesetzt werden und ob sie sie dann auch eine bestimmte Rechenschaftspflicht haben oder Verantwortung tragen. Und vor ein paar Jahren später sieht es ja nun schon wieder etwas anders aus. Ist das vielleicht das menschliche Charakteristika nicht auf die Technologie übertragbar sind? Das ist eine sehr interessante Frage. Es scheint belegbar zu sein, dass es Maschinen gibt, die tatsächlich Entscheidungen treffen und dann Fehler gemacht werden. Und dann versucht man meistens herauszufinden, wer ist der Mensch, der dafür zuständig ist und in unseren eigenen Recherchen, sehen wir, dass es teilweise so ist und auch gut ist. Man muss letztendlich dann eine Person bestrafen, möglicherweise den, der die Maschine gebaut hat. Aber vielleicht ist das auch nicht die richtige Person, weil wenn ein semi-autonomes Fahrzeug jemanden tötet, dann möchte man den Fahrer bestrafen, weil er ja nicht angegriffen hat. Aber wenn der Mensch dann die Maschine im Prinzip beherrscht, dann wird die Maschine niemals dafür verantwortlich gehalten, wenn dann doch ein Unfall entsteht. Und dann ist auch immer die Frage, was es mit dem Hersteller, der es programmiert hat. Wie projizieren wir Vorsatz zum Beispiel oder auch persönliche Entscheidungen? Und wie, ich denke, dass es schwierig ist und dass es schwierig sein wird, den richtigen Verantwortlichen für einen Fehler und die Konsequenzen zu finden. Da müssen wir sehr vorsichtig vorgehen. Und manche sagen, ja, wie ist das mit der Entwicklung von Robotern? Wir müssen institutionell alles sicherstellen, damit die menschliche Ethik und der menschliche Wille in der Welt umgesetzt wird. Und wenn wir die Maschine wie eine Firma behandeln, wo Intermenschen stehen und dann die Gesetze entsprechend ausrichten, ist das in Ordnung. Aber man muss einen Weg finden, damit umzugehen. Ich denke, dass das Ziel letztendlich darin liegt, dass die menschliche Sicherheit zu fördern, damit wir die Welt besser und sicherer gestalten können, bessere medizinische Versorgung sicherstellen können oder auch das Transportwesen von A nach B sicherer dargestellt werden kann. Und das Ganze benötigt einen politischen Prozess, um das umzusetzen. Gut, bevor wir die Fragen nun behandeln, kann ich denn dann sagen, dass abgesehen von den Gesetzen und Regularien gibt es keine KI-Ethik, sondern nur eine normale Ethik. Das ist richtig, es gibt eine menschliche Ethik, die sich auch auf die künstliche Intelligenz anwenden lässt. Natürlich werden neue Fragen, neue ethische Fragen aufgeworfen, aber letztlich ist es menschliche Ethik. Was macht man, wie soll sich ein Auto verhalten, zum Beispiel bevor eine Person getroffen wird? Das ist etwas, was eine absolute Frage ist. Und kein Mensch kann innerhalb von einer Sekunde schnell genug diese Frage beantworten, aber eine künstliche Intelligenz kann dies möglicherweise. Das heißt, es ist eine neue ethische Domäne, in die wir uns begeben, aber letztlich müssen wir dieselben Werte immer noch anwenden, wie auch für den Menschen. Wir haben jetzt eine ethische Superkräfte sozusagen. Wir können das so programmieren, dass die Maschine sich wie ein Mensch verhält, oder auch anders, besser vielleicht, eine Chance. Vielen Dank. Christian Graufvogel, wie sieht das aus? Bei Slido gibt es dort schon Fragen. Ja, es gibt viele Slido-Fragen von den Zuhörern. Die meisten betreffen das Gedankexperiment mit dem autonomen Fahrzeug. Die erste Frage ist, sollte man Maschinen mehr trauen, wäre es nicht besser, wenn das Auto sich in meinem Sinne verhält und deswegen das Gleiche täte, wie ich im Idealfall täte? Ja, das wäre vertrauenserweckender für Sie in einer Situation, nämlich, dass das Auto in Ihrem eigenen Interesse handelt. Und da komme ich wieder zum Normativen. Also, das eigene Interesse, was man hat, ist eine breitere Frage. Nicht nur, was ist das Interesse in der speziellen Situation, wo Sie sich im Auto befinden. Dieser Gedanke des Philosophen John Rhodes, der Schleier der Ignoranz. Wenn Sie zum Beispiel in einer Situation sind, wo Sie zwei verschiedene gesellschaften Arten haben und man weiß nicht, wo man sich befindet, man kann das Auto im Auto sein, die Person im Auto sein, oder auch der Passagier in einem anderen Auto oder der Fußgänger. Welche Gesellschaft möchten Sie zugehören, wenn Sie nicht einmal wissen, wie sich das auswirkt? Ich würde denken, ich würde meinen, es sei in meinem besten Interesse in einer Gesellschaft zu leben, wo das Auto, das autonomen Pferd den geringsten Schaden anrichtet. Denn wenn ich in einer Gruppe von zehn Personen bin und das Auto den geringsten Schaden anrichtet, ist man eine Chance in der Gesellschaft auch höher. Das ist ein sozialer Kontrakt, den ich eingehe. Weil das in meinem eigenen Interesse ist, aber auch gleichzeitig im Interesse der Gesellschaft. Und deswegen ist das sinnvoll, sich auf diesen sozialen Kontrakt einzulassen. Aber das ist natürlich immer eine spezifische, lokale Situation, die möglicherweise anderer Entscheidungen hervorbringt. Ja, das kann verschiedene gesellschaftliche Rahmenwerke geben, wo wir nicht der gleichen Meinung sind, absolut. Eine weitere Frage ist der Punkt der kulturellen Aspekte, die Sie auch schon ansprachen. Was kann das Risiko sein von kulturspezifischer Software im autonomen Fahren auf der Grundlage Ihrer Darstellung? Und eine andere Frage ist der historische Kontext. Welche Rolle spielt der historische Kontext in Ihrem Modell? Gibt es auch historische Erfahrungen, die mit ein, mit anbezogen werden, wie zum Beispiel ethische Updates für alte Autos, wie eine Art ethischer TÜV? Gut, das ist eine sehr komplexe Frage. Ich versuche Sie zu beantworten. Ich glaube, dass die Kulturen sich verändern. Natürlich. Unsere ethischen Werte verändern sich. Was wir heute haben, ist schon unterschiedlich von dem, was wir vor 50 oder 100 Jahren hatten. Die Rechte verändern sich. Und hoffentlich gehen wir in Positiven nach vorne. Aber natürlich ist dies etwas, was wir mit überlegen müssen, bei Maschinen. Selbst unsere Wahrnehmung, dessen was eine Maschine ist, verändern sich, weil die Maschinen selber sich verändern. Sie werden besser, können sich selber besser erklären, die Entscheidungen besser erklären und machen vielleicht auch besser ihren Job, dass sie besser fahren, dass sie bessere Entscheidungen treffen. Das heißt, wir werden hoffentlich mehr den Maschinen im Laufe der Zeit vertrauen können. Und deswegen sollten wir nicht nur autonome Fahrzeuge einmal programmieren und das war es, sondern wir müssen es immer wieder überdenken, denn die Maschinen verändern sich. Wir verändern uns. Und wir müssen deswegen konstant als Gesellschaft darüber reflektieren, was unsere Werte sind und welche Werte wir umgesetzt sehen möchten in diesen Algorithmen, die ja letztendlich Entscheidungen treffen. Ja, und dann gibt es noch eine Frage, hinsichtlich einseitiger Entscheidung, nämlich, wie kann man sicherstellen, dass automatische Fahrzeuge keine fehlerhaften Entscheidungen treffen, dass Frauen zum Beispiel gefährdet werden, weil der Standard Dummy ein Mann ist und schon mal gar nicht schwanger. Gut, es ist ganz eindeutig, dass es viele Möglichkeiten gibt, wie wir jetzt feststellen können, dass alles, was jetzt konstruiert und designiert, unsere Technologien, unsere Welt, ob es exklusiv ist oder inklusiv ist, sicherstellen, dass wir alle schützen, und zwar die, auch die Minderheiten und unterrepräsentierte Gruppen. Daran arbeiten wir sehr stark im Bereich der künstlichen Intelligenz. Es gibt ganze Konferenzen, die sich nur mit der Transparenz und der Gleichstellung und Gleichberechtigung befassen. Hunderte von Veröffentlichungen dazu. Das ist ein sehr hoher Punkt auf unserer Tagesordnung und ein Aspekt, den wir definitiv in berücksichtigen müssen. In unserer Umfrage haben wir herausgefunden, dass die Öffentlichkeiten möchte, dass das Auto Frauen besonders favorisiert. Es gibt also tatsächlich eine Präferenz, dass Frauen geschützt werden. Ganz besonders schwangere, aber generell auch Frauen. Das haben wir in der Umfrage gesehen, und das ist eine Frage für die Gesellschaft. Was ist die richtige Antwort? Ich kann das nicht sagen, ich bin nur ein Wissenschaftler und beschreibe die Zahlen und präsentiere das Ergebnis der Gesellschaft, sodass die Gesellschaft darüber nachdenken kann ob es das ist, was wir möchten oder ob das verhandelbar ist. Ich glaube aber, dass wir ganz offensichtlich in der Wissenschaft sehr stark uns bewusst sind, und das ist ganz besonders im Bereich der KI der Fall, dass diese Themen angesprochen werden müssen. Das ist ein konstanter Dialog und mit dem befassen wir uns konstant. Die meisten dieser Fragen haben etwas damit zu tun, was wir vorher schon in der Geschichte gesehen haben und was sie auch in einem anderen Artikel beschreiben, den ich gelesen habe, und das ist die Frage des sozialen Vertrages, der soziale Kontrakt. Was bedeutet das? Das heißt, das ist die Macht der vielen in der westlichen Welt. Das hat das natürlich zu Verwerfungen geführt, zu Kriegen geführt, wo der soziale Vertrag in den letzten 300 bis 400 Jahren immer wieder neu ausgehandelt wurde. Und jetzt gibt es die Technologien, die ja auch noch mal vor der Türe stehen und so, dass neue soziale Verträge und Übereinkünfte mit gefunden werden müssen. Das heißt, die Technologien beeinflussen das Ganze jetzt und wird das nun wieder eine neue Ära hervorrufen von Kriegen, von Verhandlungen, wenn man das so bezeichnet, die wir in den letzten 100 Jahren schon gesehen haben. Nun, ich muss das jetzt als Hobbyphilosoph und Historiker beantworten, denn ich bin kein Experte. Der soziale Vertrag und ganz besonders hier, die Gesellschaft selber, die ja letztlich der Souverän ist, ist Teil der Lösung. Das kommt immer darauf an, wo man gerade steht. Thomas Hobbes zum Beispiel als Philosoph, der das schon beleuchtet hat, diesen gesellschaftlichen Vertrag und diese Theorie ja auch letztlich begründet hat, ist Teil eines Berührerkrieges gewesen in England. Das war eine ganz furchtbare Zeit dieser Bürgerkrieg. Und er hat den Souverän als Lösung für die Gewalt gesehen. Also diese Einheit muss das Gewaltmolipol haben, denn diese Einheit vertrauen wir, diesem Staat vertrauen wir. Und diese Einheit kann natürlich auch an sich gerupt werden und selber wieder Gefahr hervorrufen, Gewalt hervorrufen. Und deswegen müssen wir das immer wieder neu aushandeln und beleuchten, um die Kräfte zu kontrollieren und auch die Macht einzudämmen, wenn es erforderlich ist. Und die Frage mit der künstlichen Intelligenz, gut, ist es nur eine Gefahr oder auch eine Chance ist, kann natürlich eine Gefahr sein. In dem Sinne, dass wenn die Welt von Algorithmen regiert wird und die Algorithmen selber einseitig sind, bestimmte Gruppen bevorzugt und Ungleichheiten hervorruft und letztlich dann noch stärker werden, kann natürlich auch eine gewisse Unterdrückung stattfinden, wie wir auch in diesen Kommentaren gesehen haben. Oder Algorithmen können aber auch eine Rettung sein für uns, weil sie unbestechlich sind. Bestechungen interessieren nicht. Und wenn Fehler aufkommen, kann man sie neu programmieren. Aber als Menschen haben wir unsere Vorurteile, die sehr, sehr schwierig neu zu programmieren sind. Um zu programmieren sind. Ein Freund von mir, ein Professor in der Universität Chicago, hat einige Arbeiten im Bereich des Gesundheitswesens in den USA für Diskriminierung durch Algorithmen durchgeführt. Und er hat ein Artikel veröffentlicht, der letztlich besagt, dass Algorithmen korrupt sein können. Aber die lassen sich leichter beheben als die Korruption bei Menschen. Weil man kann einfach den Code ändern. Und in diesem Sinne gibt es eine Chance. Nun, das ist jetzt die Frage. Ist es die Rettung oder ist es ein Problem? Das ist ja eine Frage, wie die Politiker dies umsetzen, wie die Politik das umsetzt. Nun, wenn man die Klappe aufmacht und letztlich in Europa ganz neu programmiert, da gibt es einiges in Europa in diesen Tagen auf der Agente. Aber vielleicht sollten wir noch einmal schauen, welche Fragen noch im Raum stehen. Es gibt eine andere Frage. Hinsichtlich des Gesellschaftsvertrages, des sozialen Vertrages, die wie können wir einen fairen Kompromiss finden, wenn Technologieunternehmen programmierende Entscheidungen finden. Wer stellt das fest und legt Dinge fest, wenn nicht alle User mit eingebunden werden können? Eine sehr gute Frage. Wie macht man das denn außerhalb der digitalen Welt, der IT? Das Problem ist ja ein altes, was wir in vielen Bereichen sehen. Eines der Probleme, das wir heute haben, ist, dass viele KI-Algorithmen, die unser Leben beeinflussten von Unternehmen gesteuert werden und nur wenig Regulierung stattfindet in dieser Unternehmen. Und die Regulatorien sind immer noch hinter der Technologie, hinterherhinkend. Das Problem hierbei ist, wenn wir beginnen, stark zu regulieren, dann kann das auch ein Problem darstellen, weil zu viel Regulierung, die auch stark von der Politik beeinflusst werden, verlangsamt die Entwicklungen und die Innovation, sodass die Verhandlungen stecken bleiben können. Also da gibt es sicherlich eine Balance, ein Punkt, der die richtige Balance finden lässt und eine Lösung finden lässt. Wir möchten, dass die Algorithmen zum Beispiel dies oder jenes nicht tun. Wir sagen euch nicht, wie ihr die programmieren soll. Das werden wir nicht vorschreiben, wie die Computercodes aussehen sollen, aber die Verhaltensaspekte möchten wir gerne festlegen. So ist es ja auch mit Menschen. Wir wissen nicht, wie, also wir überlassen es dir, wie du fährst, aber die Verkehrsregel legen wir fest. Und wenn du dann im Rahmen dessen kannst, du tatsächlich in deinem eigenen Stilauto fahren. Wir haben ja da eine gewisse Bandbreite. Wir brauchen Politiker, die die Bandbreite dessen und die Nourcen auch verstehen, die auch in der Lage sind, die mit den Technologieunternehmen zusammenzuarbeiten, um letztlich diese Grenzen auszuhandeln und auch zu verschieben, wenn es im Laufe der Zeit erforderlich ist. Je mehr Vertrauen aufgebaut wird, desto mehr Freiheiten haben, die Technologieunternehmen letztlich auch neue Dinge auszuprobieren. Ich habe keine Antwort. Ich glaube, das ist immer noch die wichtigste Frage, wie die Politiker das in Zeit und Alter der künstlichen Intelligenz umsetzen. Ich habe keine Antwort, aber ich hoffe, dass ich bei der Fragestellung helfen kann. Eine letzte Frage, es gibt viele Fragen, aber vielleicht nehmen wir das als die letzte Frage für heute Abend. Abgesehen von dem Beispiel mit den autonomen Fahrzeugen, welche andere Dilemmas können sich im Wirtschaftsbereich durch die künstliche Intelligenz auswirken. Das ist vielleicht eine sehr breite Frage, aber einige Aspekte mögen interessant sein. Nun, wir sehen bereits jetzt schon, dass die künstliche Intelligenz verwendet wird, um festzulegen, wer zum Beispiel einen Job bekommt. Wie Uber zum Beispiel und Auslieferdienste sind die Algorithmen in der Lage, eine Optimierung stattfinden zu lassen zum Wohle des Unternehmens, dass die Dienstleistungen ausführen, zum Beispiel Uber oder wer auch immer. Aber das kann natürlich auch in Resultieren in eine ungleiche Behandlung von Fahrern. Einige Fahrer bekommen nicht so viele Aufträge zum Beispiel oder bekommen den Dienst nicht, weil sie zu weit weg leben und wohnen. Und das wiederum kann dann die Verfügbarkeit von Produkten entsprechend einschränken. Das reguliert sich jetzt selber innerhalb der Unternehmen. Das heißt, es gibt keine rechtlichen Anforderungen, keine Qualitätsstandards, die anzuwenden wären. Und dann ist natürlich das Strafrecht ein anderes Thema. Es gibt Algorithmen in den USA, die heute den Richter beraten, ob jemand auf Koalition entlassen werden darf oder ob derjenige im Gefängnis warten soll, bis der Prozess stattfindet. Und die Richter folgen häufig den Algorithmen und dem Rat. Und häufig sagen sie dann auch, der Algorithmus ist schuld, wenn da etwas schiefläuft. Das ist eine wichtige Frage, was etwas mit der Freiheit von Menschen zu tun hat und der Behandlung der Bürger in einem sehr sensiblen Kontext. Das Gesundheitswesen. Es gibt ja eine Studie, die ich vorhin schon ansprach, die festlegt, welche Menschen eine medizinische Behandlung oder Sonderbehandlung bekommen darf in den USA. Und man hat festgestellt, dass der Algorithmus unbeabsichtigerweise schwarze Menschen benachteiligt, diskriminiert. Das heißt, das sind nur einige Beispiele. Und man kann sich vorstellen, wie sensibel dieses Thema ist, wenn bestimmte Gruppen dann zum Beispiel mehr sterben aufgrund des Versagens eines Algorithmus oder dass der Algorithmus eben aus Gewinngründen so und so programmiert wurde. Also alles, wo eine Entscheidung zu treffen ist. Hinsichtlich eines Events in der Gesellschaft kann durch künstliche Intelligenz ersetzt werden und in einigen Fällen ist das bereits der Fall. Vielen Dank, Christian, dass Sie uns die Fragen hier als Advokat präsentiert haben. Es gibt sicherlich noch sehr viele andere Fragen. Darüber bin ich noch nicht einmal überrascht. Denn diese Rede trifft ja nun wirklich einen sehr wichtigen Punkt, einen Wundenpunkt auch, der uns noch lange beschäftigen wird. Am Ende dieser Diskussion möchte ich nunmehr, allerdings ein anderes Thema, nicht so sehr die normative Zukunft ansprechen, sondern die Gegenwart, die Gegenwart in der Politik. Das hat etwas zu tun auch mit ihrem Thema und ihrer Forschung. Das heißt, das Maschinenverhalten kann ja auch darin resultieren, dass Servicebedingungen nicht eingehalten werden. Ein junges Forschungsthemen hat das gerade in Schweden bei Spotify erfahren. Sie bekamen nämlich einen großen Ärger, weil bestimmte Dinge nicht eingehalten wurden. Die Frage ist, wie reagiert man darauf? Und es gibt da jetzt einige Ansätze. Gestern vorgestern haben wir das ja noch von der Europäischen Kommission gehört. Es soll ein Gesetz für die digitalen Dienstleistungen und Märkte geben als Paket, das jetzt diskutiert wird. Das muss noch durch das Europäische Parlament und auch durch die Mitgliedsstaaten. Aber es ist da. Und irgendwo ist es auch sehr radikal und wird auch sehr stark auch die Welt verändern in den nächsten 20 Jahren hinsichtlich dieses Themas. Nun, einige Dinge, die hier in ein Gesetz gegossen werden soll, sind neue Befugnisse, um festzustellen, wie die Plattformen arbeiten, sodass letztlich auch zum Beispiel Forscher Zugang bekommen zu den wichtigen Plattformen Daten. Das heißt, es wird ein politischer Hebel sein, sodass die Plattformen verpflichtet sein werden müssen, die Daten zu teilen. Und das ist ja etwas, was konträr ist zum Businessmodell. Und für die Konsumenten auch. Die Verbraucher können jetzt dann feststellen, warum sie bestimmte Produkte beworben bekommen und sollten dann auch die Möglichkeit bekommen, diese Vorschläge auszuschlagen, dass sie gar nicht mal angezeigt werden. Das sind nur einige Teile in diesem neuen Gesetz, was jetzt gerade diskutiert wird. In den USA-Gate Business Masses Two Sets Institut, das Forschung in dem Bereich betreibt, eines der besten Institute, die hoch ist letztlich die Wahrscheinlichkeit, dass das ein Alleinstellungsmerkmal in Europa wird. Ein gutes Beispiel, dass man mehr Beteiligung der Zivilgesellschaft erreichen kann bei all diesen Themen, die wir heute diskutiert haben. Oder wird es umgekehrt sein, dass es ein großes Disaster wird, weil die Plattformen wahrscheinlich nicht kooperativ sein werden. Was denken Sie? Oh, das ist eine schwierige Frage. Ich weiß, es ist gerade ganz aktuell, aber es erfordert eine Vorhersage und das ist wirklich schwierig. Ganz besonders, was diese politischen Aspekte anbetrifft. Ich bin der falsche Anspruchpartner, muss ich sagen. Aber ich kann es versuchen. In den USA gibt es eine große Aversion hinsichtlich der Regulierung von Technologien, weil es so angesehen wird, dass die Technologien eingeschränkt werden, dass Compliance-Kosten steigen für die Unternehmen usw. Das heißt, es gibt immer noch dennoch sehr viel Augenmaß von Facebook, die zum Beispiel auch von den Kongressen eingeladen werden, um bestimmte Dinge zu vertreten. Aber es gibt wenige Diskussionen, welche Mechanismen eingesetzt werden müssen für die rechtliche Umsetzung. Diskussionen, ja, aber wenige Beispiele nur. Einige Plattformen haben die eigene Forschung. Das heißt, sie haben eigene Wissenschaftler, die damit befasst sind, einige dieser Fragen zu beantworten. Aber es gibt einen Vetorecht der Unternehmen über die Veröffentlichung. Wenn zum Beispiel der Ruf geschädigt werden kann oder der Marktanteil beeinträchtigt werden kann oder den Markt wert, dann wird das einfach nicht veröffentlicht. Das heißt, man braucht immer noch Dritte. Und ich kenne Menschen, die schon an Projekten mit diesen Technologiefirmen gearbeitet haben, zusammengearbeitet haben und zum Beispiel 2 Jahre lang Arbeit geleistet haben. Und dann wurde ihnen einfach gesagt, na tut mir leid, das dürfen Sie jetzt nicht veröffentlichen. Das heißt, es ist freiwillig in den USA. Und es gibt ein gutes Beispiel. Social Science One ist eine Kooperation zwischen Facebook und anderen Akademikern. Gary King in Harvard leitet diese Gruppe. Und hier werden anonymisierte Daten von Facebook für die Forschung verwendet und man muss aber sich bewerben für dieses unabhängige Panel. Aber Facebook nimmt daran nur freiwillig teil. Und der europäische Ansatz ist ein ganz anderer. Man kann das fordern. Es gibt Regeln, die sich anwenden lassen auf alle Technologiefirmen. Aber daraus ergeben sich natürlich regulatierische Kosten, Compliance-Kosten, ganz klar. Und das macht alles auch komplexer, komplizierter. Das Silikon Valley Motto ist ja, dass man sich schnell bewegt und Dinge verändert. Das wäre doch einfacher für Sie als Forscher. Ja, für mich als Forscher wird sich das gut an. Weil, wenn es einen Mandat gibt, einen Recht gibt, sodass ich in die Firmen gehen kann und sagen kann, da hier ist eine wichtige Frage. Und gesetzlich sind Sie verpflichtet, mich hier Forschung betreiben zu lassen. Ist das für mich natürlich gut, weil wir im Moment immer noch sehr stark von der Wohlwolle der Plattform abhängen sind. Es gibt ja einige, die für diese Plattform Forschung betreiben. Und die müssen fast schon sich wie Hacker verhalten, z.B. Fake-Accounts erstellen, um sich zu stellen. Ich habe z.B. einen Kollegen, der das gemacht hat, der Forschungsprojekt hatte und in der Forschung zu einzelnen Personen. Und dann hat man die Suchmaschine, hat er die Suchmaschinen analysiert oder Amazon als verschiedenen Personperspektiven analysiert, um zu sehen, ob Amazon z.B. Preisdiskriminierung macht verschiedene Ergebnisse, generiert werden, sodass ein unfairer Preis-Wettbewerb stattfindet. Aber das Problem dabei ist, er hat tatsächlich die Servicebedingungen gebrochen. Und das kann als Hacking ausgelegt werden. Und er könnte dafür tatsächlich strafrechtlich verfolgt werden. Und er ruft jetzt die Zentralregierung an und hat versucht zu erwirken, dass dem entsprechend ein Regel vorgeschoben wird, dass er nicht als Hacker verurteilt werden kann. Aber es gibt sehr viel Unklarheit. Und eine Forschung, also ich schreibe z.B. gerade eine Forschungsarbeit und kann letztlich dafür im Gefängnis landen. Es wäre also gut, wenn man ein rechtliches Mandat hätte, was dieses Ganze reguliert. Und die Plattformen haben natürlich auch bestimmte Gründe, warum sie besorgt sind. Man möchte natürlich nicht, dass die Wissenschaftler kommen. Es gibt ja auch schlechte Wissenschaftler, Menschen, die einfach nur irgendwie das Haar in der Suppe finden wollen oder wo die Methoden nicht wissenschaftlich genug sind usw. Man muss es also vernünftig wissenschaftlich arbeiten, er arbeiten. Und langfristig betrachtet, würde ich sagen, dass dieser Ansatz weniger soziale Probleme hervorrufen wird. Kurzfristig wird es Kosten geben, auf lange Sicht würde ich meinen, dass der europäische Ansatz Stand hält. Weil gar keine Regeln und Vorschriften zu haben, kann sehr viel soziale Unruhe fördern. In Europa würden sie wahrscheinlich nicht direkt ins Gefängnis geworfen, aber man kann natürlich trotzdem, die das die Fonds gekürzt bekommen für diese, das ist ja gerade diesen jungen Forschungsunternehmen passiert. Die Spotify gearbeitet haben. Aber können wir jetzt ganz im Schluss abschließend heute Abend sagen, dass die europäische der europäische Weg mehr zu regulieren auch ein Weg sein kann, ein höheres Vertrauen zu schaffen der Öffentlichkeit in diese Maschinen, dass man sieht, dass eine gewisse Kooperation stattfindet. Glauben Sie, dass dieser Ansatz tatsächlich dazu führen könnte, dass man mehr Vertrauen genießen in der Zukunft mit diesem Ansatz? Ja, das glaube ich. Wenn Wissenschaftler zum Beispiel sicher sagen können, Forscher sagen können, dass die Bots die Wahlen nicht beeinflussen können, zum Beispiel, dann würden viele auch sagen, ja, wunderbar, das Ganze ist vielleicht einfach nur übertrieben, was jetzt dargestellt wird. Dass wenn die Sicherheit größer wäre, die Wahlen beeinflussen, dann kann man ja immer noch was dagegen tun. Also so oder so ist es gut, das zu wissen, eine Antwort auf diese Frage zu finden, um Vertrauen zu schaffen. Was sind die Ziele? Wie weit will man überhaupt gehen, ist die Frage? Wo ist der rote Faden? Die Plattformen müssen tatsächlich auch die Bedürfnisse der Klienten, der Kunden befriedigen und jeder hat ja letztlich seine Meinung, was am wichtigsten ist. Ich möchte Diversität, Personalisierung und die persönliche, die persönliche Wahl, die persönliche Verantwortung muss Raum behalten. Wir sind verantwortliche Menschen. Wir müssen auch Verantwortung für uns selber übernehmen und nicht nur die Algorithmen beschuldigen, wenn etwas schiefläuft. Aber es gibt sensible Situationen und Bereiche, wo wir bestimmte Dinge wissen müssen. Was passiert da? Was machen die Unternehmen? Jeden sie zu weit, haben sie zu viel Macht. Heute wissen wir bestimmte Dinge nicht. Wir wissen nicht, welche Auswirkungen die Algorithmen zum Beispiel auf unsere Kinder haben wird in der Entwicklung der Kinder oder auf das soziale Verhalten. Es gibt zwar Forschungen, aber die Frage ist immer noch offen. Welche dieser Dinge müssen wir einfach aushalten und wo liegen Gefahren, sodass wir Einschränkungen durchführen müssen? Das ist eine politische Frage. Aber wir müssen erst einmal die Fakten haben. Vielen Dank. Nun, wir sprachen über Vertrauen. Ich werde ein bisschen Angst, dass ich die Paul Wapporn-Präsentation gesehen habe und hatte ein bisschen Angst, dass es so lange dauern wird. Aber Sie haben im Prinzip den Zeitrahmen unterschritten. Und ich bin ein wenig zu langwierig gewesen in der Diskussion. Aber es wäre sehr interessant. Ich danke Ihnen sehr für diese Diskussion, für dieses Gespräch. Vielen Dank. Vielen Dank, dass Sie heute bei uns waren. Ich habe zu danken.