 Guten Abend, meine Damen und Herren. Schön, dass Sie an diesem Berliner Frühlingstag heute bei uns sind. Aber auch wenn es mal regnet, da sollte man sich heutzutage nicht mehr darüber beschweren. Willkommen zu unserer ersten Veranstaltung von Making Sense of the Digital Society in diesem Jahr. Und wir haben das ganze 2017 ins Leben gerufen, also die sechste Saison sozusagen. Und wir machen drei Veranstaltungen in Berlin dieses Jahr. Dann die erste heute, dann noch eine im September und im Dezember die Abschlussveranstaltung. Das heißt also hier sehen wir die Zusammenarbeit zwischen der Bundeszentrale für politische Bildung und dem Alexander von Humboldt Institut. Und natürlich auch vielen Danke an unsere Gastgeber heute in diesem wunderschönen Theater. Und ganz herzlich willkommen an alle, die uns zuschauen, die vielleicht in dem Stream zugeschaltet sind über unsere Webseiten und AlexTV. Sie wissen wahrscheinlich schon, wie dieser Abend ablaufen wird. Ich gehe mal eine kurze Einführung. Dann haben wir einen Vortrag, ein Gespräch danach, 15 bis 20 Minuten ungefähr. Wir haben dann aber auch Mikros bei Ihnen im Publikum, falls Sie Fragen haben. Und wir verwenden Slider, mit dem Sie sich selbst einbringen können und Fragen stellen können. Sie können das anonym tun und können hier die Fragen auch jeweils bewerten und die sind dann höher gelistet und werden eher beantwortet. Das besprechen wir aber nachher auch noch mal. Wir haben ungefähr 90 bis 120 Minuten eingeplant, aber das kommt natürlich auch auf Sie und auf euch im Publikum an. Wie viele Fragen Sie haben? Ich glaube, wenn ich mir den Raum anschaue mit den Experten und den Menschen, die interessiert sind an diesen Themen, dass künstliche Intelligenz in den letzten Jahren, Monaten oder Wochen oder sogar Tagen auf unseren Newsfeets all gegen Wertig war. Und gerade die ethischen Fragen zu KI werden da aufgeworfen. Das Ganze entwickelt sich ja sehr, sehr schnell. Überlegen Sie, was alles passiert ist, seit wir uns letztes Jahr im Oktober in Frankfurt getroffen haben und dem heutigen Tag. Wir haben Open AIS, ChatGPT, Bart von Google, Microsoft mit Bing. Das ist ein Wettlauf, der im Gange ist. Und da zitiere ich fast den Rockmusikerslide Stone, der gerade 80 geworden ist, der mit einem Titel sagte, there's a riot going on. Also there's a race going on, würde ich sagen. Und das war ja ein etwas pessimistisches Album von Sly Stone. Und ich glaube, dass wir uns heute vielleicht wieder an einem solchen Scheideweg befinden. Sly Stone ist ja ein afroamerikanischer Superstar mit einer multiklinischen Band, der zunächst sehr optimistisch in seinen Alben war. Und dann allerdings zum Pessimisten wurde die Bürgerrechtsbewegung ist gescheitert, weil selbst das wie Ernest Vegas Backstage mit vorgehaltener Waffe bedroht wurden, weil seine Freundin weiß war, der Spaß an der Musik war vorbei, die Innenstädte war es nicht gut bestellt um diese. Und nicht nur Sly war damit nicht zufrieden, sondern auch Marvin Gaye hat in einem Album 1971 gefragt, what's going on? Aber von diesen Rides vom Aufstand zum Tagrennen, wir haben zwei offene Briefe gerade erlebt. Der erste von weltweit führenden Persönlichkeiten im Tagbereich und der zweite von Wissenschaftlern, die einen Stopp gefordert haben, einerseits ein sechsmonatiges Moratorium für die KI Forschung, um die Algorithmen zu überprüfen, wie F.G. Morosov im Guardian sagte oder um zumindest vor den ethischen Fragen in diesem kapitalistischen Wettlauf zu warnen. Aber mehr noch. Ein sehr hochkarätiger Wissenschaftler wie Jeffrey Hinton hat Google verlassen, um freier über die Gefahren der KI sprechen zu können. Der Mann, der letztendlich hinter den neuronalen Netzwerken steckt und das hätte er selber nicht erwartet, dass sich das so schnell entwickeln würde. Die New York Times hat diese Woche Anfang Mai geschrieben, dass Dr. Hinton immer gesagt hat, wenn er gefragt wurde, wieso er denn an so potentiell gefährlichen Technologien gearbeitet hat, dass er dann geantwortet hat. Robert Oppenheimer hat ja auch immer gesagt, dass wenn etwas einem begegnet, das technisch richtig gut ist, dann macht man es eben. Und das ist der Ingenieur, der aus ihm spricht. Aber ich glaube, da muss man mehrere Stimmen berücksichtigen. Dr. Hinton, der manchmal auch als der Pate der KI bezeichnet, wird lag mit seinen Vorhersagen aber nicht immer richtig. Wir haben im Juni 2020 hier in diesem Theater, damals ohne Besucher, da ja die Covid-Pandemie noch herrschte, einen Vortrag von Joanna Bryson uns angehört. Und sie hat uns ein Videoclip einer Konferenz norwegischer Radiologen gezeigt. Und auf dieser Konferenz hat Hinton gesagt, hört auf Radiologen aus zu bilden. Die KI wird das in fünf Jahren übernehmen. Und dann einige Jahre später hat Joanna festgestellt, dass es immer mehr Radiologen gab, nicht trotz der KI, sondern wegen der KI, die nämlich die Produktivität gesteigert hat. Und ich glaube, wir werden heute Abend sehr konkret erfahren, wie KI für uns und nicht gegen uns in Zukunft arbeiten kann. Das heißt, es geht nicht um Duma oder Booma, um Schwarzmalerei oder überschwänglichen Optimismus. Aber ich glaube, es geht darum zu fragen, wie KI auch für uns arbeiten kann. Und es gibt viele Voraussetzungen, die geschaffen werden müssen, bevor das passiert. Und sie hat mir, unsere Rednerin hat mir bei einem Kaffee gesagt, dass es um einen Power-Grab geht. Also darum, wer die Macht hat. Und wessen Macht ist es? Wie kann man diese Macht besser verteilen? Wie kann man Mitarbeiterinnen und Mitarbeiter mit einbeziehen? Wie kann man gerade auf Ebene privater Unternehmen, aber auch auf Ebene staatlicher ordnungspolitischer Akteure handeln? Kann das durch technologische Innovationen erreicht werden? Und was nicht? Und ich freue mich sehr auf unsere Rednerin heute Abend, weil ihre Forschung sehr gut zu unserer Veranstaltungsreihe passt und zu dem, was wir in den letzten fünf Jahren gehört haben und zeigt uns, was die Zukunft bereithält. Sie ist Geschäftsführende Leiterin des Minery Center for Technology and Democracy an der University of Cambridge und hat unterschiedlichste Bücher geschrieben. Zum Beispiel Venture Labor 2012, Self Tracking 2016 und Human Centred Data Science vom MIT, von der MIT Press 2022 veröffentlicht. Sie konzentriert sich in ihrer Forschung auf die Auswirkungen dieser rasanten Ausdehnung unserer digitalen Informationsumgebung auf Arbeitnehmerinnen und Arbeitnehmer und Arbeitsplätze sowie unseren Alltag und Berätorganisationen wie UNESCO, die OECD oder das Women's Forum for the Economy and Society. Zudem ist die Vorsitzende des internationalen wissenschaftlichen Ausschusses des britischen Programms für vertrauenswürdige autonome Systeme, also Trusted Autonomous Systems und hat unterschiedlichste Preise sowohl im Bereich der Ingenieurswissenschaften und im Bereich der Sozialwissenschaften erhalten. Schauen Sie gerne mal auf Ihrer Webseite vorbei, denn dann wissen Sie, was Sie Ihren Eltern oder Ihren Kindern sagen können, was Sie heute Abend gemacht haben, dann können Sie nämlich sagen, dass unsere Rednerin, das Team, das 2021, den Webby für die beste Bildungswebsite im Internet gewonnen hat, gesehen haben hier, die beste Internetseite war das A-B-Z der KI, von über einer Million Menschen in 17 unterschiedlichen Sprachen besucht und begrüßen Sie mit mir, unsere Rednerin von Cambridge nach Berlin, Gina Neff. Herzlich willkommen. Vielen Dank, alle zusammen. Vielen Dank, Tobi, für die freundliche Einführung und vielen Dank, dass Sie alle hier gekommen sind an einem so wunderbaren, schönen Frühlingsabend in Berlin. Und ich möchte auch unseren Gastgebern heute Abend danken, dass Sie uns hier zusammengebracht haben in diesem wunderbaren Theater, in diesem wunderbaren Raum. Mein Vortrag heute Abend wird über zwei wichtige Erkenntnisse gehen aus der Wissenschaft und Technik und zwar geht es darüber, was wir über künstliche Intelligenz denken. Die von Ihnen, die diese Konzepte sich genauer angucken und studieren, werden sehen, dass die Infrastruktur sich verändert und dass das beeinflusst, wie wir darüber denken und unsere soziotechnischen Systeme denken. Man kann auf zwei verschiedene Art und Weisen darüber denken und ich werde über einen Konzept sprechen, dass über die Design, es geht dabei um den Design, das Design-Gestaltung, also wie nutzen Menschen Systeme. Wir arbeiten ja daran, indem wir mit der Technik arbeiten und dann werde ich darüber sprechen, wie die Zukunft aussehen kann. Und ich will mich allen drei Punkten gleichwertig zuwenden. So, am Anfang möchte ich mit einer Metapher beginnen, die ein britischer Computerwissenschaftler aus den USA, Stuart Russell, gesagt hat, er hat diese Metapher benutzt und da geht es um Asphalt. Er sagt, stellen Sie sich mal vor, dass es Asphalt-Ingenieure gibt, die richtig gut darin sind, Asphalt herzustellen. Und stellen Sie sich mal vor, dass diese Ingenieure sagen, weil wir so gut drin sind in unserer Arbeit, sollten wir doch die Entscheidung treffen, wo überall Asphalt ausgebracht wird. Am Strand, den Strand brauchen wir eigentlich nicht, Asphaltiert wäre der viel besser. Wie sieht es mit Ihrem Garten aus? Gras ist überbewertet, Asphalt ist viel effizienter und was noch wichtiger ist, wollen doch nicht abgehängt werden. Sie sollten jetzt schnell alles Asphaltieren. Auf viele Arten und Weisen ist das eine passende Metapher für das, was im Moment hier auch passiert. Die Vorstellung, dass Ingenieure die lautesten Stimmen dabei haben, was sozial, politisch und kulturell passiert, das ist ja eigentlich keine Überraschung nach dem, was die Zeitungen in letzter Zeit auch gebracht haben. Aber wir sollten uns Infrastruktur auch noch auf andere Art und Weise darüber nachdenken und über die Entscheidungen, die aktuell getroffen werden. Die Vorstellung, dass wir irgendwann nicht mehr verstehen werden, ob wir eigentlich auf Asphalt, Gras oder am Strand stehen. Das wird bald zur Realität werden in unserem täglichen Leben. Aber vergessen Sie mal für einen Moment den Hype, die Begeisterung, die Furcht, die diese generativen KI-Modelle wie ChatGBT hervorrufen. Wenn man das mal kurz vergisst und darüber nachdenkt, wie diese Systeme bald integriert werden sein, werden in unsere Produkte und unser tägliches Leben. Also wir werden das sehen, wenn, wie oder ob solche Entscheidungen getroffen werden für uns, anders als beim Asphalt. Infrastruktur wird auch auf andere Art und Weise eine wichtige Metapher für das, wie unsere täglichen Interaktionen stattfinden. Ich muss hier gerade noch mal die richtige Stelle in meinem Script finden. Also wir können also Infrastruktur. Infrastruktur sind mächtige Strukturen, wenn sie unsichtbar sind. Das ist die Unsichtbarkeit von Infrastruktur. Das gehört ganz fest dazu. Ich würde aber sagen, dass wir Entscheidungen treffen können, um zu verstehen, wie unsere technische Infrastruktur unsere Gesellschaft beeinflusst. Und wir können heute Entscheidungen treffen, um dafür zu sorgen, dass die KI auch für uns funktioniert und dass wir davon profitieren können. Aber diese Entscheidungen werden oft von denen gemacht, die die Technik dahinter verstehen und nicht von denen, die sagen, ein Moment, wir sollten doch hier ein bisschen Autonomie und Transparenz haben über die Entscheidung, die getroffen werden. Man kann die Daten in drei verschiedenen atemweisen Denken, die Daten, die unsere Systeme antreiben. Die Infrastruktur erlaubt uns zu sehen, dass die datengestützten KI-Modelle etwas gemacht sind, etwas technisch konstruiertes sind. Das besteht nicht aus Daten, die gefunden werden. Und Daten sind immer das Produkt von Entscheidungen und Präferenzen. Und diese Entscheidungen haben sowohl soziale als auch technische Folgen. Also oft wird im Silikon Valley oder wurde ja gesagt, dass Daten das neue Öl sind, aber das ist nicht so. Die Daten liegen nicht draußen rum und können gefunden werden. Wenn man schon so eine Metapher verwendet, dann könnte man vielleicht sagen, dass die Daten, die neue Wasserkraft sind, die dämme müssen gebaut werden. Das muss gepult werden und wir können das dann gemeinsam nutzen. Also es ist nicht so, dass Daten einfach da draußen natürlich vorkommen. Das ist ein Narrativ, das oft gewählt wird von denen, die die Macht darüber haben. Was sind denn die Entscheidungen, die getroffen werden können? Nun, ein zweites Konzept, das hier dazu gehört, ist, dass Daten, das Produkt sind von menschlichen Interaktionen, von menschlicher Kommunikation. Die großen Sprachmodelle, die jetzt als große Bedrohung dargestellt werden in den Zeitungen, die kommen aus diesen Spuren, die unsere Interaktionen hinterlassen. Aber ohne Kontext werden diese Interaktionen bedeutungslos. Hier geht es jetzt dann auch um die Herausforderungen bei der Debatte. Tobi hat schon Jeffrey Hinton erwähnt, den Ingenieur von Google, der sehr öffentlich gesagt hat, dass er jetzt diese großen Sprachmodelle kritisieren möchte, die er ja eigentlich mitgestaltet hat. Aber vor zwei Jahren mussten oder haben zwei Google-Mitarbeiter ein Paper veröffentlicht und gesagt, dass der Weg, der im Moment eingeschlagen wird, nicht unbedingt der Richtige ist. Die vielen Daten, wenn diese genutzt werden, und dann umgesetzt werden in intelligente Ergebnisse, dass das etwas ein Fehler ist. Er meinte, dass die Systeme stochastische Papageien seien. Und das, was diese Modelle oft können, oft nur ein Nachahm ist von Sprache. Aber wir, Emily Bender, eine Linguistin, die auch Autorin war, dieses Papers, hat gesagt, dass Sprache noch mehr ist, als einfach nur nachplappern ist. Es geht darum, den Kontext zu verstehen. Es geht darum, konzeptuelle Modelle zu verstehen und auch zu verstehen, was Peter Neugin und ich, die vorgestellten Affordenzen oder Angebote sind. Ein anderer Linguist hat gesagt, wenn wir zum Beispiel ChatGPT fragen, was es besser für einen Arbeiter, der seinen Kopfschutz vergessen hat, ist es besser, wenn er ein Hamburger oder ein Sandwich Papier benutzt, um seinen Haare zu schützen. Also für Menschen wäre diese Entscheidung eine einfache, ein Brötchen auf den Kopf zu legen. Das funktioniert natürlich nicht so gut. Ich fand das witzig, diese Geschichte. Wir haben ja ein Bild im Kopf, das so etwas nicht funktionieren kann. Aber Sprachmodelle haben diese Bilder nicht im Kopf oder in der Technik. Sie haben eine Karte, eine Vorstellung davon, was für Interaktionen in der Vergangenheit stattgefunden haben. Aber sie haben eben keine Karte für konzeptuelle Navigation. Und große Sprachmodelle, die treiben ja den Introsismus bei der KI an, haben aber nicht die Fähigkeit, uns zu helfen, die Systeme zu navigieren. Ich habe hier ein ganz gutes Zitat. Wenn ich dahin navigieren könnte, wäre das toll. Aber ich glaube, ich sehe hier nur den ersten Satz von mir. Aber macht nichts. Also in diesem wissenschaftlichen Paper über die historistischen Papageien zwei von den Autoren mussten dafür büßen, dass sie zur Vorsicht aufgerufen hatten, zur Vorsicht, dass nämlich immer mehr Ressourcen eingesetzt werden müssten für diese Systeme, damit diese nicht nur stochastisch, sondern asymptotik werden würden. Also dass man immer mehr Daten bräuchte, immer mehr Ressourcen, um nur winzige Verbesserungen der Modelle zu erzielen. Sie haben gesagt, dass man abwägen müsste, welche Vorteile die Systeme haben, im Vergleich zu den Kosten, die dabei entstehen, Sachen Ressourcen. Diese Woche hat der Kolumnist Thomas Friedman von The New York Times gesagt, dass KI zwei Pandora-Boxen gleichzeitig öffnet, nämlich von Klimawandel und KI. Die könnten sich gegenseitig helfen. Aber oft vergisst man dabei, wie die Wirklichkeit aussieht. Nämlich, dass wir ja physische Infrastrukturen mit physischen Infrastrukturen zu tun haben, die diese Modelle antreiben. Wir brauchen Leitplanken, wenn wir über diese Asphaltmetapher reden. Wo sind die Straßenmarkierungen? Wo sind die Straßenschilder? Wo ist der Fahrlehrer? Wo ist die Infrastruktur, die wir alle brauchen, für die Sicherheit in unseren gesellschaftlichen und kulturellen Umwelten? Wie wird diese Wirklichkeit gestaltet? Ich würde sagen, dass wir mit einem der weltgrößten sozialen Experimente zu tun haben. Die Macht in den Daten basiert oft auf einer abgeflachten Erkenntnis über soziales Verhalten. Und das Experiment ist wahnsinnig stark, denn es hat viel Potenzial für soziale, gesellschaftliche, wirtschaftliche Macht. Wir haben es erlaubt, dass diese Daten gestützte Effizienz dazu führt, dass wir unsere, wie wir unsere Entscheidungen bewerten. Also die Daten, die Unternehmen nutzen, sind eine riesige finanzielle Investition. Diese großen Modelle, über die wir sprechen, an denen arbeiten nur ein paar wenige Firmen. Da konzentriert sich unheimlich viel finanzielle Macht auch. Und wenn wir Daten als Macht betrachten, dann müssen wir auch immer daran denken, dass wir ganz klar auch uns sind über die Entscheidungen, die da hinein fließen, in diese Konzentration von Macht und Finanzen, auf denen die Menschheit dann auch aufbaut. Aktuell sind die Betriebskosten für ChatGPT enorm hoch und liegen bei über 600.000 Euro pro Tag. Das Geld wird gebraucht, um einfach nur die Infrastruktur für dieses Modell am Laufen zu halten. Wir können uns fragen, ob das die Zukunft ist, die wir haben wollen. Und wir müssen uns als Gesellschaft fragen, ob wir es uns überhaupt leisten können, diese Zukunft zu gestalten, mit unseren Zielen von Klimaneutralität und Umweltschutz, die wir ja auch verfolgen müssen. Das ist die andere Büchse der Pandora. Ich habe jetzt ein bisschen über Infrastruktur gesprochen und jetzt komme ich zur Arbeit. Ich habe ja schon über KI gesprochen, als ob es nur um die Entscheidungen ginge, die die Gestalter von KI treffen. Ich finde es sehr ambisant, was für Fragen in der letzten Zeit zum Thema gestellt werden. Ein Reporter hat mich heute erst gefragt, zum Beispiel, Können Sie mir eine E-Mail schreiben, ob KI unsere Jobs übernehmen wird und wenn ja, wie lange wird das dauern, bis alle Jobs ersetzt sind? Da können wir natürlich ganz einfach in drei Sätzen darauf antworten. Nein, können wir nicht. Das ist ein riesiges soziales Experiment. Und das aktuelle Wissen zur Produktivität und so weiter, im Moment wissen wir es einfach nicht genau, wie sich das entwickeln wird, wo die Dinge hingehen wird, was die Folgen sein werden von künstlicher Intelligenz bei der Arbeit. Es wurde geschätzt, dass 100.000 neue Jobs geschaffen werden könnten und 75 Millionen Jobs verloren werden können. Das heißt, also 100 Millionen werden gewonnen, 75 Millionen verloren. Das ist natürlich toll, außer man ist gerade der, der seinen Job wegen der KI verliert. Wir wissen, dass die Zusammensetzung der Arbeitsplätze sich ändern wird, also die einzelnen Tätigkeiten werden sich ändern. Ich habe heute mal einen Witz gemacht, also wenn ich irgendwann mal ersetzt werde als Doktor, Mutter durch die KI und es sind auch einige meiner Doktoranden dabei. Ich sage nur, schreibt die Doktorarbeit fertig. Also wenn die KI Doktorväter und Doktormütter ersetzt, dann wird das, wenn die sagen, ja, die Einführung muss noch besser sein, die Übergänge müssen besser sein und die Schlussfolgerung müssen auch besser sein, denn das ist eigentlich alles, was wir sagen. Nein, natürlich nur ein Witz, aber wir haben oft in der Vergangenheit vergessen, dass die wichtigste Arbeit bei der Erschaffung von neuer Technologie und beim Funktionieren von Technologie eher, oder diese Arbeit haben wir oft nicht berücksichtigt. Ich habe mit einer Kollegin einen Buch geschrieben und das ist ein Bild aus diesem Buch. Es geht da um das Bauwesen. Wir haben vor vielen, vielen Jahren damit begonnen, die Schutzhelme, auf den Schutzhelm stand damals darauf, dass die Überprüfung der Schutzhelme 2009 stattfinden müsste. Also das gibt Ihnen einen Eindruck davon, wie alt dieses Bild schon ist. Damals war der Enthusiasmus unheimlich groß in der Branche, wer würde in der Baubranche arbeiten und so weiter. Also da gab es viel Enthusiasmus und zehn Jahre später waren die großen Veränderungen, die man in der Branche erwartet hatte, eigentlich nicht eingetreten, obwohl ein Werkzeug, das diese Veränderungen bringen sollte, schon verfügbar war. Und die Frage war dann, warum ist es so schwierig, eine Industrie komplett auszuschalten und die alten Muster der Arbeit zu verändern, alte Arbeitskulturen, Regeln, Vorschriften, die man so hat. Warum sind die so schwer zu ändern, warum bleiben die gerne so wie sie sind? Und das liegt wohl an den Menschen. Wir sprechen über Technologie, als ob das dabei immer nur der Input ist, als ob die Technologie etwas ist, was uns beeinflusst anstatt ein Produkt zu sein, das wir ja erschaffen, als Ergebnis von Verhandlungen und Entscheidungen, die wir jeden Tag treffen. Die Menschen führen diese Verhandlungen bei der Arbeit durch, wie diese Leute auf dem Bild. Und wie können wir ein Werkzeug nutzen, damit es uns dient? Kann das für uns nützlich sein? Welche Teile davon werden wir einfach ignorieren? Oder werden wir wieder stehen? Oder werden wir einfach nicht übernehmen? Wir sprechen über das Konzept der verhandelten Innovation. Und wir sagen, dass das vier Schritte hat, dieses Modell, wie Veränderungen stattfinden. Die Sozialwissenschaftler hier im Raum erkennen bestimmt, was für ein Modell das ist. Es ist ein Zusammenspiel von Strukturen und Praktiken. Also die Bauelemente, die wir haben bei der sozialen Theorie, dass es Agency gibt und organisatorische Grenzen. Aber da ein Gleichgewicht zu finden zwischen dem Individuum und der Organisation, der Kultur, es ist nicht so einfach und man findet das auch oft nicht in der Zeitung wieder. Also das Modell beginnt damit zu verstehen, was eine neue Technologie ist. Wir nennen das Sense-Making oder wir sprechen dabei auch vom Futuring, also wie man die Zukunft verstehen kann und wie wir sie gestalten. Es geht da um diese Gespräche, die man miteinander hat, die uns zeigen, was möglich ist und was wir vielleicht verändern wollen. Dieses Sense-Making, und ich nutze das hier, wie Karl Weik das auch definiert hat, dieses Sense-Making führt zu bestimmten Erwartungen, wie wir mit neuer Technologie am Arbeitsplatz umgehen. Und diese Erwartungen gestalten auch, wie die neuen Technologien eingeführt werden. Zum Beispiel im Baubereich dieses neue Werkzeug, das da eingeführt wurde. Und Ingenieure, Architekten und Bauprofis haben da Informationen ausgetauscht. Aber das war gar nicht so einfach, weil es zu viele Regeln gab, zu viele bewährte Praktiken, wie bestimmte Dokumente schon genutzt werden wurden in der Industrie. Und deshalb war es auch gar nicht so einfach, das mit diesem neuen Werkzeug einzusetzen. Und das neue Werkzeug hat halt also nicht die Erwartung erfüllt, die die Nutzer hatten und dann mussten die Praktiken neu verhandelt werden. Vor Ort, die Menschen, die die Veränderung hervorrufen, das sind nicht die CEOs oder die Designer von der Software. Das sind die Leute, die an ihrem Arbeitsplatz entscheiden, was für sie funktioniert, was für ihr Team funktioniert. Und in diesem Prozess entscheiden sie dann auch, welche Regeln sie brechen möchten. Also regel nutze ich hier halt als ein Begriff, der für die organisatorischen Grenzen steht, die man eventuell verändern möchte. Und wir wissen das ja alle, dass manche Dinge schwerer zu verändern sind als andere. Und es ist gar nicht so einfach, diese Veränderung zu verhandeln. Das braucht Zeit. Und durch diesen Prozess kommen wir dann dazu, dass wir die Technologie auch in der Nutzung sehen. Und das verhandelte Innovation ist vielleicht ein besserer Blick darauf, wie diese Dinge in der Praxis passieren. Und vielleicht praktischer als etwas, das diesen Prozess abkürzt. Wenn die KI für uns funktionieren soll, dann müssen wir sie zum Funktionieren bringen. Ganz wortwörtlich, wir müssen als Gesellschaft überlegen, was genau wir damit machen wollen. Und dieser Begriff der sozialen Agency, das ist das, was diese Konzepte so relevant für uns unsere Zukunft macht. Und damit kommen wir zum dritten Teil unseres Gespräches heute Abend, nämlich der Zukunft. Und der Aussage, dass KI das sein wird, was wir aus ihr machen. Und ich möchte Ihnen einen kurzen Überblick darüber geben, wie der Bereich Arbeit und Infrastruktur uns dabei helfen können. Zunächst einmal zur Infrastruktur. Die Entscheidungen, die wir treffen darüber, welche Art von Technologien wir für diese Fundamente nutzen, die werden jetzt getroffen. Also welche Standards, welche Arten von Daten, welche Systeme, welche Normen und welche Herausforderungen wir zulassen, wir tolerieren innerhalb unserer Gesellschaft. Und werden diese Entscheidungen, die heute getroffen werden, auch für unterschiedliche Öffentlichkeiten möglich sein und Verantwortung dafür übernehmen. Eine zweite Entscheidung in diesem Bereich Infrastruktur wird die Frage des Blockins sein. Das heißt also Entscheidungen, die von Unternehmen getroffen werden, die unglaubliche Datenressourcen zur Verfügung haben und die sie treffen, um ihre Macht zu sichern. Und die mit den Aussagen, die wir zum Beispiel treffen, indem wir sagen, es gibt keine Alternative, mit der sichern wir deren Macht. Aber natürlich gibt es Alternativen, dazu in ein solches System zu kommen und festzustecken. Die Frage wird aber sein, wie die Offenheit solcher Systeme sich hergestellt werden kann. Werden wir auch weiterhin eine geopolitische Realität erschaffen, in der die materiellen Ressourcen und Infrastrukturressourcen für groß angelegte Computersysteme derart hoch sind, dass Regierungen demokratische Werte zur Seite geschoben werden? Werden wir auch weiterhin Entscheidungen über Infrastruktur treffen, die Innovationen über alle anderen Werte stellt? Nun zum Thema Arbeit. Hier gibt es Erwartungen, die jetzt das Bild der Menschen beeinflussen, davon, was KI wird tun können und wie sie funktionieren wird. Und was ich dem Publikum immer sage, ist, dass die Frage sein wird, ob wir diese Herausforderungen annehmen werden, ob wir verstehen wollen, wie wir kreativ mit diesen Technologien arbeiten können. Und wie wir erreichen können, dass sie für uns, für das Gute der Gesellschaft arbeiten. Und zu guter Letzt die Lehren aus diesem Bereich arbeiten. Und wenn ich mir anschaue, wie große Projekte umgesetzt werden, dann stelle ich immer wieder fest, dass es sinnvoll ist, sich anzuschauen, wie in Branchen, in Industrien solche Technologien in der Breite umgesetzt werden. Und das sind ja Dinge, die jetzt gerade auch schon passieren. Und die Frage ist, wie wir sicherstellen, dass das Wissen der Menschen vor Ort auch wirklich zur Geltung kommt. Wie können wir sicherstellen, dass die Menschen, die den Kontext und auch die Aufsicht über solche Systeme mitbringen können, die den Hintergrund verstehen, aber auch das, was im Vordergrund passiert, verstehen? Wie können wir diese Menschen einbinden und sicherstellen, dass unser menschliches Wissen, unsere Expertise bei der Gestaltung dieser Systeme berücksichtigt wird? Und ich habe ja gesagt, ich möchte auch einen Ausblick auf die Zukunft werfen und darauf was getan werden kann. Und ich bin ja Leiterin des Minerary Center for Technology and Democracy. Und wir haben uns eine Aufgabe gestellt, nämlich Forschung zu betreiben und dabei von Werten angetrieben zu sein. Und das ist nicht immer einfacher, hier diese Balance zu halten in den Sozialwissenschaften. Dennoch kämpfen wir aber dafür. Und wir kämpfen darum, digitale Technologien voranzubringen, die für die Menschen, die Gesellschaften und letztendlich auch unseren Planeten funktionieren. Und wir tun das, indem wir versuchen, unsere Beziehung zu digitalen Technologien neu zu denken. Und das Ganze durch einen Wandel, einen Faktenbasierten oder beweisbasierten Wandel zu tun. Um zu schauen, was die Gesellschaft möchte, was sie sich wünscht in dieser Beziehung zu digitalen Technologien. Und wir arbeiten zum Beispiel an dem Thema der Auswirkungen auf die Öffentlichkeit dieser Technologien. Das heißt also, die Narrative wegzubringen, davon, dass technologische Entwicklung unausweichlich ist, oder immer gut, immer positiv ist, oder weg davon, dass man sagt, andere können schon die Entscheidungen treffen. Zweitens geht es darum, dass wir auch mehr auf die umfangreichen Umweltauswirkungen dieser Technologien schauen. Das sind Dinge, das ist ein Preis, den wir nicht leichtfertig zahlen sollten. Und wir sollten sie natürlich auch nicht einfach zurückweisen. Dennoch sollten wir Entscheidungen treffen über die Art und Weise, wie wir wollen, dass sich das auf die Welt auswirkt. Wenn wir mal darüber nachdenken, wie es wäre, wenn wir einfach mal zwei Jahre zurückgehen würden und auf die Wissenschaftlerinnen und Wissenschaftler bei Google gehört hätten, die schon damals gesagt hätten oder haben, dass diese Systeme große Auswirkungen auf die Umwelt haben, einen hohen finanziellen Preis mit sich bringen. Und ich glaube, dann würden wir heute eine ganz andere Diskussion führen, wenn die Kritiker in dieser Debatte nicht mundutgemacht worden wären. Drittens arbeiten wir an einer Initiative, die die Zukunft der Arbeit so gestalten soll, dass sie für uns alle funktioniert. Zu viele dieser digitalen Technologien werden sehr schnell zu einer Art städtischen urbanen Infrastruktur. Denken Sie einfach mal an Apps und denken Sie daran, dass dort ganz häufig vergessen wird, wie viele Menschen ganz unterschiedliche Arten und Weisen brauchen, um Zugang zu haben zu dieser Infrastruktur zum Alltag. Das heißt, wir sollten fragen, wo diese Arbeit gemacht wird und wer sie macht. Und so gut als wollen wir Vertrauen in diesen digitalen Gesellschaften fördern. Und das ist ganz schwierig zu erklären, denn ich möchte das ganz behutsam formulieren, denn Vertrauen wird ja in westlichen Gesellschaften tendenziell weniger auch das Vertrauen der Menschen ineinander nimmt ab. Und gleichzeitig wissen wir, dass es nicht an digitalen Technologien liegt, dass dies so ist. Das ist eine sehr komplexe Beziehung zwischen diesen Themenbereichen. Und der Frage, wie wir Technologien schaffen können, die Vertrauen fördern und diese sozialen Fähigkeiten, sozialen Kapazitäten verbessern können. Es ist natürlich einfach zu sagen, wenn wir weniger digitale Technologien hätten, hätten wir mehr vertrauen. Aber ich glaube, dass es ganz wichtig ist, dieses Vertrauen zu fördern, dass wir nämlich brauchen, um widerstandsfähige und auch nachhaltige Gesellschaftsformen zu entwickeln. Nun, wie gehen wir diese Themen an? Wir haben letzten Monate einen neuen Konsortium bekannt gegeben, das von AI for Trust gefördert wird, 17 Partner aus elf unterschiedlichen Ländern und einige Partner davon, inzwischen nicht mehr Mitgliedsstaat der Europäischen Union. Und die Idee dahinter ist folgende. Wir wollen eine Art Frühwarnsystem erschaffen für Missinformationen und Desinformationen also Kaesysteme zu entwickeln, die sich auf diese Narrative fokussieren. Also zum Beispiel ein Frühwarnsystem, das Menschen mit einbindet in diese Systeme. Journalisten zum Beispiel, wenn diese Artikel, diese Nachrichten geschrieben werden. Und die Herausforderung dabei ist, dass viele der Werkzeuge, die wir schon haben um Desinformationen zu bekämpfen, bei den großen Plattformen liegen. Und die sind häufig nicht mehr sprachig. Und das ist natürlich auch gerade in der Europäischen Union eine Herausforderung. Das heißt, das wurde nicht gleich mitgedacht, dass sie auch auf unterschiedlichen Plattformen anwendbar sein müssen. Also Multi-Channel sein müssen und funktionieren auch nicht mit unterschiedlichen Formaten, wie Text, Audio oder Video. Das sind also die Herausforderungen, denen wir uns in diesem Projekt in dieser Gruppe widmen. Das nächste Projekt ist ein Projekt, bei dem es darum geht, mehr Forschende aus dem Bereich der Sozialwissenschaft hier in diese Forschung zu bringen. Denn ich würde behaupten, dass viele Technologieprojekte in der Vergangenheit ein paar Sozialwissenschaftler mit eingebunden haben, die aber letztendlich nicht involviert waren in die wichtigen Entscheidungen und an den Entscheidungen nicht mitgewirkt haben, um letztendlich so Themen zu entwickeln, die für die Menschen arbeiten. Wir bauen also ein Netzwerk auf, im Fall in Königreich, aber auch darüber hinaus, um dies voranzutreiben. Das ist ein Projekt, das auch wieder in diesem Themenbereich Werte sich auffällt. Also etwas, was gut ist für wen und wann und warum. Das heißt, wenn wir eine gute digitale Gesellschaft wollen, müssen wir verstehen können, was denn gut überhaupt bedeutet. Wir müssen das identifizieren, es vermessen und auch in der Lage sein, den Ingenieuren etwas an die Hand zu geben, Spezifikationen an die Hand zu geben. Das heißt, unser Ziel in diesem Digital Good Network ist es, dass wir diese Ideen identifizieren und dann aus sozialwissenschaftlicher Perspektive uns dieser Themen annehmen. Das ist eine Herausforderung, die für viele mich eingeschlossen etwas war, was wir für Mieden haben. Und was ich an die Forschenden hier in dem Raum richten möchte, ist ein Appell, hier in diesen Fragen sich mehr einzubringen und sicherzustellen, dass diese digitale Infrastruktur uns zu Gute kommt und für uns funktioniert. Und damit möchte ich mich an Sie alle richten, hier vor Ort oder auch die Online zuschauen, denn die Entscheidungen, die wir zu diesem Thema KI und KI Technologien treffen, sind nicht in Stein gemeißelt, die sind nicht vorgegeben. Wir haben hier unterschiedliche Entscheidungsmöglichkeiten, aber wir müssen zusammen daran arbeiten, darüber verhandeln und ja, das wird auch die schwierige Aufgabe mit sich bringen, hier sich nicht diesem Wandel zu verschließen und über diese Widerstände hinweg zu kommen, um letztendlich eine solche digitale Gesellschaft zu schaffen. Und ich habe nicht wirklich die Sorge, dass wir diese Herausforderungen annehmen. Gerade wenn ich mir unser Publikum heute anschaue, dann bin ich da optimistisch und freue mich jetzt sehr auf unsere Gesprächsrunde. Dina, vielen Dank für diese offenerreichen Einblicke in diese Themenbereiche. Und meine erste Frage ist natürlich, wie viele Arbeitsplätze verlieren wir denn und wie lange dauert das? 75 Jahre, gut, das schreiben wir gleich mit. Ich musste immer wieder an das Beispiel denken, die beiden Sozialwissenschaftler, die von Google gefeuert wurden, nachdem sie eben davor gewarnt haben, dass es hier nicht ausreichend Kontext gibt auf diesem Weg zu mehr KI. Das war vor über zwei Jahren und natürlich haben sich die Dinge da rasend schnell verändert. Gerade im Bereich Technologie und im Diskurs darüber. Würden Sie sagen, dass es da auch ein Wandel gab im Bereich der Sozialwissenschaften in diesem Kontext, im Bereich der generativen KI. Was hat sich da in den letzten zwei Jahren getan? Ist es besser oder schlechter geworden? Nun, was wir heute sehen und wenn wir uns diese Modelle online anschauen, dann ist das ein Blick in die Vergangenheit. Und ChatGPT zum Beispiel ist ja nicht das modernste, was OpenAI entwickelt hat, das, was wir heute nutzen können. Das heißt, der Blick auf die Welt von ChatGPT hört zu einem gewissen Zeitpunkt auf. Es wurde bis dahin trainiert und das ist das, was wir nutzen können. Und ich glaube, was schwierig ist, ist das Voneinander zu trennen, das Lernen einerseits und das Verständnis, was Lernen bedeutet und das, was diese Systeme letztendlich tun, wenn sie lernen oder trainiert werden. Das heißt also, dieser Lernprozess für diese Systeme, für ChatGPT zum Beispiel, ist etwas, was schon passiert ist. Es ist ein statisches Modell sozusagen. Und was wir darauf aufbauen können, sind die Interaktionen, die wir mit diesen Systemen haben. Das heißt, in vielerlei Hinsicht ist das etwas, was relativ beruhig ist. Es ist eine Annahme über diese Systeme, weil wir denken, dass wir als Menschen von Fehlern lernen, aus Erfahrungen lernen, dass diese Systeme sich entwickeln werden, sich anpassen werden und das spiegelt auch die Begrifflichkeiten wieder, die wir in den Nachrichten sehen, dass KI klüger wird, dass es ein Bewusstsein entwickelt. Und das ist einfach nicht das, was diese Intelligenz bedeutet, die diese Systeme haben, so funktionieren sie nicht. Das heißt also, dass ich das entwickelt hätte, stimmt einfach so nicht. Und was richtig ist, ist, dass sie nicht mehr genug Daten haben. Das heißt, wir sind kurz davor, alle Daten, alle Corpora, wie zum Beispiel das Internet, genutzt zu haben. Das heißt, wenn man die Zahl der Parameter sich anschaut, die Größe, die Menge der Daten, die diese Systeme nutzen und die Fähigkeit, die Systeme weiter zu verbessern, das scheitert einfach daran, dass wir nicht mehr Energie, nicht mehr Strom haben, Rechenkapazität haben und nicht mehr genug Daten haben. Das heißt also, dieser Brunnen ist sozusagen ausgetrocknet. Ist es denn so, dass es geholfen hätte, wenn wir das in der Vergangenheit anders bezeichnet hätten oder bezeichnen würden vielleicht nicht Intelligenz, denn wie Sie sagen, das hat viel mit Mustern zu tun, Mustererkennung, mit Wahrscheinlichkeiten. Das ist jetzt nicht zwangsläufig das, was wir mit menschlicher Intelligenz in Verbindung bringen. Und dieses konzeptuelle Verständnis fehlt ja da auch. Müssen wir das also einfach neu definieren, neue Begriffe finden? Die Begriffe, die wir benutzen, um über KI zu sprechen, gehen auch immer mit politischen Entscheidungen einher, die uns jeweils einen gewissen Weg einschlagen lassen. Und das sind Entscheidungen, die wir ganz bewusst treffen sollten. Die Vorstellung also, dass eine Gruppe Ingenieure und Ingenieure, die besessen sind von Science Fiction, und das meine ich gar nicht als Scher, sie sind besessen von Science Fiction. Die entwickeln diese Vorstellungen der Welt, in der technokratisches Wissen über alles gestellt wird und Rechenleistung, die dominante Macht in der Gesellschaft ist. Eine Gesellschaft, in der alle anderen versklavt werden könnten oder seien von dieser Macht. Und das ist jetzt endlich nicht meine Vorstellung einer digitalen Zukunft. Dennoch ist es so, dass diese Konzepte sehr tiefe Wurzeln sind in den 1950er, 60er, 70er Jahren und diesen Vorstellungen, die hauptsächlich männlich, westlich und weiß sind. Und diese konzeptuellen Vorstellungen, was Intelligenz bedeutet, was Wissen bedeutet und was Werte sind und was eine Gesellschaft ist, das hat letztendlich diese soziotechnischen Verständnisse eben auf eine sehr abgeflachte Weise vorangetrieben. Und wenn Sie Meredith Broussard's Buch Artificial Unintelligence noch nicht gelesen haben, dann kann ich Ihnen das mal ans Herz legen. Denn Sie geht genau darauf ein und hat auch ein neues Buch. Und das ist ein Glitch, mehr als ein Glitch sozusagen, mehr als ein Versehen, ein Nebenprodukt. Das sind die Grundlagen, die hier mit integriert sind. Es geht natürlich auch immer hier um die Handelnden, um die Agency und Sie haben ja davon gesprochen, dass wir Innovationen, Wandel miteinander verhandeln müssen und dass wir auch den Alltag des Arbeitsleben der Menschen mitdenken müssen. Vielleicht können Sie uns da ein paar Beispiele geben, ganz konkret, wie kann das funktionieren? Wie kann man hier Innovationen in einem Unternehmen am Arbeitsplatz verhandeln? Was kann man anders machen, um das Ganze gerechter zu gestalten? Dann möchte ich zunächst einmal sagen, dass in Ländern, in denen Angestellte zum Beispiel wie in Deutschland mehr Mitsprache recht haben, dort gibt es Betriebsräte und in diesem Rahmen kann man darüber verhandeln, wie Technologien umgesetzt werden. Und wir sehen hier, dass Automatisierung zum Beispiel einen größeren Mehrwert hatte in solchen Systemen. Das heißt also, wenn die Menschen involviert sind, die auch verstehen, was das im Alltag bedeutet, solche Automatisierung umzusetzen. Wenn diese Menschen involviert sind, dann ist das etwas, was zu einem Zusammenspiel zwischen Menschen und KI zum Beispiel führt und das führt zu mehr Produktivität und in Ländern, in denen es eine weniger enge Beziehung bei diesem Entscheidungsfindungsprozess gibt, da sehen wir auch weniger Produktivitätssteigerungen. Wir haben in unserer Arbeit, in der es um Visualisierungstechnologien im Bausaktor ging, in der Tat nicht zu Beginn uns angeschaut, wie diese Verhandlung funktionieren würde. Wir haben nicht gesagt, es ist eine tolle neue Technologie und dann wird es Arbeitsplatzverluste geben. Wir wollten uns eigentlich nur anschauen, wie das Ganze ablaufen würde, ob es da Widerstände gibt. Und was wir aber gesehen haben, ist, wie viel Arbeit da reingesteckt wurde, um diese Systeme nutzen zu können. Und das ist das, was sich immer sehr vermisse in diesen Beispielen, wie KI Arbeitsplätze vernichten wird oder ersetzen wird. Denn die Frage ist ja immer, welchen Teil einer Arbeit eines Arbeitsplatzes wird dadurch ersetzt? Woher weiß man, dass man dem System vertrauen kann? Woher weiß man, dass man das System versteht und dass das System mit dem Rest der Systeme zusammenarbeitet? Wie kann man also den Kontext in diese Entscheidungen integrieren? Also diese Karte, die alle Menschen im Kopf haben, wie zum Beispiel ein Hamburger Brötchen und eine Sandwichverpackung aussehen, was das für ein Konzept ist. Und wir haben diese Fähigkeiten. Wir sind in der Lage, uns diese sogenannten Affordances vorzustellen und diese in unsere Interaktionen einzubeziehen. Und deswegen ist das so bedeutsam. Das heißt, wenn man Erarbeiter und Ingenieure auf einer Baustelle sieht, die Wochen arbeiten daran, diese ganz komplexen Modelle ihrer Bauprojekte zu entwickeln, um dort millimetergenaue Toleranzen auszuarbeiten und die organisatorischen Herausforderungen dort abzubilden, dass man nicht ausreichende Informationen von bestimmten involvierten Unternehmen bekommt. Wenn man sich das anschaut, dann versteht man, dass es um diese Komplexitäten geht. Das ist das, was wir Menschen tun, worin wir gut sind, diese Komplexitäten handzuhaben. Und dann mag es viele Aufgaben geben, die sehr repetitiv sind, die vielleicht automatisiert werden können. Aber ich glaube, die Aufgaben, in denen wir davon sprechen, dass sie in einem bestimmten Kontext passen müssen, da sind wir, glaube ich, noch ein Stück weit von weg. Das fand ich ganz interessant hier, diese Verbindung zwischen KI und Menschen, die an der Arbeit nachgehen. Und Jonne Bryson hat das ja auch erwähnt, als es um die Radiologen geht und da diese Idee, dass die demnächst arbeitslos würden, dass das nicht stimmte, dass sie in der Tat nur produktiver geworden sind. Und das bringt uns vielleicht zu einem nächsten Thema, über das sie gesprochen haben, die Opaque, die maskierte KI sozusagen, die verdeckte KI, bei der man im Grunde als Nutzer gar nicht genau weiß, ist das eine KI oder welche Rolle spielen Menschen dabei? Das heißt also Unternehmen, die hier den menschlichen Einfluss oder den menschlichen Beitrag davon verdecken wollen, um zum Beispiel Kapitalinvestitionen anzuziehen oder, weil sie sagen, das kommt nicht so cool rüber, oder weil sie eben sagen, das sind billige Arbeitskräfte, die wir aus bestimmten Regionen der Welt heranziehen können. Wie kann man diese Problematik angehen? Wie kann man diesen menschlichen Beitrag transparenter machen, den er in dem Themenbereich KI spielt? Als erstes muss man mal daran denken, dass diese Systeme unglaubliche Errungenschaften sind von Arbeit. Und die sind wirklich sehr gut, das zu verschleiern, dass da so viel Arbeit dahinter steckt. Chat GPT zum Beispiel, Open AI, die haben diese einfache kleine, dieses Kästchen, das sieht ganz einfach aus. Man sieht überhaupt nicht die Millionen, die da investiert wurden in die technische Arbeit. Man sieht nicht die Hunderttausende von Dollar, die da täglich investiert werden in die Energie, in den Aufwand, nur um dieses kleine Kästchen zu betreiben. Und man sieht auch nicht die menschliche Arbeit, die es braucht, um diese Systeme immer wieder zu pflegen. Wie viel Arbeit es ist, das Internet in etwas zu übersetzen, das scheinbar sicher ist. Das ist wahnsinnig viel Arbeit. Heute wurde verkündet, dass einige Mitarbeiter, die bei einer der Firmen gearbeitet haben, die Arbeit zum Modell von AI ausgesourced haben, die haben sich entschieden, eine Gewerkschaft zu gründen. Also die Arbeit, die betrieben werden muss, damit diese Systeme funktionieren, ist phänomenal. Sie sehen zwar automatisiert aus, aber um das Namen von Mary Gray, hat es gesagt, und andere, das ist eigentlich geister Arbeit. Das ist versteckte Arbeit, die findet auf der ganzen Welt statt, da folgt alten kolonialen Mustern der Ausbeutung. Das ist diese ungesehene Arbeit, das Labeling, die Moderation des Inhaltes und so weiter. Das sind alle möglichen Aufgaben, Tätigkeiten, wie es dabei gibt, aber auch die Arbeit von uns. Was wir tun, damit das integriert wird. Was meine ich damit? Also, der Schule von meinen Kindern hat der Rektor vorher gesagt, ich mache mir wirklich Sorgen um Chat GPT. Und ein Pädagoge entwickelt ein Weißbuch, ein Papier darüber, wie wir damit umgehen. Wie bringen wir das bei? Wie gehen wir mit unseren Kindern damit um? Also es schafft unheimlich viel Arbeit jetzt, um dafür zu sorgen, dass sich das eingliedert in unsere sozialen gesellschaftlichen Werte und Regeln. Und das ist eigentlich die Arbeit, die wir oft nicht sehen. Und wenn wir dem Narrativ und dem Diskurs zuhören, der aus der technischen Welt kommt, dann verpassen wir oft, wie viel Arbeit es braucht, auch Kapazität, Fähigkeiten in der Gesellschaft aufzubauen, eine gute Gesellschaft zu schaffen. Und die Arbeit der Sozialwissenschaftler ist es und auch unsere täglichen Interaktionen, um das zu verstehen, was wir sehen und das besser zu machen. Ja, die technische Perspektive und vielleicht als letzte Frage, bevor wir dann das Publikum mit einbeziehen, dabei geht es immer um Wachstum, oder? Es geht darum, Wachstum zu schaffen für diese großen Sprachmodelle und die künstliche Intelligenz. Sie haben ein paar wichtige Begriffe erwähnt. Sie haben gesagt, dass massive Ressourcen benutzt werden müssen für ganz kleine Errungenschaften. Auch der CO2-Fußabdruck, der damit passiert. Also vielleicht werden die Modelle besser, aber unsere Wälder brennen. Und am Anfang haben sie ja die Metapher erwähnt von einem Bürgersteig, also vom Asphalt. Es scheint mir so, als ob die meisten Strände eigentlich schon über Asphaltiert sind. Und es geht ja immer um Traffic, um den Verkehr auf diesen Datenautobahnen. Auch wenn wir auch nur wenig Wage vorhersagen machen können über das, was die KI alles verbraucht in den nächsten zehn Jahren, das wird nicht funktionieren. Das ist klar, das exponentielle Wachstum, das ist doch etwas Wahnsinnig Gefährliches, wenn wir an unseren CO2-Fußabdruck gehen. Traffic muss weniger werden. Und glauben Sie, dass das etwas ist, was Techfirmen und Unternehmen wissen, wo sie auch mitarbeiten? Oder wie sieht das aus? In den Tech-Unternehmen wird gedacht, dass wenn wir nur genug grüne Energie einkaufen, also aus ökologischen Quellen, für unsere wachsenden Datenzentren, Rechenzentren, und wenn wir nur genug CO2-Zertifikate kaufen, dann können wir das Problem lösen. Aber die Industrie vertreten oder hat einen riesigen Stromfußabdruck, braucht immer mehr Kapazitäten, braucht mehr Ressourcen, braucht mehr Rechencenter, mehr Energie. Juli Rones hat ein Paper veröffentlicht über die politischen Verhandlungen bei der Lokalisierung von Rechenzentren und zeichnen, dass die großen Unternehmen da wirklich grob vorgehen, dieser nette Dieel, oder die Vorstellung, dass sie immer mehr grüne Energie nutzen können, um dann in ihren Berichten zu schreiben, dass sie umweltfreundlich sind. Das ist schon ein Problem. Und die Rechenzeit, das ist eine richtige Ressource geworden. Also wenn diese Modelle trainiert werden, dann arbeiten die, oder wird auf globaler Ebene daran gearbeitet, Ressourcen, Rechenleistungen zu nutzen. Wir wollen das in Zukunft, wir wollen da nicht einfach den Stecker ziehen, aber wir wollen überlegen, ob nur ein bisschen bessere Werbung diese Kosten wert ist, oder ob wir vielleicht nicht doch noch andere Modelle entwickeln können, die zu mehr sozialen Vorteilen führen. Also Google, Facebook, Amazon, die müssen Entscheidungen treffen, wie sie große Daten verwalten wollen. Es geht darum, die Ressourcen bei einer Klimakrise richtig zu verwenden. Und da müssen Entscheidungen getroffen werden. Ist das wirklich die Entscheidung, die wir treffen, dass unsere Ressourcen so am besten investieren in diese großen Systeme? Ist das genug? Hunter Vaughn, mein Kollege beim Zentrum mit Nikros Stakoleski, gucken die sich das Netzwerk der untersehischen Kabeln an. Die Cloud, das ist ja ein attraktives Konzept, aber der Großteil der Cloud befindet sich unter dem mehr alte Kabel, alte Netzwerke, gibt es da noch aus den kolonialen Zeiten, gibt es noch diese Unterseekabel, die das Internet betreiben quasi. Und die großen Plattformfirmen verlegen ihre eigenen Kabel im Meer für ihre eigene Infrastruktur. Und wir müssen uns fragen, ob die Folgen für unsere Weltmeere das wert sind. Ich weiß die Antwort darauf nicht, aber Fragen sollten gestellt werden und die sollten so gestellt werden, dass Transparenz geschaffen wird und dass es eine faire und gerechte digitale Zukunft gibt. Vielen Dank, Gina. Ich glaube, jetzt ist der richtige Zeitpunkt, um auch das Publikum mit einzubeziehen. Ich glaube, wir haben ein oder zwei Mikros. Und genau, wir fangen an mit ein paar Fragen. Hier der Herr in der zweiten Reihe, bitte. Ich bin Matfona. Wir sollten keine Kategorisierung voraussetzen. Die Frage betrifft eines der Themen von KI, ein soziales Konstrukt, wenn wir etwas annehmen, also gesellschaftliche Konzepte, die fließen natürlich auch in diese Sprachmodelle hinein. Und was mir ein bisschen fehlt bei dieser Diskussion ist, ist eigentlich auch um China oder den globalen Süden, weil du und andere benutzen auch diese Sprachmodelle. Und wenn Sie sagen, der Brunnen ist trocken, ich frage mich, wo das herkommt. Es gibt ja eine Konkurrenz zwischen diesen verschiedenen Modellen. Es gibt einen globalen geopolitischen Kampf zwischen den großen Fünf- und chinesischen Firmen und auch für die nächste Generationen, das so weitergehen. Also, wenn KI für uns arbeiten soll, wer sind denn eigentlich wir? Und wird da auch der globale Süden berücksichtigt? Oder andere Gemeinschaften? Wie sieht das mit dem Lock-in aus? Ist das nur außerhalb vom Silikon Valley? Oder ist das auch auf der globalen Technik-Landschaft zu finden? Und wie kann man noch andere Stimmen mit ins Boot holen, die vielleicht nicht gender-binär sind? Wie können die, oder People of Color, auf Twitter gab es ja auch Diskussionen darüber. Wie sorgen wir dafür, dass Organisationen, die hier ganz vorne dabei sind, nicht nur Wissenschaft repräsentieren, sondern die gesamte Gesellschaft? Ja, danke für die Frage. Dame Wendy Hall, Computerwissenschaftlerin in Großbritannien, hat über die vier Internets gesprochen. Wir haben eigentlich nicht ein großes Globalis. Wir haben multiple Sammlungen, Ansammlungen eigentlich von Regeln und Normen, von Apps und Interoperabilität und verschiedene Systeme, die das Unserdenken darüber gestalten. Es ist keine Überraschung. Es gibt eine Diskussion über einen geopolitischen Kampf. Wer wird gewinnen? Es ist nicht überraschend, dass es auch amerikanische Stimmen gibt, die sagen, Amerika muss gewinnen, sonst ist die Welt am Ende. Nicht, dass das etwas wäre, was ich so unterschreiben würde. Aber so wird das oft gesagt. Und was bedeutet das eigentlich außerhalb der Konkurrenz zwischen USA, China und Russland? Und wird die Welt eigentlich so aufgeteilt, dass sich hier so ein neuer technischer Kolonialismus ausbreitet? Es gibt Aktivisten, die sich dafür engagieren, technologische, ethische Debatten zu führen. Who's Knowledge ist also eine Organisation, die sind wahnsinnig aktiv darin zu betonen, wie wichtig es ist, das Internet auch in lokalen Sprachen anzubieten. Für viele Leute ist Facebook das Internet. Also für viele Menschen auf der Welt sind die Seiten, auf die sie Zugang haben, nur solche, die von privaten Anbietern gestellt werden. Es gibt viele, die da aktiv sind. Und ich begrüße das sehr. Guten Abend. Meine Frage ist, folgt eigentlich der Frage des Vorredners. Wir haben über diese Geist der Arbeit gesprochen. Wir haben über den globalen Süden gesprochen, dass dort schlecht bezahlte Arbeiter, die Modelle trainieren. Es gibt viele Aspekte, die damit zu tun haben. Auch die Wassernutzung in Uruguay haben wir das zum Beispiel gesehen. Dort wurde öffentlich, wie viel Wasser eigentlich von einem Google Rechenzentrum verbraucht wird. Und meine Frage, und ich habe nur einen kurzen Kommentar dazu in Brasilien, sprechen wir über ein Gesetzesentwurf, der versucht, das Plattform auch Verantwortung übernehmen müssen. Und es gab eine Kampagne von den Plattformen, die Gesellschaft zu beeinflussen. Also die haben Werbung gemacht. Und gegen diesen Gesetzesentwurf propagiert. Und ich frage mich jetzt, was die größeren Mächte angeht. Also Politik und Wirtschaft, Unternehmen im globalen Norden. Glauben Sie, dass die Aufsichtsbehörden oder die Gesetzgeber hier vielleicht mehr tun sollten, um diese Themen anzugehen? Obwohl wir die Arbeit der Menschen benutzen, die Menschen, die diese Arbeit machen, profitieren ja nicht von den Ergebnissen davon. Ja, das war eine sehr gute Frage. Sollten wir mehr tun? Ja, ich finde schon. Sie haben über regulatorische Maßnahmen gesprochen und das zusammen mit der Organisation. Das sind wirklich wichtige Werkzeuge in unserem Werkzeugkasten. Und ich glaube, wir müssen Unternehmen auch zur Rechenschaft ziehen. Das ist schwierig. Das ersetzt auch nicht die anderen Aufgaben. Aber wir sollten fordern, dass diese Unternehmen, von denen wir Produkte und Dienstleistungen beziehen, dass sie auch in Sachen Umwelt Verantwortung übernehmen und auch die Kosten offenlegen für ihre KI-Systeme. Und sie müssen uns informieren, was sie tun, um diese Schäden auszugleichen. Und wir sollten nicht akzeptieren, dass nur, weil etwas digital ist, dass es auch umweltfreundlich ist. Das ist ein falsches, grüneres, dieses falsche, grüne Narrativ der digitalen Wirtschaft hat uns in einige Schwierigkeiten schon geführt. Manchmal vergessen wir, wie viele Ressourcen es braucht, die Hardware, die Mineralien, die extraktiven Industrien, die eigentlich diese Infrastruktur betreiben. Wir müssen da als Bürger- und Zivilgesellschaft aktiv sein. Es gibt ja auch andere Wissenschaftler im Raum. Und ich glaube, die Forschung ist auf jeden Fall wichtig. Die Forschung kann dafür sorgen, dass wir das beste Wissen zusammenbringen. Wir können so auch klare Forderungen stellen, nachdem was gut ist, was wir sehen wollen für eine gute digitale Gesellschaft. Und ich glaube, Wissenschaftler spielen da auf jeden Fall auch eine Rolle. Noch eine weitere Frage von Jeanette. Und dann komme ich zu Ihnen und danach gucken wir mal, was Leido sagt. Jeanette, Sie haben kein Mikro, also bitte ein Mikro hier in die dritte Reihe. Vielen Dank für Ihren interessanten Vortrag. Also Sie reden oft über Verfahren. Sie öffnen den Diskurs, Narrative, mehr Stimmen, die gehört werden müssen. Aber was folgt denn daraus? Denn die Macht bleibt ja selbst, wenn es einen Diskurs gibt und man mehr Stimmen hört. Und mir ist auch noch nicht ganz klar, wie wir substanzielle Entscheidungen treffen können. Tobi hat gefragt, müssen wir weniger verbrauchen, weniger Energie nutzen? Müssen wir den Traffic reduzieren? Und Sie haben gesagt, ich weiß es nicht. Wahrscheinlich weiß es keiner hier. Aber wie können wir solche Entscheidungen treffen? Wie definieren wir überhaupt, was gut ist, wenn wir schon wissen, dass das ein umstrittener Punkt ist? Ich glaube, es wäre naiv zu denken, dass es in der Zukunft ein Konsens geben wird. Den wird es nicht geben. Wie immer eine prokante Frage von Jeanette. Vielen Dank dafür. Das Gute ist umstritten und schwierig. Aber deshalb sollten wir uns trotzdem nicht davor verstecken, das zu versuchen. Das haben die Sozialwissenschaftler zusammen gemacht. Solange haben wir gesagt, wir haben keine klare Antwort darauf, deshalb ziehen wir uns zurück. Aber ich glaube, wir haben uns oft entschuldigt aus den Debatten über das, was gut ist für die Gesellschaft und haben es jetzt aber überlassen den Technikern, die in das Vakuum eingetreten sind. Und ich glaube, das ist eine Herausforderung, die wir angehen müssen in den Sozialwissenschaften. Denn wir haben beobachten können, dass die Ingenieure kein Problem damit haben, die Welt für uns zu gestalten, wenn wir nichts dagegen setzen. Gibt es demokratische Arten, Rechenschaft, Transparenz und Entscheidungen zu treffen bei diesen komplexen Dingen? Ja, in der Vergangenheit war es oft nicht so klar, was die Vorteile waren. Aber wir haben verstehen jetzt besser, was die Risiken sind. Wir sind nie irgendwo hingekommen, in dem wir uns einfach nur auf Privatunternehmen verlassen haben, die uns vorschreiben, was gut und richtig für uns ist. Das war noch nie richtig. Und habe ich jetzt die Antwort, welche großen Sprachmodelle sollten wir uns angucken? Darauf kann ich nicht antworten, ich will es auch gar nicht versuchen. Aber wenn es darum geht, ob wir profitorientierten Unternehmen erlauben sollten, die Infrastruktur zu dominieren, die wir für Kommunikation und Interaktion für unser tägliches Leben haben, sollen die wirklich die einzigen sein, die Entscheidungen treffen. Die Frage kann ich beantworten und das ist ein Nein. Okay, jetzt Sarah, gucken wir uns mal Slido an. Wir brauchen hier ein Mikro in der vierten Reihe. Ich habe noch eine konkrete Frage. In welchem Bereich der Gesellschaft lohnt es sich denn, KI einzusetzen und die KI für uns arbeiten zu lassen? Entschuldigung, ich habe die Frage nicht ganz gehört. In welchen Bereichen die KI vielversprechend ist nun ja. Ich war sehr beeindruckt davon, eine automatisierte Technologie zu beobachten. Ein ganzes Jahrzehnt habe ich im Feld gearbeitet und diese Kreativität beobachten können von Menschen bei ihrer Arbeit, die versucht haben zu verstehen, wie eine neue Technologie ihre Arbeit verändert, die versuchen zu verstehen, wie sie ihre Arbeit machen können, obwohl sie diese neuen Arbeitsmethoden mit integrieren müssen. Ich glaube, dass es in ganz vielen Bereichen möglich ist. Die Bereiche, wo ich weniger optimistisch bin, dass die KI von großen Nutzen sein kann, ist, wenn es darum geht, wie Leute bei der Arbeit ausgebildet werden, qualifiziert werden. Also in vielen frühen Studien über Roboterchirurgie zum Beispiel, sehen wir, dass junge Chirurgen nicht mehr genug Erfahrung sammeln können, nachdem die Roboter eingeführt worden sind. Also Leute, die neu dazukommen, die gerade erst die Routine erlernen müssen bei täglichen normalen Situationen, das sind ja oft Sachen, die schnell automatisiert werden. Steuerprüfungen zum Beispiel, wenige von uns wollen Steuerberater werden. Da bin ich mir sicher, außer sie sind ein arbeitsloser Soziologe hier im Publikum. In Deutschland denkt jeder darüber nach. Nun, in den großen Konsultikfirmen ist es oft so, dass die Jungen der Nachwuchs sich im Steuerbereich quasi qualifiziert. Wenn diese Art von Arbeit automatisiert wird, was passiert dann? Ich glaube, dass Konsultants immer kreativ sein werden und sich neue Arbeitsfelder erschließen werden. Die Produktivität wird bestimmt bleiben, aber dieser Pfad, der wird sich verändern über die juristische Recherche in Kanzlein, wo die Jungen Anwälte gelernt haben, wie man sich Informationen erschließt und so weiter. Das kann mittlerweile durch große Systeme ersetzt werden. Trotzdem werden die Juristen immer noch lange wichtig bleiben, aber der Weg, der Karrierepfad wird neu überdacht werden müssen. Wie werden junge Nachwuchskräfte qualifiziert? Das ist, glaube ich, ein Bereich, wo ich weniger optimistisch bin, aber ich glaube, als Gesellschaft müssen wir da sehr gut darauf achten, wie junge Leute, die gerade ins Arbeitsleben eintreten, wie, was wir mit denen machen, wenn einige der Streben der Quarriereleiter jetzt automatisiert werden. Gut, ich möchte den Herrn in der ersten Reihe nicht länger warten lassen. Vielleicht können Sie jetzt nochmal Ihre Frage stellen und danach machen wir, glaube ich, mit Slido weiter. Meine Frage betrug sich auf die Filter dieser sprachenbasierten KI und wie eben diese KI für uns arbeiten kann. Mit JGPT zum Beispiel wurde ja rausgebracht, dann wurde es von der Öffentlichkeit genutzt und die Menschen haben sehr schnell gemerkt, dass da durchaus auch gefährliche Antworten oder Vorschläge von JGPT gemacht wurden. Und OpenAI war dann doch relativ schnell dabei, Filter einzusetzen und das System wurde immer stärker. Jetzt gibt es im Grunde Menschen, die JGPT nutzen und sagen, es ist jetzt nicht mehr so hilfreich, wie es am Anfang sein konnte. Wie gleicht man das aus? Wie findet man da eine Balance dazwischen, dass es einerseits sichere Antworten sind und andererseits auch nicht völlig nutzlos wird, weil es so stark eingeschränkt ist durch diese Filter? Das ist eine sehr gute Frage. Das heißt also, wie erreichen wir einen Gleichgewicht zwischen Sicherheit und Effizienz? Das ist genau die Art der Frage, die letztendlich ja durch Werte beantwortet wird. Das heißt, was gewichten wir da in welcher Art und Weise? Und ich würde sagen, dass meine Idee Sicherheit über Effizienz anders ist als ihre Vorstellung und anders als das, was ich mir für meine Kinder wünschen würde. Das heißt, wir müssen immer auf die Werte schauen, die wir von der Technologie realisiert sehen wollen. Und das sind in der Tat Werte, die Menschen nicht immer genau verstehen, wenn sie diese Systeme benutzen. Das heißt, ich möchte hier Open AI gar nicht angreifen oder verteidigen, aufgrund der Entscheidungen, die sie getroffen haben. Aber ich möchte sagen, dass wir wissen, dass wir solche Systeme nutzen können wollen und dass diese Systeme unsere Informationen verstehen und uns auch korrekte Antworten geben, dass es nützlich ist, hilfreich ist, dass wir auch sicher sein können, dass es uns nicht schadet. Also, leider mussten wir hier auf Gesetze und Vorschriften drängen, um eben sicherzustellen, dass es hier keine schädlichen Konversationen geben kann im Internet mit diesen Systemen und dass Unternehmen auch darauf schauen, dass die Menschen, die auf ihren Plattformen angerechnet werden, und wie sie das verhindern können. Ich habe mit German Childry zusammengearbeitet und da ging es darum, wie man auf Twitter zum Beispiel besser verstehen kann, wie dort schädliche Kommentare ihre Wirkung entfalten können, wenn es einmalige Kommentare sind oder z.B. chronische Schäden, die entstehen können, sich wiederholende Schäden. Und ich glaube, da wird es nicht eine einzige Sicherheitsstrategie geben, die wir auf alle Bereiche anwenden können. Das heißt, wir müssen die Unterschiede besser verstehen, wie Menschen sich auf diesen Plattformen bewegen, um eben sicherzustellen, dass jeder von diesen Werkzeugen profitieren kann. Ja, ich überlege gerade, wie ich das formulieren. Wir haben in der Tat noch eine Frage. Dann wollen wir uns doch die Frage noch an, bevor wir zum Ende kommen. Würden Sie denn sagen, dass wir als Gesellschaft diese großen Tech-Unternehmen, OpenAI und andere, darauf drängen müssen, dass Sie nützlichere Werkzeuge und Tools entwickeln müssen, wenn Sie eben der Öffentlichkeit zugänglich machen. Wir haben in der Tat das so erlebt, dass OpenAI ChatGPT einfach veröffentlicht hat und der Öffentlichkeit zugänglich gemacht hat, ohne eine bestimmte Anwendung im Sinn zu haben. Und sollten wir da ein Bewusstsein bei den Unternehmen fördern, dass Sie auch einen Mehrwert liefern müssen damit für die Öffentlichkeit? Ja, das ist die Frage, wo da der Mehrwert liegt bei generativer KI. Und das ist an sich eine sehr, sehr gute Frage. Wir als Gesellschaft, wir hier in diesem Raum, wir überlegen das letztendlich zusammen. Wir finden heraus, wofür wir diese Systeme nutzen wollen und es gibt unterschiedliche Möglichkeiten, zum Beispiel heute schon Desinformationen zu verbreiten, Vertrauenswürdige Medien zu beschädigen, wie diese Systeme zum Beispiel auch missbräuchlich verwendet werden können, schädliche Inhalte verbreiten können und was hier in der EU und auch im Vereinigten Königreich bereits getan wurde, wenn es zum Beispiel darum geht, dass KI unterschiedliche missbräuchliche Bilder erstellen kann, wie Deepfakes zum Beispiel. Das zeigt mir, dass wir uns dessen bewusst sind, dass wir hier Leitkranken für Unternehmen einziehen müssen, denn sonst würden gewisse Nutzerinnen und Nutzer hier mehr dieser schädlichen Inhalte ausgesetzt. Auf der anderen Seite gibt es natürlich viele kreative Projekte, die diese Grenzen austesten wollen, die schauen wollen, was möglich ist. Ich glaube nicht, dass wir alle die Antwort dafür haben, was eben eine solche gute digitale Gesellschaft sein soll, aber ich denke, wir müssen uns bewusst machen, dass wir zusammen über diese Themen sprechen müssen und dafür sorgen müssen, dass eben ein Bewusstsein besteht, welche Technologien der Öffentlichkeit, der Menschheit und unserem Planeten zu Gute kommen. Und ich glaube, wenn wir das nicht tun, dann weiß ich nicht, ob wir dieses Risiko wirklich eingehen wollen oder sollten, die diese Herausforderungen mit sich bringen. Gina, unsere Idee war ja Ende 2017, als wir mit dieser Veranstaltungsreihe begonnen haben, dass wir jede einzelne Veranstaltung mit der Frage beenden, die europäische Perspektive aussieht und das wäre ja auch eine Frage, für heute eine Frage, auf die Zukunft gerichtet. Eine der größten Herausforderungen ist sicherlich die Herausforderung der wirtschaftlichen Gerechtigkeit. Das ist etwas, was schon vor 100 Jahren relevant war in den USA, in Europa, da sind wir auf einem Weg und da geht es um Wohlstand letztendlich. Und mein Eindruck ist, dass die Arbeitsplätze, die von KI ersetzt werden, zum Beispiel Arbeitsplätze, die nicht unbedingt Expertenwissen benötigen, aber auch nicht unbedingt Arbeit, die von nicht ausgebildeten Menschen erfüllt wird, sondern etwas, was sich in der Mitte befindet, dass die auch gefährdet sind davon und dass wir dadurch eine Zunahme der Ungleichverteilung von Wohlstand sehen werden und dass das natürlich auch eine Auswirkung auf die Gesellschaft haben wird. Thomas Piketty z.B. schreibt ja darüber und er ist nicht der Einzige, der von dem Risiko für die Gesellschaft, das Potenzial für zukünftige Risiken spricht und wie können wir das regulieren? Da gibt es europäische Initiativen, die versuchen, hier Leitplanken einzuziehen, die das verhindern. Diese Gefahr ist eine unmittelbare Gefahr hier, sozialen Aufruhr sozusagen. Die Annahme, dass wir eine Art gesellschaftlichen Aufruhr erleben könnten durch die Entwicklung von KI, die so gut funktioniert in so vielen unterschiedlichen Bereichen und Einsatzmöglichkeiten, das suggeriert einem gewissen technologischen Determinismus, dass man sagt, das passiert sowieso und wir können da gar nichts machen. Die Frage ist, was können wir tun? Ich glaube, dass die Frage der wirtschaftlichen Ungleichheit immer eine politische Frage ist, die auch politisch gelöst werden muss oder beantwortet werden muss. Das ist, glaube ich, keine Frage, die wir mit diesen Herausforderungen oder den Fragen und Entscheidungen der KI verbinden müssen. Wir müssen natürlich wirtschaftliche Ungleichheit angehen. Wir müssen Schulen verbessern und deren Versagen verbessern. Wir müssen die Ungleichheit zwischen den Geschlechtern verringern. Natürlich müssen wir diese Fragen beantworten. Wir müssen uns anschauen, wer hier bei der Schaffung der Arbeitsplätze ins Hintertreffen berät und wir müssen uns anschauen, warum es eine solche Konzentration des finanziellen Wohlstandes gibt. In den Händen einiger weniger Unternehmen und entsprechend auch in den Händen einiger weniger Mitarbeitenden, das sind Fragen, die wir stellen müssen. Darüber, wie die Gewinne der Produktivität verteilt werden, wem sie zugutekommen, anstatt einfach nur zu fragen, wie regulieren wir denn die KI, die das möglich macht? Das heißt, wir wissen, welche Aufgaben wir hier angehen müssen. Wir wissen, dass wir verstehen müssen, wie diese Systeme und diese Werkzeuge letztendlich am Arbeitsplatz genutzt werden. Und wir müssen hier diese Innovationen vielleicht auch zurückdrängen oder eben diese Einführung dieser Innovationen verhandeln mit den Mitarbeitenden. Wir müssen Wege finden, wie wir uns dem widersetzen können. Und natürlich geht es auch darum, wie man eine faire, eine gerechte Gesellschaft schafft, wie man wirtschaftliche Ungleichheit verringert. Aber das sind vielleicht nicht immer die gleichen Fragen, die zusammen behandelt werden müssen. Vielen Dank, dass Sie heute mit dabei waren. Gina Neffi, vielen Dank an Sie. Und wir sehen uns im September wieder. Vielen Dank.