 mehr Aufklärungsarbeit für den Einsatz und Umgang mit KI benötigen. Und ich bin seit einigen, ja mittlerweile Jahren am Hick damit beschäftigt, dass ich im Mittelstand 4.0 Kompetenzzentrum arbeite, in der es um die Qualifizierung und Unterstützung von kleinen und mittleren Unternehmen und Selbstständigen im Kontext Digitalisierung und auch viel im Bereich KI geht. Und ich möchte dafür motivieren, dass im Grunde diesen Akteuren auch eine Stimme geschenkt wird in dieser Diskussion. Und ich möchte damit mit einem Beispiel veranschaulichen, in welchem Spektrum eigentlich diese Akteure auch von KI betroffen sind. Und ich habe vor einigen Wochen war ich an einem Workshop beteiligt, in dem es um KI und Content Marketing ging. Und da waren ganz viele Selbstständige und kleine Agenturen, die sich mit diesem Thema Content Marketing beschäftigen. Und da habe ich von Bildverarbeitungssoftware, die mit einfacher KI arbeitet und die Arbeit der Selbstständigen dort in diesem Bereich vereinfacht berichtet. Und da waren alle sehr begeistert, viele haben das schon genutzt und haben den direkten Mehrwert für ihre Arbeit gesehen. Und dann sind wir weiter und weiter in die Zukunft gegangen und irgendwann bei GPT-3 angekommen. Im Grunde einem KI-System, das in der Lage ist selbstständig Content zu erstellen mit ganz, ganz wenigen Inputs. Und auf einmal schwangen die Stimmung in dieser Runde um und von, wow, KI kann mir dabei helfen, meine Arbeit leichter zu machen und meine Arbeit besser zu machen zu, ich habe Angst, vielleicht werde ich irgendwann mal von dieser KI irgendwann in nicht als ferner Zukunft ersetzt und meine Arbeit kann dann ein Computer übernehmen. Und dieses Spannungsfeld von nützlicher Helfer bis befähiger, beziehungsweise über befähiger bis wann werde ich ersetzt, mit dem möchte ich gerne, den möchte ich gerne in die Runde geben und damit übergebe ich an Katja und Wünsche allen Zuhörern, Zuschauern, Zuschauerinnen, viel Spaß beim Digitanzern. Philippa, vielen Dank. Ja, super Frau Wort. So vom wow zum IGIT. Ich schätze, das ist eine Denkfigur, die wir auch heute Abend noch vollziehen werden. Herzlich willkommen auch von meiner Seite zum digitalen, digitalen Salon, nach wie vor immer noch. Wir wollen heute über künstliche Intelligenz sprechen. Was das überhaupt ist, scheint mir nicht überall gleich definiert zu werden. Also das, was immer, wenn wir über das Internet reden oder über Social Media gilt, gilt hier glaube ich noch viel doller. Diese Dichotomieflug oder Segen, die man immer so schön plakativ irgendwo draufkleben kann, die wird hier ganz besonders inflationär gebraucht. Ist vielleicht auch dieses wow oder IGIT, was wir vorhin gehört haben. Und das hat ja Gründe, deswegen wollen wir drüber reden. Und ihr, die ihr zuschaut, zuhört und mitdenkt auch euch ein großes Willkommen. Und nach wie vor, auch wenn wir uns jetzt hier in solche digitalen Endgeräte reinbegeben, seid sehr willkommen mit euren Fragestellungen. Die könnt ihr wie immer unter dem Hashtag Ticksal auf Twitter oder auf Slido loswerden. Und diese drei Mitmenschen werden sie dann beantworten. Ich hoffe, Leonie Beining ist noch bei uns. Zumindest sehe ich sie gerade nicht mehr. Ich weiß nicht, ob sie rausgeflogen ist. Aber ich stelle sie, nee, da bist du. Hallo, Kondim. Ja. Benutter. Supi, das ist auch gut so. Bitte nicht gehen vor 8 Uhr. Hallo Leonie. Du arbeitest für die Stiftung Neue Verantwortung am Projekt KI. Da haben wir es wieder, KI Testing und Auditing. Vorher warst du beteiligt am Projekt Algorithmen fürs Gemeinwohl. Das wäre dann eher der Wow Effekt, von dem wir eben gehört haben. Da geht es dann natürlich aber auch um diese große Rätselfrage, die bei der Beschäftigung mit KI auch immer wieder aufkommt. Wie machen wir denn computergestützte Entscheidungen nachvollziehbar, transparent? War ein Wort, das bis von ein paar Jahren zumindest noch umgeizelt hat. Ich weiß gar nicht, ob dieser Anspruch überhaupt noch erhoben wird. Zu den Trägern der Stiftung, vielleicht auch noch ein Wort. Dazu gehören die Akademien der Wissenschaften. Ich nenne jetzt nicht alle Beteiligten und der Bundesverband der Industrie, aber um da vielleicht so ein paar Leitsterne zu sehen. Herzlich willkommen dir Leonie. Christian Kellermann ist bei uns. Der ist Geschäftsführer beim Denkwerk Demokratie laut Homepage Christian. Ein gemeinnütziger Verein, der sich für eine soziale, ökologische und demokratische Zukunftsgestaltung einsetzt. Der Vorstand setzt sich hier zusammen aus Politikern von Grünen und SPD und aus Gewerkschaftsleuten. Also beispielsweise von der IG Metall. Und Christian ist Dozent an der Hochschule für Technik und Wirtschaft im Bereich Wirtschaftswissenschaften. Auch da mit dem Fokus auf Digitalisierung. Auch dir ein herzliches Willkommen Christian. Vielen Dank. Alles korrekt. Helena Mihajevic ist bei uns. Insofern vielleicht auch eine Kollegin von dir. Helena ist Mathematikerin mit einem Hang zur Datenanalyse. Professorin für Data Science an der HTW. Sie beschäftigt sich mit dem Gender Gap in der Wissenschaft, also dem Geschlechterverhältnis bei Abschlüssen, Veröffentlichungen und Karriere. Und mit der Frage, was der Umgang mit Daten oder KI nutzen kann, wenn man dieses Geschlechterverhältnis analysieren will. Herzlich willkommen, Helena. So du noch da bist. Ja, bin ich. Dankeschön. Ich muss mich gerade anrufen. Okay. Alles klar. Komischerweise habe ich jetzt auch ein paar Mal immer nur zwei Bildchen auf die Reihe, aber jetzt hoffe ich, wir bleiben beisammen bis zum Ende der Runde. Ja, tatsächlich ist immer so ein bisschen Steinbruch der Wortfindung. Es ist ein bisschen mühselig, aber lasst uns da mal reingehen. Ich glaube, wir müssen in dem Fall vielleicht noch mehr als in anderen hier mal die zentralen Begrifflichkeiten auf die Reihe kriegen. Wir haben euch im Vorfeld gefragt, wie ihr dann diesen Begriff, mit dem ich jetzt auch schon fleißig rumhantiere, KI künstliche Intelligenz findet. Die Antworten waren von dir, Christian, übererklärt und drunter definiert, von dir, Leonie, künstlich und wenig hilfreich für die politische und gesellschaftliche Debatte. Und du, Helena, hast ergänzt, ist meistens fehl am Platz. Wieso? Was ist daran deplatziert? Ja, also das deplatziert ist tatsächlich ein Aspekt, der mich oft wormt. Also mit dem Begriff wird ja unfassbar viel verknüpft. Da können wir gleich nochmal darüber reden, aber typischerweise ist das, was sich dahinter verbirgt, eigentlich relativ einfaches Werkzeug, dass man, glaube ich, deutlich besser verstehen kann, als dieser Begriff suggeriert. Das ist, ja, ich würde schon sagen, einfach ein Verkaufsschlagwort, was sozusagen vor allem für die Businesswelt da ist und rechtlich wenig möglich macht, also die Differenzierung zwischen dem, was eigentlich unter der Haube bei den jeweiligen soziotechnischen Systemen sich eigentlich verbirgt. Das heißt, wir haben es da mit einer Palette von Anwendungen zu tun, die, weil es so hot klingt, alle als KI gelabelt werden. Ja, alles heißt KI. Die einfachste lineare Regression ist KI und Tools, die auf GPT-3 basieren, sind auch KI. Jo lost mir et lineare Regression. Also, klassische statistische Verfahren, um ein, eine gerade oder ein was lineares in mehreren Dimensionen durch Daten zu ziehen, wird auch oft als KI verkauft. Aber genauso extrem komplexe, algorithmische Systeme, wie das, was Eingangs erwähnt wurde, im Bereich des Natural Language Procings, also das GPT-3, solche künstlichen Sprachmodelle. Und da ist schon eine riesen Bandbreite dazwischen. Und ja, wenn es darum geht, das unter die Leute zu bringen, heißt dann alles KI. Okay, wir sind also in einer Galaxis von Anwendungen oder Werkzeugen, wie du es ganz nüchtern genannt hast. Leoni, du hast gesagt, künstlich und wenig hilfreich für politische und gesellschaftliche Debatten. Wieso künstlich und wieso so wenig hilfreich? Ja, künstlich, weil ich glaube, der Begriff stammt ja tatsächlich daher, dass der tatsächlich dafür erfunden wurde, um noch mehr Forschungsgelder oder Interesse für dieses Themengebiet zu bekommen und einfach Aufmerksamkeit zu erwecken. Und wenig hilfreich, weil ja, das ist jetzt schon angeklungen, weil er einfach diese Technologie mystifiziert und überhöht und einfach vermenschlicht. Dabei ist es eigentlich ein Werkzeug und als solches sollten wir es behandeln. Und es hat einfach, also Technologie, KI hat kein Bewusstsein, hat kein Verständnis für den Kontext. Und all das, was man auch mit menschlicher oder mit natürlicher Intelligenz verbindet, hat es nicht. Und deswegen finde ich es einfach schwierig, wenn man da so diese Parallele zieht. Es ist ein Werkzeug und ja, so sollten wir es nennen, beziehungsweise es sind tatsächlich mehrere Werkzeuge, die unter diesem Label KI subsumiert werden. Ich habe ja eingangs gesagt, dass du bei der Stiftung Neue Verantwortung an einem Projekt arbeitest, dass die KI aber eben auch im Projekttitel führt. Wieso ist das denn so schwierig, diesen Begriff irgendwie mal wieder aus den Klamotten zu kriegen, wenn ich ja im Grunde immer nur mit Menschen spreche, die sagen, der ist falsch, der ist fehl am Platz. Ja, also das ist eine sehr interessante und spannende Frage. Und es wäre wahrscheinlich wirklich hilfreich, wenn es mal eine Übereinkommen oder einen Konsens geben würde, dass man diesen Begriff nicht mehr benutzt. Aber er ist einfach so jetzt integriert und also tatsächlich wird er auch von Unternehmen, von privatwirtschaftlichen Akteuren auch immer wieder in die Debatte gespielt. Deswegen kann man ihn glaube ich nicht, man würde ihn nicht loswerden, sondern man würde ihn auch mit Wissenschaftlichen Akteuren oder auch zivilgesellschaftliche Akteuren, wie wir das gerne ein bisschen weiter versachlichen würden. Und ja, wir im Projekt haben auch lange dann über eine Definition nachgedacht und sind tatsächlich mehr auf den Begriff der KI-Methoden gekommen. Also diese, wie gesagt, diese Werkzeuge, die sich alle unter dem, ja, wie ich gerade schon gesagt habe, unter dem Label-KI zusammenfassen lassen. Christian, dann fehlt uns noch dein Rand über erklärt was du unterdefiniert hast zu beschreiben. Verstehe ich so, es gibt eine Menge Ansichten oder Interpretationen, vielleicht auch Perspektiven, aber es fehlt die Basis, eine Definition. Wie würde denn deine lauten? Nein, vielleicht nochmal ganz kurz zu dem kleinen Satz, über erklärt, wenn man sich anschaut, der On-Cad-Kommissionsbericht zur künstlichen Legenz hat über 800 Seiten. Das ist ein ziemlich langer Welter, da kann man sehr viel über Anwendungsbereiche und verschiedene gesellschaftliche Dimensionen von künstlicher, also von Methoden, künstlicher Intelligenz erfahren, lesen, aber es findet sich keine klare Definition darin. Und wenn man sich neuere Papiere anschaut, die vergleichende Versuche unternehmen, Definitionen in unterschiedlichen Ländern von offen- und offiziellen Statistikämtern beispielsweise auszuwerten, jetzt jüngst die OECD in dem Papier vom März, da findet sich für die sieben Länder, die den Panel haben, völlig unterschiedliche Definitionen. Also da findet sich beim dänischen Statistischen Amt bei KI der Aspekt des Denkens bei der Technologie. Bei anderen ist es sehr viel niedriger gehangen, da geht es um Autonomie gerade, die maschinelles Lernen erreichen kann bei der selbstständigen Erarbeitung von Lösungen beispielsweise. Deswegen meinte ich das mit Unterdefiniert und diese Unterdefiniertheit bringt halt sehr, sehr viele Probleme mit sich gleichzeitig, muss man auch sagen, ist es halt ein dynamischer Prozess, sondern es ist eine sehr dynamische Technik oder technische Methoden und der ist vielleicht auch schwer zu begreifen mit einer einzigen Definition. Ja, auch da wieder dieses Bouquet von Tools, ich will dich noch mal zitieren, du hast das über, worüber wir hier reden beschrieben, als Axel und Speed. Also der Begriff Denken kommt da ja nicht vor, oder in einer flotten Tabelle. Nein, ich halte das wie die beiden Vorrednerinnen. Also das ist ganz viel Statistik, das ist ganz viel Mathematik, das ist ganz viel Logik und eben mit neuen Daten und auf schnellen Maschinen sozusagen und mit durchaus, sagen wir mal, sehr weitgehend oder auch autonom arbeitenden Algorithmen. Das ist ja nicht so, als wenn die, die gab es 1956 bei der Datenaufkonferenz als dieser Begriff künstliche Ligenz geprägt wurde, auch als, sagen wir mal, Marketingstrategie, um an Geld zu kommen. Das ist alles total richtig. Da gab es diese Art der Technik oder diese Art der, diese Tiefe der Algorithmen noch nicht, aber es gab zumindest die Hoffnung tatsächlich, Funktionsweisen des menschlichen Gehirns und der Neuronalenetze, also künstlicher Neuronalenetze, nachzubilden. Also diese Hoffnung gab es durchaus, das hat man halt wunderbar vermarktet und dann kriegt man den Begriff nicht mehr raus. Ja, wie gesagt, das Bundesministerium für Bildung und Forschung verwendet ihn, alle möglichen Universitäten, das HIG hat ihn auf der Seite, die Stiftung Neue Verantwortung hat ihn auf der Seite, liegt es vielleicht daran, dass wir auch als Gesellschaft so verliebt sind in dieses Science Fiction Hafte, dass wir uns das, dieses Menschen ähnliche, ist das, was uns da anmacht? Wer möchte, also reagiert ihr mal, wer auf die Fragen antworten möchte, die ist offen. Vielleicht noch mal um anzuschließen an das, was Christian gerade gesagt hat. Also viele, viele Leute, die sich auch mit dem Thema auseinandersetzen, die versuchen, diesen KI-Begriff als so eine Art sich bewegendes Ziel auch zu beschreiben. Das ist eine feste Bedeutung hat, wo wir auch überhaupt den, also der Grund, dass es keine Definitionen gibt, ist, weil der Begriff so angelegt ist, dass man ihn nicht definieren kann, weil er sich quasi eigentlich an dem bemisst, was man glaubt, dass den Menschen zu etwas Besonderem macht. Also was sozusagen die besonderen menschlichen Fähigkeiten ausmacht. Und wenn das vor 50 Jahren das Schachspielen war und die Tatsache, dass man irgendwie Chess-Champions das heute eben nicht mehr. Und jetzt kann natürlich auch sein, dass eben in 20, 30 Jahren das, was wir heute als Bahnbrechen betrachten und als etwas, was sozusagen KI von einfacher Statistik abgrenzt, etwas ist, was wir eben in 30 Jahren überhaupt nicht als etwas Besonderes ansehen. Deswegen ist der Begriff vielleicht eher als so eine Art Visionsbegriff zu betrachten, als etwas, was sich sozusagen auch ständig daran arbeitet, was von dem, was wir so können, eigentlich was Besonderes ist. Und sozusagen als Vorstellung davon, dass das, was eine Maschine eben kann, eben nichts Besonderes ist. Schließlich ist es eine Maschine. Also daran arbeitet sich ja dieser Begriff so ein Stück weit ab, während so ein Methodenkoffer der relativ wohl definiert ist. Also man kann deutlich besser erklären, was beispielsweise Maschinelles lernen jetzt wäre. Daran lässt sich glaube ich keine allzu große Visionen knüpfen. Da geht es dann doch um konkrete Problemlösungen und ja, genau also klare Vorstellungen davon, was bestimmte Algorithmen können sollen, ohne dass ich damit sagen will, dass sich daran nichts tut. Natürlich entwickeln sich darin ständig neue Algorithmen und neue Erkenntnisse. Aber das taugt vielleicht nicht allzu sehr als so ein Visionsbegriff und vielleicht nochmal damit reingeworfen in in den Communities, die sich jetzt so in den letzten zehn Jahren vielleicht besonders entwickelt haben in dem Bereich, wo es eben um die Betrachtung dieser Systeme geht und ihres Impacts auf Gesellschaft, da die benutzen diesen Begriff auch gar nicht. Sie sprechen eben von soziotechnischen Systemen, weil natürlich ganz klar ist, dass all diese Diskussionen, sei es Fairness oder Transparenz, was auch immer, die beziehen sich gar nicht so sehr nur darauf, ob das jetzt ein Machine Learning-Modell ist, sondern sozusagen, dass es ein technisches System ist, was im Rahmen einer gesellschaftlichen Positionierung entsteht, auf die Gesellschaft wirkt und entsprechend behandelt und betrachtet werden muss. Ja, vielen Dank. Ich sehe dich Leonie und dich Christian Nikken. Ich glaube, ihr stimmt dazu, also, dass man das Vokabular so auftröseln könnte. Was ist das dann, was meinen wir konkret und was es als Vision gemeint oder als Idee, was daraus noch werden könnte? Ich will euch diese Frage nach Fluch oder Segen, so bin ich ja eingestiegen, gar nicht stellen. Ihr würdet vermutlich mal alle sagen, jetzt gerade auch nochmal mit den soziotechnischen Systemen, die du Helena reingebracht hast, kommt darauf an, was wir daraus machen. Deshalb würde ich euch lieber nach diesem, was wir daraus machen, fragen, nach den Möglichkeiten. Stecken denn in den soziotechnischen Systemen oder in deinem Worring in den KI-Methoden? Welche Möglichkeiten siehst du da? Also, wenn du mal gucken willst, was liegt dein gutes drin? Na ja, also, was KI-Methoden oder was Maschinelles lernen natürlich in erster Linie kann, sind Mustererkennen, die Menschen gemeinhin erstmal verborgen bleiben würden und das einfach sehr effizient und schnell erledigen können und diese Muster können natürlich uns Erkenntnisse bringen, die wir dann verwenden können für eine bessere medizinische Behandlung beispielsweise. Ich mein, gerade aus dem Medizinbereich gibt es sehr viele sehr viele Beispiele, wo jetzt Röntgen Aufnahmen zum Beispiel von Maschinenlearningsystem ausgewertet werden, um dann eine bessere Diagnose zu stellen zum Beispiel. Also, ich denke überall oder im Bereich Verkehrsplanung, Ressourceneffizienz dieser Umgang mit mit unseren natürlichen Ressourcen, da kann KI uns glaube ich sehr weit helfen wo es einfach schwierig wird, wenn KI-Systeme benutzt werden um Entscheidungen über Menschen zu treffen oder Menschen zu bewerten. Ich glaube hier KI-Systeme zu benutzen um Wertentscheidung zu treffen, also zu entscheiden wer ist ja ein guter Bewerber, wer ist verdächtig von welcher Person geht ein Risiko aus. Ich glaube einfach, dass KI-Systeme zur Zeit einfach nicht gut können und dann stellt sich eben auch die Frage, ob sie das überhaupt gut können sollten. Was meint Ihr Helena Christian? Sollten Sie das können irgendwann mal, wenn zum Beispiel der Seifenspender auch die Schwarzerhand bedient, das ist ja so ein plastisches Beispiel der Seifenspender, der eben darauf konditioniert ist oder der anhand von Datensätzen darauf trainiert wurde weiße Haut zu betanken und schwarze Haut gar nicht erkennt als eine Hand. Würde ich ganz gerne mal anschließen an das, an dem was Leonie gesagt hat und auch mal eine Frage in die Runde werfen, weil mich das interessieren würde bei der ganzen Thematik von Excel und Speed was du vorhin gesagt hast. Ja, ich weiß. Aber bei dieser Frage Excel und Speed habe ich ja auch der ganze Satz lautet, dass ich der Meinung bin, dass auch ein schnelles Excel oder ein komplexes Statistiprogramm mit den richtigen Daten und den richtigen Algorithmen und den schnell genug rechten Kapazitäten tatsächlich ein qualitativ neues Ergebnis bringen kann. Das ist ja das, was die Leonie gerade gesagt hat mit dem Thema Medizin und Diagnostik Mustererkennung. Das ist ja das, was die Leonie oder den Medizinbereich extrem spannend gerade was die Forschung auch betrifft, nicht nur was die Diagnose betrifft, sondern auch die Diagnostik, sondern auch die Forschung. Bestes Beispiel in meiner Sicht ist diese ganze Frage von der Vorhersage von Proteinfaltung. Alpha DeepMind hat ein großes Projekt zu dem Thema Proteinfaltung initiiert. Das ist noch gar nicht so lange her, dass es ein sehr komplexes Neurologisches Thema ist da eingestiegen ist. Das haben mit ihren beiden neuronalen Netzen eine sehr tiefe, komplexe, neuronale Netze tatsächlich dieses Feld der Vorhersage der dreidimensionalen Struktur von Proteinen total auf den Kopf gestellt. Das sind 50 Jahre Forschung in der Molekulabiologie, die wenig, sag ich mal, vom Fleck gekommen sind. Die haben ganz lange, ganz ewig, lang mit riesigen Maschinen minimalst der Ergebnis erzielt. Ich erzähle auch gleich, warum das wichtig sein kann oder warum das ein Unterschied macht. Wenn man plötzlich mittels Algorithmen, mittels den richtigen Daten, also den trainierten Datensätzen und mittels eben einer komplexen Möglichkeit, dann muss dazu erkennen in einer Regelmäßigkeit von Proteinen, die sich zu entsprechenden Einheiten in den Zellen, den menschlichen oder welchen Zellen auch immer, falten und dort sozusagen dann ihre Wirkungskraft entfalten. Die Proteinen sind ziemlich nutzlos, die müssen sich falten und dann haben sie diese Struktur und dann erfüllen sie ihren Zweck. Das machen sie immer besser, mal schlechter. Wenn sie schlechter machen, haben wir alle Alzheimer, wenn sie es gut machen, ist alles schick. Und vor dem Hintergrund ist es schon ein sehr, sehr wesentliches Thema und wenn es plötzlich möglich ist, wie Google es tatsächlich geschafft hat oder nahe dran ist es zu schaffen, die Proteinfaltung mittels Algorithmen vorherzusagen, also mathematisch vorhersagen, ein sehr schwieriges Werkzeug, um hier in der Medizin eine wirkliche Revolution anzuführen. Also dann haben wir hier tatsächlich den Weg hin zur Individualmedizin geebnet, der die Gesellschaft, unsere Gesellschaft nachhaltig verändern wird. Ob wir wollen oder nicht. Und dann ist es völlig egal, ob es ein Axel und Speed ist oder eine künstliche Intelligenz oder wie man es auch bezeichnet. Wenn dieses Werkzeug es schafft und man es auch bezeichnet, dann haben wir tatsächlich hier eine Herausforderung, mit der wir umgehen müssen. Vor gut ein Verwert. Also das ist dann die technische Revolution oder eben eine unheimliche Beschleunigung in der medizinischen Forschung. Aber du sagst das Eingangs, du willst eine Frage daraus ableiten, die warte ich noch. Die Frage wäre, ob das die anderen aus, ob das die anderen auch so sehen. Also ob man sozusagen aus den Quantitativen, schneller, besser, exakter zu berechnen. Ob das genauso gesehen wird, dass daraus qualitativ veränderte oder neue Ergebnisse entstehen können. Und man dann, ja, und das wäre so der, auch von paar Statistiken oder statistischen Bundesändern, die versuchen, KI zu messen oder Methoden der KI zu messen, dann die Imitation. Da sind wir wieder bei Touring, die Imitation von intelligenten Ergebnissen und die Frage jetzt zurück. Also kann aus Quantität Qualität werden. Helena. Puh. Das ist jetzt so richtig hartes Terrain, weil Medizin ist etwas, damit kenne ich mich einfach nicht so gut aus. Ich verstehe zwar ein bisschen was Molekularbiologie, weil das mal nebenfach war, vor gefühlt 100 Jahren. Aber ich kann jetzt gar nicht so richtig abschätzen, welchen Impact das genau hätte, wenn man jetzt vorhersagen könnte auf Individualbasis, da ist wirklich meine Änderung nicht mehr stark genug. Aber ich glaube, du könntest auch versuchen, tatsächlich die, einfach die letzte Frage zu beantworten, ob aus solchen Prozessen die Quantitativarbeiten qualitativ erwünschenswertes hervorgeht. Hervorgehen kann. Dafür müsste man aber jetzt sozusagen erst mal einschätzen können, was das alles so mit sich bringt. Ich meine, man kann auch ganz viele andere Ergebnisse, andere, ja, technologische, technologische Ergebnisse der letzten Jahre und Jahrzehnte benennen, die nichts mit KI zu tun haben, jetzt so ein aktuelles Beispiel zu nennen, wie ist es jetzt mit irgendwelchen Tests auf Trisomien. Das ist keine KI, das sind medizinische Tests. Das kommt eben darauf an, ob jetzt alle Leute anfangen, sozusagen oder alle Frauen oder alle werdenden Eltern anfangen, während ihrer Schwangerschaft zu gucken, ob möglicherweise an ihrem Kind irgendetwas nicht so ist. Und das ist ja eine moralische Debatte jetzt einmischen zu wollen, aber es hat nichts mit KI zu tun, aber es ist sozusagen die Möglichkeit, mehr Erkenntnisse über etwas Bestimmtes zu bekommen. Die Frage ist, was macht eine Gesellschaft damit und was machen Individuen damit und was machen die Gesetzgeber damit in dem Sinne, wie sie es wo reinbringen. Und ich denke, darauf lässt sich das dann alles letztendlich runterbrechen. Also ob ich jetzt einen deterministischen Algorithmus habe, der nach irgendwelchen Regeln von was auch immer kombiniert mit welchen biologischen oder biotechnologischen Methoden auch immer kombiniert mit Ergebnisse ausspuckt oder ob ich ein neuronales Netz trainiert habe mit irgendwelchen Daten und das spuckt dann auch irgendwelche Ergebnisse aus. Ich glaube, das macht gar nicht so sehr den großen Unterschied. Also das ist glaube ich gar nicht so relevant, sondern was man jetzt will und welche Vor- und Nachteile das mit sich bringt und ob man in der Lage ist den Impact von so etwas abzuschätzen auf die Entwicklung einer Gesellschaft in den nächsten Enjahren und daran, ja, man kann jetzt zynisch werden und sagen, den Impact abschätzen kann man hierzulande ja nicht mehr mehr für die nächsten Monate, zumindest sieht die Covid-Politik so aus, aber das ist jetzt vielleicht, ja... Monate wäre dann schon optimistisch. Leoni, dann versuche ich nochmal eine andere Frage draus zu stricken. Was die Vorredner ja entwickelt haben, ist, ich sage einfach mal, ein Wissenschaftssystem, ob das jetzt Biotechnologie ist oder KI und Deep Learning, jedenfalls eins, das in sehr schneller Folge sehr viele Revolutionen oder neues Wissen, neue Erkenntnisse produziert und Helena hat gesagt, das muss gefasst, also aufgefasst verarbeitet und möglicherweise in Gesetze gegossen werden von uns allen, die wir damit umzugehen haben, beispielsweise. Da sind ja verschiedene Ebenen, verschiedene Zahnräder, die dafür ineinandergreifen müssen. Wenn aber dieses System so schnell evolviert und quasi einen Minutentag Erkenntnisse produziert, kriegen wir das überhaupt gesellschaftlich eingefangen, all die Diskussionen, die wir führen müssen. Also genau, was ich dazu noch sagen wollte, ist, dass das ja auch ein Stück weit diese Dual-Use-Problematik ist, die bei vielen Technologien besteht und die es eben auch bei KI gibt. Also KI, was nicht, die Gesichtserkennung auf meinem Handy hilft mir, mein Handy zu entsperren, aber kann natürlich auch eingesetzt werden zu Überwachungszwecken. Spracherkennung kann für Übersetzung helfen, kann dann aber auch helfen, Fähigkeiten zu verbreiten. Also das sind so diese beiden Seiten, die man immer im Blick haben muss und deswegen geht es darum, sich ganz genau die Anwendung anzuschauen. Also wofür werden eigentlich die Technologien angewendet und das entsprechend zu regulieren. Da stellt sich dann immer noch die Schwierigkeit, dass man abschätzen muss, wofür das alles mal hin und auch, was jetzt vielleicht unproblematisch aussieht, was nicht wann, wurde YouTube erfunden. Da hat auch noch keiner vielleicht abschätzen können oder zumindest in dem Moment abschätzen wollen, wo uns das Ganze mal hinführt mit radikalen Inhalten, die da hochgespült werden. Es geht um die Anwendung und es geht um die Folgen, aber die Schwierigkeit ist eben das abzuschätzen. Genau, das ist eben mit einer Technologie, die sich sehr schnell entwickelt und wo es auch gerade, wo es einfach große Entwicklungssprünge gibt oder zumindest Gabel in den letzten 10 Jahren, wahrscheinlich sehr schwierig und da, ich glaube, Politik steht in der ganzen Digitalisierung also gegenüber der Digitalisierung sowieso vor großen Herausforderungen und ja, KI verschärft das oder ja, verschärft es vielleicht nicht, aber es ist da ein Aspekt davon, wo es dann vielleicht auch nochmal, wo wir darüber nachdenken müssen, wie wird Politik in dem Feld eigentlich gemacht, welche Expertise brauchen wir da und wie wird diese Expertise mit in den Politikprozess integriert. Sind wir, glaube ich, beim Stichwort der Folgenabschätzung gelandet? Ich versuch das mal als Merkosten zu behalten, aber Christian ist dazu gekommen und hat wahrscheinlich eine Frage aus dem Publikum dabei, ne? Genau, ich glaube, das geht genau in diese Richtung von Technik- Abschätzung, und zwar lautet die Frage inwiefern können legale Anwendungs- Bereiche von KI definiert und reguliert werden im Bereich automatisierter Waffen, gibt es schon einige Initiativen. Brauchen wir nicht einen globalen Konsens darüber, wo dieses Tool ist? Okay, wer möchte denn daran auch noch einen globalen Konsens, wo wir überlegen, wie man vielleicht ein Bundesdeutschen herstellen könnte oder erst mal die Debatte dafür starten, wer traut sich an den dicken Platz noch an? Ja, kann ich gern was zu sagen, aber jetzt nicht aus dem Bereich Waffensysteme, sondern aus dem Bereich Arbeit. Das passt nämlich auch zum heutigen Tag. Heute ist es Betriebsverfassungsgesetz in die Kabinettsvorlage gegangen. Und da steht beispielsweise, da ist ein ganz wichtiger Satz drin, nämlich, dass die Mitbestimmungsakteure bei der Einführung von KI-Systemen nenn ich es jetzt mal, also wird es auch zumindest in der Pressemitteilung, die ich heute noch studiert habe, genannt in Betrieben, dass die, sagen wir mal, die Mitbestimmungsakteuren Mitspracherecht haben. Sowieso, das gibt es Betriebsverfassungsgesetz aber eben auch externe Expertise einholen können, weil ja häufig ein großes Verständnisproblem da ist zu verstehen, was kann denn jetzt beispielsweise ein KI-System zur Optimierung einer Wertschöpfungskette, einer Produktionsanlage, Vernetzung zwischen drei unterschiedlichen Produktionsbereichen beispielsweise, was kann die tatsächlich leisten und was wird sie in drei Monaten, in drei Jahren leisten können. 30 Jahre ist vielleicht ein bisschen weit weg, aber sozusagen, weil es die Technik sehr dynamisch sich entwickelt und auch selbst lernen zum gewissen Autonomiegrad sein kann, ist es eben von der Technikfolgenabschätzung her extrem komplex und herausfordernd, das dynamisch zu erfassen. Deswegen finde ich es schon mal ein wichtiger Schritt, dass man sich externe Expertise dazu holen kann. Die Bundesregierung, finde ich, hat schon sehr gut reagiert auf dieses ganze Thema Regulierung. Ich möchte nur das KI-Observatorium vom, das beim WMAS, also beim Arbeitsministerium angesiedelt erwähnen, finde, das ist genau die eine der richtigen Antworten darauf, um mit einem so hochdynamischen Prozess umzugehen, wenn es dann darum geht, speziell darum geht auch KI im Arbeitsprozess, im Arbeitsleben unter Kontrolle zu halten. Also hier zumindest erstmal nicht die Kontrolle zu verlieren. Es sind alles immer noch ein bisschen so kontempkische Dörfer, weil KI ganz selten überhaupt das eingesetzt wird. KI verstehen die meisten doch irgendwie das Tablet Fendi und so. Also so mal richtige Algorithmen, vernetzte Produktion. Das ist zwar ein großes Stichwort, aber ist jetzt noch nicht so in großer Anwendung. Das macht auch die Imperie schwierig. Aber also kurz um, das ist ein tatsächlich ein ganz guter Prozess, die, sagen wir mal, die Mitbestimmung hier auch zu nutzen, die wir in Deutschland haben, um die Kontrolle zumindest im Arbeitskontext über die Technik nicht zu verlieren. Okay, jetzt war die Frage des Zuschauer oder der Zuschauerin ja eine sehr große, die nach globalen Regulierungen beispielsweise, wenn wir über automatisierte Waffen sprechen. Du Christian, hast jetzt geantwortet mit Regulierungen, die schon stattfindet und die mitgedacht wird im Prozess der Arbeit Helena und Leonie, wie seht ihr das? Wenn wir tatsächlich nochmal auf die internationale Ebene gehen, gibt's da irgendeine Art von Konsens, dann zudem auch noch im Kontext Waffen? Also ich bin keine Expertin für autonome Waffensysteme, ich weiß, dass an dem Thema gearbeitet wird und auch, glaube ich, auch an Verträge da im Raum stehen und ich bin überzeugt, dass solche Probleme, also globale Probleme brauchen globale Antworten, so heißt es ja immer und das ist auch im Bereich KI so. Was die KI-Regulierung angeht, sind wir, glaube ich, schon ganz gut beraten und auch ganz gut dabei, dass die EU stark vorangeht und jetzt auch in den nächsten Wochen ja ihren Vorschlag für eine KI-Regulierung vorlegt, weil die EU ist ein großer Markt, ist wichtig in den internationalen Beziehungen und kann da, glaube ich, ein gutes, mit gutem Beispiel vorangehen und auch hat ja auch, zum Beispiel im Rahmen der DSGVO, der der Anschlussgrundverordnung gezeigt, dass das ist, was die Regulierung von Daten oder von unserer digitalen Welt auch vorangehen kann und ein gutes Beispiel für andere abgeben kann. Ich glaube, also globale Probleme müssen global gelöst werden, aber es ist auf jeden Fall wichtig und relevant, dass wir jetzt als EU da zu einem Rahmen kommen, an den sich auch andere Länder ein Stück weit halten müssen, je nachdem, worum es dann geht, wenn zum Beispiel Produkte auf dem Binnenmarkt gehandelt werden müssen und so weiter. Also ich glaube, dass das einfach ein sehr wichtiger Baustein sein wird. Jetzt haben Helena deine beiden Vorredner jeweils Sachen benannt, wo reguliert wird, wo ein Problem als Problem erkannt wurde oder vielleicht ums gar nicht so drastisch auszudrücken, ein Sachverhalt als einer erkannt wurde, bei dem man dabei sein muss, bei dem man dran sein muss. Wir wollen es gerne noch mal in ein softeres Themengebiet wechseln, nämlich das gesellschaftliche, wo ja vielleicht die Sachen, die Jan gesprochen hat, die wichtig sind, aber vielleicht gar nicht so populär sind, so viel Widerhalt finden. Nehmen wir so ein Film wie Ex Machina, der behandelt ja unser Thema sehr, ich weiß nicht ob du ihn kennst, du ziehst ja irgendwann hoch, da geht es tatsächlich um den Turing Test in Form einer Story, in der ein junger Mann testen soll, so denkt er und darauf lässt er sich ein, am Ende stellt sich raus, April-April, er wurde nicht nur getestet, sondern benutzt im großen Plan dieser KI der er da auf den Zahn füllen soll. Also in solchen künstlerischen Gebilden zeigt sich ja dann doch oft eher einfach die nackte Angst, also dieses ich krieg es nicht reguliert ich bilde mir ein ich sage der KI, wo es längst geht aber hab gar nicht gemerkt, dass ich längst zu deren Instrument und Werkzeug geworden bin. Was denkst du denn, wie lässt sich so eine Debatte gesellschaftlich führen, wenn man es aus den Ministerien dann wieder rausholen will? Das ist auf jeden Fall auch ja auch etwas womit ich mich wie gesagt den Film kenn ich nicht und den ministerialen Debatten ist auch etwas, das ist nicht so ganz mein Bereich, aber vielleicht auch zu der Frage davor nochmal, also ich kann jetzt auch nicht sagen wo alles KI wo es eingesetzt werden sollte, aber ein Bereich der mir einfällt, der jetzt nicht erwähnt wurde, sowas wie Gesichtserkennung also nochmal als ein ganz explizites Thema das zumindest in ein paar Bundesstaaten in den USA beispielsweise nicht mehr Teil der Polizeikameras sein darf, also die dürfen keine automatische Gesichtserkennung machen die betrachten das als ein temporäres regulatives Problem wo man sagt, na ja das ist sozusagen durch die Gesetzgeber noch nicht ordentlich abgedeckt und vielleicht ist die Technologie hat sie auch so ein paar Macken, die man dann entsprechend beheben müsste also ein bisschen eine Frage der Zeit aber immerhin haben ein paar Bundesstaaten das gestoppt unter anderem Kalifornien wenn man mich jetzt persönlich fragen würde ich finde das soll es einfach nicht geben also Gesichtserkennungstechnologien soll es einfach nicht geben, Punkt egal ob ich damit mich für mein Telefon authentifizieren kann oder nicht ja kurz reingrätschen, weil das ja tatsächlich was ist, was ganz oft zur Anwendung kommt du sagst, sollte es gar nicht geben Leonie hatte das vorhin auch schon gesagt alles was letztlich zu einer Wertung gemacht oder benutzt werden kann über eine Person sollte nicht zum Einsatz kommen, aber denkst du das ist politisch, realistisch und machbar dass beispielsweise Gesichtserkennung nicht stattfinden sämtliche Tools, die es gibt die darauf warten, aber nicht eingesetzt werden also ich finde, dass man dafür unbedingt einstehen sollte ich glaube jedes abrücken ist ein Stück weit problematisch und müsste sich halt fragen was das alles noch nach sich zieht und das ist glaube ich eine interessante Debatte was das sozusagen alles in den Bereich der Computer Vision anfasst aber es gibt ja auch Leute wie beispielsweise Joseph Redmond der ja den YOLO Algorithmus beispielsweise entwickelt hat, der ja auch viel eingesetzt wird der hat vor einem Jahr verkündet der verlässt diesen Computer Vision Bereich vertreten kann, also er hat einen der interessanteren Algorithmen der letzten Jahre entwickelt da wird ihm ganz vielen Tools benutzt weil es halt relativ also recht akkurat ist und super schnell funktioniert das ist für Objekterkennung und er sagt er einfach die militärischen Anwendungen die findet er sowas von unvertretbar dass er auch nicht vertreten kann daran weiterzuarbeiten und das ist jetzt ja auch also solche Haltungen gab es im Bereich der Wissenschaft schon immer und sie waren schon immer Ausnahmen mit dem Groß der Haltung naja es gibt andere Leute die kümmern sich darum was verantwortlich wäre und was nicht und sie machen ja jetzt nur so ganz neutral unsere Wissenschaft das ist natürlich totaler Homebook und das ist ein ziemlich radikaler Schritt den dieser Mensch vollzogen hat und ich glaube da sollte man vielleicht anfangen zu gucken warum entschließt sich jemand zu so einem Schritt und was bedeutet das und welche Implikationen bringen solche Algorithmen und Technologien mit sich Christian, es gibt noch eine Frage offenbar genau, es gibt zwei Fragen gehen auch ein bisschen in eine technische Richtung und zwar einmal es gibt den Mythos, dass KI irgendwann alle töten wird müssen wir uns nicht mehr sorgen machen dass wir die Entscheidung selbst lernen das System nicht mehr verstehen und auch keine Möglichkeit mehr haben den Code einzugreifen eine zweite Frage geht es eine globale verantwortliches Vorgehen nicht auch jenseits der Kritik z.B. in der nützlichen KI Bewegung auf der Entwicklerseite ok, dann nehmen wir vielleicht erst die Frage nach der, ich würde zwar zusammenfassen Blackbox gesprochen wir schon kurz nach der Forderung dass das was da als Ergebnis rausfällt irgendwie transparent und nachvollziehbar sein müsste für wie wahrscheinlich haltet ihr das Christian vielleicht an dich weil du ja vorhin gerade dieses mega komplexe Beispiel gebracht hast für wie wahrscheinlich dass jemand wie ich die noch nie nie am lebende Zeile Code geschrieben hat checkt was in diesen neuronalen Netzen an medizinischer Forschung betrieben wird das ist ja eine Frage die sich beispielsweise komplex Diskriminierung durch Algorithmen widerstellt also die Frage beispielsweise bei Recruiting Prozessen oder überhaupt Matching Prozessen die algorithmisch gesteuert sind oder zumindest vorselektiert sind ich meine der das was man mit KI oder mit so einem Algorithmus erreichen möchte ist ja einerseits eine Effizienzsteigerung beispielsweise und andererseits etwas was der Mensch nicht kann nämlich in der hohen Geschwindigkeit beispielsweise Muster erkennen oder eben nicht so gut kann was der Mensch sozusagen nicht so gut kann und beides geht ja ein Herr damit, dass man ein bisschen ein Stück weit immer die Kontrolle darüber abgibt was dann in so einem Algorithmus ein klassischer Backpropagation Algorithmus oder was auch immer Algorithmus dann hin und her geschaukelt wird bis dann das richtige Ergebnis rauskommt man gibt natürlich ein Stück weit sozusagen die Transparenz die Nachvollziehbarkeit bewusst ab um ein Ergebnis zu erzielen das technisch über dem liegt was sag mal ein oder mehrere Menschen oder ein Teamwork oder wie auch immer also was sondern menschlich in einer vernünftigen Zeit erreichbar wäre kann ja alles vieles rechnen aber ich meine die beispielsweise die Ursprünge des Computing oder sozusagen der Lochkarte hat ja was damit zu tun gehabt dass es irgendwie zu lange gedauert hat eine Volksstellung in den USA zu machen und man kann vieles menschlich machen aber man kann es eben technisch schneller machen und effizienter machen ganz viel von dieser Logik steckt ja immer noch in der KI und deswegen gibt man ein Stück weit sozusagen die Kontrolle notwendigerweise ab und kriegt sie doch nicht zurück also in der Breite das heißt diese Forderung nach Transparenz würdest du sagen wo es ansinnen aber nicht so gewährleistet man kriegt ein Ergebnis ein Versicherungsfall wird automatisch bewertet man kriegt ein Ergebnis und mit diesem Ergebnis kann man dann ja menschlich umgehen wie gehe ich dann damit um aber ich kann vielleicht nicht umgehen bei einem Versicherungsfall kann man es wahrscheinlich nachvollziehen aber bei anderen Bereichen also bei einem Ergebnis zur Optimierung einer Batteriezelle beispielsweise da kannst du das den Prozess natürlich nicht mehr nachvollziehen das geht nicht man muss sich dann darauf verlassen was diese Maschine was der Computer ausgerechnet hat Leonie ich weiß das ihr euch auch mit Nachvollziehbarkeit beschäftigt würdest du auch sagen das ist bei simpleren Prozessen drin und bei komplexeren dann eben leider nicht mehr dann müssen die die Verbraucherinnen und Verbraucher auf das vertrauen was die Expertinnen und Experten reingesteckt haben ja das ist sicherlich so dass es Systeme gibt die tatsächlich eine Prozesse der Technikbox Charakter haben und die auch Experten und Experte nicht verstehen und nicht nachvollziehen können auch wenn das natürlich ein Forschungsbereich ist wo viel geforscht wird an neuen Ansätzen aber dann ist ja die Frage ob wir diese diese Systeme oder diese Modelle für was wir sie verwenden und man kann dann auch sagen das wir für Entscheidungen in zentralen Bereichen die Ergebnisse liefern, die wir nachher nicht richtig verifizieren können oder wo wir nicht verstehen, wie sie zu Stande gekommen sind. Vielleicht ist es bei solchen Anwendungen wie jetzt die Proteinfaltung oder die Batteriezelloptimierung, kann man nachher vielleicht immer noch ein Stück weit falsifizieren oder verifizieren, was das Ergebnis taugt. Aber das kann man ja bei diesen Wertentscheidungen, die ich angesprochen habe, einfach nicht. Und deswegen ist es da nochmal umso wichtiger, dass man immerhin wenigstens Modelle nimmt, wo man das Reasoning oder den Entscheidungsweg nachvollziehen kann. Ob die dann nachher den gewünschten Effekt bringen oder den Nutzen haben, ist dann die andere Frage. Aber ich finde, das ist für mich so eine rote Linie, dass man in zentralen Bereichen auch nachvollziehbare Modelle anwenden sollte. Gehst du da mit, Helena, oder würdest du sagen? Ja, ich finde, das ist doch so eine recht komplexe Sache. Also die wenigsten Modelle sind nachvollziehbar, um das schon mal festzuhalten. Also was bedeutet überhaupt nachvollziehbar? Ich würde mal sagen, es gibt so drei Komponenten. Das eine ist das Verfahren, ist verständlich. So was wie Millionäre gerade finden oder so ein Entscheidungsbaum ist etwas, was man sozusagen Kindern in der Schule nahebringen kann, wie das ungefähr funktioniert. Ja, das will ich sagen, das sind so nachvollziehbare Modelle. Dann geht es um die Anzahl an Attributen, die ich so Modell überwerfe, mit denen es arbeiten soll. Wenn es 200 sind, sind wir schon total überfordert. Das heißt, das können wir schon nicht überblicken. Unser Gehirn kann sich je nach dem, was es gewohnt ist, halt vielleicht fünf Merken, vielleicht auch zehn, aber dann war es das schon. Und dann ist es auch noch die Frage, wie werden diese Attribute repräsentiert. Ist das etwas, was intuitiv ist, so was wie alt ich bin oder wo ich wohne oder wird mein Wohnort als irgendein sehr komplexes geografisches Polygon abgebildet und geht ins Modell ein, weil dann kann ich damit auch nicht so gut arbeiten. Also sagen wir mal, das werden jetzt schon mindestens drei Faktoren, die eine Rolle spielen, ob ein Modell verständlich sein wird oder nicht. Und das heißt, man hat eine ganze Palette an Limitierung und die meisten Modelle, die man heutzutage so in der Industrie verwendet sind, per se nicht nachvollziehbar. Und das, obwohl ich vielleicht irgendwie mathematisch hinschreiben kann, was da alles passiert ist. Jetzt gibt es, wie Leonia gesagt, einen ganzen Batzen an Forschung mittlerweile um sogenannte Erklärungen zu generieren. Das ist also ganz viel, geht in so eine Richtung, man nennt das so Post-Hoc-Explanations. Also man trainiert Modelle und versucht quasi im nachhinein Erklärungen der Modellentscheidungen zu generieren. Das kann man machen global. Also man kann versuchen so ein Modell global zu beleuchten, man kann auch versuchen, das sind so andere Ansätze, lokale Ansätze, wo man versucht, die Entscheidung oder die Vorhersage eines bestimmten Modells für ein bestimmtes Beispiel nachvollziehbar zu machen. Also sprich, da bewirbt sich jemand beispielsweise um einen Kredit, wird abgelehnt und jetzt könnte ich sagen, okay, das Modell wird mithilfe meines Erklärungslayers, könnte ich versuchen, eine Erklärung zu generieren, dass ich sage, das Modell hat das jetzt abgelehnt, weil oder es gibt auch solche sogenannten counterfactual explanations, dass man sagt, also kontrafaktisch würde das, glaube ich, auf Deutsch heißen, dass man sagt, na ja, wenn man aber, wenn du jetzt sagen, wir mal so und so viel Geld auf dem Konto hättest, schon seit drei Monaten, dann hättest du es bekommen. Also quasi die Frage, wie viel müsste ich, woran müsste ich schrauben und mindestens wie viel, damit ich aber keine Ablehnung bekomme, also damit das Modell eine andere Vorhersage tritt. Und also es gibt sozusagen in dem Bereich eine ganze Paletteanforschung. Und da, um das nochmal zu beleuchten, wie komplex das Ganze ist, da hört der Spaß nicht auf. Es gibt ein Haus und dann Leuten, die sich damit beschäftigen, die vertrauenswürdig sind, solche Erklärungen. Und dann sieht man, na ja, es gibt Methoden, die sind in ganz vielen Zellen überhaupt nicht vertrauenswürdig. Und andere sind vielleicht robuster. Also das ist noch ziemlich am Anfang, aber es tut sich da eine ganze Menge. Warum ich das so betone ist? Weil was mir man nicht gefällt an der Debatte. Also ich finde dies total wichtig. Man muss da ganz viel drüber reden. Wie viel von all dem, was solche Machine Learning Algorithmen oder solche datengetriebenen Algorithmen produzieren, wie viel davon verstehen wir. Aber das unterstellt immer so ein bisschen, als würde man den Rest, den man davor hatte, gut verstehen. Was war mit den Schufe-Algorithmen, weiß der Geier, wie die jetzt überhaupt funktionieren. Aber früher waren sie kein Machine Learning auf jeden Fall. Verstanden hat sie auch von außen sowieso niemand. Sie waren völlig intransparent. Aber ganz viel Code, der in Unternehmen geschrieben wird, hier verstehen die Entwicklerinnen selbst nicht mehr nach kürzester Zeit. Das ist unfassbar langer Wust. Und es bedeutet eben, also nicht Machine Learning zu haben, bedeutet nicht, dass das verständlich ist, was wir da produziert haben. Eine zweite Sache nehmen wir sowas, die psychologische Tests. Die werden gerade im HR-Bereich. Es ist absoluter Usus, sowas anzuwenden. Wie verständlich finden wir psychologische Tests. Da sagen wir auch einfach, oh ja, das sind jahrzehntelange Forschung im Bereich der XY-Psychologie. Da wird schon, das wird schon okay sein. Ich kaufe mir so eine Software, die macht für mich ganz viele psychologische Tests. Und basierend darauf entscheide ich, wie ich einstelle. Oder noch Plumper. Ich benutze nicht mal irgendeine Software, sondern Personalerin XY entscheidet. Und die kann ich fragen, warum hast du das denn so entschieden und nicht die und die Person eingestellt? Und dies dann wenigstens in der Lage, den Bayes, falls es ihn gibt, auch noch halbwegs intelligent zu verschleiern. Also inwiefern ist das eine viel bessere Situation? Ich finde, darüber diskutiert man halt viel zu wenig. Als letzter Satz, vielleicht an diesen so genannten KI-System ist eine ganze Menge auszusetzen. Aber wenn es zu dem Punkt kommt, dass man sagt, naja, Sie reproduzieren Bayes und verstärken Bayes, die in den Daten und bisherigen Entscheidungen drin sind. Warum reden wir dann aber nicht mehr zu genüge weiter? Oder zumindest ist das mein Eindruck über diese Daten und die Prozesse, die sie produziert haben. Sondern sagen dann, oh ja, nee, Angst vor dieser KI, aber den Personalern, die sie, die diese Daten produziert haben oder der Unternehmenskultur, die dafür gesorgt hat, dass nur manche gut durchkommen und andere nicht. Das belasse ich, wo es ist. Gehen wir zurück zur Analogendiskriminierung. Genau, also plump gesagt. Christian, bist du schon wieder da, aber wir haben vorhin die Frage nach der nützlichen KI noch gar nicht beantwortet. Das ist eine zweite Frage von vorhin, aber vielleicht klobberst du noch mal dran. Ich werde noch mal ganz kurz in hier einzusteigen. Es gab eine Frage. Zwei KI-Techniken können man rassistische oder sexistische Diskriminierung verstärken, aber können sie vielleicht auch das Gegenteil? Macht das Gender-Gap-Quake von Hellenadas? Was war der letzte Satz mit Gender-Gap, habe ich nicht ganz verstanden? Gender-Gap-Quake von Hellenadas. Ah, okay. Ja, tatsächlich habe ich auch noch jede Menge Fragen zu diesem Gender-Gap auf meinem Zettel, aber die Publikumsfragen waren so super, habe ich das weckelegt. Ist das, vielleicht erklärst du einfach mal, woran ihr arbeitet? Also ihr guckt, wer publiziert was, wo, wann und macht welche Karriere-Schritte, hat welche Abschlüsse, sage ich mal, so den groben Rahmen und jetzt du. Genau, also wir haben das in einem längeren Projekt gemacht, dass wir uns so Wissenschaftsdaten angeguckt haben, so Publikationsdaten und da, also dort ist sozusagen Machine Learning vor allem in der Aufbereitung der Daten reingeflossen, weil die halt sehr, also weil viele Informationen fehlen, dann muss man versuchen, sie über so Machine Learning Algorithmen zu erzeugen, aber dann die Analysen sind eher statistisch Analysen gewesen. Etwas womit wir uns in dem aktuellen Projekt beschäftigen, das beantwortet vielleicht diese Frage ganz gut. Es gibt mittlerweile Softwareanbieter in diesem HR-Bereich und die untersuchen wir gerade, die sagen, dass beispielsweise Ausschreibungstexte bestimmte Ausschlusspotenziale mit sich bringen. Die Art und Weise, wie wir Texte schreiben, also wenn ArbeitgeberInnen beispielsweise Ausschreibungstexte formulieren, dann encoden diese bestimmte Stereotype, von denen sich beispielsweise Frauen, aber auch eben Menschen, die vielleicht zu anderen bestimmten gesellschaftlichen Gruppen gehören, nicht angesprochen fühlen, sich entsprechend dann nicht bewerben. Hast du ein Beispiel? Ja, also ich... Ein Beispiel für eine Formulierung, die bestimmte Personengruppen einfach schon mal auslädt. Ja, also ein so ein Klassiker ist in so IT-Bereichen, dass es dann, dass man heißt, bist du ein Coding Ninja, die meisten Frauen fühlen sich von sowas wie Coding Ninja anscheinend nicht allzu angesprochen. Und da gibt es auch, also da gibt es so verschiedene Strenge, wie technologisch dieses Thema angegangen wird. Da gibt es tatsächlich so einen ganzen Batzen an Forschung aus dem Psychologiebereich, die sich damit beschäftigt haben. Das läuft unter so begriffen kommunale und agentische Sprache. Aber da gibt es auch so pure Machine-Lining-Ansätze, die quasi so prädiktive Technologien entwickeln. Da gibt es in USA, gibt es ein Unternehmen, die heißt Text.io. Und das ist so deren Bereich, das nennt sich Augmented Writing. Also die Personen, die solche Ausschreibungstexte formulieren oder aber auch E-Mail-Kommunikation oder Marketing werden quasi beim Schreiben durch die Technologie unterstützt und die sagt ihnen dann sowas wie, hey, ersetze doch vielleicht mal dieses Wort durch ein anderes, weil es zeigt sich, dass das potenziell Frauen nicht anspricht. Oder, dass sich hier von ältere Personen nicht angesprochen fühlen. Oder, dass das hier zu elitär ist. Also die schaffen es tatsächlich über dieses Thema Gender hinaus zu gehen und schauen sich dann sozusagen verschiedene Ausschlusspotenziale an. Und das machen sie, indem sie sozusagen es schaffen, Repräsentationen von Text mit den Outcomes der jeweiligen Stellenausschreibung zu verknüpfen. Sie gucken, wer bewirbt sich auf was und wer wird wo eingestellt und wie viele Menschen bewerben sich. Und das ist so ein rein prädiktiver Ansatz. Okay, das heißt die Frage, die Christian gerade reingeht, reicht hat inwiefern eure Forschung vielleicht tatsächlich eingreift ins Geschehen und hilft Bewerberinnen und Bewerber, die sonst außen vorgelassen würden, reinzuholen. Das höre ich jetzt bei dir so raus. Da seid ihr nicht. Ihr versucht die Prozesse, wie sie stattfinden, nachzuvollziehen und zu Highlighten, was daran problematisch sein könnte. Aber ihr greift nicht ein in diese Prozesse. Also wir schauen uns diese Technologien an, wie sie genau diese Art von Reduktion des Ausschlusspotenzials, wie sie das umsetzen und planen eine größere Effektstudie, um zu gucken, wie viel das denn tatsächlich bringt. Also man weiß sozusagen aus der Psychologieforschung, dass diese Formulierung zumindest in so Experimentalssettings was bringt. Aber es gibt noch keine Erkenntnisse dahingehend, ob sozusagen das ganze auf dem Markt tatsächlich auch funktioniert. Also das sind ja teilweise sehr kleine subtile Änderungen im Text, welchen Effekt die denn jetzt eigentlich haben und was sie dann in der Tat bewirken. Und das ist ja auch nur ein kleiner Schritt von dem ganzen Einstellungsprozess, wer sich bewirbt, wer genommen wird, das ist ja noch mal eine ganze Palette für sich. Aber das wäre mal so ein Beispiel davon, wie man Machine Learning benutzen kann, um eben Bayes zu reduzieren. Wenn man das denn will, ich könnte natürlich auch als Personaler sagen, super mit meinem Coding Ninja bespreche ich genau den Zielgruppe an, die ich geil finde und die so drauf sind wie ich, habe ich alles richtig gemacht. Leonie, jetzt war vorhin noch die Frage nach der nützlichen KI. Eine Zuschauerin oder ein Zuschauer hängt sicherlich noch im Stream und dreht durch und ist verzweifelt und möchte noch mal genaueres erfahren zum Thema nützliche KI. Ich muss gestehen, ich weiß nicht genau, wie die Frage gemeint war. Ich habe sie so verstanden, als ginge es drum, ob Menschen, die sich ausbilden lassen, als Informatiker, Informatikerinnen, so ein bisschen mehr auf das Sozio in dem Soziotechnologischen System, das Helena beschrieben hat, aufmerksam gemacht werden sollten. Also ob es da eine gezielter Schulung in puncto Ethik geben müsste. So habe ich die Frage für mich übersetzt. Christian, wenn das total falsch ist, schalte du dich bitte noch mal ein, aber dabei kannst du ja, Leonie, vielleicht schon darauf antworten. Wäre das sinnvoll oder wäre das auch einfach eine Überforderung und eine Überfrachtung von einem Lehrplan? Ja, also ich glaube Entwickler oder Informatiker studieren ja nicht umsonst Informatik und nicht Ethik oder Philosophie. Das ist ja, das heißt, die Interesse, das Interesse ist klar und Informatiker sollten auch keine Ethiker sein, aber nichtsdestotrotz ist diese Zusatzbildung oder die Ausbildung in so soziotechnischen gesellschaftlichen Fragen total wichtig und wird glaube ich auch immer, also soweit ich weiß, gibt es immer mehr. Also es gibt ja diesen relativ bekannten Studiengang der Sozioinformatik an der TU Kaiserslautern und ich glaube, dass das dann ein Trend ist, der sich immer weiter fortsetzt und den es immer weiter, immer weiter geben wird. Denn klar Informatiker oder Entwickler müssen sich schon, auch wenn sie keine Ethiker sind, darüber im Klaren sein, dass ihr Handeln und ihr Tun durchaus auch gesellschaftliche Konsequenzen haben haben kann und so was muss dann natürlich auch im Studienstudium stückweit vermittelt werden. Auf der anderen Seite wissen wir alle, dass man auch im Studium nicht alles lernt, sondern dann tatsächlich nachher im Job und deswegen bringt es natürlich auch nichts, wenn man das nur im Studium lernt und es dann in der Realität einfach keine Rolle mehr spielt. Deswegen plädieren ja auch viele dafür, einfach Software-Entwicklungsprozesse inklusiver und umfassender zu machen, da auch noch Domänexpertiesen, Anwendungs, also Expertise aus den jeweiligen Anwendungsbereichen mit einzubeziehen, Betroffene mit einzubeziehen, um da einfach den umfassenderen Blick auf das System und also das, was entwickelt wird und auf die Wirkung und die Interaktion dies haben wird mit der Gesellschaft, um den nicht zu verlieren. Mache ich vielleicht noch mal eine offene Frage an dich, Christian, daraus. Wie optimieren wir die Rahmenbedingungen für nützliche KI? Die Frage ist, also gut, das ist die Entstehungsfrage, also wie entsteht nützliche KI? Das ist das, was Helena auch gerade mit dem Beispiel im Personalbereich eben angesprochen hat. Ist die Frage, welche Daten füttert man rein und wie kontrolliert man die Dateneingabe bei einer Vorauswahl für ein Recruiting-Prozess? Die Frage ist irgendwie technisch, aber die ist natürlich auch hochgradig, sagen wir mal, mit allen möglichen psychologischen Tools und Vorwisten aufgeladen, die wir eben aus dem Personalwesen kennen, aber jetzt mal platt gesagt nützliche KI, wie eine Sonde, eine Maßsonde oder wie irgendwie ein Minenroboter oder also andere gefährliche Arbeiten, die man eben ersetzen kann durch beispielsweise maschinelles, durch maschinellernende gesteuerte Maschinen. Warum sollte man hier großartig Regeln haben? Sie können ja sehr viel Gutes bewirken. Die Regel, die mich dann als Arbeitswissenschaftler interessiert ist, inwieweit führt dann so ein Einsatz einerseits zu einer, zu Ersatz von Arbeit. Wie wird dieser Ersatz aufgefangen? Wie führt es eventuell auch zu einer Aufwertung von Arbeit oder von einer Abwertung von Arbeit? Das sind eben Fragen, die uns dann als Arbeitswissenschaftlerinnen irgendwie beschäftigen, aber man platt gesagt gute nützliche KI, die eben gefährliche und, sagen wir mal, unschöne Arbeit und uns Menschen sozusagen abnimmt oder uns das Leben erleichtert. Naja, brauche ich ja nicht großregulieren, jetzt bitte frohes, die Habt. Okay, könnte ein Schlusswort sein, aber ich hätte noch eine Frage, die ich euch allen drei gerne stellen würde. Wenn wir jetzt im Dienste des Gemeinwohls sprechen, welchen Algorithmus, welches soziotechnische System oder welche KI-Methoden wollt ihr denn in den kommenden fünf Jahren wahr werden sehen? Also ihr könntet auch, wenn, wenn euch gar nichts fehlt an KI-Methoden, könntet ihr auch sagen, welche gesetzliche Regulierung, da lasse ich mit mir reden. Christian, was wäre das in deinem Fall? Naja, ich glaube, mein Beispiel war ja schon ziemlich klar, was ich gesagt habe, ich glaube, was ich gerne wahrhaben würde, wäre die, der Durchbruch tatsächlich in der Medizinforschung mit der mRNA-Technologie jetzt im, im, im Virenbereich, im Covid-Bereich, haben wir ja schon so einen ersten Vorboten erlebt, sozusagen, was da möglich ist. Das ist schon ein sehr, sehr spannendes dynamisches Feld, aber so ein Feld darf natürlich nicht ohne Regulierung funktionieren. Das ist auch klar, dafür ist es zu invasiv in uns alle. Aber auch hier, wenn es eben eine nützliche KI sein kann zur Lebensverbesserung, zur Lebensverlängerung, im guten Sinne sozusagen, dann ist es natürlich ein fantastisches Werkzeug und dabei bleibt es, aber es ist aber ein sehr, sehr mächtiges Werkzeug, vor allem ein wissenschaftliches Werkzeug ist es dann und ja, kann sehr viel Gutes bewirken tatsächlich. Okay, vielen Dank, Leonie, was wäre es in deinem Falle? Ich glaube, ich fand das Beispiel, was Helena vorhin berichtet hat, sehr gut. Also, wenn, wenn KI oder Machine Learning dazu genutzt wird, um bestehende Diskriminierung in unseren gesellschaftlichen Strukturen und Prozessen stärker aufzudenken, finde ich, wäre das ein sehr großer Gewinn und ein sehr großer Beitrag fürs, fürs Gemeinwohl. Wenn ich in, in Anregulierung denke, ist es mir ein großes Anliegen, dass wir, also gerade wenn es, wenn es Technologie ist, die Auswirkungen auf die Gesellschaft hat, auf unser gesellschaftliches Zusammenleben, dass wir dann auf jeden Fall stärker unabhängige Tests und Kontrollen brauchen, bevor solche Systeme auch tatsächlich genutzt werden. Weil bislang, ja, besteht da einfach noch zu viel wilder Westen und Systeme können, ja, sind einfach kaum Kontrolle unterworfen und ich finde, das muss sich in Zukunft stärker ändern. Helena, dann bist du dran. Also, ich weiß nicht, ob ich mir groß was wünsche in den nächsten fünf Jahren, aber vielleicht mal ganz plump das, was ich wirklich mag und wo tatsächlich komplexe Maschinen in den Algorithmen hinter sind, ist eben automatische Übersetzung. Ich bin einfach großer Fan von so Technologien wie DeepL, die ich irgendwie jeden Tag benutze. Und ich finde es total cool, dass jede, jeder relativ leicht zu einem englisch sprachigen Satz kommt, ja, unabhängig von der Vorbildung und dem eigentlichen Wissenstand. Und ich finde, das ist schon ziemlich cool, trotz der ganzen Bias, die man auch natürlich kennt, die encoded sind in den jeweiligen Sprachen und dann entsprechend auch bei der Sprachübersetzung Hochpoppen. Genau, aber das finde ich ist was ganz Schönes. Und wo ich aber deutlich, also wo ich sozusagen mehr sehen würde, ist der Bereich der Privacy. Auch jenseits von sowas wie Videoüberwachung, ja, was ich hochgradig problematisch finde in vielerlei Hinsicht, ist es aber auch der Umgang mit überhaupt personenbeziehbaren Daten und die Frage, wann muss man sie überhaupt zentral wo sammeln, wann kann man sie eigentlich auf Endgeräten belassen und dort eben Dinge modellieren, also so Stichwort Federated Learning beispielsweise. Und das finde ich sind so ganz interessante Themen und ich hoffe, dass einfach dieser Themenbereich der Privacy auch mehr in dieser Machine Learning Community noch mal, noch mehr Einzug findet. Also das passiert gerade. Und dass das so wichtig ist, haben wir ja jetzt auch im Kontext der Covid-19-Debatte und das Tracings gesehen. Genau, das fände ich ganz schön, wenn das noch mehr wird. Helena, Leonie, Christian, habt vielen Dank für das Gespräch heute Abend. Ich habe tatsächlich gute 50 Prozent dessen, was ich vorbereitet habe, gar nicht an die Frauen und den Mann bringen können, weil die Publikumsfragen uns auch, glaube ich, auf eine gute Weise nochmal weiter reingetrieben haben ins Thema. Vielen Dank euch heute Abend für eure Zeit und allen anderen, die zugeschaut haben, mitgedacht haben oder eben Fragen gestellt haben. Wir vertiefen das Thema im April und zwar mit so einer Art Reality Check. Ich bin gespannt, wie das funktioniert beim Thema KI, muss ich ehrlich sagen. Dann werde ich mit einem Wissenschaftler reden, der nach dem Einsatz von dem, was wir für dahin nicht mehr KI nennen werden, fragt. Und zwar in der Arbeitswelt dein Thema dann noch mal Christian. Habt vielen Dank und einen schönen Abend.