 Ich freue mich sehr, dass sie heute da ist. Es war sehr spontan. Also wir saßen gestern Abend beim Feuer zusammen und ich hatte leider nicht die Zeit so länger als fünf Minuten ihr zuzuhören. Ich dachte aber, wir sollten ihr mal 30 Minuten zuhören. Deswegen freue ich mich sehr, dass sie da ist. Julia Krüger schreibt unter anderem für Netzpolitik, arbeitet in der Politik, aber was sie genau macht, wird sie uns sagen. Dankeschön. Bis gleich. Vielen Dank für die Einladung. Ich habe schon versucht, mich auf verschiedene CCC-Veranstaltungen zu hacken. Es hat nicht immer perfekt geklappt, aber diesmal und ich freue mich heute hier zu sein. Ich arbeite im Moment wieder frei, also irgendwie an dieser Schnittstelle zwischen Politik, Wissenschaft und Journalismus. Ich schreibe für Netzpolitik, habe bei Saskia Esken aufgehört und beschäftige mich schwerpunktmäßig so mit Algorithmen und KI. Als ich darüber nachgedacht habe, wie ich zu diesem Talk sage, dachte ich mir, okay, wie kam ich eigentlich zu diesem Thema Algorithmen und KI? Es war irgendwie, Trump wurde gerade gewählt und es gab irgendwie diese Hate Speech Fake News Krise oder wie die ganze Welt drehte irgendwie durch. Und dann gab es eine ganz interessante Studie von Facebook selbst, die ist exposure to ideologically the worst news and opinion on Facebook. Und die ist nicht repräsentativ oder so, die ist auch von Facebook, die hat 4% der Nutzen untersucht und zwar nur die, die sich politisch identifiziert haben und Facebook viel nutzen. Beim Rest ist es noch mal schlimmer, aber da wurde halt schon mal rausgestellt, dass im Feed von Facebook grundsätzlich so 5-8% der Vielfalt von Inhalten rausgenommen werden und über das Ranking sozusagen bis zu 17%. Es saß irgendwie zu Hause und dachte, Nare, mir kam dieses Bild von diesem Turmbau zu Babel, also diese doch sehr systematischen Herstellung von unterschiedlichen Öffentlichkeiten, diese unterschiedliche Sprachen lernen, die unterschiedliche Weltbilder entwickeln und was letzten eines zu gesellschaftlichen Konflikt führt. Und wenn Menschen immer mehr in Echo-Kammern gefangen sind und immer mehr irgendwie nur einseitig Informationen bekommen, dann fühlen sie sich immer besser informiert und auch mehr motiviert zum politischen Handeln, das kann alles ziemlich schief gehen. Und dann sind auch so die Reaktionen darauf relativ schwierig gewesen, also erstmal dieses Netz-DG, aber dann haben natürlich alle großen Plattformen angefangen, automatisierte Filtersysteme zu entwickeln. Wie das bei Facebook genau funktioniert, weiß ich leider nicht, aber im Kontext von Google wurden so Toxizitätsfilter entwickelt oder werden, wo so Kommentare eingeordnet werden. Irgendwie, du bist kein netter Mensch, hat so ein Toxizitätswert von 8% fiktiv und du bist eine Scheiß-Schlampe mit 100 Ausrufezeichen und so, hatten wesentlich höheren. Und die Frage ist, wenn man da so rechten Hadespeech reinwirft und so linken Hadespeech und vielleicht noch so persönlichen Hadespeech, was lernen eigentlich die Maschinen? Es ist unklar. Was auch irgendwie ziemlich dummes ist, dass natürlich einerseits Hadespeech und Fake News die ganzen sozialen Netzwerke fluten und wie andererseits eine Urheberrechtsreform haben, die wieder die Verbreitung von guten Inhalten limitiert. Aber was an dem ganzen Ding am blödesten ist, ist, dass in diesem Kampf gegen Hadespeech und Fake News jetzt unglaublich viele Filtersysteme entwickelt werden, die halt Hass erkennen und Propaganda erkennen und Kinderpornos erkennen. Aber eigentlich hätte ich gerne eine KI-Entwicklung, die so konstruktive Inhalte erkennt. Und genau, seitdem beschäftige ich mich so ein bisschen mit der Frage, wie kann man eigentlich KI konstruktiv entwickeln? Und jetzt muss man sagen, Algorithmen sind natürlich nicht an Allem schuld. Also wenn sozusagen bei YouTube oder bei Facebook rechter Content ganz hoch gerankt wird, dann liegt es auch daran, dass einfach rechte Akteure wesentlich geschickter sind darin, alles zu verlinken und einfach sehr strategisch linken Netzwerk im Netz zu bauen als linke Akteure. Aber trotzdem grundsätzlich die Frage, was für KI brauchen wir und wollen wir eigentlich? Lawrence Lessig sagte einmal, Code ist Law und der hat natürlich recht, dass so mehr technische Infrastrukturen in unsere Welt bestimmen, dass so mehr der Code und das sind mehr intelligente Software-Systeme, die heute aus Unmengen von Daten lernen und Entscheidungen von Menschen übernehmen. So mehr muss man sich eigentlich fragen, okay, wenn Code immer mehr recht wird oder enorm setzt, was für einen Code wollen wir eigentlich? Was man ganz klar sagen kann, ist, dass KI längst kein Halbmahr ist, sondern ziemlich da ist, dass es sozusagen eine ganze Reihe an Durchbrüchen in Analyse-Systemen gab, die in Verbindung mit der hohen Vernetzung und der hohen Bekeit von Daten und den hohen Rechnerkapazitäten das ermöglichen, wovon schon eigentlich seit Jahrzehnten träumten, dass wir lerntfähige Maschinen haben, also dass wir smarte Software haben, die aus Daten lernt und die in Verbindung mit steuerungsfähiger Hardware immer mehr Aufgaben übernehmen kann, die bislang Menschen vorbehalten war, Aufgaben wie die Analyse von komplexen Sachverhalten, die Identität eines Menschen, wie die Bewertung von komplexen Sachverhalten, wie so ein nationales Sicherheitsniveau oder auch wie die Steuerung komplexes Sachverhalten, wieso beim Ordnungen fahren. Es gibt glaube ich unterschiedlichste Anwendungsbereiche, ich denke man muss immer unterscheiden, ob man über Analyse spricht oder über Anwendungen, Anwendungen in einfachen oder in komplexen Systemen. Man über die Medizin redet, da versprechen sich natürlich ganz viele Menschen große Durchbrüche bei der Erkennung oder Behandlung von Krebs durch die Analyse von Daten. Man kann natürlich genauso Systeme bauen, die irgendwie automatisiert Menschen mit Herz-Kreislauf-Erkrankungen automatisch auf bestimmte Krankenhausstationen verteilen. Jetzt machen die in England und man kann natürlich genauso gut Plattformen bauen, die irgendwie Patienten und Ärzte neuartig verlinken, zum Beispiel wenn Patienten Migrationshintergrund haben, die Ärzte, die sozusagen die Sprachen sprechen. Was aber glaube ich immer ganz wichtig ist, egal worüber wir reden, ist einerseits was ist die Grundlage dieser Systeme, also was sind die Daten, was sind die Algorithmen, was sind die Muster oder Zusammenhänge, die berücksichtigt werden, was sind die Ziele, was ist die Optimierung, also um beim Krankenhaus-Beispiel zu bleiben, so ein automatisiertes System für die Bettenverteilung kann natürlich auf das Patientenwohl ausgerichtet sein oder auf die Krankenhausauslastung oder auf das Arzt des Arztes. Also hier stellen sich relativ viele Fragen, wo eigentlich Menschen eingebunden werden müssen und dann ist natürlich auch immer die Frage, okay, funktionieren diese Systeme wie die sollen oder funktionieren sie anders und ich denke, wenn wir uns hier gerade die großen Plattformen angucken, dann ist klar, dass Systemfehler, die Menschheit einfach auch gefährden können. Das bringt das große Thema nach Verziehbarkeit und Kontrolle in den Fokus, was immer schwieriger wird, weil die Systeme einfach immer komplexer werden. Also früher war so vorher, sage basierte Polizeiarbeit, vor allem Orts- oder Personenbezogen und war noch halbwegs gut kontrollierbar. Heute könnte man natürlich auch so sämtliche Daten in Echtzeit mit einbeziehen, zum Beispiel aus sozialen Netzwerken, das wird in Israel über den Dänemark gemacht. Das Problem ist, dass früher sozusagen diese statischen Systeme, diese statistischen Systeme relativ gut überwachbar waren. Also man konnte sich irgendwie ein Dateninbot angucken und die Algorithmen und die Modellierung und die Ergebnisse und die Implementation und so was. Heute hat man halt wesentlich komplexere, also sozusagen dynamischere, dynamischere Analyseverfahren, die auch noch sozusagen sehr, also sozusagen mit ganz unterschiedlichem Input und Output agieren. Da müsste man theoretisch sozusagen sich den Dateninput und Datenoutput angucken und gucken, wie dieses System funktioniert. Das ist im Moment eine riesige Baustelle, wo es glaube ich noch keine guten Lösungen gibt oder kaum und die natürlich unglaublich viele Ressourcen fressen. Und das größte Problem steht natürlich auch darin, dass irgendwie man an die Daten kaum rankommt, also auch in die ganze Welt über zwei Jahre über Fake News und Hate Speech bei Facebook diskutiert. Facebook rückt halt die Daten einfach nicht raus, was ziemlich kacke ist. Was auch noch so relativ schwierig ist, ist so die Uneinschätzbarkeit des Normwandels. Es gibt so ein Versicherungsunternehmen in Hannover, Tallangs, die versuchen gerade ein zweitägiges Assessment-Center für Führungskräfte durch ein halbstündiges Telefoninterview zu ersetzen. Und die gucken dabei nicht mehr, was der Mensch sagt, sondern wie er es sagt. Was ziemlich viele Fragen hinterlässt, so gucken die nach Homogenität oder Hitogenität. Was ist eigentlich, wenn man Sexes spricht und Dialekt hat? Also da sind ziemlich viele Fragen offen und man bräuchte eigentlich sehr viel Transparenz der Unternehmen. Was noch so ein Problem ist, ist, dass wir momentan sehr, sehr viel Unklarheit haben über das Zusammenwirken unterschiedlicher Systeme. Also Klaus Langsohn, Verwaltungswissenschaftler aus Eudenburg, hat gesagt, eigentlich hat eine algorithmische Regulierung des Potenzial traditionelle Regulierung durch Zwang und Anreize und Gesetze so abzulösen. Und zwar durch einerseits die Personalisierung von Informationen für Individuen und Organisationen, also Facebook und Google und Co. Dann die Zuweisung von Positionen und Lebenschancen, also Scoring. Und dann sozusagen den Bau von Architekturen, die dem Verhalten wenig Freiraum lassen, dem sogenannten Nudging. Und es ist momentan völlig unklar, was davon wie interagiert. Wir haben momentan so eine Entwicklung, dass irgendwo auf der Welt Daten gesammelt werden, irgendwo auf der Welt Algorithmen entwickelt werden, irgendwo auf der Welt Systeme gebaut werden. Und letzten Endes, dass BMI halt nicht sagen kann, worauf die Software, die am Südkreuz getestet wird, zur Gesichtserkennung überhaupt trainiert wurde. Genau. Es gibt also ganz krasse Probleme der Nachvollziehbarkeit und Kontrolle. Deshalb denke ich, muss man den Diskurs eigentlich so ein bisschen wandeln zu der Frage, was für KI wollen wir eigentlich, was für KI brauchen wir. Die Industrie entwickelt gerade irgendwie Pflegerobotte. Für mich besteht immer die Frage, will ich nicht lieber, tu es dir meine Arbeit unterstützen und so ein Grundeinkommen und mehr Zeit für meine Mutter. Auf der IFA wurden irgendwie so sprechende Waschmaschinen vorgestellt und smart, selbstlernende Bildschirme und vor allem auch die Dunstabzugshaube, die gute Stimmung verbreitet. Ich frage mich tatsächlich, wollen wir diese KI-Entwicklung wirklich an die Entwicklung von so smarten Assistenzwanzen verschwenden oder wollen wir nicht lieber gucken, dass wir eine nachhaltige Wirtschaft realisieren und dem Klimaanwohner entgegenwirken. Und wenn ja, wie ginge das eigentlich? Und hier hätte ich immer gerne so ein Bild, so mit, wie sagt man das, Faggots. Aber mein Computer packt immer dieses Bild von einem Vater in die Präsentation. Das ist irgendwo Mecklenburg, eine Ordnamsbesitz. Aber ich glaube grundsätzlich muss man sich ziemlich doll überlegen, ob man weiter den Menschen als Sicherheitsrisiko betrachtet oder den Klimawandel, bzw. ich glaube es gibt auch eine Notwendigkeit zu entscheiden, ob wir alle überleben sollen oder keiner. Ich habe ja schon gesagt, ich habe auch in der Politik gearbeitet und habe davor auch für unterschiedlichste Stakeholder so KI-Entwicklungen gemacht, mit vielen Ministerien auch zu tun gehabt. Und im Moment ist halt das riesige Problem, dass die meisten Ressourcen in der KI-Entwicklung in den Sicherheitsbereich oder den Medienbereich gehen, wobei der Medienbereich natürlich auch ein Spielfeld vom informationellen Krieg ist. Und die ganzen technischen und menschlichen Ressourcen, also die Entwicklerkapazitäten, die Daten, die Systeme, die Gehenheit im Moment vor allem in die Überwachung, in die Angriffswerkzeuge, in die Abwehr und in Drohnen und Co. Und ich denke, das muss ganz dringend ein Ende haben, damit wir tatsächlich bedarfsorientiert KI entwickeln können. Ich bin in guter Zeit. Bedarfsorientiert Politik entwickeln. Kann man jetzt an vielen Beispielen machen. Ich habe in der Politik gearbeitet und mache jetzt am Beispiel der Politik. Die Politik ist relativ überlastet. Das liegt aus meiner Perspektive ziemlich doll daran, dass wir seit 30 Jahren eine Revolution in Bereich Information und Kommunikation haben, die halt überhaupt gar nicht von den Systemen nachvollzogen wurde. Also es gibt einfach eine extreme informationelle Belastung. Und es gibt natürlich auch überhaupt keine internationale Politik, die wir dringend bräuchten. Jetzt ist da einiges so im Entstehen. Ich fange mal mit dem Schlechtesten an. Ich weiß nicht, wer wird sich von euch an das Zuckerberg manifest erinnert aus dem Jahre 2017, der träumte von irgendwie Facebook zu so einer Plattform auszubauen, die automatisiert individuelle und kollektive Risiken erkennt. Also was wie Krankheit oder Depressionen oder auch Gefährdung. Und dann automatisch irgendwie loszuschicken. Der träumt auch davon, dass irgendwie die Leute bei Facebook so direkt über Norm und Werte abstimmen und dann irgendwie in die Mehrheit entscheidet, was der Einzelne sieht. Also eine relativ odimentäre Form der Demokratie, die glaube ich ziemlich abzulehnen ist. Was richtig dollekritisch ist, ist was gerade in Brasilien passiert. Ich kenne die Details der Politik, aber die bauen halt gerade ein System, was so Politik komplett durchautomatisieren soll. Also da sollen erstmal so Schlagworte über Regierungsinformationen aus nutzenden Perspektiven vergeben werden. Da soll alles nicht portugiesische, automatisiert ins portugiesische Übersetzt werden an legislativen Dokumenten. Da soll alles, was an Sprache da ist, von Abgeordneten so in Text übersetzt werden und das Ganze dann die Gesetzgebung einfließen und das soll zusammengefasst werden und von Bürgerinnen und Bürger kommentiert werden und dann sozusagen Politik werden. Es ist ziemlich spannend, weil es einerseits so Politik lernen mit reinzieht und auch Politik beschleunigen würde und auch irgendwie Bürgerinnen und Bürgern so ein Say geben würde. Aber es ist halt gleichzeitig zu Risiko da, dass eigentlich bloß die alten Bugs, der alten Gesetzgebung, verstetigt werden. Man weiß nicht, ob dieses System nur nach bekannten Keywords sucht oder auch nach neuen Lösungen. Man weiß natürlich auch hier nicht, ob alle Stimmen gleichzählen oder was sozusagen diese Spracherkennung eigentlich genau macht. Das hat mich so ein bisschen dazu geführt, mich zu fragen, wie man eigentlich so Datenanalyse und Plattformen, Technologien als Mitte der Politik einsetzen kann. Also zum Beispiel, ob man Datenanalyse neu zu Identifizierungen von globalen Problemen einsetzen kann. Also ich hätte gerne die Menge von Hate Speech kombiniert mit ökologischen, ökonomischen Daten und würde gerne mal gucken, was da bei rumkommt. Ich hätte gerne die Handys von Flüchtlingsdaten sozusagen nicht um die Flüchtlinge unter Druck zu setzen, sondern um mal zu gucken, was sozusagen diese Daten über Fluchtursachen oder so erzählen. Ich frage mich, ob man mit Datenanalyse neuartig politische Probleme lösen kann. Also wenn man irgendwie, wenn so ein Algorithmus helfen kann, Muster zu erkennen, die bei der Erkennung von Krebs oder bei der Handel von Krebs notwendig sind oder wenn so ein Algorithmusystem Schülerinnen und Schüler auf Schulen schickt oder so ein Brautkleid empfiehlt oder so, dann ist auch die Frage, gibt es eigentlich Möglichkeiten, dass Datenanalyse aber helfen kann, CO2 zu reduzieren, soziale Ungleicher aus dem Weg zu schaffen oder Ähnliches. Und wenn man sozusagen so ein technisches System hätte, was im Prinzip gesellschaftliche Bugs und Schwachstellen erkennt, dann wäre die Frage, wie kommt eigentlich der Mensch rein? Und ich glaube, dem räuchte man so eine Art Abstimmungs- und Diskussionstool, um zu entscheiden, okay, welche Probleme sind jetzt ganz relevant? Wie lösen wir die, wenn Probleme gelöst werden sollen? Wie kriegen wir eigentlich Informationen mal up-to-date? Also wie kriegen wir das hin, dass die Politik nicht so völlig überlastet, dass man so Briefings und Statements und Positionspapieren und so den ganzen Zeug, sondern so die wichtigsten Informationen auf einen Blick hat. Also das Gegenteil von Google als Echokammer sind mehr so eine Wikimedia in Echtzeit oder so. Und dann wäre natürlich auch noch die Frage, wie kann man eigentlich diese Plattform dazu nutzen, um sozial-ökologischen Wandel zu generieren, kann man, wenn man so eine coolen Plattform hat wie Amazon, also so Plattformen, die dezentral Daten basiert, unglaublich effektiv vielseitige Märkte steuern und das im Moment zum großen Schaden der Gesellschaft tun, also zum Schaden von Verbraucherinnen, zum Schaden von Arbeiterinnen, zum Schaden von der Umwelt, kann man so eine Plattform nicht eigentlich auch dazu nutzen, eine nachhaltige Grundversorgung herzustellen, zum Beispiel dadurch, dass man so eine Art Datenbasierten Fußabdruck in das Ranking oder in die Preisherstellung integriert. Was gibt es da viele Ideen, über die man länger reden kann? Aber im Moment haben wir halt so die KI- und CAT-Kommission und den Digitalrat und die Datenethik-Kommission, die alle sehr intransparent arbeiten und da relativ wenig vorankommen. Da könnte man mal mit Transparenz anfangen. Man könnte auch anfangen so mit Übersichten, wo welche Gesetzgebungsprozesse laufen. Man könnte gucken, dass Tagesordnung in der Politik als Textformat und nicht als PDF rausgegeben werden und die Mitarbeiter entlasten, damit einfach mehr Kapazitäten sind für neue Politik. Man kann auch ganz anders anfangen, so organisatorisch. Ich weiß nicht, wer das von euch verfolgt hat. Es gab eine Abstimmung über die Gemeinnützigkeit von Freifunk im Januar. Da gab es einen FDP-Antrag, dass Freifunk sozusagen steuerlich begünstigt werden soll. Es waren sich alle Parteien einig, dass das eine coole Sache ist, aber es wurde trotzdem abgelehnt, weil der Antrag von FDP kam. Da wäre es natürlich cool, wenn die SPD so ein Innovationsmanager wäre, die auch mal woanders zustimmen würde. Ich habe gesagt, der Vortrag, wie habe ich ihn genannt, warum rechte Politik die Karrierenwicklung in die Irre zu treiben droht. Es doof ist halt, dass sozusagen zu solchen Ideen kommt man gerade gar nicht, weil dieses System die ganze Zeit total unter Stress steht. Vielleicht mal noch ein kleines Beispiel aus der Praxis, im letzten Herbst war ich mit dem Datenschutzanpassungsgesetz beschäftigt. Das Datenschutzpassungsgesetz regelt so 150 Gesetze wegen der Datenschutzgrundverordnung. Die reichen so von der Tiermittelproduktion über, keine Ahnung, Implantationssachen und also alles Mögliche. Da gab es ziemlich krasse Bugs drin. Da gab es zum Beispiel das Suchtdienste, ich glaube das Suchtdienstegesetz, also Suchtdienste in den Bergen müssen auch Datenschutz machen, aber nur wenn sie Protestanten sind, nicht wenn sie Katholiken sind. Bei dem Thema Organspenden ist es so, dass die Organspendeerklärungen jetzt automatisiert abgerufen werden können. Das war davor schon möglich, aber dass die Verantwortung für die abrufende Stelle, nein, dass die Verantwortung korrekt hätte, dass die abrufende Stelle trägt und das Ganze nicht mehr dokumentiert wird. Also auch ein ziemliches Problem. Die Datenschutz- und Datensicherheit in der Finanzwirtschaft gelten so lange, wie wir keine finanzielle Instabilität haben. In diesem Gesetz decken extrem viele Bugs drin, aber so was geht total unter, wenn gleichzeitig Seehofer mit zum Masterplan ankommt und das ganze System nur noch überlegt, wann rückt er endlich mit diesem Masterplan raus? Und das ganze System, die ganze Zeit nur noch Stress steht und weder die normale Arbeit gemacht werden kann, noch irgendwie darüber nachgedacht werden kann, wie es in voll Politik geht. Sehr gut. Jetzt komme ich zurück zur Technik. Was kann man tun, wenn man gemeinlich orientierte KI-Entwicklungen fördern will, politisch? Früher habe ich immer gesagt, wir brauchen mal einen Überblick, welche Technologien in der Entwicklung sind, was für die Daten- und Trainingsgrundlage ist, welche Akteure und Institutionen da eingebunden sind, um Risiken oder Folgeabschätzung zu machen, um sich zu überlegen, was geprüft werden sollte, zertifiziert werden sollte oder verboten werden sollte. Möglicherweise mit der zentralen Behörde. Das hat seit einem Jahr keiner gemacht. Das ist wahrscheinlich ein riesen Ding, was eventuell auch zu groß ist. Heute würde ich eigentlich was anderes sagen. Heute würde ich sagen, dass wenn uns diese Technologien eigentlich die Möglichkeit geben, sehr komplexe Sachverhalte neuartig zu verstehen und auch neuartig zu steuern, dann sollte man sich, glaube ich, sehr genau überlegen, was wir wissen wollen und was wir steuern wollen und ob wir wirklich die Empfehlung für das Projekt wollen oder nicht die Frage, wie man sinnvoll langsam Klima- oder IT-Sicherheitsrisiken minimiert. Und wenn wir wissen, was wir wissen möchten oder steuern, dann ist die Frage, okay, welche Daten brauchen wir da eigentlich? Und wie können die gemanagt und analysiert werden? Also man werden Zichtdaten über erhoben, aber ich glaube, für die wichtigen Probleme stehen die ja nicht zur Verfügung. Es gibt so ein Open Data-Gesetz irgendwie, aber die Behörden kommen nicht nach, diese Daten ordentlich aufzubereiten und ordentlich zu veröffentlichen. Und ich glaube, hier ist die Politik gefragt, tatsächlich so wirklich in so ein Daten, um das COS-Management zu investieren. Und das ist echt schwierig. Es gab jetzt Daten für alle Gesetze von der SPD, diese Idee, dass irgendwie die Sensordaten der Automobilhersteller, auch für die Klimaforschung und auch für den ÖPNV zur Verfügung stehen. Aber im Prinzip ist so ein bisschen unklar, gerade wie man so große Mengen an Daten ordentlich managen kann, also wie man das hinkriegen kann, dass da die Qualität erhalten ist, dass man hinkriegen kann, dass man das verwendet werden kann und solche Fragen. Ich habe vorgestern mitgekriegt, dass es da unglaublich viele Initiativen gerade in New York gibt, die hätte ich gern eingebunden, dazu kam ich nicht, aber da gibt es international auch einiges. Ach so, und genau, dann ist das natürlich auch so eine Frage, was kann man eigentlich mit diesen ganzen Daten machen? Was kommt daraus? Da brauchen wir tatsächlich mehr transparentste großen Unternehmen. Man kann mit Algorithmen die Folgeabschätzung anfangen. Man kann auch über die Implementierung der DSGVO reden. Vielleicht ganz kurz. Das ist gerade eine ziemlich interessante Initiative von der IG Metall, die FairTube, also da versuchen so ein paar YouTuber, YouTube dazu zu bringen, mal rauszurücken, was für, also auf welcher Basis, so Empfehlungen ausgesprochen werden. Und die beziehen sich auf Artikel aus der DSGVO, nach denen man Recht hat auf die Informationen über die involvierte Logik, tragweit und angestrebte Auswirkungen bei automatisierter Entscheidungsfindung. Wahrscheinlich greift die DSGVO nicht, weil das nur für Fälle gilt mit rechtlicher Wirkung, nicht für Empfehlungen. Und die meisten algorithmischen Entscheidungssysteme sind Empfehlungssysteme. Aber es ist trotzdem ein ziemlich interessanter Case und auch die Frage, wie ist es überhaupt technisch umzusetzen? Also die Macher der DSGVO haben bei dem Artikel Copy and Paste gemacht von der Vorgänger-Gesetzgebung und auf Rückfrage von mir gesagt, ja, keine Ahnung, wie man es umsetzt, aber es klang gut. Also es ist ein wichtiges Recht, wo jetzt gerade so ein bisschen die Frage ist, wie setzt man es um? Wahrscheinlich muss man da so halbwegs sinnvolle mensch-maschineschnittstellen entwickeln, die so ein bisschen die Varianz aus dem Auflegen und Dazugang gewähren. Jetzt muss ich, glaube ich, ganz schön springen. Ganz schön doll. Was noch wichtig ist, genau, es war die Frage, was können Daten? Hier wurden so Bundeswörter befreit, es ist noch relativ lapidar. Aber sozusagen, da war er erstmal sichtbar, dass der Sicherheitsdiskurs extrem eine Relevanz gewonnen hat im letzten Tag gegenüber dem Grundrechte-Diskurs und dem Menschenrechte-Diskurs. Und man kann natürlich danach erst die Frage stellen, okay, was wäre eigentlich immer die Grundrechte und die Menschenrechte in den Insistenz- und Sicherheitspolitik stellen könnte? Das ging wohl mit mehr Transparenz. Aber das ist so nebenbei. Beim Thema Kontrolle, Zertifizierung, All-Thing, wäre es unglaublich wichtig, bestimmte Gesetzgebungen zu ändern, denn im Moment sind die Leute, die so Versuchungen von außen auf algorithmische Systeme zuzugreifen, um an die Daten zu kommen und das zu verstehen, eigentlich sowohl durch die AGBs gefährdet, durch die IT-Sicherheitsgesetze, also umbefugter Zugriff auf beschlossene Systeme und durch das Urheberrecht. Hier müsste man ziemlich dringend dran. Ja, beim Urheberrecht muss man, glaube ich, auch dringend dran, dass mehr guter Content in die sozialen Netzwerke kommt und es ist auch irgendwie, sie brauchen wirklich eine neue Urheberrechtsreform. Ich dachte nicht, dass die Bundesregierung so fünf Milliarden auf die KI-Entwicklung packt und dann eine Urheberrechtsreform erlässt, wo Daten in Datenbanken wiederum nur von Wissenschaftlern genutzt werden kann. Aber ich muss zum Schluss kommen. Man kann über sehr viel sprechen. Ich glaube, wir brauchen dringend ein Grundeinkommen, um eine KI-Entwicklung gemeinbar orientiert zu machen, einfach damit die Menschen aufhören, in diesen Systemlogiken immer weiterzumachen und immer stärker zu machen. Was man sich tatsächlich überlegen kann, wie kann Datenanalysen, wie können Plattformtechnologien, wie können Systeme mich und meine Arbeit stützen und nicht ersetzen? Was brauche ich dazu in Weiterbildung? Und muss ich eventuell auch ein Job wechseln, um da was Gutes zu machen? Ich glaube, wir brauchen ein Diskurs auf Bundesebene, was wir KI-Wir wollen, am besten digital. Wir brauchen die Medien dazu kriegen, mit Aufmerksamkeit zu verbreiten, was die Bedürfnisse sind und nicht die ganze Zeit in der Schleife zu sein. Wir brauchen mehr Einblick in die Möglichkeiten und Grenzen von Datenanalyse. Wir brauchen einen Datenzugriff und reformierte Urheberrechte und eine soziale Sicherung für die gemeinwohlorientierte KI-Entwicklung. Es sind ein paar Fragen offen, nämlich eine, wie man sich mit einem wichtigen Anreizsystem dafür setzt und natürlich vor allem die Frage, wie schaffen wir das, dass die Milliarden nicht in die Cyberwaffen gehen, sondern in die Entwicklung einer nachhaltigen Grundversorgung in sichere kritische Infrastrukturen und in so eine funktionsfähige Governance demokratisch. Und ich glaube, hier ist es wirklich wichtig, dass man jetzt mal Schluss macht mit dieser rechten Politik, dass man sich dafür entscheidet, alles andere so ein bisschen Ablenkung und ich glaube, man kann da ziemlich gut in Deutschland anfangen und in der EU und gucken, was die anderen tun und dem Rest überlasse ich sie im Hocking. Danke. Vielen Dank. Gibt es Fragen im Raum? Ich habe kürzlich mal so ein bisschen mit so einer Face Detection KI-Machine Learning-Dinge rumgespielt und es ist sehr faszinierend zu sehen, dass diese trainierten Netze nämlich Schweinchen, Rosa, Männlich zwischen 25 und 60 bist, dann funktionieren die super, alles andere funktioniert nicht mehr. Ich sehe das an sehr vielen Stellen, dass KI und Machine Learning gerne miteinander vermischt wird und dass da inherent gerne unser Rassismus reingetragen wird. In Österreich gibt es auch eine arbeitslose Agentur, die da relativ böse Dinge tut. Gibt es da irgendwelche Ansätze? Ist das Problem in der Politik überhaupt bekannt? Wird darüber gesprochen? Gibt es ansätzliche Zerlösungen? Also so grundsätzlich ist das Problem in der Politik schon angekommen. Wir haben jetzt diese Daten, eh die Kommission, die sich da mit dem Thema Daten beschäftigt und es gibt diese KI-Anquetekommission des Bundestages und ja, ich glaube, es sind die beiden wichtigsten, die Daten in die Kommission rückt. Jetzt am Herbst habe ich gehört mit den Ergebnissen raus. Ich kenne sie noch nicht. Zur KI-Anquetekommission kann ich leider nichts sagen, weil ich in der letzten halben Jahr krank war und sie nicht befolgen konnte. Aber so als Eindruck findet gerade zumindest so ein Lernprozess statt, das Lernen, was das alles ist. Die Lösungen sind noch ein bisschen weiter weg. Hier drüben darfst du noch eine Frage? Ach so, und vielleicht muss man aber auch sagen, irgendwie bei diesem System von der Arbeits, von dem Arbeitsamt in Österreich, das sind ja eigentlich relativ einfache Systeme, also es ist irgendwie drei Kategorien von Menschen und was die bekommen und wie viele Chancen die haben, nochmal ein Job oder ein Arbeitsmarkt reinzukommen. Da ist das Problem, glaube ich, eigentlich, was Österreich macht und wer der Zugriff darauf hat. Ist aber eigentlich noch kein KI-Problem. Das ist eigentlich eher so ein Problem, warum macht man sich es nicht einfacher mit dem Grundeinkommen, weil dann würden die Mitarbeiter vom Arbeitsamt auch mal die Kapazitäten haben, irgendwie zu vermitteln, statt zu sanktionieren oder so. Also das ist ein Problem, wo die Frage ist, wozu es notwendig ist, aber gerne. Meine Frage geht so ein bisschen in eine ähnliche Richtung. Während ich dir zugehört habe, hatte ich so ein bisschen das Gefühl, bewegen wir uns da womöglich auch wieder eine technische Lösung zu. Ist denn KI, Maschinen lernen, ist das überhaupt geeignet als Hilfsmittel für die Politik? Zumal es ja einen sehr hohen Ressourcenaufwand voraussetzt. Also ich will das jetzt nicht behaupten, sondern ich frage es tatsächlich. Also ich glaube, dass die Entwicklung einerseits irreversibel ist und andererseits auch gut ist. Es gibt ein ganz interessantes Buch von uns weniger aus dem Jahr 1986, The Control Revolution, und der hat sozusagen gezeigt, wie die ganze Entwicklung von Informations- und Kommunikationstechnologien vom Zug angefangen über Postwesen und Radio und jetzt so ein Zeug. Also da wurden halt lokale Märkte gesprengt und man hatte National und globale und solange man aber diese Kette nicht ganz kontrollieren kann, um eigentlich eine globale Wirtschaft zu steuern. Und eigentlich sind die Plattformen auch ganz cool, weil die würden die alten Probleme von sozialistischer Wirtschaft lösen, weil da war auch immer das Problem, dass man das nicht richtig gut steuern konnte und dadurch sozusagen kooperativ ausgelegte Systeme Probleme hatten. Und eigentlich, also brauchen wir es, wir sind zu viele Menschen, wir haben diesen Klimawandel, damit könnte man es steuern so. Eine Frage haben wir noch, das ist dann die Letzte wahrscheinlich. Vielen Dank. Um an die Frage mal anzuknüpfen, also ich glaube, die Fragestellung zieht auch in die falsche Richtung, nicht ob es geeignet ist, sondern ob Organisationen die KI einsetzen, erfolgreicher oder weniger erfolgreicher in ihren politischen und wirtschaftlichen Handeln sind. Das ist ja, glaube ich, das, was dann am Ende hinten rauskommt und diejenigen, die übrig bleiben, geben halt den Trend vor. Die Frage ist halt, wie schafft man es oder welche Ideenkonzepte kannst du vielleicht auch vorschlagen, wie man Politik wieder handlungsfähig macht. Momentan ist ja die Politik immer nur daran zu reagieren. Die setzt keine Akzente mehr in die Richtung, sondern im Prinzip dienen, die KI einsetzen, voranpreschen, die bestimmen die Themen Facebook, Google und so weiter und so fort. Und die Politik kommt überhaupt nicht mehr hinterher, hinter diesen analogen KIs, wie Charles Trost das sagen würde, dort irgendwie nochmal Politik zu machen, um tolles Sinn zu betreiben. Und die Frage ist, wie schafft man es, dass die Politik überhaupt dort handlungsfähig bleibt? Also, wenn ich mir was wünschen dürfte, dann haben wir noch zwei Jahre die Regierung jetzt und hätten sowas wie eine Innovationsagentur im Bundestag. Also müssen, glaube ich, das Parlament Handlungswiege kriegen, weil das Parlament immer unglaublich belastet ist und trotzdem kaum was hervorbringt. Das liegt an den administrativen und technischen, und man rutscht halt fast nur sozusagen die Gesetzgebungsvorschläge aus den Ministerien oder der EU durch. Und der Rest ist ganz schon schwierig. Und es gibt halt kaum Kapazitäten, da was anderes zu machen. Und dieses Daten für alle Gesetze war einer der wenigen Versuche aus dem Parlament heraus, was zu machen. Das war nachts oder am Wochenende. Und zwei Bandscheibenfälle, yes. Ich glaube, man muss sozusagen gucken, wie man das Parlament handlungsfähiger macht. Dann vielen Dank, Julia Krüger.