 Herzlich willkommen zur langen Nacht der Wissenschaften, jetzt noch am hellen Tage, aber wir machen hier sehr lange, wenn Sie auch so lange mitmachen. Mein Name ist Wolfgang Schulz, ich bin einer der Direktoren des Instituts, indem Sie sich gerade befinden, nämlich das Humboldt-Institut für Internet und Gesellschaft. Und was wir heute machen wollen, ist naheliegenderweise Ihnen ein bisschen nahebringen, was wir hier eigentlich erforschen. Und einen kleinen Ausschnitt werde ich hier am Anfang geben, und zwar geht es bei mir um Transparenz oder noch präziser, welche Bedeutung hat künstliche Intelligenz, etwas, worüber heute viel gesprochen, geschrieben wird und auch geforscht wird, eigentlich auf solche Vorstellungen, wie das Dinge Transparenz sind, dass Dinge erklärbar sind, dass man Einblick hat, vielleicht auch um Sachen zu überprüfen, um zu sehen, was die eigenen Rechte sind, die rechtlichen Möglichkeiten sind. Von Hause aus bin ich Jurist, deshalb komme ich auf diesen rechtlichen Punkt hier und da mal zu sprechen. Aber am Anfang forden Sie mir einfach mal ein paar Jahre, ich weiß gar nicht, wie viel, in die Zukunft. Stellen Sie sich vor, Sie wollen in Urlaub fahren. Sie haben festgestellt, es fehlt ein bisschen ein Geld, Sie wollen einen Kredit aufnehmen. Sie gehen ins Internet, auf bestimmte Bankenseiten, dort wird von Ihnen verlangt, dass Sie Zugang zu allen möglichen sozialen Medien öffnen, damit der Anbieter feststellen kann, ob Sie den Kredit wohl auch zurückzahlen werden. Sie gehen auf die eine Seite, kriegen die Mitteilung, Ihnen kann leider kein Kredit gegeben werden. Warum, wissen Sie nicht, finden auch keinen Knopf, wo Sie sich in irgendeiner Weise beschweren können. Sie gehen zur nächsten Seite, versuchen es wieder, wieder müssen Sie alle Ihre Daten offenlegen, wieder gibt es eine Prüfung, wieder negatives Ergebnis. Und dann finden Sie endlich eine Bank, die sagt, okay, das ist relativ teuer, aber Sie sagen dann überweist mir etwas und ich kann meinen Urlaub antreten. Denn steigen Sie in Ihr selbst fahrendes Auto und das fährt Sie, Sie wollen nach Österreich, in die Nähe der Grenze und kurz vor der Grenze stoppt das Auto und sagt Ihnen, es kann leider nicht weiterfahren, weil die Versicherungen entschieden haben, dass es zu riskant ist, hier in der Gegend das Auto abzustellen. Da müssen Sie hier schon parken und müssen mit Ihrem Rollkoffer bis zur Grenze gehen. Dann gehen Sie zur Grenze, die Grenze ist voll automatisiert. Sie legen Ihren Ausweis dort drauf, dieses alte Papier gibt es dann immer noch und das System sagt Ihnen, ohne Gründe zu nennen, dass Sie leider nicht anreisen dürfen. Sie versuchen es einmal, zweimal, Sie schauen sich um, ob es irgendwo Leute gibt, bei denen Sie sich beschweren können und stellen fest, da ist niemand, das ist eine vollautomatische Grenzanlage. Sie fahren frustriert nach Hause zurück und stellen da aber fest, dass Ihr automatisch so programmierter Kühlschrank festgestellt hat, dass Sie einen schweren Tag hatten und hatte Ihnen eine gute Flasche Wein bestellt und schon auf die richtige Temperatur gekühlt. Sie merken, wir sind bei folgendem Thema, wir sind bei dem Thema Maschinenentscheiden. Wie kommt es dazu, dass wir über dieses Thema jetzt so viel sprechen? Es liegt an Dingen, die mit Technologieentwicklung zu tun haben und vor allen Dingen zwei Elementen stark gestiegener Rechenleistung und vielen, vielen Daten, die zur Verfügung stehen, um die Maschinen klüger zu machen. Wir hatten schon vor Jahren, schon vor Jahrzehnten Diskussionen über künstliche Intelligenz, über Systeme, die so schlau sind oder schlauer sind als der Mensch und dementsprechend Entscheidungen abnehmen können und jetzt haben wir eine Situation erreicht, wo die Technik in der Lage ist, eine hohe Entscheidungsqualität zu produzieren. Das kommt aber möglicherweise mit bestimmten Nachteilen. Wenn Maschinen entscheiden, dann gibt es andere Arten von Fehlern. Es gibt technische Fehler, das System kann von Bösenmächten gehackt werden und deshalb wird Ihnen möglicherweise der Kredit nicht gegeben oder Sie können nicht einreisen. Das bedeutet nicht, dass Menschen keine Fehler machen. Wir hatten vor Kurzem eine Psychologin da, die als Spezialität menschliches Entscheidungen hat und die sagt, Menschen entscheiden schlecht. Es gibt Studien, die Sie vielleicht auch kennen, die sind schon älter, werden immer wieder repliziert, die etwa sagen, Richterinnen und Richter entscheiden nach der Mittagspause anders als davor. Das ist natürlich eigentlich nicht gut, weil wenn Sie jetzt irgendwie vor Gericht stehen und wollen Sie nicht länger im Gefängnis sitzen, weil Sie zufällig nach der Mittagspause rankommen und nicht vor der Mittagspause, das können vielleicht Algorithmen, die hinter den maschinellen Entscheidungen stehen, besser machen. Interessant übrigens, diese Studien können in Deutschland nicht repliziert werden. Bei deutschen Richterinnen und Richtern funktioniert das nicht. Aber in Großbritannien beispielsweise, da ist dieser Versuch schon mehrfach gemacht worden und da merkt man Unterschiede. Also das Erste, was wir feststellen, ist, es gibt ganz andere Typen von Fehlern. Menschen machen Fehler, Maschinen machen Fehler, die Ursachen sind unterschiedlich, die Fehlertypen sind unterschiedlich, damit müssen wir uns auseinandersetzen. Ein zweiter Punkt hat schon mit dem Phänomen zu tun, dass ich mit in der Überschrift habe, nämlich künstlicher Intelligenz, selbstlernende Systeme, die jetzt aus den genannten Gründen möglich sind. Diese Systeme sind überwiegend darauf trainiert, Kategorien zu bilden. Die versuchen anhand der Daten, die sie haben, möglichst sie in die ein oder andere Gruppe einzuordnen. Dadurch werden diese Entscheidungen überhaupt möglich. Das bedeutet aber auch, dass diese Systeme Stereotypen bilden und verstärken können. Es kann sein, dass sie ihren Kredit nicht bekommen, weil zufällig die Kombination von Kriterien das Gebiet, in dem sie wohnen und den Vornamen, den sie haben, aus dem System heraus die Bewertung erzeugt. Die Wahrscheinlichkeit, dass der Kredit zurückgezahlt wird, ist gering. In Wirklichkeit ist er aber sehr hoch. Sie sind sehr zuverlässig. Sie fallen nur zufällig in diese Kategorie, die das System gelernt hat und richtigerweise wahrscheinlich gelernt hat, weil rein Statistisch stimmt es, dass diese Kombination von Wohnort und Vornamen tatsächlich dazu führt, dass die Bank ihr Geld nicht widersieht. Der dritte Punkt, den wir untersuchen, mit dem wir uns beschäftigen, sind Verstärkungseffekte. Was kann man darunter verstehen? Nehmen Sie als Beispiel ein Videosystem, das Ihnen Videos im Internet anbietet. Da haben Sie typischerweise ein Empfehlungsalgorithmus dahinter. Das heißt, wenn Sie ein Video geschaut haben, wird Ihnen angeboten, wollen Sie nicht dieses Nächste noch schauen. Die Logik dahinter eines rationalen Anbieters eines solchen Dienstes ist, ich möchte den Kunden oder die Kundinnen gerne auf der Plattform halten. Das heißt, was mache ich? Ich versuche herauszubekommen, was muss sich dieser Person anbieten, damit sie möglichst nicht wechselt, dass sie möglichst das nächste Video sich auch noch anschaut. Und das kann dazu führen, wenn das System lernt, je radikaler der Inhalt ist, je extremer die Situation ist, die da geschildert wird, vielleicht auch je extremer die politische Auffassung, die da geschildert wird, umso wahrscheinlicher ist es, dass Sie vor dem Bild schon bleiben. Und dann wird Ihnen dieses System wahrscheinlich diese Inhalte anbieten. Mit der Folge, dass Sie möglicherweise mit immer extremeren, immer radikaleren Inhalten konfrontiert werden, es also einen solchen Verstärkereffekt gibt. Eine dritte Kategorie, vierte Kategorie von Problemen, die wir diskutieren, ist das Thema von Filterblasen, wenn es um die öffentliche Kommunikation geht. Das heißt also, dass Systeme Ihnen möglicherweise immer nur die Inhalte anbieten, die zu dem passen, was Sie bisher gemacht haben. Das heißt also, wenn Sie sich für bestimmte politische Auffassungen interessierten, denn wenn auch nur diese politischen Auffassung Ihnen verfügbar gemacht, das kann Probleme für die Vielfalt bringen. Sie wissen auf einmal nicht mehr, was die anderen wissen, was die anderen in der Gesellschaft wichtig finden, wie die denken, wie die ticken. Und das kann natürlich Probleme für den gesellschaftlichen Zusammenhalt bringen. Man muss dazusagen, dieses Phänomen der Filterblasen ist sehr plausibel, aber wenn man in die Forschung schaut und sieht, welche Daten dazu erzeugt wurden, bisher muss man sagen, dass zumindest in Deutschland der Effekt vereinzelnde Gruppen aber nicht für die Gesellschaft insgesamt nachzuweisen ist. Was Sie also sehr häufig hören, auch von Politikerinnen und Politikern, sagen, jeder lebt nur noch in seiner eigenen Welt, weil die Systeme das so vorschlagen und weil sie sich nur noch dafür interessieren, das ist so empirisch nicht gesichert, das ist nicht beweisbar. Für bestimmte Gruppen mag es sein, aber nicht für alle. Weil es diese Probleme gibt, hat das Recht darauf ein Stück weit reagiert, unter anderem die sogenannte Datenschutzgrundverordnung, von der viele von Ihnen schon gelesen haben werden, die verbietet automatisierte Verfahren, also solche Verfahren, wie ich sie oben geschildert habe, grundsätzlich. Man hat ein Recht, nicht einer solchen rein automatisierten Entscheidung unterworfen zu werden, aber es gibt eine Menge Ausnahmen, wenn Sie einwilligen darin und das werden Sie möglicherweise bei einer Versicherung, wenn Sie einen Kredit haben wollen, dann geht es doch. Aber es gibt ein paar Sicherungsmechanismen, die da eingebaut sind. Zum Beispiel können Sie, wenn Sie von einem solchen System eine Ablehnung erhalten, eine negative Entscheidung erhalten, können Sie verlangen, dass der Anbieter erklärt, wie diese Entscheidung grundsätzlich zustande kommt, wie die tatsächlich darauf die basiert. Und hier bin ich wieder bei den Problemen der künstlichen Intelligenz. Es gibt bestimmte selbstlernende Systeme, bei denen können Sie nicht einfach sagen, immer wenn man die Daten 1, 2, 3 eingibt, kommt dieses Ergebnis raus, weil das System lernt ständig dazu. Und dementsprechend ist eine der wichtigen Fragen, die wir uns im Augenblick auch als Juristinnen und Juristen stellen, können wir in diesem Bereich sicherstellen, dass es transparent ist, dass es erklärt werden kann, wie die Entscheidung zustande kommt. Und dass es nicht so aussieht wie hier, wo das System sagt, sagt mir doch, warum. Und das System sagt, dass wir das zu eh nicht verstehen. Letzter Punkt wird auch häufig als Lösung angeboten. Es muss doch letztlich immer ein Mensch entscheiden. Das sieht auch die Datenschutzgrundverordnung vor, dass wenn Sie berechtigte Kritik üben an einem Verfahren, das auch eine menschliche Entscheidungsstadt findet. Aber hier sehen wir das Problem, wenn dieser Mensch auch nur die Informationsgrundlage hat, was das System ausspuckt, kommt denn wirklich eine andere qualitativ andere Entscheidung zustande. Wir haben zwar einen Menschen, der formell entscheidet, aber entscheidet er tatsächlich auch in der Sache. Und unter welchen Voraussetzungen tut er das? Das sind Fragen, mit denen wir uns aktuell auseinandersetzen. Vielen Dank.