 Mein Name ist Kirsten Gollertz. Ich bin hier Projektleiterin am Alexander von Humboldt-Institut und beschäftige mich hauptsächlich so mit Fragen um Meinungsfreiheit, Meinungsbildung, politische Partizipation und unter welchen Bedingungen wir eigentlich online kommunizieren. Und die Idee hinter meinem Vortrag ist, dass ich eigentlich aus meiner Dissertation heraus gesehen habe, ah, irgendwie ändert sich das, wie gesellschaftliche Kommunikation im Internet reguliert wird oder über was wir da sprechen, wie das reguliert werden soll. Und das würde ich Ihnen heute etwas näher bringen. Und zwar habe ich festgestellt, dass wir zunehmend über auch automatisierte Systeme, über eine Art von Automatisierung bei der Kommunikationsregulierung sprechen. Unter die Motto Künstliche Intelligenz wird es dann auch in die breitere gesellschaftliche Debatte eingeführt. Und weil wir noch frisch sind, also am frühen Abend, hoffe ich zumindest, habe auch ich mir ein interaktives Element überlegt, wie wir vielleicht ein bisschen in die Diskussion kommen. Und Sie haben zum Teil auf Ihren Plätzen oder unter Ihren Plätzen Karten, mit denen Sie abstimmen können. Und ich würde Ihnen gleich im Anschluss drei Beispiele zeigen. Und es geht einfach nur darum, ob Sie sagen würden, also ehrlich gesagt, dieser Inhalt, der muss raus aus dem Netz. Das finde ich anstößig, das finde ich nicht gut, auch unter der Maßgabe, dass bestimmte Plattformen und sozialen Netzwerke auch für Kinder gedacht sind. Oder Sie sagen Sie, das müssen wir eigentlich online lassen, weil das ist wichtig und das brauchen wir. Und wir machen das hier in diesem Raum, wir machen das ganz offen. Ich werde Sie auch jetzt nicht einzeln aufzählen und dann Ihre Meinung dazu sagen. Ich will nur ein Bild haben. Und da fangen wir einfach mit dem ersten Beispiel mal an. Das ist ein Fall eins. Das ist ein Bild, was auf der Plattform Facebook auch gepustet wurde. Das ist ein relativ bekanntes Beispiel. Vielleicht haben Sie auch in der Presse darüber gehört. Was sagen Sie? Raus aus dem Netz oder rein drin lassen? Fast eindeutig, ein kleiner Unterschied. Ich will das auch gar nicht weiterkommen. Ich sehe eine Gegenposition. Ich sehe eine Gegenstimme, dass es raus soll aus dem Netz. Zweites Beispiel. Sie sehen auch, das sind unterschiedliche Formate. Das ist ein Zitat auf der Plattform Twitter. Es sind unterschiedliche Plattformen, unterschiedliche Typen. Es sind auch unterschiedliche Dinge, die hier angesprochen werden von der Kategorie her. Raus oder rein? Da haben wir ein bisschen diverses Bild im Vergleich. Das sind 1, 2, 3, 4, 5 Positionen, 6 Positionen, die dagegen sprechen und sagen, das Ding müsste eigentlich aus dem Internet entfernt werden. Ein drittes Beispiel ist Gewalt. Videos, wir haben die Plattform YouTube. Es geht auch um Gewaltvideos, es geht um Berichterstattung, aber auch um sehr viel grausame Darstellung von Gewalt, von Krieg, von Blut, von Opfern. Auf einer Plattform wie YouTube sollte dieses Video auf der Plattform belassen werden oder ist das ein Beispiel dafür, dass es aus dem Netz sollte? Das ist mit Kontext dargestellt worden. Aber sehr raw, wie man so sagt. Das ist fast eine Zweiteilung der Besucherschaft hier. Auf der einen Seite sehr, sehr viele Blaue, die dagegen sind, auf der anderen Seite fast komplett dafür, dass es im Internet belassen werden soll. Das ist eigentlich das kontroverseste Beispiel, wenn ich das mal rücks... Nachvollziehe, was wir hier gesehen haben. Interessant. Was macht den Unterschied jetzt zu unserem Raum hier und zu dem, wie wir das Plattform machen? Was ist also, wenn Plattformbetreiber entscheiden sollen, welche Inhalte im Netz stehen bleiben sollen und welche Inhalte nicht stehen sollen? Wir hier im Raum können uns gegenseitig sehen. Wir könnten auch in einen Dialog miteinander treten, eine Konversation darüber, was jetzt angemessen ist oder was nicht. Bei Plattformbetreibern ist es vielleicht nicht ganz so. Plus, dass sie halt eine enorme Datenfülle und Informationsfülle haben, die zu verarbeiten sind. Also in diesen ganzen Strom von Informationen und Inhalten sind es, sagen, bestimmte Dinge eben auch nicht erlaubt. Die Plattformbetreiber als privat kommerzielle Unternehmen eben nicht auf ihrer Plattform haben wollen, beziehungsweise sie nicht illegal sind oder nicht akzeptabel sind. Wenn wir also darüber diskutieren, was Plattformbetreiber machen sollten oder nicht, dann sollten vielleicht als Grundlage auch wissen, es gibt so die sogenannten Netzwerkeffekte. Die Netzwerkeffekte können auch andersrum funktionieren. Das heißt, sie können auch umgekehrt funktionieren. Das heißt, oft ist, wenn wir hier im kleinen Raum sind, dann können wir uns noch verständigen und wir können uns vielleicht auch zum Gewissen auf einen gewissen Konsens einigen. Bei solchen Plattformen, je größer die Community ist und bei Facebook sprechen wir von 2 Milliarden Nutzern weltweit, da kann es dann schon vorkommen, dass du mehr Nutzer auf der Plattform sind, auch je mehr Lärm oder je mehr Noise, wie das dann heißt, auf der Plattform ist. Das heißt, für jeden Einzelnen ist es gar nicht mehr so attraktiv auf der Plattform zu sein, weil er die Qualität der Inhalte gar nicht mehr wertschätzen kann. Das heißt also, die Moderation von Inhalten und die Kuratierung von Inhalten auf solchen Plattformen ist eigentlich essentiell und es ist eigentlich dann eine Frage der Skalierbarkeit. Das heißt, in welcher Größenordnung können wir das kuratieren, damit es für jeden einzelnen Nutzer und Nutzerin von uns noch Spaß macht und Sinn macht, auf dieser Plattform zu sein. Die meisten Moderationssysteme bei den Plattformen funktionieren in der Art und Weise, dass die Community, wie auch immer groß sie sein soll, bestimmte Inhalte berichtet oder erkennt und auf Basis der sogenannten Community Guidelines und der Standards werden diese Inhalte dann überprüft von den Plattformenbetreibern bzw. auch von ausgelagerten Content-Moderatoren. Die Diskussion ist gerade sehr groß, was diese Content-Moderation angeht und was die Auslagerung, also dieses Outsourcing der Content-Moderation in Länder wie zum Beispiel die Philippinen angeht und unter welchen Bedingungen diese Moderatoren und Moderatoren dort arbeiten, aber darauf will ich eigentlich gar nicht weiterhin hinausgehen. Was wir noch wissen sollten ist, dass wir es, je mehr Leute kommen, je mehr Inhalte publiziert werden und verbreitet werden, wir auch mehr Herausforderungen haben oder den Plattformbetreiber, größere Herausforderungen haben mit problematischen und illegalen Inhalten umzugehen und der Druck wächst von allen Seiten, einfach schneller bestimmte Inhalte aus dem Netz zu nehmen, aber eben doch umfassender bestimmte Inhalte aus dem Netz zu nehmen. Als Resultat muss man fast sagen, haben dann Regierungen, zum Beispiel auch die Deutsche, Werbetreibenden, aber auch die Nutzerinnen und Nutzer selber, also die Community selbst, liegt einen stärkeren Fokus darauf, so was automatisiert zu machen. Und es liegt fast in der Natur dieser Plattformbetreiber, weil sie ja Technologieunternehmen sind, diese Moderationsprozesse stärker zu automatisieren und dort ihre Entwicklung und Gelder reinzuschütten. Was ist jetzt also, wenn die Maschinen entscheiden? Und hier ist es im Prinzip meine Aufgabe, ihnen provokante Fragen mehr zu stellen und sie zum Nachdenken anzuregen, anstatt ihnen jetzt die Lösung für all die Probleme zu vermitteln. Wir können den Trend erkennen, dass eine stärkere Automatisierung dieser Inhalte-Moderation funktioniert und stattfindet. Und das ist auch in verschiedenen Bereichen stattfindet. Und so ein Grundmodell könnte man zum Beispiel dieses Modell annehmen. Wie trennen also Plattformbetreiber das Gute vom Schlechten? Wie funktioniert ein maschinelles Lernen oder künstliche Intelligenz in der Inhalte-Moderation? Ganz, ganz einfach und schematisch dargestellt, ist es vielleicht das, in dem verdächtige Inhalte identifiziert werden. Da gibt es verschiedene Programme, zum Beispiel Stichwortfilterung oder das Hash-Matching-Algorithmen, die bestimmten Inhalten eine Art Fingerprint, also eine Art Fingerabdruck vergeben, sodass die wieder erkennbar sind und in der Abgleich mit einer Datenbank erfolgt. Es gibt Spam-Erkennung, das kennen wir alle, eines der gängigsten automatisierten Verfahren, wie man Inhalte mit künstlichen Intelligenzsystemen her wird. Aber neuerdings eben auch verstärkt bestimmte Lernalgorithmen mit natürlicher Sprachverarbeitung, Bild- und Spracherkennung, sogar Stimmungsanalysen. Das Interessante und der Unterschied der KI oder des maschinellen Lernens und dem, wie das dem Menschen machen ist, dass diese Prozesse in einem Kreislauf funktionieren. Das heißt, wir haben die Daten, die die Ergebnisse werden immer wieder eingespeist in die Entscheidung dann am Ende. Ich sollte mich jetzt beeilen, etwas habe ich gehört. Deswegen vielleicht noch die folgende Punkte, die wir dann im Blick behalten sollen, wenn es darum geht, ob wir mit künstlichen Intelligenzsystemen oder mit Maschinen-Lernsystemen solche Inhalte modulieren. Wir sollten einen Blick auf die Trainingsdaten werfen. Denn für die Entwicklung von bestimmten Maschinen-Learning-Systemen können die Trainingsdaten bereits verzerrt sein oder auch mangelnde Repräsentativität darstellen. Die Kommunikation ist komplex, das haben wir hier schon gemerkt. Selbst hier sind wir nicht alle einer Meinung. Sie wird umso komplexer, wenn wir in verschiedenen geografischen oder kulturellen Kontexten arbeiten. Das nochmal zum Kontext. Bestimmte Maschinen-Learning-Systeme sind einfach nicht in anderen Kontexten anwendbar, weil sie ein bestimmtes Problem adressieren und kein anderes. Die Übertragbarkeit von Plattform zu Plattformen würde ich auch in Frage stellen. Was heißt Genauigkeit dann? Mit welchem Ergebnis sind wir dann zufrieden? Was ist ein gutes und was ist ein schlechtes Ergebnis? Je nachdem, wie es sozusagen programmiert wird und alle Inhalte weg sind, ist das sozusagen ein gutes Ergebnis, mit dem wir leben wollen. Was heißt dann genau und was heißt eigentlich Fehler zu machen dabei? Es sollte bestimmte Beteiligungs- und Eingriffsmöglichkeiten für Menschen in diesem System sein, wo genau, an welchen Stellen es Teil der Diskussion, auch das kann ich Ihnen nicht beantworten, aber es verhindere zumindest, zum Beispiel auch, dass die Community mit Einbezogen wird. Es würde zumindest verhindern oder bestimmte Fehler-Anfälligkeiten verhindern. Die Frage der Transparenz erklären sich maschinelle Systeme oder Maschinen-Learning-Systeme von alleine. Wie gut verstehen wir das? Wie gut können wir das verstehen? Oder sind wir einfach nur mit dem Ergebnis zufrieden? Auch hier mehr Fragezeichen als Antworten im Moment und dann die letzte Frage. Was heißt denn das, wenn wir das jetzt automatisch löschen und aus dem Inhalt, aus dem Netz entfernen? Heißt das aus dem Auge, aus dem Sinn? Was ist mit Strafverfolgung? Oder der Frage müssen wir nicht darüber Bescheid wissen, was andere so denken, damit wir dem gerecht werden können und diesen Dingen dann auch etwas entgegensetzen können. Mit diesen Fragen, wie gesagt, mehr als Antworten würde ich Sie entlassen. Das ist unser Forschungsprojekt, was wir dazu angefangen haben in diesem Jahr. Wir wollen uns also mit der Automatisierung und der Plattformatisierung als grundlegende Treiber des gesellschaftlichen Wandels beschäftigen, sozusagen unser Kontext, und dann genau schauen, welche Rolle Maschinelles lernen und Automatisierung in der gesellschaftlichen Kommunikation haben. Damit wollen wir sowohl die technische Seite anschauen, aber eben auch fragen, welche Erwartungen hat Gesellschaft an solche Technologien und wie werden die umgesetzt im Design zum Beispiel. Das war mein Weg nach draußen zum Abkühlen. Vielen Dank für die Diskussion, fürs Zuhören, und dann bleiben wir. Vielen Dank.