 Heute befassen wir uns mit der Frage, ob wir eigentlich im Internet alle sagen dürfen, was wir wollen oder nicht. Genauer geht es um die Verfahren, die Kontrollverfahren, die Plattformen wie Facebook, TikTok oder Twitter, entwickelt haben, um die Sprache im Internet zu überprüfen und zu regeln. In der Fachsprache spricht man hier von Inhaltemoderation oder auch von der Kuratierung von Inhalten. Hallo, wir sind das Alexander von Humboldt-Institut für Internet und Gesellschaft. In einem globalen Forschungsnetzwerk untersuchen wir Fragestellungen, um die Digitalisierung unserer Welt besser zu verstehen. Kommt mit auf unsere interdisziplinäre Entdeckungsreise durch die digitalen Sphären unserer Gesellschaft. Was ist denn eigentlich Inhaltemoderation? Plattformen verarbeiten sehr viel Informationen und das tun sie indem sie, was wir sagen, was wir lesen, sortieren, priorisieren, uns zum Teil auch einfach rausfiltern. Plattformen machen das nicht durch Menschen, sondern die ersten Filtermaßnahmen erfolgen durch Algorithmen. Warum nun benutzen Plattformen Algorithmen? Fast 60 Prozent der Menschen auf der Welt nutzen Social Media. Das sind 4,6 Milliarden Personen, die jeden Tag Milliarden von Posts veröffentlichen. Allein auf YouTube werden mehr als 500 Stunden Videomaterial pro Minute hochgeladen und geteilt. Digitale Plattformen ermöglichen uns also wie nie zuvor riesige Mengen an Informationen sehr schnell miteinander zu teilen. Weil wir inzwischen so viel über Plattformen kommunizieren und ihnen so viele Kommunikationsaufgaben übertragen, kann diese Information, dieses Kommunizieren nicht mehr allein durch Menschen geordnet werden und wir benötigen algorithmische Systeme, um diese Aufgabe für uns zu erledigen. Die Frage ist aber, wie eigentlich Algorithmen gestützte Moderierung von Inhalten funktioniert. Ein gutes Beispiel dafür sind die Corona-Hinweise auf der Plattform Instagram. Wann immer Menschen in ihren Beiträgen über das Virus berichten, erkennt die algorithmisch gestützte Inhaltemoderation der Plattform das automatisch. Beiträge, deren Inhalt gegen die hauseigenen Richtlinien zu Covid-19 und Impfungen verstoßen, werden entfernt. Die anderen Beiträge werden mit allgemeinen Hinweisen zu Corona versehen. Sie führen die NutzerInnen mit links zu verlässlichen Informationen von Gesundheitsexpertinnen, zum Beispiel die Weltgesundheitsorganisation WHO. Eigenen Angaben nach möchte die Plattform damit ihren NutzerInnen einen Zugang zu Informationen ermöglichen, für ihre Sicherheitssorgen und die Verbreitung von falschen Informationen reduzieren. Die Frage, die sich jetzt natürlich stellt, ist, ob eigentlich das Filtern von Inhalten, wenn man das Algorithmen überlässt, gut funktioniert. Leider ist es so, dass diese Systeme nicht ganz so intelligent sind, wie wir es gerne hätten. Insbesondere schwächeln sie, wenn es darum geht, zu etwas wie Ironie oder Sprachspiele zu verstehen. Auch Zitate können sie nicht erkennen. Will sagen, das, was Algorithmen filtern sollen, schießt häufiger mal über das Ziel hinaus. Wie so etwas aussehen kann, zeigt zum Beispiel eine Facebook-Werbung eines kanadischen Saatgutunternehmens aus dem Jahr 2020. Sie zeigt nur ein paar Walla Walla Zwiebeln, wurde aber fälschlicherweise von der automatischen Inhaltemoderation als ein offenkundig sexuelles Bild markiert. Grund dafür war, dass die algorithmische Entscheidung von Facebook die Zwiebeln mit weiblichen Brüsten von Menschen verwechselte. In diesem Beispiel waren die Rundungen des Gemüses also zu sexy für die Algorithmen, weswegen sie die Werbung als Nacktbild einstuften und kurzzeitig sperrten. Ein weiteres Beispiel aus dem selben Jahr verdeutlicht, wie schwer es manchmal für Algorithmen ist, verschiedene Kontexte zu verstehen oder sprachliche Eigenheiten abzubilden. Hier verwechselte die automatische Inhaltemoderation von YouTube wahrscheinlich ein Gespräch über Schach mit rassistischer Hassrede und sperrte daraufhin den Account eines bekannten YouTubers. Ein Tag zuvor hat er dieser auf seinem Kanal einen Schachgroßmeister interviewt und mit ihm über verschiedene Spielfarben und Spielzüge diskutiert. In ihrem Gespräch fielen deshalb Wörter wie Schwarz, Weiß, Angriff und Bedrohung. WissenschaftlerInnen vermuten, dass dadurch eine automatische Software ausgelöst wurde, die rassistische Sprache erkennt und das Gespräch fälschlicherweise in diese Kategorie einordnete. Automatische Systeme funktionieren also nicht immer besonders gut. Es stellt sich die Frage, warum wir nicht einfach bessere Programme entwickeln. Tatsächlich ist es so, dass die Unternehmen ihre Programme als Betriebsgeheimnis betrachten, wenn man so will, das Coca Cola Rezept der Plattform. Wir wissen also leider recht wenig darüber, nach welchen Kriterien, Plattformen ihre Filterprogramme entwickeln. Welche Lösungswege gibt es denn nun eigentlich dafür, dass die Inhaltemoderation der Plattform transparenter wird? Der erste Lösungsvorschlag besteht darin, die Plattformen von außen einer stärkeren Kontrolle zu unterziehen. Man spricht hier auch vom Algorithmentiff oder von sogenannten Audits. Da werden externe In-Unternehmen gelassen, die sich das funktionieren, diese Algorithmen genauer angucken und prüfen, ob diese Algorithmen gesetzeskonform sind. Man überprüft in etwa, ob Algorithmen unzulässig diskriminieren. Der zweite Lösungsvorschlag bezieht sich auf das, was man als Beschwerdemanagement bezeichnen könnte. Wenn mal ein Text oder ein Video von euch gelöscht worden ist, dann wollt ihr ja gerne wissen, wie man sich dagegen zur Wehr setzen kann. Deshalb besteht der zweite Lösungsvorschlag darin, dass die Plattform ihren Nutzerinnen Gelegenheit geben müssen, Widerspruch einzulegen und dass die Plattformen selbst darauf auch reagieren müssen. In diese Richtung gilt übrigens auch das neue digitale Dienstegesetz der Europäischen Union, das spezielle Regelungen vorsieht, die Nutzerinnen die Möglichkeit geben, Widerspruch einzureichen bei den Plattformen. Aber wer kann denn eigentlich unabhängige Entscheidungen in solchen Fällen treffen? Die dritte Lösung, die wir vorschlagen wollen, besteht in Plattformräten. Plattformräte würden in etwa wie ein Gericht arbeiten. Das Unternehmen Meta, früher Facebook, hat schon Schritte in eine solche Richtung unternommen, indem es ein Oversight Board eingerichtet hat. Das Oversight Board ist zwar unabhängig von Facebook, aber hat bisher nur sehr wenig Fälle abarbeiten können. Wir brauchen also eine Organisationsstruktur, das heißt Plattformräte, die in der Lage sind, auch die Widersprüche von vielen Nutzerinnen zu bearbeiten. Das waren jetzt nur drei Lösungsvorschläge. In Zukunft müssen Wirtschaft, Zivilgesellschaft und Politik daran arbeiten, weitere Lösungsvorschläge zu entwickeln. Und wir forschen natürlich auch weiter zu diesen Fragen.