 Mein Name ist Franziska Ömer, ich bin promovierte Kommunikationswissenschaftlerin und ich arbeite an der Universität Fribourg in der Schweiz und ich stehe aber auch ganz kurz vor dem Abschluss meines Bachelorstudiums im Rechtswissenschaften und ich versuche in meiner Forschung immer diese beiden Perspektiven miteinander zu verbinden, also Kommunikation einerseits aber auch die rechtliche Perspektive auf der anderen Seite und deshalb interessiert es mich auch, wie man Kommunikation im Internetbereich oder im Onlinebereich auch regulieren kann oder mit welchen Fragen man sich da auseinandersetzen kann und deshalb freue ich mich auch, dass ich Fellow sein darf hier am Humboldt-Institut für Internet und Gesellschaft. Wo ich mich aus einer Forschungsperspektive für digitale Kommunikation und Medien interessiere, bin ich aber ein digitaler Spätsünder. Denn ich habe erst zu meiner Schande Musik gestehen erst im November 2017 einen Twitter-Account eröffnet, das heißt 11 Jahre nachdem der erste Tweet versendet worden ist. Ich habe auch, ich habe es mal nachgeschaut, ich habe bisher 29 Tweets versandt, ich habe 184 mal gefällt mir gedrückt, ich folge 92 Accounts und ich habe 76 Follower und damit befinde ich mich glaube ich eher auf so einem unteren Aktivitätsniveau auf Twitter und bin also mehr so ein Anti-Influencer. Umso erstaunter und erfreuter war ich auch, als ich plötzlich in einem Tweet Erwähnung fand und Achtung jetzt kommt der erotische Teil des Abends. Ich habe einen, ich wurde in einem Tweet erwähnt von Kaffee, Kaffee ist sperrlich bekleidet, Kaffee erwähnt mich hier mit recht gut gesagt, das ist mein Twitter-Name und sie hat mich in einem Tweet erwähnt mit dem Hashtag beiden Harris 2020, also mit den potenziellen beiden Kandidieren, denn der Demokraten bei den US-amerikanischen Wahl im kommenden Jahr. Ja, was will mir Kaffee damit sagen und vor allem darf das Kaffee überhaupt, was sie da macht? Ich glaube Kaffee ist potenziell ein Social-Bot und die Frage ist natürlich, was darf Kaffee und was kann man rechtlich dagegen möglicherweise tun? Bevor ich auf diese einzelnen Probleme hinweise, kläre ich erst einmal, was ist denn überhaupt ein Social-Bot? Ein Social-Bot wird generell als so programmierbarer Software-Agent verstanden, der sozusagen automatisiert mit anderen Nutzerinnen und Nutzern auch Social-Media interagiert. Das kann ein Social-Bot kann beispielsweise andere Tweets oder Posts liken, retweeten oder kann möglicherweise auch automatisiert auf bestimmte Inhalte auch automatisiert antworten oder automatisierte Inhalte auf vielfältigsten Arten und zu beliebigen Zeitpunkten eigentlich verbreiten. Das kann zuweilen gar nicht so harmlos sein wie dieser Tweet hier von Kaffee, sondern das können durchaus auch Versuche sein Meinungsmache zu tun oder ja den politischen Diskurs auch zu manipulieren. Das kann auch die Verbreitung sein von Verschwörungstheorien, also das sind alles Punkte, die eigentlich deutlich machen. Social-Bots sind eigentlich gar nicht so harmlos wie möglicherweise Kaffee das vielleicht ist und generell wenn man sich so ein bisschen mit den Debatten anschaut um Social-Bots, dann kann man so drei Problembereiche identifizieren und jetzt kommen auch die Utensilien ins Spiel. Also der erste Problembereich, die man so ein bisschen, ja über den man häufig diskutiert ist, Social-Bots spiegeln falsche menschliche Identitäten vor. Das heißt man hat eigentlich im Online-Diskurs auf Twitter, auf Facebook, hat man den Eindruck, dass man tatsächlich mit einem Menschen interagieren würde, in Austausch treten würde und das wird durchaus auch im Bezug auf die Vertrauenswürdigkeit auch als problematisch angesehen. Was ist der zweite Problembereich, den man häufig im Zusammenhang mit Social-Bots diskutiert? Das ist eigentlich, dass man ihnen unterstellt, dass sie vor allem dazu beitragen, dass Fake News verbreitet werden, dass Desinformationen verbreitet werden. Es kommt zu Diffamierungen, zu Hetze und allen anderen, ich sage es nicht, dafür habe ich diesen Button mitgebracht. Also man wirft ihnen vor, dass sie all solche Sachen online kommunizieren und auch im beliebiger Anzahl verbreiten würde. Dritter Problembereich und der ist zumindest auch so eine Demokratie theoretischen Perspektive, eigentlich deutlich problembehafteter. Man wirft ihnen vor, dass so ein Social-Bots einfach dadurch, dass er beliebig häufig kommunizieren kann, eigentlich um Begrenztag und Nacht kommunizieren kann, dass er dort bestimmte Themen setzen kann oder auch Positionen setzen kann, die eigentlich eine Mehrheit suggerieren, die sie in der realen Welt gar nicht haben. Oder um das Thema mit diesem Matroschkaß darzustellen, man hat den Eindruck, dass in der Online-Welt aufgrund der Aktivitäten von Social-Bots sehr, sehr viele Personen eine Meinung haben. Aber in der realen, nicht online Welt, es ist möglicherweise nur eine Person, die diese Auffassung hat. Also es sind also verschiedene Problembereiche im Zusammenhang mit Social-Bots. Wie geht man damit um? Also welche ja rechtliche Handhabe hat man damit? Bevor ich darauf zu sprechen komme, erst mal muss man klären, wen kann man denn überhaupt rechtlich belangen? Also kann ich tatsächlich Käfi auf die Anklagebank setzen oder eben nicht? Genau das diskutiert man auch gerade auf EU-Ebene. Man diskutiert die sogenannte E-Person-Hut und man schlägt vor, dass man eigentlich ähnlich einer juristischen Person, wie wir das bei Unternehmen oder ja anderen kollektiven Akteuren haben, man schlägt vor, dass dort solche Programme, solche Software, die vor allem auch ja selbstlernt ist, dass sie zunehmend tatsächlich auch so einen rechtlichen Status einer E-Person-Hut hat. Das ist aber noch so ein bisschen Zukunftsmusik. Das heißt aktuell, wen können wir tatsächlich vor die auf die Anklagebank setzen? Hat jemand eine Idee bei Social-Bots? Wem würde man da auf die Anklagebank setzen? Absolut richtig, hervorragend. Wir kennen uns nicht, es war nicht abgesprochen, aber hervorragende Antwort darauf wollte ich hinaus. Tatsächlich, ganz einfach, der Programmierer ist derjenige, den man aktuell noch rechtlich haftbar machen kann. Also haben wir das geklärt. Jetzt kommen wir zu den, nochmal zurück auf diese einzelnen Problembereiche und schauen uns an, was können wir da rechtlich tatsächlich machen. Das erste Problem, was wir identifiziert hatten, war so ein bisschen das Vorspiegeln falscher Tatsachen bzw. falscher menschlicher Identitäten. Was sagt der Gesetzgeber dazu? Also sowohl die Schweizer Bundesverfassung als auch das deutsche Grundgesetz räumt das recht auf freie Meinungsäußerung ein. Das ist Artikel 5 im Grundgesetz. Und freie Meinungsäußerung kann jeder auch unter anonymem Bedingungen machen. Warum? Weil man eigentlich möchte, dass jeder, der auch Angst hat vor Repressalien, vor Sanktionen, dass derjenige oder diejenige trotzdem den Mut hat, seine Meinung oder seine Position zu äußern. Und deshalb ist es auch wichtig, dass man das unter anonymem Bedingungen machen kann. Und man könnte eigentlich auch argumentieren, dass so ein Social-Bot auch genutzt werden könnte, vom Programmierer, von Whistleblowern oder wie eben auch immer, der in Interesse daran hat, nicht entdeckt zu werden, der sich möglicherweise einer solchen Technologie bedienen könnte. Deshalb würde man zumindest aus rechtlicher Perspektive durchaus argumentieren können. Social-Bots sollten weiterhin auch anonym funktionieren können. Aber und das ist durchaus etwas, was auch diskutiert wird im Rahmen von Social-Bot Disclosure-Initiativen, dass man sagt, wir wollen zwar nicht wissen, wer genau dafür verantwortlich ist für diesen Inhalt, aber es wäre zumindest legitim zu kennzeichen, dass er sich um einen Social-Bot handelt, mit dem man kommuniziert. Also das wäre sozusagen der Vorschlag aus rechtlicher Perspektive zum Umgang mit dem ersten Problem. Zweites Problem, wie geht man damit um mit solchen Hetzen, mit Defamierung, mit Fake News, die über Social-Bots verbreitet werden? Und auch hier kann man eigentlich sagen, dass recht bietet, auch hier ein Anhaltspunkt, denn es bietet grundsätzlich jedem das Recht auf freie Meinungsäußerung, aber nicht um jeden Preis. Das heißt, es gibt Schranken, sobald man jemanden defamiert, sobald man Hetze macht und auch falsche Tatsachen behauptet, gibt es rechtliche Mittel, um dagegen vorzugehen. Das gilt in der Analogenwelt und es gilt genauso in der digitalen Welt, um sozusagen mit diesem Problem umzugehen. Kann man also durchaus, Kayfee beispielsweise, wenn sie etwas defamieren, das gepostet hätte, kann man dem Programmierer dahinter anklagen und entsprechend rechtlich verantwortlich machen. Dritter Bereich, hatte ich gesagt, ist ja eigentlich der zumindest aus demokratietheoretischer Perspektive das größte Problem eigentlich. Also wenn im Online-Bereich irgendwelche falschen Mehrheiten suggeriert werden, die man eigentlich gar nicht in der Offline-Welt hat, ist das natürlich ein Problem für die Meinungsbildung. Einfach aufgrund dessen, dass man beispielsweise sich auf Twitter umschaut zu einem bestimmten Themenbereich, beispielsweise auch vor Wahlen, und man hat den Eindruck, eine bestimmte Position oder ein bestimmter Kandidat wird mehrheitlich präferiert. Und das ist aber eigentlich gar nicht so in der, ja, wie in der realen Welt. Das ist natürlich problematisch, weil man sich möglicherweise in seinem eigenen Verhalten oder in seiner eigenen Meinungsbildung davon beeinflussen lässt. Was kann man dagegen machen? Also auch da gibt es eigentlich rechtliche Handhabe, dafür, wenn man kann genauso aus dem Grundgesetz auch ableiten, dass der Staat eigentlich auch dafür verantwortlich gemacht werden könnte, dass er ja nicht nur freie Meinungsäußerung zulässt, sondern auch freie Meinungsbildung. Das heißt, er soll eigentlich gewährleisten, dass jeder sich unverzerrt ja eine Meinung bilden kann. Und das ist natürlich nicht gewährleistet, wenn man ja so ein verzerrte Meinungsbild online hat. Das heißt, man kann daraus rechtlichen Rahmen eigentlich ableiten. Was könnte man machen? Wie könnte man damit umgehen? Es gibt so ein paar Vorschläge, die aktuell diskutiert werden. Es wird diskutiert, dass man beispielsweise großen, ressourcenstarkende Akteuren wie Parteien untersagt, dass sie tatsächlich Social Boards nutzen. Es gibt aber auch Vorschläge, die behaupten oder die, die dahingehend zu sagen, generell sollten Social Boards verboten werden, beispielsweise einem Monat vorwahlen. Oder es sollte einfach technisch limitiert werden, wie viele Kommunikationsaktivitäten möglich sind. Das heißt, dass ein Bot nicht rund um die Uhr sozusagen kommunizieren kann, sondern ja nur, ja beispielsweise nur eine bestimmte Anzahl. Problem ist natürlich technischer Art. Das wissen wir oder das wissen viele in diesem Raum. Es ist schwierig tatsächlich, ein Social Boards zu identifizieren. Aktuell, man arbeitet da natürlich dran. Und es ist natürlich auch schwierig, tatsächlich technisch das auch zu lösen. Das kann man eigentlich nur gemeinsam mit Plattformbetreibern machen und leisten. Aber was ich hier mit dem Vortrag deutlich machen wollte, ist eigentlich, es gibt einen rechtlichen Rahmen dafür, ja uns vor und Social Boards zu schützen, aber auch Social Boards einen entsprechenden Schutz zu gewährleisten. Das ist jetzt für Kaffee gar nicht notwendig. Ich muss all diejenigen enttäuschen, die mit ihren Kontakttrecken treten wollten. Der Account ist bereits gelöscht und ich bin jetzt gespannt auf ihre Fragen.