 Seit 2016 ist der Geschäftsführer beim Verein Liquid Democracy, der mittels Beteiligungssoftware dazu beitragen will, Demokratie für alle, partizipativer zu machen. Und du engagierst dich auch, Moritz, bei der Berliner Volksinitiative Demokratie für alle. Willkommen. Schön, dass du da bist heute. Dann muss ich dich gleich fragen. Ja, genau. Das muss als erstes sein. Und dann würde ich dich gerne fragen, Liquid Democracy. Das klingt so, als würdet ihr das Erbe, der schon weitgehend von der Bildfläche verschwundenen Piratenpartei kultivieren. Ist das wirklich die Absicht oder Zufall? Das ist nicht die Absicht. Das ist eigentlich so, dass wir oder sogar die, da war ich noch gar nicht mit dem Verein, die in der Piratenpartei das Thema damals mit diskutiert haben, sich zerstritten haben mit unserem Verein. Das heißt, eigentlich sind wir sozusagen seit, es gab früher wilde E-Mail-Fights, sind wir eigentlich von der Piratenpartei schon lange gelöst, aber es gab damals eine Arbeitsgruppe und daher kommt das Konzept. In Deutschland wurde es sehr damit populär gemacht. Genau, aber wir als Vereinsinnen haben mit den Piraten nichts mehr zu tun. Alles klar. Svea möchte ich euch vorstellen. Svea Windwehr, sie arbeitet für Google in Sachen Government Affairs und Public Policy. Würde ich mal gesetzen als Öffentlichkeitsarbeit oder politische Lobby und politische Lobbyarbeit in dem Fall. Zuvor hast du gearbeitet zu Fragen von Plattformen, Regulierung und Digitalpolitik bei der Mercator Stiftung und bei der Europäischen Kommission. Und ich freue mich, dass du auch heute hier sein möchtest. Willkommen. Auf Sveas Twitter oder Ex-Profil. Wie sagst du jetzt? Das Vögelchen ist ja weg. Ja, auf jeden Fall Twitter. Ich habe mich noch nicht drin gewöhnt und ich sehe es auch noch nicht ein. Was mir auch völlig unklar ist, exen wir jetzt, weil das heißt ja eigentlich ausstreichen. Und was ist ein Tweet, ein ex? Ja, okay. Viele Fragen, aber nicht Thema der Veranstaltung, was ich dich eigentlich fragen wollte. Auf deinem Twitter Profil habe ich gelesen, so oben im Header, all things are delicately interconnected. Was denkst du denn, ist heute Abend die delicateste oder heikelste Verbindung, auf die wir zu sprechen kommen? Schöne Frage, vielen Dank. Das ist ein Zitat von Denis Holzer, einer Künstlerin, die das als Institution in die Welt gebracht hat, als Kunststück. Was ich oder was mit mir darin resoniert oder mich sozusagen bewegt, ist eigentlich die Feststellung, dass viele der Dinge, die oft oberflächlich simpel erscheinen, dann doch sehr schnell sehr viel komplexer werden und da auch viele Themen und Phänomene miteinander verbunden sind, auf Art und Weise, die nicht immer offensichtlich sind. Und gerade im Bereich Meinungsfreiheit, Desinformation, Informationsqualität online ist es ja oft komplexer, als man denkt. Und wo ist das Gestrüpp am dichtesten? Ich glaube, eines der dichtesten Gestrüppe ist alles rund um die Frage von Empfehlungsalgorithmen. Also wie bekommen wir Empfehlungen, für Inhalt, welche Empfehlungen bekommen wir, was für Möglichkeiten habe, ich als Nutzerin darauf Einfluss zu nehmen und auch die damit verbundenen Fehlannahmen oft. Okay, mal gucken, ob es uns dahin treibt heute Abend. Dann möchte ich last but not least Josefine begrüßen. Josefine Ballant, sie ist Rechtsanwältin, leitet seit 2019 die Rechtsabteilung von Hate Aid, eine gemeinnützige Organisation, die Menschen berät, die online bedroht werden, verleumdet werden, und da bereicht digitale Gewalt um fast noch sehr viel mehr Tatbestände. Und du betreibst ebenfalls politische Lobbyarbeit, wenn es um Gesetzesänderungen geht, um Strafverfolgung in Sachen Online-Hetze, um Regulierungsfragen und all sowas. Und auch dir ein herzliches Willkommen, schön, dass du bei uns bist. Vergangene Woche, da hatten wir dich glaube ich schon lange eingeladen. Da ging dann durch die Medien, das Bundesjustizministerium, euch im nächsten Doppelhaushalt, das ist noch nicht ganz in trockenen Tüchern, aber wohl geplant, Zuschüsse streichen oder nicht mehr bewilligen wird, und zwar in Höhe von 600.000 Euro. Zumindest befürchtet ihr das. Wisst ihr dazu inzwischen mehr? Nein, leider nicht. Die einzige Aussage, die wir vom Ministerium selbst haben, ist, dass nach der aktuellen Haushaltsplanung dieses Geld nicht da ist, und deswegen auch nicht bewilligt werden wird. Genau, das müssen wir jetzt auch erstmal so als Tatsache hinnehmen. Also natürlich, wenn sich noch was ändern sollte, sind wir darüber glücklich. Es geht allerdings angesichts der Haushaltslage und auch der vielen öffentlichen Debatten wenig Grund daran zu glauben. Ich glaube, die Kollegen in der Technik freuen sich, wenn du das Mikro noch ein bisschen dich da in den Mund nimmst. Wie bewertet ihr das denn? Also diese Ankündigungen, die ja dann vielleicht Realität wird, sagt ihr, okay, ist halt in vielen Bereichen blöd gerade, dass wir uns gespart werden nach den Ausgaben, die die Pandemie bedingt hat. Allgemeine Preisentwicklung, ich seh es ein, ist zwar nicht schön, oder lest ihr das eher wie ein Statement zu eurer Arbeit im Sinne von, wird ja wohl nicht so wichtig sein, was wir machen, also, beguckt aus dem politischen Orbit? Ich würde sagen, die Wahrheit liegt in der Mitte. Weder würde ich es als Abwertung unserer Arbeit verstehen, noch als generell gerechtfertigt in Bezug auf schwere Zeiten. Denn natürlich gibt es Spielraum, wenn es darum geht, wie der Haushalt aufgestellt wird. Und gleichzeitig betrachten wir uns, genauso wie viele andere Projekte, die mit Hass im Netz und auch mit anderen wichtigen Themen zu tun haben und denen die Gelder gerade gestrichen werden, als Demokratieprojekt. Und ich glaube, dass in den aktuellen Zeiten Demokratieprojekte wichtiger denn je sind. Und gerade wir betrachten uns eben natürlich auch als Anlaufstelle für betroffene digitaler Gewalt. Häufig sind das Betroffene von digitaler Gewalt aus dem rechten rechtsextremen Spektrum. Und dieses Geld, was vom Justizministerium erwartet wurde, und das ja auch nicht aus dem Luft lernen Raum, sondern weil es eben auch durch eine sogenannte Verpflichtungseinmächtigung bereits ja eigentlich bewilligt worden war, ohne dass es natürlich jetzt verbindlich ausgestaltet wurde, das sollte direkt in unsere betroffene Beratung fließen. Und also in den Ort, wo Menschen anrufen, die sich in einer Notsituation befinden. Das ist nicht irgendein Nice to have, sondern der essenzielle Bestandteil unserer Organisation, der, glaube ich, auch den meisten Mehrwert dann bringt für die betroffenen digitaler Gewalt. Ich frage mich trotzdem, wir hatten die Frage jetzt gerade schon so ähnlich, aber noch mal, welchen Reim du dir drauf machst, dass ein liberaler Bundesjustizminister sagt, die 600.000 können wir uns sparen. Nun, der Justizminister selbst bekommt ja auch nur einen Rahmen für seinen Haushalt zur Verfügung gestellt und muss dann sehen, wie er die Mittel verteilt. Der Justizetat selbst, der hat sich eigentlich nicht verringert, er hat sich eigentlich sogar um 2% erhöht, aber es gibt ja auch noch andere Verpflichtungen, zum Beispiel auch Strafzahlungen an die EU, die geleistet werden müssen und man hat sich dann halt bei der Verteilung der Gelder dafür entschieden, so gut wie keine zivilgesellschaftlichen Projekte mehr zu fördern und das ist natürlich eine grundlegende Fehlentscheidung. Warum der Minister diese Entscheidung getroffen hat, das kann ich mir jetzt auch nicht ganz erklären. Gegenüber hat man das nicht anders erklärt als eben mit der Haushaltslage. Ich brauche natürlich wahrscheinlich nicht erklären, dass ich denke, dass hier am falschen Ende gespart wird und am Ende des Tages die Demokratie kaputtgespart wird, wenn man sieht, wie viele andere NGOs es auch betrifft. Also sind wir im Grunde mit dieser aktuellen Entwicklung, die euch betrifft, schon mitten beim Thema. Ich würde aber jetzt trotzdem die Linse nochmal ganz weit aufziehen, es wäre mit dir werden, glaube ich, wenn ich mich recht entsinne, hier im digitalen Salon schon kein Tim Berners-Liefer weiß mehr, dann bringen wir das beide jetzt nochmal hier in die Wachschale, der ja meinte, das Netz sollte offen sein, sollte dezentral organisiert sein, so was gedacht. Wie würdest du das Stand 2023 beurteilen? War diese Idee total naiv oder Berners-Liefer viel zu idealistisch und viel zu wenig Geschäftsmann? Nee, also ich würde nicht sagen, das ist eine zu idealistische Idee, ich glaube, die ist genau richtig idealistisch. Ich denke, meine Antwort fällt etwas anders aus, je nachdem, welche Schicht des Internets bzw. des Web, was sozusagen da draufgebaut ist, über das wir dann sozusagen Applikationen wie soziale Medien nutzen, was wir uns sozusagen anschauen. Ich denke, auf verschiedenen Ebenen gibt es auf jeden Fall große Gefahren fürs offene Netz, also die NGO Access Now hat heute oder gestern erst in einem Brief an Commissar Breton auf Internetsperren hingewiesen, die weltweit natürlich ein riesiges Problem sind, für Zwiegesellschaft, für AktivistInnen, für demokratische Diskurse. Das ist auf jeden Fall ein Trend, der zunimmt, also auch autoritäre Staaten wissen, diese Systeme für sich zu nutzen oder sie zu blockieren. Auch auf der Ebene der Infrastruktur gibt es immer wieder grundlegende Diskussionen, wie die gestaltet werden soll. In Europa wird seit knapp einem Jahr das Thema Network Fees oder Datenmauten diskutiert, wo es eben darum geht, ob große Internet-Plattformen dafür zahlen sollen, für die Daten, die ihre Nutzer über das Web verschicken. Also ich denke, da gibt es verschiedene Punkte, an denen immer wieder die Grundprinzipien von Offenheit von Netzneutralität angezweifelt werden. Sie werden angezweifelt, du würdest aber sagen, die Idee von gleichberechtigter, demokratischer, nicht profitgetriebener Bildung von Wissen und Austausch im digitalen Raum ist nicht passiert. Diese live-in-kicking? Ja, auf jeden Fall, würde ich sagen. Ich denke, auch viele der großen Plattformen tragen das natürlich bei. Also bei Google denke ich da unter anderem ganz stark an YouTube. Also eine offene Videosharing-Plattform, kein klassisches soziales Medium in dem Sinn, aber ein Ort, an dem Ideen ausgetauscht werden, an dem Menschen Dinge lernen können, sich austauschen können. Und ich denke, dass viele dieser sozusagen auch Plattformen, die zum Teil auch kommerziell betrieben werden, diese Orte sind, aber es gibt natürlich auch wieder nicht kommerzielle Alternativen. Also gerade haben wir über Twitter oder X gesprochen, viele von uns nutzen bestimmt auch Mastodon. Also es gibt auf jeden Fall auch, oder Mozilla zum Beispiel, Firefox Browser. Also es gibt viele auch nicht kommerzielle Akteure, die natürlich auch dazu beitragen. Kommen wir sicherlich auch noch drauf. Jetzt hat Ende des vergangenen Jahres eine Studie, an der wir auch das Max Planck-Institut beteiligt gezeigt, digitale Medien haben in aufstrebenden Demokratien einen positiven Einfluss auf die Nachrichtenvielfalt und auf die politische Beteiligung. Autoritäre Regime hast du gerade schon angesprochen. Auch da, sagt dann zumindest die Studie, bieten diese Möglichkeiten oppositionellen, die Chance sich zu vernetzen. Aber digitale Mediengefährden, so sagt die Studie, vor allen Dingen, etablierte Demokratien, also eine, wie die, in der wir leben, indem sie Populismus anheizen, indem sie gesellschaftliche Spannung anheizen. Du, das habe ich eingangs gesagt, Moritz, bezeichnest dich als Tech-Optimist. Wieso denn? Das klingt doch eigentlich alles nicht so preil. Ja, das stimmt. Es gibt auf jeden Fall viele Dinge, die ich nicht preil finde, die nicht gut laufen. Und so eine Technologie, wie das Internet und das World Wide Web, die machen natürlich auch, weil sie so viel ermöglichen, auch es möglich, wenn man sie dann wegnimmt, oder wenn man sie irgendwie zensiert, haben sie einen großen negativen Effekt über diese Skalierung. Aber es gibt eben ganz viel, was mich optimistisch stimmt. Und das ist unter anderem, dass ich einfach ganz viele soziale Bewegungen in den letzten 15 Jahren über das Internet erst gefunden und organisiert haben und ganz viel sozialen Wandel angestoßen haben. Zuletzt in unserem Bereich fand ich da total inspirierend der polnische Frauenstreik, der zum Beispiel, glaube ich, in die Richtung von 1000 Kommunen gekommen ist, also 1000 verschiedene lokale Chapters, haben sich da über digitale Tools organisiert und einen wahnsinnigen Effekt auf die polnische Gesellschaft gehabt. Und sowas macht mir einfach Hoffnung. Jetzt hast du uns vorab geschrieben, wir holen immer im Vorfeld so ein paar Statements ein. Das aktuell größte Hindernis für öffentliche Meinungsbildung besteht in der mangelnden Förderung von gemeinwohlorientierten digitalen Räumen. Welche Räume fallen dir denn da überhaupt ein? Also du hast Mozilla genannt, dann klar, Wikipedia wird dann immer noch gesagt und ich habe das Gefühl danach wird es dann gleich dünne, oder? Ja genau, also es gibt halt jetzt mit Mastodon so ein paar neue Räume, die da gerade entstehen, aber wir zum Beispiel als Verein und auch andere Initiativen arbeiten schon länger an Plattformen, an Open Source Plattformen, die digitale Beteiligung ermöglichen und da richten wir uns ganz oft an Kommunen, an NGOs, aber auch an staatliche Einrichtungen, dass sie zum Beispiel Bürgerinnen und Bürger in der Form dann beteiligen an politischen Entscheidungsprozessen und das funktioniert auf kommunaler Ebene sehr gut. Hast du ein Beispiel, wo das gemacht wird, bei welchen Fragen zum Beispiel? Zum Beispiel hier in Berlin, mein.berlin.de kennen auch zu wenig Leute noch, aber da gibt es mittlerweile über 150 Projekte pro Jahr. Jetzt zum Beispiel gerade den Lärm-Aktionsplan, das ist mein großes Ding, da können alle Bürgerinnen sagen, wo es jetzt zum Beispiel zu laut ist in ihrer Nachbarschaft und das fließt dann wirklich in den Aktionsplan ein, dass es dann eben leiser wird in Berlin. Das passiert auf, wie gesagt, zickfach in Deutschland und auch in Europa. Es gibt zum Beispiel Konsul als anderes Projekt, das da ganz viel daran arbeitet. Und das sind solche Räume, die ich mir vorstelle und die werden aber oft nicht strategisch und zentral gefördert und da fällt, glaube ich, auch genau dieses Mindset rein, weswegen zum Beispiel so eine Organisation wie Hate-Aid auch Erfangen gekürzt wird. Das ist genau diese gleiche fehlende Fokus auf die Zivilgesellschaften, die gemeinwohl orientierte Digitalisierung, die da schon passiert. Aber wieso? Also eigentlich würde ich mir vorstellen, dass in den Jahren, wäre im Bundestag, würde ich es voll geil finden, dass das Kurs vorstrukturiert wird, niedrigschwellig angeschoben wird. Ihr macht ja Teil meiner Arbeit. Würde man so denken, denke ich irgendwie auch. Aber ich glaube, da ist natürlich das eine, dass man schon in Frage stellt, inwiefern die Entscheidungsmacht dann noch bei diesem gewählten Repräsentantin liegt. Ich glaube, das macht dann schon manchmal Sorgen. Und ich glaube schon auch, dass wir gerade ein Problem hatten in den letzten Jahren, dass eben genau diese Phänomene wie Cyber-Mobbing, wie Hassrede im Internet, dass die auch Angst gemacht haben vor solchen Plattformen, die eigentlich ganz anders funktionieren und wo wir das eben auch gar nicht erleben wirklich, Angst gemacht haben, was einzusetzen. Das heißt bei euch, in eure Tools könnte ich nicht mal so reinrübsen und dann die Tür zu schmeißen? Doch, doch, kann man. Und dann würde das moderiert werden. Aber passiert einfach tatsächlich de facto nicht so viel. Wir haben da verschiedene Theorien zu. Und es wurde auch schon mal wirklich verglichen, wie laufen Diskussionen bei uns, im Vergleich zum Beispiel zu Facebook-Diskussionen, zum gleichen Thema wissenschaftlich untersucht. Und es läuft einfach ganz anders ab bei uns. Es gibt viel mehr, also doppelt so viel Argumentation, zum Beispiel auf unserem Plattformen, im Vergleich zu Facebook-Diskussionen. Und das hat, glaube ich, verschiedene Gründe. Unter anderem, dass eben unsere Plattform jetzt nicht dafür da ist, sich selbst darzustellen. Oder Algorithmen hat die einen schon so eine Diskussion führen, weil man gerade so einen Kopf hat und sich zu diesem Thema jetzt beteiligen will mit einer ganz anderen emotionalen Absicht. Da jetzt reingeht so eine Diskussion. Jetzt würde ich gerne auch noch was zitieren, Josephine, dass du uns vorab geschrieben hast. Nämlich, Plattformen sind die wichtigsten Debattenräume einer demokratischen Gesellschaft. Weil Svea und Moritz gibt's den Satz so ähnlich, aber nur bei dir im Superlativ die wichtigsten. Wieso denkst du, dass da wirklich die Musik spielt? Naja, es ist halt das Internet und die meisten gesellschaftlichen Debatten finden dort heutzutage einfach statt. Wenn wir jetzt mal Twitter als Beispiel nehmen, weil's ja einfach im Moment zumindest in der öffentlichen Debatte ziemlich angesagt ist, dann findet ja alles, was an Tagesgeschehen stattfindet, dort faktisch zuerst statt und am schnellsten statt und man überschlägt sich ja dort, bevor es überhaupt in den Nachrichten gelandet ist. Was ist natürlich so in Verbindung damit, wie viel Zeit die Menschen in sozialen Medien verbringen und wie sehr sie die sozialen Medien in ihren Alltag integriert haben, bringt es natürlich mit sich, dass man dort einfach sich trifft und Debatten ausficht und sich weniger eben in der Analogenwelt darüber austauscht. Ja, also die meisten sozialen Netzwerke dienen dann natürlich auch den politischen Debatten und ich möchte jetzt nicht sagen, dass er so arbeitet, dass die einfach gucken, was da gerade diskutiert wird und das dann direkt weiterverarbeiten, aber das ist ja nun mal auch die öffentliche Meinungsbildung heutzutage stattfindet. Auch die Presse guckt, was wird da diskutiert, welche Themen laufen dort, um sich dann daran zu orientieren und der Einfluss auf die öffentliche Meinungsbildung ist einfach enorm. Du stellst das jetzt ganz nüchtern da, das heißt, du beklagst das auch nicht. Du sagst nicht, oh, wäre doch Twitter nur so, wie die Plattform, die Moritz uns gerade beschrieben hat, sondern du sagst, ist so. Gut, ich sage nicht, ist so. Ich werde niemals einfach etwas akzeptieren, was nicht gut funktioniert und einfach sagen, das muss jetzt so bleiben, weil man kann es halt nicht ändern. Sonst würde ich nicht den Job machen, den ich mache, aber auf der anderen Seite wollen die Leute das ja offenbar. Wie lange wurde über Twitter diskutiert, dass das jetzt übernommen wurde und man möchte da nicht mehr sein und alle gehen jetzt zu Mastodon. Auch diese Debatte ist etwas abgeflaut, denn dann haben viele festgestellt, das ist einfach wie Twitter. Es ist gar nicht so einfach zu bedienen und wenn ich mich damit nicht auskenne, dann kann ich da halt einfach nicht sein und dann weiß ich nicht, wie das funktioniert und auch regulatorisch ist Mastodon, oder hat Mastodon ganz viel Potenzial zu einem ziemlichen Albtraum zu werden mit dieser dezentralen Ausrichtung. Und das ist natürlich, was zeigt, die Menschen wollen ja auf sozialen Medien sein und sie wollen soziale Medien nutzen, auch wenn sie Schattenseiten haben. Kannst du mir das mit den Schattenseiten oder dem potenziellen Albtraum bei Mastodon noch verklickern? Das habe ich nicht verstanden. Bei Mastodon, und ich bin jetzt selber auch keine Tech-Expertin in dem Sinne, dass ich weiß, wie das technisch alles funktioniert, aber ich habe es mir zweimal erklären lassen und habe es dann versucht, rechtlich und regulatorisch zu bedenken, wie funktioniert Haftung auf Mastodon, wenn jeder seinen eigenen Server betreibt und wenn jeder da irgendwie seinen eigenen Bereich hat und darüber entscheiden kann, Haftung auf sozialen Medien funktioniert ja so, dass grundsätzlich erst mal gar keine Haftung der Plattform besteht für irgendwelche Inhalte, die da hochgeladen werden. Erst dann, wenn sie Kenntnis haben, zum Beispiel, weil ihnen etwas gemeldet wurde, dann kann man sagen, es besteht überhaupt eine Haftung. Ja, Mastodon mag ein Rückzugsort sein für viele, die damit ganz viel Gutes anfangen wollen, aber auch diejenigen, die schon wissen, wie sie Twitter, Facebook und Co. benutzen können für schlechte Dinge oder für schlechte Diskurs, oder wie auch immer man es jetzt bezeichnen möchte, auch die können Mastodon für ihre Zwecke benutzen, ganz klar, und da vielleicht sogar auch einen sicheren Hafen finden, wo man eben relativ wenig kann. Dann wäre aber meine Anschlussfrage, wie lässt sich denn das, was auf Twitter publiziert wird, in Haftungsfragen regulieren? Da sehen wir jetzt ja, du hast ja gesagt, das ist das Beispiel, mit dem jetzt natürlich alle kommen, ich auch, das ist das Beispiel, wo wir sehen, so funktioniert Medienkonzentration, wenn alle Entscheidungen bei einer Person liegen, die dann sagt, Inhalte, die wir für strafbar halten, sind bei mir trotzdem willkommen, wie müsste das reguliert werden? Ganz offensichtlich funktioniert es ja auch mit der Haftung nicht so einfach auf einer Plattform wie Twitter, sonst hätten wir die Zustände nicht, die wir da aktuell sehen. Aber es ist natürlich rechtlich betrachtet, in dem Sinne leichter, dass wir eine Betreiberplattform haben. Also wir haben die Twitter, da gibt es jetzt auch verschiedene Rechtsformen, aber wir haben eben ein Unternehmen, was dahinter steht und was im Zweifel haftet, wohin sich auch Aufsichtsbehörden wenden können, um dann eben Regeln durchzusetzen. Und es ist eben nicht so, dass es dann ganz viele kleine Twitters gibt und man muss dann erst mal gucken, wo es passiert und an wen kann ich mich jetzt wenden. Das ist also in dem Sinne relativ klar geregelt, auch wenn natürlich die Situation zeigt, wie schwierig dann eben auch Rechtsdurchsetzung im Internet ist mit diesen internationalen Bezügen, die dann eine Rolle spielen und eben auch der grundlegenden Frage, wie wollen wir überhaupt regulieren oder wollen wir es überhaupt regulieren? Die wurde ja jetzt durch die Europäische Union erst mal halbwegs beantwortet, durch den Digital Services Act, aber der steht auch noch in den Startlöchern und wir werden sehen, ob das so funktioniert, wie man sich das gedacht hat. Da kommen wir sicherlich auch noch drauf zu sprechen. Vorher würde ich aber gerne fragen, ob ihr Fragen habt. Bitte schön, es gibt einen kleinen Moment, es gibt ein Saal Mikro, genau. Ganz konkrete Frage an Josefine. Sie hatten gesagt, dass alle Diskussionen jetzt auf den Plattformen ist. Es gab ja schon früher Plattformen, also ganz spezifisch die politischen Stiftungen. Was machen die jetzt? Gibt es da auch noch Diskussionen oder bräuchte man die nicht mehr, wenn man dazu etwas der Meinung hat? Befürchte die Frage kann ich nicht beantworten. Also die politischen Stiftungen, die gibt es weiterhin und sicherlich tragen die auch was zum Diskurs bei, aber ich bin mir auch sicher, die haben alle Social Media Accounts ihre große Reichweite erzielen. Also findet am Ende auch dieser Diskurs dort statt. Gibt es weitere Fragen von euch? Ich will lieber schon mal zeitig fragen. Nicht, dass uns am Ende die Zeit davon rennt. Dann gibt gerne mal ein Zeichen. Gut, dann hätte ich noch fragen. Ah, okay, bitte schön. Aber kleinen Moment mit dem Mikro, kriegen wir es alle gut mit. Hi, an den jungen Mann. Ich wollte mal ganz kurz fragen, ob vielleicht dieser unterschiedliche Diskurs auf diesen unterschiedlichen Arten von Plattformen vielleicht einfach statistisch gesehen im Moment noch so sind, weil sie eben im Moment noch deutlich weniger Benutzer haben. Und die Benutzer, die bei euch landen, sich konkret ja diese Plattform ausgesucht haben. Aber sie würde ich ja sagen, im gesellschaftlichen Rahmen noch nicht so angekommen ist, wie zum Beispiel Twitter. Da würde ich tatsächlich noch eine Anschlussfrage an dich, Moritz, daraus formulieren. Bei euch sind ja die Plattformen dann sozusagen zweckgebunden. Also die sind ja nicht allumfassend, sondern das integriert irgendwie meine politische Meinungsbildung, meine Hobbys, mein Freundeskreis, mein soziales Netzwerk. Also liegt es vielleicht daran, dass da sehr punktuell auf Themen eingegangen wird und es nicht so ein Scheunen-Tor ist, hinter dem das ganze Universum liegt. Ja, also genau. Sicherlich sind das beides Effekte, die damit rein spielen. Also es sind deutlich weniger Nutzer innen als jetzt Facebook oder andere haben. Ganz klar, also zum Beispiel mein Berlin hat um die 30.000 Nutzer innen und davon sind nicht alle aktiv, weil genau das passiert, dass bestimmte Projekte mich interessieren, weil die zum Beispiel jetzt einen lokalen Bezug zu meiner Nachbarschaft haben, dann mache ich damit und dann mache ich einfach nicht mehr mit, bis mich was anderes interessiert. Aber das ist eben genau auch der Effekt, der ja das Spannende ist, an so einer dezentralen Idee, dass ich eben sage, da gibt es Plattformen, die sind vielleicht anders bezogen oder die sind für einen bestimmten Kreis, bei Mastodol sind das ja oft dann so Sachen, die haben dann eben ein Bezug zu diesem Thema, die Menschen, die da diskutieren. Und das ist ja auch in Ordnung. Und dann laufen Diskussionen auch besser als auf so einer generalisierten Plattform, deren einziges Ziel, das Engagement ist von allen Leuten, damit diese Plattform mit ihrem Business-Modell eben vorankommt und Geld macht. Und das ist, glaube ich, das Grundding, was einfach diese Gemeinwohlorientierung gibt, ist einfach bei den großen Plattformen nicht. Und das ist für mich schon das zentrale Problem. Aber natürlich, also ich kann jetzt nicht abstreiten, dass wir viel weniger Nutzer innen und auch die Schönheit an dem Konzept. Was du jetzt das Wort, das du nicht genannt hast, aber für mich drin steckt in deiner Antwort, war das Wort Algorithmus. Ist das nicht auch der entscheidende Unterschied? Absolut, absolut. Aber ich meine, am Ende könnte ich mir auch vorstellen, dass es und da forschen wir auch daran, als Verein, wie man mit KI und Algorithmen auch diese Plattformen, die wir machen, besser machen könnte und einfacher verständlich machen könnte. Ich glaube, das Grundding ist immer noch das Business-Modell. Und wenn das bestimmt ja dann auch, wie Algorithmen funktionieren, ob sie transparent sind oder nicht, was die Daten sie basieren und was sie für ein Ziel haben am Ende. Wenn wir über Plattformen sprechen, es wäre, die uns nicht gefallen, die wir nicht haben wollen oder die Eigenarten haben, die uns nicht gefallen, könnte man ja sagen, okay, dann lass uns doch sowas wie ein öffentlich-rechtlichen Gegenentwurf schaffen in Abgrenzung zu diesen Negativ-Beispielen. Vielleicht Geschäftsmodelle oder Ideen ohne Geschäftsmodell. Also sozusagen von diesem Interesse schon mal befreit ist keine Ahnung, aus Google warte wahrscheinlich keine tolle Idee, aber kannst du dem trotzdem was abgewinnen? Also klar, erst mal warum soll das keine tolle Idee sein. Ich glaube, je mehr Vielfalt und Möglichkeiten es für Nutzer in gibt, desto besser. Ich finde auch, dass gemeinrundierte Plattformen extrem spannend sind und dass auf jeden Fall extrem viele interessante Ansätze gibt, dass diese Moderation funktionieren kann in dezentralen Systemen. Ich denke, wir sehen aber auch die Herausforderung. Es ist ja auch gerade schon angesprochen oder auch Josefine auf Mastodon, dass dann eben jeder Server, sozusagen jeder Moderator, dieser Server, der für selber verantwortlich ist, festzulegen, was für Inhalte gewünscht sind, welche Inhalte entfernt werden. Was natürlich an sich eine Herausforderung ist. Ich glaube, für viele Private ist auf jeden Fall eine Herausforderung auch ein Phänomen, dass sich viele Menschen in unseren Gesellschaften, uns manchmal nicht negativ, aber sich einfach dann gewöhnt haben, wie moderierte Plattformen aussehen. Also ich glaube, viele der Plattformen, die wir kennen und nutzen, arbeiten schon seit langer Zeit daran, verantwortungsbewusst mit Inhalten umzugehen, Inhalte zu entfernen oder vertrauenswürdige Inhalte hervorzuheben. Und es bedarf, glaube ich, auch in einem gewissen Grad sich frustrationstolerant auf Plattforms bewegen, die nicht moderiert sind oder die sozusagen nicht diese Infrastruktur besitzen. Und ich glaube, das ist auch eine persönliche Entscheidung, was man sucht, als Nutzerin oder Nutzer. Sind wir dann, um das noch ein bisschen spitzer zu formulieren, sozusagen versaut durch all das, was wir schon gelernt haben, weil mit Massodondyliosephine hat es das als Erste angesprochen, geht es mir genauso. Ich merke, ich fremde die ganze Zeit, weil ich mich nicht auskenne. Wo ich nicht weiß, hinter welcher Tür was ist. Ich checke es einfach elementar nicht, wohingegen ich bei Twitter keine Einführung brauchte. Das lief so quasi wie von selbstlos. Sind wir sowieso schon alle total broken und hin mit diesen ganzen leicht zu konsumierten Produkten und Anwendungen? Ich würde es ein bisschen anders formulieren. Ich würde eher sagen, dass es auch eine Frage von Privilegien ist, mit welchem Plattform man sich wohlfühlt, wo nicht. Ich denke auch, dass Massodon zum Beispiel super ist, aber es erfordert eine gewisse Erfahrung und vielleicht auch ein gewisses Wissen, auch für die Vernetzung und anderen, die einem da eine Einführung geben können und das würde ich sagen, ist ein Privileg und kann auch zu Barrieren führen. Ich denke, dass es eher so die Sicht ich habe, dass sozusagen diese zum Teil ja auch genau die viele Forschung und Erfahrungen, die zum Beispiel ins Entwurf oder das Design von User Interfaces geht, bei großen Anbietungen, dass sie natürlich auch Vorteile haben und wir deswegen vielleicht manche Gewohnheiten haben, aber deswegen will ich nicht sagen, dass das wir versaut sind und es keine Hoffnung gibt, aber ich glaube es ist auch eine Frage von sozusagen Elitenwissen quasi, wie man sich auch auf anderen Plattformen zurechtfindet. Auch an euch beide würde ich die Frage gerne nochmal geben, nach dem habituellen gewohnten Erlernten und du hast angesprochen, mein Berlin okay, aber 30.000 User, da ist natürlich das Werk Effekt, also neben dem, dass es mir nicht besonders leicht fällt, mich auf Mastodon zum Beispiel zu bewegen, habe ich da auch nicht die Reichweite, die ich eben auf den großen Plattformen habe. Wie bewertet ihr beide diesen beiden Aspekte? Ja, ich glaube, also vielleicht, sorry, ich habe es einfach angefangen, Entschuldige, also aus meiner Sicht finde ich, ist in diesem, oder diskutieren wir, gerade diskutieren wir auf einer Basis von Erfahrungen, die wir gemacht haben auf eben den Systemen, die sich lange auch entwickelt haben, und das wurde ja doch schon mit viel viel Geld, Google macht glaube ich 200 Milliarden pro Jahr gerade mit allein den Werbeeinnahmen. Das ist Wahnsinn, was das für Ressourcen sind und natürlich kann man dann andere Plattformen bauen und sich auch Dinge leisten, die einfach andere sich nicht leisten können. Das ist erst mal glaube ich Fakt, aber was ich schwierig finde, gerade wenn es in Bezug auf die Qualität und wie ich mich da zurecht finde darum geht, das einfach so zu vergleichen oder zu sagen, dass ich dann vielleicht ein Problem habe mit der Moderation oder den Diskussionsqualität, weil wir ja gerade von einem Phänomen oder einem Phänomen erleben, was genau von den zentralisierten großen Plattformen kommt. Also da ist ja gerade das Problem der Diskussionsqualität. Da sind unsere Gewohnheiten entstanden, die das Problem kreiert haben, auf YouTube, auf Facebook, auf Twitter. Also all da ist ja das Problem hergekommen. Und dann zu sagen, dass wir sozusagen auf Mastodon einfach dann blicken und sagen, weniger Moderation, was übrigens gar nicht unbedingt stimmt, das hängt halt immer von der einzelnen Instanz und den Menschen ab, die die betreiben, wie die das sehen, ist für mich ein bisschen zu einfach, weil wir dann jetzt gerade ja noch eigentlich mit dem Problem, dass wir übertragen bekommen haben von den ganzen großen Plattformen leben und wir natürlich neue Gewohnheiten erstmal uns erarbeiten müssen auf diesen anderen dezentralen Plattformen. Aber die Gewohnheiten, die sind eben auch in den letzten 15 Jahren auf den großen Plattformen entstanden, also ich erinnere mich auch noch an die ersten Tage bei Twitter und ich habe nicht gecheckt, wie man Menschen macht und so was. Also genau deswegen würde ich sagen, das ist halt eine Frage dessen, ob wir das wollen und was wir dafür Ressourcen hinterstecken, Menschen dazu eben zu befähigen, diese Privile eben mehr Menschen zu geben. Aber genau, also dieses Problem Hate Speech, das Problem Desinformation, das ist kein Problem, was auf den dezentralen neuen Plattformen entstanden sind oder auf unseren Plattformen, dafür sind die großen Plattformen und da müssen wir schon glaube ich genau drauf gucken, dass wir das nicht verwechseln. Noch mal deine 5 Cent dazu bitte, Josefine. Ja, also ich habe da auch so ein bisschen eher die Sicht der NutzerInnen auf dieses Thema. Natürlich könnte man jetzt sagen, ja wir schlauen jetzt einfach alle Menschen auf, wie man Mastodon benutzt und dann läuft das schon, dann können alle woanders hingehen und sich das aussuchen, aber so ist es ja nicht. Das ist eben genau dieses Privilegien-Thema, das können sich halt nicht alle Menschen erlauben und alle werden irgendwann jemals über dieses Wissen dafür verfügen und der Charme von sozialen Netzwerken ist ja eben gerade, dass es einfach zugänglich ist, dass man sich dort Profile anlegen kann ohne technisches Fachwissen zu haben, man kann sich sogar 50 Profile anlegen, wenn man will. Oder 10.000 und dann sogar Wahlen beeinflussen, richtig, aber es ist eben einfach zugänglich und das war natürlich am Anfang dieses Versprechen und um auch nochmal auf die Studie von Max Planckensitut zurückzukommen, das ist natürlich dann auch ein sehr interessanter Effekt, der da zu beobachten ist. Ich finde diese Studie sehr, sehr spannend, denn was ich immer in diesem ganzen Diskurs und Plattformregulierung auch so ein bisschen vermisse, ist eben diese Differenzierung, wie sich soziale Medien auf der Welt auswirken können. Dann hängt man häufig noch so ein bisschen dieser Idee nach, dass das Internet jetzt kommt und das Internet wird allen die gleiche Stimme geben und es wird demokratische Defizite überwinden können und die Welt wird die beste Demokratie und der glücklichste Ort, weil es jetzt das Internet gibt. Das ist eben gerade nicht eingetreten. Es gibt unterschiedliche Wirkungen in unterschiedlichen politischen Systemen an unterschiedlichen Orten der Welt, denn auch wenn das Internet global ist, ist die Welt nun mal nicht ein großer glücklicher Ort, sondern es gibt einfach regionale Unterschiede. Und darauf muss man in meinen Augen auch mit der Regulierung reagieren. Man kann nicht verlangen, dass es diesen All-Approach gibt, der dann für alle passt und der in bestimmten Regionen der Welt dafür sorgen wird, dass alle eine Stimme haben und in Regionen wie zum Beispiel Deutschland, wo eben das Internet dann vor allem von den Feinden der Demokratie missbraucht wird, ganz gezielt missbraucht wird, die gleichen Mechanismen benutzen, die dann genauso gut funktionieren. Das kann einfach nicht schon da rein denklogisch in meinen Augen nicht klappen. Und deswegen genau ist es eben wichtig, das auch zu benennen, wenn wir jetzt die Desinformation über Hassrede sprechen und darüber das Plattform dieses Problem irgendwie kreiert haben. Es sind natürlich Menschen, die dahinter stehen. Die Plattform haben es aber ermöglicht und vielleicht haben sie zu langsam reagiert, wenn es darum ging, eben auch Maßnahmen zu ergreifen. Denn es sind natürlich Individuen, die verstanden haben, wie man dieses Internet, diese sozialen Netzwerke für sich und seine Zwecke benutzen kann, für politische Zwecke oder für andere Zwecke, die man verfolgen möchte, wie man die Meinung manipulieren kann, wie man Menschen angreifen kann, aus dem Diskurs verdrängen kann, durch gewaltvolle Angriffe zum Beispiel, um dann eben die Meinungshoheit zu gewinnen. Und das ist natürlich eine Strategie und auch mit Desinformationen, dann gerade auch im Gesundheitskontext oder wenn es um Wahlen geht, dann auch noch mit ganz globalen Folgen, die sich daran anschließen, die die Plattform einfach ermöglichen und wo sie zu wenig gegen tun, weil sie vielleicht auch teilweise profitieren, was sie jetzt aber auch nicht erfunden haben wahrscheinlich, oder bewusst in die Welt gesetzt haben. Darf ich auch ein paar Punkte reagieren? Ja, genau. Jetzt sind ja ganz viele verschiedene Sachen gefallen. Genau, ein paar Punkte. Also ich stimme, Yusefine zu, diese Probleme sind nicht auf Plattformen entstanden, sondern kommen aus der Gesellschaft. Wir haben Desinformationen... Moment, habe ich dich so verstanden? Nein, das habe ich nicht gesagt. Das Plattform ist ermöglichen, aber dass natürlich Menschen dahinter stehen, genau. Also natürlich hat jetzt nicht Facebook die erste Desinformationskampagne erfunden und bewusst in die Welt gesetzt und auch Twitter schickt jetzt keine Morddrohungen in ein Aktivistin in. Also das wollte ich damit sagen, aber den Leuten, die das tun wollen und dies strategisch benutzen wollen, bietet man dadurch eine sehr gute Plattform. Ich glaube, darauf können wir uns auf jeden Fall einigen. Natürlich gibt es Missbrauchplattformen, wenn Missbraucht genauso wie auch andere Produkte, Infrastrukturen und ähnliches Missbraucht werden, aber ich denke dass auch die Verrohung von Diskursen kein Problem sind, die sozusagen durch die Technologie erschaffen worden sind, sondern ich glaube davon befeuert werden. Ich glaube, Technologie und Plattformen werden missbraucht um diese Diskurse weiter zu verbreiten, aber wir sehen glaube ich auch, wenn wir aktuell in die Politik schauen, unter anderem auch, woher diese Verrohung kommt. Also das hing vielleicht nur so ein Gedanke zur Quelle oder genau zum Ursprung. Noch ein paar andere Gedanken. Du hast Googles gesprochen und du hast wiederum auch gesagt, dass mit Desinformation Geld verdient wird. Vielleicht da nochmal kurz zwei Bemerkungen aus meiner Perspektive. Von diesen Umsätzen wird erstens ein Großteil wieder ausgeschüttet an Partner, unter anderem auch YouTube Crater, weil eines unserer großen Hebel, die wir haben, um auf YouTube zum Beispiel die Informationsqualität zu erhöhen, ist vertrauenswürdigen Cratern dabei zu helfen, ihre Inhalte zu monetarisieren. Das ist eine der wichtigsten Dinge, die wir tun können, um die Qualitäts, die Informationsqualitäts zu erhöhen. Wenn wir nur entfernen und Inhalte quasi in ihrer Verbreitung einschränken, müssen wir gleichzeitig auch gute Inhalte fördern. Das ist der eine Punkt. Der andere Punkt ist es, wir massiv viel Geld und Ressourcen in die Moderation von Inhalten investieren. Also da geht es natürlich auch um die Entfernung und Einschränkung von Desinformationen, wie wir zu verschiedenen Richtlinien, unter anderem zu medizinischer Desinformationen, zum Desinformationen im Kontext von Wahlen, aber auch zu anderen Inhalten wie zum Beispiel Fälschten, Videos etc. Ich finde, ich sage das deswegen, weil es auch mal ein spannender Konflikt ist, auf der einen Seite wird massiv Zinsur vorgeworfen, auf der anderen Seite werden Plattformen für verantwortlich gemacht, dass unsere Demokratie dem Bach hinuntergeht und sozusagen wir alle von Desinformationen überflutet werden. Deswegen möchte ich kurz einmal ausführen, was sozusagen getan wird, weil einiges getan wird und kein Thema und kein Problem ist, es erst seit vorgestern bewusst ist. Also wie gesagt, im großen Stil wird investiert, um eben zu ermöglichen Inhalte, die rechtswidrig sind oder gegen Richtlinienverstoßen zu entfernen, bzw. bei Inhalten, die in der Borderline in der Grauzone sind, wo nicht viel zum Richtlinienverstoß fehlt, die in ihrer Sicht, in ihrer Sichtbarkeit einzuschränken. Gleichzeitig geht es eben auch darum, Vertrauenshütequellen hochzuziehen und auch sozusagen Sichtplatz machen, gerade bei Themen, die gesellschaftlich politisch relevant sind. Also z.B. Corona, wenn das z.B. auf YouTube oder auch bei Google News, nach Themen wie Corona oder Bundestagswahl oder Ukrainekrieg suchen, also Themen, die polarisieren, dann werden dort über durchschnittlich oft Quellen wie öffentlich-rechtsmedien angegeben oder andere Qualitätsmedien. Also ich möchte sagen, nur einmal zeigen, dass es nicht so ist, dass das Thema generell niemand interessiert und wir alle ganz viel Geld damit verdienen. Das wird noch der letzte Punkt. Wir haben auch gesehen, dass Werbetreibende ihre Produkte sehr, sehr ungern in neben Desinformation oder sozusagen in Nebeninhalten von niedriger Qualität bewerben. Das heißt, tatsächlich verdienen wir mit diesen Inhalten kein Geld im Gegenteil. Von Werbetreibenden wird ganz klar erwartet, dass die Plattform eine gewisse Brand-Safe-Tie verspricht. Das heißt sozusagen, dass sie keinen Shitstorm ernten, wenn ihr Produkt neben einem Desinformations-Video auftaucht. Natürlich passieren immer wieder auch Fehler. Das ist ein perfektes System. Aber es ist ein großes Anliegen, auch hier Mulderisierungsströme zu unterbrechen. Jetzt hatte ich das Gefühl, dass ich auf deinen Widerspruch bei Josefine Widerspruch regte. Ich will gar nicht widersprechen. Ich würde gerne ein Thema aufgreifen, was Wer gerade kurz angetippt hat. Das sind die Richtlinien in der Plattform. So was wie mein persönliches Lieblingsthema. Denn eigentlich ist es ja fast streflich, dass ich es nicht schon vorher erwähnt habe. Denn wir sprechen jetzt hier von der Freiheit und Regulierung und über das Verhältnis dieser beiden zueinander. Und ja, ich glaube, dass Regulierung angesichts der Größe sozialer Netzwerke unumgänglich ist. Aber eine Sache erfassen wir damit kaum zumindest bisher. Und ich glaube auch in Zukunft wird es sehr, sehr schwierig, egal was wir versuchen an Regulierung einzuführen. Und das sind eben diese internen Richtlinien. Es stimmt, es wird sehr viel Energie in die Ausgestaltung dieser Richtlinien investiert, egal ob es jetzt ist oder zu Hate Speech oder zu anderen Formen der Desinformation oder zu russischer Propaganda oder was auch immer. Was allerdings in der Praxis dann selten passiert ist, dass diese Richtlinien auch transparent, nachvollziehbar und effektiv auch durchgesetzt werden. Deswegen bin ich immer etwas vorsichtig, wenn ich sehe, es gibt eine neue Richtlinie. Wir machen jetzt ganz viel, aber eine Richtlinie aufzuschreiben heißt ja noch nicht, dass auch in der Praxis was getan wird. Wir sehen eben, dass da erhebliche Defizite bestehen. Wir haben dieses Thema jetzt auch vor Gericht gebracht. Am Beispiel von Twitter natürlich alle lieben Twitter gerade im Moment. Aber es hat sich eben da uns auch gezeigt, dass gerade gegen Ende letzten Jahres wirklich bei der Moderation auf Twitter fast schon chaotische Zustände ausgebrochen sind. Wir haben das Ganze vor Gericht gebracht und haben als Nutzende die ein Konto bei Twitter haben, aber natürlich von einer Holocaust-Läugnung nicht als Opfer betroffen sind. Man kann ja jetzt nicht sagen, ich bin Opfer einer Holocaust-Läugnung geworden. Das kann man vielleicht schon, aber im juristischen Sinne funktioniert es so eben nicht. Wir haben dieses Mal Versuche, wir haben das Ganze vor Gericht gebracht und haben als Nutzende und wir haben dieses Mal versucht, das Ganze auf die Ebene des Vertrages, des Nutzungsvertrages mit einem sozialen Netzwerk zu heben und das vor Gericht gebracht, um hier erstmals, zumindest nach meinem Kenntnisstand bisher, die Einhaltung dieser Richtlinien, dieses Vertrag es einzufordern, denn da steht da ganz viel Schönes drin. Da steht, wir wollen dieses nicht dulden, wir wollen keine Holocaust-Läugnung dulden, wir wollen, dass sich alle Menschen sicher fühlen, unabhängig von ihrer Religion zu bewegen können und das ist ja eben gerade nicht der Fall. Und das wollen wir jetzt ausfechten, um zu schauen, ob nicht auch aus diesem Vertragsverhältnis sich Schutzpflichten ergeben können, um die Nutzenden, wenn sie etwas melden, wenigstens mit einer vernünftigen Moderation von Inhalten zu schützen vor der massenhaften Verbreitung solcher Inhalte. Da bin ich sehr gespannt, was da passiert, denn uns wird ganz viel immer versprochen, was jetzt mit den Richtlinien passiert und wie man die anpassen will und wie man das mit den Richtlinien gezogen hat. Aber wenn wir einfach sehen, dass wir etwas melden und die Wahrscheinlichkeit einem Münzwurf gleich, ob dann auch etwas passiert, dann ist das relativ wenig wert. Es wäre, da würde mich jetzt natürlich wiederum dein Input zu interessieren. Josefine sagt, da steht viel Schönes drin, aber wer bürgt für die Anwendung dieser Richtlinien? Ja, ich kann den Impuls, alle Plattformen über Einkommen zu scheren, sehr gut nachvollziehen. Da es nachweisbar echte Probleme gibt, seit Elon Musk übernommen hat. Ich kann nur etwas daraus erzählen, wie wir das machen. Also, tatsächlich werden auch bei Google über verschiedene Produkte hinweg Richtlinien entwickelt, zum Umgang mit Inhalten, die schädlich sind. Genau, diese Inhalten, diese Richtlinien entwickeln, bin ich alleine im stillen Kämmerlein, sondern beziehen tatsächlich viele externe ExpertIn dazu, unter anderem auch MenschenrechtexpertIn, auch Expertin zu den jeweiligen Themen. Das heißt, z.B. bei der Richtlinie zu Corona-Desinformationen haben wir sehr stark mit der WHO zusammengearbeitet, bei einer neuen Richtlinie zur Einschränkung von Inhalten-DS-Störungen, sozusagen heurisieren und in positiven Lichterstellen haben wir sehr stark mit betroffenen Vereinen und Organisationen, aber auch Ärzte in zusammengearbeitet. Das heißt, das ist uns sehr, sehr wichtig, uns den Input abzuholen von vielen Richtlinien zu schreiben, dauert relativ lange. Es geht darum, die wirklich ganz klar, klar anwendbar zu machen und sozusagen auch extern verständlich zu machen, aber auch für unsere internen Teams klare Guidelines zu legen. Dafür wird ziemlich viel getestet, ziemlich viel ausprobiert. Es werden viele Daten gesammelt, um sozusagen zu schauen, okay, ist das klar, wo brauchen wir noch weitere Verbesserungen? Das heißt, es können bis zu anderthalb oder zwei Jahre vergehen, bis dann quasi eine Richtlinie wirklich in Kraft tritt und externalisiert werden kann. Da steckt also sehr viel Arbeit dahinter. Im nächsten Schritt, genau, geht natürlich darum, diese Richtlinie anzuwenden. Viele Inhalte werden problematisch sind und gegen unsere Richtlinien verstoßen, während zum Beispiel auf YouTube automatisiert erkannt. Natürlich bekommen wir auch Meldungen von NutzerInnen oder von Trusted Flaggern. Das sind für uns auch sehr, sehr wichtige Hinweise, aber tatsächlich finden auch unsere algorithmischen Systeme viele Inhalte alleine. Die werden dann natürlich nochmal überprüft. Es wird nicht automatisch entfernt oder gelöscht, aber genau auch da sozusagen helfen diese algorithmischen Systeme sehr stark dabei, diese Inhalte überhaupt zu finden. Aktuell werden knapp 40 Prozent aller Inhalte, die entfernt werden, die automatisiert gefunden wurden, hatten bis dahin keinen einzigen Aufruf. Ich glaube, 30 Prozent hatten unter 10 Aufrufe. Das ist für uns ein wichtiger Indikator, der zeigt, es funktioniert. Wir finden diese Inhalte früh genug, bevor sie Schaden anrichten können. Und wie gesagt, nicht in jedem Fall, es ist nicht perfekt, aber das ist das, was wir gerade arbeiten. Letzter Schritt, nämlich auch fertig, ist Transparenz, wie sie viel angesprochen hat, extrem wichtig. Wir veröffentlichen vierteljährlich Transparenz berichtet zur Inhaltemoderation auf YouTube. Da werden unter anderem auch Beispiele gegeben aus den verschiedenen Richtlinien Bereichen, als zum Beispiel zum Thema Hassrede, zum Thema Jugendschutz. Das heißt, die Richtlinie, was sind die Fälle? Wie viele von diesen Fällen oder wie viele von diesen Inhalten wurden aufgrund dieser Richtlinie entfernt? Wie viele von denen wurden automatisiert erkannt? Es gibt auch Zahlen dazu, wie viele Beschwerden eingegangen sind und auch, wie viele Inhalte wieder hergestellt wurden, sind natürlich auch diese KI-Systeme Fehler machen. Das ist wichtig zu sagen. Deswegen ist die menschliche Komponente extrem wichtig. Darüber hinaus werden auch exzensive Transparenz berichte unter dem Digital Services Act und dem Code of Practice gegen Desinformation veröffentlichen, die doch mal granulare sind. Wir könnten sicherlich noch viel reden über die internen Richtlinien. Ich würde aber gerne noch mal auf die externen zu sprechen kommen, die hier auch schon anklangen. Die EU versucht ja, Plattformen einen neuen rechtlichen Rahmen zu geben. Ab Februar des nächsten Jahres soll das Gesetz über digitale Dienste in Kraft treten. Wir sprachen schon drüber den Digital Services Act. Der soll uns schützen vor Falschinformationen, vor Hassrede, auch vor gefälschten Produkten. Illegale Inhalte sollen zügig gelöscht werden. Dazu gibt es dann auch noch den Digital Markets Act. Das Gesetz bezüglich der digitalen Märkte, das ist auch schon anwendbar, soll unter anderem dafür sorgen, dass die großen Anbieter nicht ihre eigenen Anwendungen, ihre eigenen Produkte bevorzugen, wie das aktuell immer noch geschieht und andere oder kleinere schlechter Stellen. Es gibt da schon, würde ich sagen, einige Zustimmung von NGOs, von Aktivistinnen für diese Gesetze, aber es gibt auch Kritik, wie sieht es bei dir aus, Moritz? Grundsätzlich finde ich das ein super Initiative. Ich bin sehr, sehr froh, dass es so umfassend gerade von der EU so viel Regulierung gibt und so viel Initiative gibt. Ich habe schon das Gefühl, in einigen Punkten wurde da auch auf die Beteiligten, das wird auf jeden Fall für uns, die auch Plattformen betreiben, wir müssen auch mal drauf gucken, aber wahrscheinlich viele Ausnahmen geben und es gibt Ausnahmen für ganz kleine Betreiber in, was auch sehr wichtig ist. Wie gesagt, weil das Problem sehen wir ja eigentlich woanders. Deswegen finde ich erstmal das positiv und finde es vor allen Dingen auch positiv, dass so von mehreren Seiten betrachtet wurde, also sowohl der Markets Act, der Service Act geht einfach noch mal mehr ins Detail, was ist eigentlich die Funktionsweise und wie muss man teilweise vielleicht auch dann bestimmte Sachen wie Algorithmen gestalten und Dark Patterns verbieten und so weiter. Trotzdem gibt es auf jeden Fall auch Probleme und ich glaube eines der Probleme ist eben, dass eines der kernen problematischen Elemente, nämlich personalisierte Werbung, nicht komplett verboten wird. Und auf bestimmte merkmale sexuelle Orientierung, Religionszugehörigkeit. Das ist natürlich ein Kernpunkt, wo viel lobbyiert wurde und das hat halt funktioniert, dass das nicht reingekommen ist, das Verbot. Und was natürlich in der Umsetzung einfach dann jetzt spannend wird, ist, wie viel Szene bekommt der. Ich glaube, die Maximalstrafe sind 6% des weltweiten Umsatzes von den großen Konzernen. Das tut schon weh, aber ich glaube, die Profitmarche ist irgendwo bei 30 bis 40 bei Softwarekonzernen, also immer noch die Frage, also das wäre auch nur die Maximalstrafe, da muss ja viel passieren, bis das rausgeholt wird, das Caliber. Darauf mache ich mir Sorgen, das zweite war eine Sache, wo ich dann auch einfach die Sorge habe, das ist versagt, zum Beispiel die Frage nach Daten Portabilität. Das heißt, ich kann einfach meine Daten mitnehmen oder soll sie mitnehmen können zu einem Konkurrenten, was ja auch eine der Hauptgründe ist, warum Leute bei großen Plattformen stecken bleiben, weil sie einfach wissen, also jetzt auch mit Twitter zum Beispiel, da sind meine ganzen Tweets, die jetzt komischerweise anders heißen, Access und die kriege ich da nicht raus richtig, ich krieg sie mittlerweile runter geladen, aber ich krieg sie nicht woanders hin. Das wäre zum Beispiel so etwas, wo ich denke, das wäre auch super wichtig, wie da die Durchsetzung funktioniert und wie sehr man daran reingeht. Haben wir glücklicherweise eine Rechtsanwältin in unserer Runde, wie sieht es aus mit deiner Einschätzung? Ja, ich kann mich rundlegen den positiven Punkten anschließen, aber möchte gleich mal zu Beginn oder gleich mal auf den Beginn der Durchsetzung kommen, denn der Digital Services Act, der sich in der Digital Services Act die bedeutungsvollsten Pflichten für die sehr großen Online-Plattformen mit mehr als 45 Millionen Nutzenden oder Views sind ja dann eher innerhalb der Europäischen Union pro Monat vor. Und da stößt man jetzt schon an die ersten Probleme, nämlich wie stellt man das fest? Wir haben jetzt aktuell gerade eine Situation, bei der die Plattform Wikipedia eine sehr große Online-Plattform ist, Telegram aber nicht, X-Hamster nicht, Pornhub nicht und wohl auch nicht, Amazon habe ich jetzt letzte Woche nochmal gelesen. Weil sie eben natürlich... Zumindest streiten sie dafür keine Plattform in diesem Sinne zu sein. Genau, aber es beruht ja erst mal alles darauf, dass es eben einen Stichtag gab, zudem die Plattform selbst eben ihre Zahlen berichten sollten und darauf muss man sich dann erstmal stützen. Und gerade dann auch so wir haben viel gearbeitet auch zum Thema DeepFake-Pornografie, weil das auch leider ein Thema ist, was immer mehr jetzt im negativen Sinne im Kommen ist und ganz viele vor allem Frauen, weiblich gelesene Personen im Internet bedroht. Da hatten wir uns dann schon erhofft, dass X-Hamster und U-Porn zum Beispiel, die sich ja mal mit extrem hohen Nutzerzahlen gerühmt haben früher, dann jetzt auch Nutzerzahlen berichten, die uns dann eben auch Transparenzpflichten und so weiter ermöglichen oder ihnen der EU diese Pflichten ermöglichen die dann auch durchgesetzt werden können. Das heißt im Moment sind wir darauf angewiesen, dass die Plattformenbetreiber selbst sagen so und so viel User-Userritten habe ich. Genau, dann gibt es eben Plattformen wie Wikipedia, die haben sich dann auch damit der Kommission kurz geschlossen wie bestimmt man das überhaupt, dann ist die Frage ist jemand ein User, der nur 3 Sekunden auf der Plattform war oder jemand der 5 Sekunden oder 10 Sekunden auf der Plattform war, das wurde dann auch nicht mal einheitlich gemessen, weil es da auch keine jahre Vorgabe für gab. Und jetzt ist natürlich die Kommission vor der Herausforderung zu sagen, ja wie beweisen wir denn das Gegenteil denn das müsste ja jetzt angefochten werden, dann müsste eben diesen Plattformen trotzdem ein Bescheid zugestellt werden, der sie als sehr große Online-Plattform deklariert und dann müsste man damit rechnen, dass die Plattformen da vielleicht gegen vorgehen und müsste dann eben vor Gericht beweisen können, dass das nicht so ist. Also damit geht es halt schon los und auch mit den weiteren Pflichten und das Gesetz kann nur so gut sein wie seine Durchsetzung zu Ende des Tages. Die deutsche Regulierung war ja bisher sehr auf Fakten, auf Löschung von Inhalten fokussiert, der DSA ist es weniger, also was die Entfernung von illegalen Inhalten angeht fallen wir in Deutschland, hinter den Schutzstandard das NetzDG zurück der eben eine relativ einfache Überprüfbarkeit eigentlich ermöglicht hat. Das wird wesentlich komplexer, dafür setzt man eben mehr auf die Risiken der Plattform, auf Transparenz Berichte, auf Audits auf sogenannte Risk Assessment also Risiko-Bewertungen, die die Plattform erstellen und einreichen müssen und der Nachteil auch hier, das sind alles Dokumente, die nicht eins zu eins so veröffentlicht werden. Kann man sagen, es ist ein Nachteil, weil wir es eben nicht überprüfen können z.B. wir als NGO können jetzt nicht einfach so überprüfen, ob die das jetzt realistisch berichtet haben, ob wir diese Einschätzung teilen, ob sie nicht überprüfen. Auf der anderen Seite kann man natürlich sagen, es ist ein Vorteil, weil sie möglicherweise offener sind und weil sie möglicherweise mehr auch interner Preis geben gegenüber der Kommission, wenn es nicht gleich in der Öffentlichkeit landet. Ich bezweifle das, aber es ist ein Argument, was häufig geäußert wurde. Jetzt bitte ich da nochmal um eine Klarstellung, so wie ich es gelesen hatte, sieht ja das Gesetzeswerk auch vor, dass die Formen von, hier habe ich dir mal aufgeschrieben, kannst du reingucken? Genau, also das ist nochmal ein anderer Strang, also es gibt eben die Dinge, die eingereicht werden müssen bei der Kommission, es gibt ein externes Ordnet und dann hat die Kommission nochmal Aufsichts- Möglichkeiten und dann gibt es eben noch die Möglichkeit des Datenzugangs. Da gibt es einmal Regeln für öffentlich zugängliche Daten, das wird auch sehr spannend, denn aktuell sieht es gar nicht mal so gut aus mit den Schnittstellen zu Daten, dass man das dann auch nicht mehr machen kann. Und dann gibt es halt natürlich richtige Datenzugänge, wo alle möglichen Informationen dann auch irgendwie preisgegeben werden sollen über Schnittstellen, aber die gibt es dann nur für wissenschaftliche Einrichtungen oder für WissenschaftlerInnen, die auch eine spezifische Forschungsfrage bearbeiten. Und da wird dann eben eine Schnittstelle zur Verfügung gestellt und der wichtige Punkt hier vielleicht, der wird eben schnell, sondern der wird beantragt bei der Aufsichtsbehörde und dann müssen die sich irgendwie um die Umsetzung kümmern. Komplexes Verfahren, wie happy ist Google mit dem Gesetzeswerkswehr? Also generell begrüßen wir den DSA sehr, also aus unserer Perspektive wurden viele wichtige Grundprinzipien europäischer Interregulierung beibehalten, also zum Beispiel, dass es keine generelle Überwachungspflicht gibt, die generelle Regelung zur Haftung, also das sind alles Dinge, die wir sehr positiv haben. Auch aus unserer Erfahrung sozusagen mit dem NetzCG gibt es und der DSA baut ja schon sozusagen auf dem NetzCG zumindest, also er baut nicht auf, aber ich würde sagen, er ist inspiriert von vielen der Elementen, z.B. Transparenzberichte etc. Also wir finden es sehr positiv, dass viele diese Dinge dort auch weitergeführt worden bzw. ausgebaut worden sind. Es gibt auch Dinge, die wir am NetzCG sehr positiv fanden, die es nicht in den DSA geschafft haben, sehr hilfreich, wenn wir uns bei bei der Bewertung von Inhalten nicht sicher waren, ob sie sozusagen wirklich rechtswidrig sind nach dem NetzCG konnten wir dann sozusagen diese Institutionen, in dem Fall die FSM damit beauftragen, das zu prüfen, das war extrem hilfreich, da sozusagen auch so eine kleine Spruchpraxis entstanden. Genau, aber generell sehen wir den DSA auf jeden Fall positiv. Ich habe noch ein paar Fragen, aber ihr ja vielleicht auch, und da will ich mich ungern vordrängeln, dass jemand von euch noch was wissen möchte, dann wäre das nämlich jetzt hier die Gelegenheit, bitte schön hier vorne auf dem Sofa und gerne kurz, weil wir um 18 Sachen zumachen müssen. Moderationsschöne und gut, die Frage ist doch nur, wer gibt die Regeln vor für die Moderation? Und momentan ist es so, dass die Regeln letztendlich bei dem Plattformbetreiber liegen. Das heißt, Google zum Beispiel, haben wir einen Ansprechpartner hier, die Regeln gibt es auch um die Gestaltung der Richtlinien geht. Das heißt, natürlich steht um DSA, auch um DSA, gibt es in Verpflichtung, dass die Richtlinien in der Plattform, die AGBs, sich an internationalen Menschenrechtsstandards orientieren müssen und das zumindest mit einbezogen werden. Das heißt, dass die Regeln in der Plattform betrachten. Das heißt, dass die Regeln in der Plattform betrachten. Und das zumindest mit einbezogen werden muss. Tatsächlich haben wir keinerlei Interesse daran, intransparente, willkürliche Richtlinien zu gestalten, die Menschen zensieren. Und es geht es ja eigentlich um das Gegenteil. Es geht darum, so viele Stimmen wie möglich sichtbar und hörbar zu machen auf der Plattform, gleichzeitig aber auch gegen Missbrauch zu schützen. Wie gesagt, das ist so ein bisschen diese Diskussion, die ich vorhin angesprochen habe, entweder wir zensieren zu viel. Ich denke, die Wahrheit liegt dazwischen bzw. kann ich nur sagen, dass es ein Großanliegen ist. Viele Menschen denken, jeden Tag danach machen es uns nicht leicht. Wir sind dankbar für Feedback. Wenn Sie Vorstärke haben, was konkret anders laufen sollte, sehr gerne. Moritz, ich hatte das Gefühl, du möchtest irgendwie dran knuppern. Ich sah so kurz die Bewegung mit dem Mikrofon zum Mund. Ich habe das Gefühl, dass es in der letzten Zeit bei den großen Plattformen bei Google passiert. Ich finde es gut. Ich glaube einfach, dass wir da trotzdem aufpassen müssen, dass die Frage, was ist sozusagen, wie weit geht Meinungsfreiheit, die müssen wir als Gesellschaft beantworten. Nicht private Unternehmen. Das habe ich auch so verstanden, wird ja auch gewünscht von den Unternehmen, dass das von der Gesellschaft beantwortet wird. Ich glaube, dass wir das in diesem Prozess nicht die drei, vier großen Plattformen, die Hauptakteurin sind, die das bestimmen, am Ende zusammen mit Gesetzgebungs, also mit Politikern am Ende, sondern dass das ein großer Prozess ist. Wo die Gesellschaft eine Rolle spielt und alle anderen auch und da müssen wir darauf aufpassen. Du hattest vorhin schon mal ganz kurz das Thema KI angetippt, weil während wir noch über sozusagen den jetzigen Ist-Stand auch sagen, brauchen wir ein Gesetzeswerk und nicht eine Selbstverpflichtung der Anbietenden, sondern ein äußeres Rahmenwerk. Absolut, aber da ist halt das Problem und das liegt dem DSA und auch dem Digital Markets Act auch unter. Es ist immer noch eine sehr wirtschaftzentrierte Sicht auf diese ganzen Themen und ich glaube, da mache ich mir auch einfach Sorgen. Es geht ja darum, Europa als Technologiestandort auch nicht abgehängt werden, dass wir immer noch ganz viel Innovation haben. Das ist gerade, glaube ich, schon so die Haupt- bis Hauptaugenmerk immer noch bei der Regulierung. Ich würde sagen jetzt bei den bei KI noch viel mehr, weil da einfach ganz viel Angst ist, dass wir technologisch hier abgehängt werden. Und da wird dann, glaube ich, weniger darauf geachtet, was zum Beispiel zivilgesellschaftliche Organisationen sagen, die sich eben schon reingearbeitet haben in die sozialen Themen rund um KI. Und da sehe ich gerade auf jeden Fall es auch wichtig, das überhaupt angefangen wird zu regulieren, aber auf jeden Fall also, wer so es gemein wollte, Orientierung. Ich habe eine letzte Frage an euch alle drei und würde bitten mit Blick auf die Uhr, die ganz kurz, gern auch vielleicht in einem kleinen Hauptsatz zu beantworten. Angenommen, wir sehen uns wieder in 1,5 Jahrzehnten 2038 und stellen fest, Social-Media-Plattformen sind richtig superpolitische Bildung, Mündigkeit, Beteiligung, alles wird da angeregt und ja, zusammengebracht. Was haben wir dann richtig gemacht und werden 15 Jahren das finden? Es liegt los. Wir haben uns auf die richtigen Regeln geeinigt gesellschaftlich, gesamtgesellschaftlich und haben gute Wege gefunden, die umzusetzen und durchzusetzen. Wir haben mehr Transparenz geschaffen. Eins fehlt noch, Moritz. Wir haben die Plattform BetreiberInnen enteignet und sie genossenschaften, Stiftungen und Vereinen gegeben, die den Betrieb. Okay, nochmal der Molly am Ende und es fehlt leider die nächste Stunde um genau das zu diskutieren. Vielen Dank, euch drehen. Vielen Dank, dass ihr hier wart. Danke für euren Input und euch auch vielen Dank für es kommen, für es mitdenken und für eure Fragen. Ihr seht, ein neues Thema haben wir schon für eine weitere Ausgabe des digitalen Salons. Das wird aber noch nicht immer August stattfinden. Am 30.08. sehen wir uns dann, wenn ihr wollt, gerne wieder immer letzter Mittwoch im Monat. Vielen Dank. Ich wünsche euch einen fahrbehaften Sommer. Macht's gut.