 Der Talk, der jetzt anfängt, ist von Christoph Schwann und Liska Perkova und wir werden über die wahrscheinlich größte rechtliche Änderung aus Brüssel enden, demnächst. Sie sind wohl noch gemeldet. Okay, erstmal ja, vielen Dank, dass wir hier leben können. Freut uns, ein Teil von diesem Event zu sein. Ich glaube, das ist das erste Mal dieses Jahr, dass wir so was machen. Und es ist toll, bei so einer tollen Community dabei zu sein. Und heute reden wir über den aktuellen Vorschlag, der ist noch ein Vorschlag, der sehr viel aufgewöbelt hat in ganz Europa, aber auch außerhalb. Und das ist das Gesetz über digitale Dienste aus der EU. Und das besteht aus zwei spezifischen Gesetzen und beide werden die Regulation von Online-Plattformen signifikant ändern, insbesondere von sehr großen Online-Plattformen, die ja auch Gatekeeper genannt werden, also welche, die eine große Dominanz im Markt haben und aber auch die Kontrolle über Nutzerrechte und die öffentliche Kommunikation haben. Also als erstes erklären wir mal, worum geht es ja alles, worüber geht es ja eigentlich, warum wird da die ganze Zeit darüber geredet und warum dieses Gesetz uns auch weiterhin beschäftigen wird. Das wurde schon vor zwei Jahren angekündigt, als ein Teil der EU-Darmstrategie. Und es war eine der Ideen der Aktion, als zu den Instrumentations-Werte. Und es wurde uns eine gewisse Zeit gegeben, um ein System von Regularien zu entwickeln, dass die Nutzerrechte in Zentrum von diesem Gesetz bewegen sollen. Also die Idee ist, dass diese ganzen werbebasierten Online-Plattformen und dass das Internet so wild ist, aktuell kennen, dass es mit was ersetzt wird, was die Nutzerkontrolle und die Nutzerrechte als höhere Priorität setzt. Und wenn es korrekt geschrieben wird, dann soll das auch tatsächlich zu diesem Ziel führen. Bevor dieses SL geschrieben wurde, gab es eine sogenannte e-Commerce-Direktive, die die Basisprinzipien von manchen diesen Dingen geregelt hat. Aber da werde ich nicht weiter ins Detail gehen, weil ich das nicht zu DDR haben will. Aber es geht darum, nicht alles zu ersetzen, sondern hauptsächlich das Gesetz zu erweitern, dass diese Basis geschaffen hat für 20 Jahre, um die Nutzerrechteinhalte zu regulieren. Es geht darum, zu harmonisieren und Desinformationen und Tatsprache zu moderieren, aber auch Transparenz in der Online-Werbemarkt und in der Verteilung von Online-Inhalten und spezielle Mechanismen etablieren, wie das dann entforsiert werden kann. Bevor wir in die Details des DSR gehen und erklären, was es bringt, möchte ich einmal kurz erklären, was überhaupt in diesem DSR drin ist. Da sind hauptsächlich zwei Regularien drin. Das ist so das stärkste Werkzeug, was die EU in ihrer Hand hat, womit man Halbmanisierung zwischen den einzelnen Staaten schaffen kann. Es ist natürlich schwierig, im Endeffekt zu erreichen, aber vor allem auch im Bereich der Freien Sprache und der Nutzergenerierteninhalte. Alle diese Dinge, die mit Content-Moderationen und Co-Rationen zu tun haben, werden vor allem im Bereich des Digital Services Act des DSR sein. Der andere Teil der DMR, der Digital-Marktaktik, der er wird, da geht es eher um den Markt zwischen den verschiedenen Anbietern und darum, wie sie untereinander arbeiten sollen. Und basierend auf den neuen Vorschlägen wissen wir jetzt, dass diese Plattformen besonders große Online-Plattformen genannt werden und das ist auch, wie diese Gatekeeper jetzt genannt werden. Ein weiterer Punkt, den ich nachmachen will, ist, dass das DSR und das DMR, die wurden gerade erst diesen Dezember veröffentlicht, von der quasi ein Weihnachtsgeschenk für die Datensicherheits-Community und die EFF und zusammen mit einigen anderen Organisationen arbeiten im Moment sehr schnell und hart daran, Vorschläge für diese Gesetze zu auszuarbeiten. Und weil schon am Anfang haben wir verstanden, wie wichtig es ist, dass dieses Gesetz, wie wichtig dieses Gesetz wird, nicht nur innerhalb der EU, sondern auch außerhalb. Und jetzt kommen wir zum letzten Einführungspunkt, den wir haben, was so warum brauchen wir, dass DSR überhaupt oder brauchen wir überhaupt. Wir glauben, dass es da einen guten Grund dafür gibt, eine systemische Regulation für Online-Plattformen zu erstellen, um die fundamentalen Richter der Nutzer zu beschützen und auch um den demokratischen Diskurs zu beschützen. Das liegt daran, dass seit vielen Jahren in diesem Bereich nicht der gute Regulation stattgefunden hat für solche Plattformen, von allen Teilnehmern der EU, aber auch von der EU selbst. Da gab es Online-Terrorismus-Regulatorien oder die Geschichte über das Copyright, die Chris später noch erklären wird. Wir haben gesehen, wie viele von den Member-States der EU versucht haben, einige Ordnung im Online-Raum zu schaffen. Und viele von diesen Staaten hatten da die Verantwortung und die wurde gefördert im Bereich dieser privaten Online-Plattformen. Und als diese Online-Plattformen ersetzt wurden, die Staaten und Plattformen ersetzt haben. Und deswegen wurde und muss unter sehr kleinen Zeitungen muss entschieden werden, was online ist und was nicht. Und es gibt nicht sehr viel Transparenz darüber, welche Strategien da verwendet werden. Natürlich haben diese Plattformen eine rechtliche Verantwortlichkeit für die Inhalte der Plattformen und auch die Nutzergenerierten. Ein gutes Beispiel ist zum Beispiel, was auch noch später erklärt wird. Aber da gibt es insbesondere auch, die von einem bis 24 Stunden im Bereich sind, erst recht, wenn eine Entscheidung angezweifelt werden soll, oder den Bereich der fehlenden Harmonisierung zwischen und es gab da nicht sehr viel rechtliche Sicherheit zwischen aufgrund der sehr häufigen Entfernung von Online-Content. Und da diese Transparenz einfach fehlt und so wie auch sehr viel Inhalte und deren Methoden. Und die Plattformen möchten auch nicht wirklich sagen, was sie mit den tatsächlichen Daten machen und welche Daten sie da arbeiten. Und deswegen wurde das bisher eher an der Quantitent orientiert und nicht an der Qualität. Also es wird daran orientiert, wie viel Content wird entfernt und wie schnell das aber nicht wirklich ein gutes System erstellt, ein nachhaltiges System. Und im Endeffekt, wie wahrscheinlich uns alle einig sind, das kein Problem ist nicht da, wie die Daten modiviert werden, sondern wie sie geteilt werden zwischen Plattformen und im Kern dieser Geschäfte, die ja auf dem Aufmerksamkeitsmarkt basieren, ist natürlich wichtig, dass das Besuchen der Plattformen verlängert wird, soweit wie möglich. Ich mache hier gerade sehr viele Fasse auf und wollte eigentlich nur ein paar Einführungsanmerkungen machen. Ich werde mir jetzt an Chris weitergeben und dann gucken wir uns gleich mal ein paar sehr kritische Punkte des DSA an und wie die Debatte aktuell mal organisiert werden sollte. Ich denke, ich von euch haben gemerkt, dass die EU immer mehr regulieren möchte im Internet, was Plattformen angeht. Man kann hier sehen, der Highlight von diesem Appetit war der Copyright-Debatte und da sind Leute demonstrieren gegangen gegen technische Maßnahmen, die das Internet regulieren und zensieren sollen und wir erheben immer noch das Argument Uploadfilter, erzeugen Probleme und diese nicht perfekt. Außerdem geht es auch um Tracking in Richtung USA auch und mit knappen Annahmen im EU-Parlament. Es ist sehr wichtig, dass wir verstehen, dass wir alle wissen, dass dieser Kampf noch nicht vorbei ist und es geht hier um unsere Grundrechte. Denn solche Technologien sind immer im Konflikt mit unseren Grundrechten. Unsere Rechte sollten niemals solche automatischen Entscheidungsmechanismen zugrunde lieben und davon reguliert werden. Es gibt auch einen Überlaufeffekt von diesem Uploadfilter zu anderen Technologien. Es wurde für klug gehalten, dass man den Inhalt im Internet filtern und überwachen sollte und es verhindern sollte, dass Inhalte wieder neu hochgeladen werden. Es ging auch darum, z.B. terroristische Inhalte im Internet zu sperren. Es gab Verhandlungen kürzlich und wir haben zumindest den Uploadfilter abmeldern können. Trotzdem gibt es noch Mechanismen, die angewendet werden, mit denen wir nicht einverstanden sind. Mehrere Daten der EU haben schon Initiativen veröffentlicht. Da die das Internet regulieren und z.B. in Österreich gab es die das Gesetz über Hassrede und das wurde als problematisch angesehen. Da komme ich zum nächsten Problem. Es gibt Sachen, die sind in einem Land legal und im anderen illegal. Z.B. in einem kleinen Land wie Österreich wird dann sozusagen in Deutschland solche automatischen Technologien erlaubt. Das ist schlecht. Denn Gesetze für die Meinungsfreiheit können ausgeschaltet werden durch andere Gesetze gegen die Meinungsfreiheit. Das Internet ist nun mal per se ein globaler Ort. Es gibt auch also wir kämpfen wir gegen Initiativen aus allen Richtungen. Wir haben einen ersten Siegerung in Frankreich, denn die wollten sozusagen Plattformen dazu verpflichten, Inhalte zu löschen, bevor die überhaupt veröffentlicht werden. Ständig die Posts von Nutzern zu überwachen und natürlich würde das, die dazu motivieren, möglichst viel Content erst mal zu blockieren, was schlecht ist. Das geht gegen Grundrechte wie der Informationsfreiheit und auch Meinungsfreiheit. Das konnten wir zum Glück verhindern, wie man hier auf der Folie auch sieht und jetzt geht es uns auch um die neue deutsche Gesetze. Sobald ich weiß, hat die deutsche Kanzlerin sich geweigert, das zu unterzeichnen. Die Kommission hat es also im Konflikt mit EU-Premzipien. Man sieht also, es gibt positive Entwicklungen und es gibt einen Widerstand. Aber es geht eben leider bei diesen Initiativen nicht nur darum, Hassrede zu verhindern, sondern auch allgemein sozusagen Meinungsfreiheit einzuschränken. Und es geht auch darum, und die Länder, die treffen sich ja im EU-Brat und die können sozusagen Widersprüche einreichen und jedes Land kann das machen. Und das passiert die ganze Zeit. Die gute Nachricht ist aber beim Digital Services Act ist das bisher noch nicht passiert. Es ist noch nicht in die Fußstapfen getreten. Und verschiedene Organisationen wie EFF haben gesagt, dass es wichtig ist, dass einige Prinzipien nicht entfernt werden zu sagen, dass Sprecher immer für ihren Inhaltsfall verantwortlich sind. Aber die Kommission hat den Plattformen mehr Freiheiten eingeräumt. Und es ist faszinierend. Wie auch die USA vom guten Samaritan-Prinzip sich abbinden. Und die EU flirtet auch mit dieser Idee. Aber die große Unterschiede zwischen EU und USA ist der Moment, in dem Inhalte illegal werden. Denn es gibt da verschiedene Mechanismen und Optionen, die das Bewusstsein unterstützen können. Und wie Inhalte dann entfernt werden. Aber der Vorschlag der EU hätte sehr viel schlimmer sein können. Sie haben gezeigt, die EU hat gezeigt, dass das neue Parlament noch mal besser ist als das alte. Und sich da mehr Mühe gibt. Aber wir brauchen noch mehr gemeinsame Anstrengung, um dort die Entscheidungsgewalt zu verteilen. Danke. Ja, also wir können das jetzt mal weiter bewegen und ein paar relevante Positionen angucken. Für die Dinge, die jetzt schon genannt wurden, insbesondere in den Bereich Ton und Kuration, was im Digital Services-Akt liegt. Und um es noch ein bisschen abstrakt, weniger abstrakt zu machen, habe ich hier die gedruckte Version auch noch bei mir. Und wenn man das nicht mal guckt, dann ist es schon ein sehr beeindruckendes Stück Arbeit hier. Und ich muss sagen, dass obwohl es für guter Staat ist, sind da eine Menge Imperfektionen drin. Und ich werde mal versuchen, die zu summieren. Und dann als jemand, der sich für die Sozialwissenschaften interessiert und glaube ich, dass wir alle da zusammenarbeiten müssen und dass dieser Digital Services-Akt dann auch leiden, dass wir da weiter in Zusammenarbeiten können, zusammen mit den Teilnehmern des Digital Services Europäischen Parlaments, was relativ bald passieren sollte. Wie ich bereits am Anfang gesagt habe, ganz kurz, die DSA zwischen Online-Plattformen differenziert, die innerhalb dieses Gesetzes definiert sind. Und zwischen sehr großen Online-Plattformen, was halt diese Online-Ga-Equipers sein sollen, unterscheidet der Exkluzit zwischen den Obligationen und manche davon treffen auf die Online-Plattform zu und manche aber auch referenzieren Exkluzit, die Macht, die manche von diesen Online-Plattformen haben. Da gibt es eine gewisse Transparenzanforderung, die diese Online-Plattformen haben, aber es gibt auch weitere Transparenzanforderungen für noch größere Online-Plattformen. Was das DSA insbesondere macht, und das ist was besonders wichtig in der Inhaltsmoderation, ist, dass es versucht, ein harmonisiertes Modell für den Umgang mit illegalen Konten und illegalen Inhalten. Und das DSA wird dann nur den illegalen Inhalt betreffen und nicht andere Bereiche, die zwar legal, aber eventuell trotzdem schädlich sein können. Das heißt, besonders die Transparenzanforderung und die Anforderung an aber diese, wollten wir nicht, dass nicht Kategorie von DSA liegt, das liegt daran, dass diese sehr wage Termine Begriffe häufig dann zu Missbrauch führen. Da gibt es zum Beispiel einige Beispiele, wo wir das häufig sehen, wo schlechte Terminologie zu einer Kriminalisierung von bestimmter Sprache führen kann. Und wenn wir jetzt zurück zur Harmonisierung der Prozeduren kommen, dann was bedeutet das tatsächlich in der Anwendung? In Europa gibt es da ein Modell für die Einheit, unter den unter Artikel 14 von der E-Commerce-Direktive da ist basierend auf dem tatsächlich auf der Terminologie von diesen anderen Plattformen dürfen sie nicht verantwortlich gemacht werden für bestimmte Inhalte. Wir haben eine harmonisierten Prozedur gefragt, damit wir eine Gewissheit haben können in den Bereichen von der zu verbreitenen Entfernung von Inhalten. Das DSA macht da schon ein Anfang, dass es versucht so eine harmonisierte Prozedur zu erschaffen, aber da fehlt noch einiges, als zumindest einiges an Dingen, die wichtig finden. Eine davon ist, dass diese harmonisierte Prozedur nicht wirklich geeignet für verschiedene Arten von generierten Inhalten und manche oder zumindest viele Inhaltkategorien gibt es da, die sehr unterschiedliche historische und soziale Kontexte haben und abhängig nach dem, wie sehr die darauf angewiesen sind, automatisierte Systeme zu nutzen für die Moderation, glauben wir, dass da vieles nicht betrachtet wird, insbesondere in der zuhäufigen Entfernung von solchen Content-Inhalten und was auch in der aktuellen Version noch fehlt, auch wenn dann noch gearbeitet wird, ist ein Mechanismen für die Nutzer zum Anzweifeln von Entscheidungen von Plattformen und es gibt nicht wirklich ein Mechanismus für Online-Plattformen, da hatte ich wohl einen Ausdrucker für einen Nutzer, der einen halt hochgeladen hat, dass dieser Nutzer dann auch benachrichtigt wird über die Entfernung von Inhalten und nicht alle Plattformen sind da für verantwortlich, diese Benachrichtigungen auszusenden und das ist für uns eine Prozedur, die auf jeden Fall da sein sollte für die Nutzer und die es aktuell einfach nicht verhandeln. Allerdings ist es ein guter Start, es ist etwas, woran wir viel gearbeitet haben, aber es gibt viele Aspekte in diesen Prozeduren, die noch hinzugefügt werden müssen, um wirklich die Nutzer in den Vordergrund zu stellen. Da gibt es noch viele Prozeduren über illegalen Content, die illegalen Inhalten haben, aber da gibt es viele Bereiche, die dann auch noch abhängig davon sind von den Richtlinien der jeweiligen Plattform, aber da ist noch nicht klar, inwiefern das behandelt wird und deswegen benutzen wir häufig diesen Satz gute Intentionen mit nicht ganz so guten Lösungen, aber ich möchte natürlich wieder betonen, dass es noch der Anfang ist, dass wir noch Zeit und Raum haben, um daran zu arbeiten. Ein weiter nobler Aspekt, den der DSR mitbringt, ist die Good Samaritan Cloud, das ist eine EU-Version dieser Cloud und die kommt aus Sektion 230, innerhalb der hand-in-hand richtigen für eine der wichtigsten Dinge, die er erfordert haben war, dass diesmal mit aufgenommen wird und das wurde diesmal auch mit aufgenommen. Warum glauben wir, dass diese Cloud wichtig ist in der Vergangenheit, wenn so was war nicht wirklich im Gesetz, aber es wurde immer nur hier und da versprochen, aber tatsächlich genutzt wurde das Wendels genutzt wurde, dass sie dann nicht verantwortlich waren dafür und das heißt eine Plattform konnte über bestimmte Inhalteerfahrungen bekommen und dann waren sie dafür verantwortlich und das bedeutet, dass die Plattform diese Inhalte lieber sehr schnell löschen anstatt die Konsequenzen später zu tragen und deswegen sehen wir die Wichtigkeit innerhalb dieser Cloud und wir sind froh, dass das aktuell Teil der aktuellen Vision ist einer der größeren Enttäuschungen in diesem Bereich, die kamen am 15. Dezember für uns und das war, dass es immer noch anderen Plattformen gibt, die dafür verantwortlich bleiben dafür die Legalität des Inhalts zu bewerten und zu entscheiden was beschränkt oder entfernt werden soll und was verfügbar bleibt. Wir betonen häufig, dass es sehr wichtig ist, dass die Legalität des Inhalts von unabhängigen judizialen Autoritäten beurteilt wird und wir verstehen auch, dass so eine Lösung natürlich eine große Verantwortlichkeit und viel Arbeit für die Justizsysteme erfordert und viele Staaten sehen das als eine sehr aufwendige teure Lösung, die wollen kein extra Netzwerk für verschiedene Höfe oder Gerichte erstellen, die dann entscheiden müssen, welche Inhalte legal und welche illegal sind, aber wir wollen auf jeden Fall mehr öffentliche Beobachtung von diesen Systemen weil wie wir im aktuellen Status quo sehen können, in vielen Bereichen der EU, ist es immer noch so, dass es die anderen Plattformen sind, die entscheiden, was legal und was nicht legal ist. Ein weiter Bereich ist, sind die Anforderungen für bedeutende Transparenz, also auch, dass man sehen kann, was die Plattformen mit den einzigen Teilen von Inhalten machen und was auf die Plattformen kommt und wie diese Transparenz dann tatsächlich die Nutzer zu mir fördern kann. Wir gucken uns gleich nochmal an, was da die Probleme sind. Wir glauben nicht, dass Transparenz jetzt die Silberkugel, die Lösung für alles ist im Bereich von möglicherweise schädlichen Inhalten auf anderen Plattformen oder dass Transparenz im Endeffekt wirklich helfen wird, um Plattformen dafür verantwortlich zu machen, aber es ist eine Grundlage für uns, solche Dinge in der Zukunft zu erreichen. Wie ich schon erwähnt habe, sind viele von diesen Bereichen betreffen alle Plattformen online und dann gibt es manche Sachen davon, die nur die besonders großen Online-Plattformen und die Geldkeeper betreffen und wir sehen, dass die Kriterien für diese Liste sehr gut aussehen, aber sie könnten ein bisschen ambitionierter sein, sowohl die EFF als auch Accessnow haben noch ein paar Kriterien für bedeutsame Transparenz veröffentlicht und sie werden zeigen, wie und der finale Punkt, den ich machen will, ist diese genannte Pandora-Box von Online Tagetin. Ja, wenn die EU ihren ersten Report über das DSA veröffentlicht hat, da gab es zwei Bereiche, die betrachten wurden, insbesondere Paragraph vom Euro-Report, die haben gesagt, dass man Online-Tagetin und die haben gesagt, dass man das Tagetin online verbieten soll und wir haben diesen Paragraphen unterstützt und der wurde am Ende auch drüber abgestommen und ist aufgenommen worden, aber wir verstehen auch, dass das Wording von diesem Artikel etwas nonstierter werden muss in der Zukunft. Mit den Details da möchte ich noch dazu sagen, dass dieser Teil es leider nicht ins DSA geschafft hat. Es gibt kein Verbot von Online-Tagetin. Das war ein wenig enttäuschend. Wir sind eigentlich für ein wirklich stricteren Ansatz, wenn es zu dem Tagetin von Verhaltensweisen und vor allem über verschiedene Webseiten geht. Aber wie wir auch dann von den Kommissionen gehört haben, ist, dass es vielleicht dazu viel Druck von anderen Lobbyisten in Brüssel gab und dass es deswegen nie in den finalen Ansatz vom DSA geschafft hat. Das ist der aktuellen Wissensstand, aber wir müssen gucken, was passiert, wenn es das DSA in das Parlament schafft. Eine weitere Sache ist, dass das Gesetz eine weitere Sektion zu Empfehlungssystemen enthält, insbesondere dazu, wie diese über Plattformen verbreitet werden und wie die Daten von Lutzern missbraucht werden, insbesondere für die Verbreitung von Lutzern generierten Inhalten. In welchen Fällen von zum Beispiel Online-Tagetings geht es auch darum, die Transparenzanforderung und die Verantwortlichkeit, aber es hat wesentlich wenig Methoden, um die Kontrolle zurück zu den Lutzern zu geben. Darüber, wie weit sie an diesen algorithmischen Modellen teilnehmen, wie die Lutzern Datensets optimieren. Das ist alles im Moment weit außerhalb des Rahmens des DSA. Und es ist definitiv ein Teil der Insta-Kern-Themen, die diskutiert werden. Und da ist auf jeden Fall eine Hoffnung für die Zukunft, um ganz viel von dieser Kontrolle zurück an den Nutzer zu geben. Und das wiederhole ich jetzt immer wieder wie so ein Mantra. Aber das ist tatsächlich so die Kernkraft hinter allem, was wir hier in diesen Feldern tun. Das sind die Nutzer und deren Kernrechte. Und mit diesen Worten würde ich das dann wieder zurück zu Chris geben, der ein bisschen mehr erklärt darüber, wie man wirklich die einzelnen Nutzer empauern kann. Mach weiter. Ja, danke. Ich denke, wir wissen alle, oder wir fühlen uns alle so, als hätte es schon bessere Zeiten im Internet gegeben. In den letzten Jahren haben wir da eine Verwandlung gesehen. Das Internet ist immer geschlossen, und die Klassen hat immer monopolisierter gewählt geworden. Es gibt halt diese großen Player, und wir können uns dann halt entscheiden, zu welchen wir gehen. Und so sind diese Plattformen in diese Gatekeeper-Positionen gekommen. Vor allem trifft das auf soziale Medien zu. Dieses Jahr haben wir den 21. Geburtstag der e-Commerce-Richtlinie gefeiert, und die wird jetzt durch den Digital Services Act ersetzt. Und, ja, das stellt sich natürlich die Frage, warum sollten wir den Macht zurück an die User geben, die Antwort ist für uns klar. Solche automatisierten Mechanismen können nicht die Privatsphäre der Nutzer wahren. Und es gibt die Gefahr, dass zensiert wird. Deswegen wollen wir das nicht. Wir möchten, dass diejenigen, die die Inhalte produzieren, für die Inhalte verantwortlich sind. Und Nutzer sollen selbst entscheiden, welche Inhalte sie ansehen und nutzen. Ich denke, es ist sehr wichtig, dass wir da diese Silos und diese Plattformen aufbrechen. Also Nutzer sollten ein Recht haben, nicht von Personalisierter Werbung, sozusagen als Zielgruppe definiert zu werden und genutzt zu werden. Es sollte also bessere Optionen für Nutzer geben, sich zu entscheiden, welche Inhalte sie sehen wollen. Und auch, was auch noch die Autonomie der Nutzer unterstützt, ist eine Regulierung der Macht der Monopolisten. Bisher können die ja ihre Inhalte sehr weit selbst verwalten und entscheiden, wie sie die auslegen und was sie hochladen und so weiter. Die Nutzer sollten über die Plattformen miteinander kommunizieren können und zum Beispiel auch verschiedene Accounts erstellen können. Wenn man sich zum Beispiel, wenn man mit Facebook nicht einverstanden ist, dann sollte man die Möglichkeit haben, seine Inhalte anzusetzen. Also sollte es interaoperabilitätsmöglichkeiten geben auf Plattformen, so dass die Nutzer ihre Inhalte dort selbst bestimmt verwalten können. Und das ist leider noch nicht genügend umgesetzt worden in der Aktuellität. Und das ist leider noch nicht genügend umgesetzt worden. Und das ist leider noch nicht genügend umgesetzt worden in der aktuellen Richtlinie. Die DMA, da geht es um die digitalen Märkte. Also diese großen Tech-Companies, die großen Firmen, die großen sozialen Medien und Suchmaschinen online in den Mediation-Services, zum Beispiel Amazon, die kontrollieren ja wirklich, wie ihre Nutzer auf Inhalte zugreifen können. Auch im App Store. Es gibt vieles, was uns an der Vorschlag gefällt. Zum Beispiel soll es diesen Keypad verboten sein, verschiedene Medien zu vermischen. Und es soll auch zum Beispiel Checking über mehrere Seiten oder die dieses Teilen von Daten über mehrere Seiten soll eingeschränkt werden. Also man sollte sich nicht darauf konzentrieren, dass die großen Anbieter da Medien verweigen können, sondern darauf, dass die Nutzer ihre eigenen Daten selbst in die Hand nehmen und dorthin hochladen können, wo sie es gerne wollen. Und ich glaube, dass die bisherigen Anstrengungen da noch nicht gut genug sind. Wir sehen auf dem letzten, auf der Folie, eine Stellungnahme aus dem letzten Monat. Und ich dem stimmen wir völlig zu. Und wir arbeiten daran, dass das passiert. Aber das ist natürlich nicht einfach. Also wir sehen einen internationalen Trend, der sich sozusagen in Ente zu einem aktiveren Verhalten von den großen Monopolisten entwickelt. Dieser DSA und DSM könnten ein Export-Modell werden. Und das EU-Parlament muss da noch die richtigen Hebel in Bewegung setzen. Und das EU-Parlament muss da noch die richtigen Hebel in Bewegung setzen. Und das EU-Parlament muss da noch die richtigen Hebel in Bewegung setzen. Und das wird natürlich auch zu weiteren Abkürzungen wie DSGVO-Führungen. Danke. Ja, Dankeschön. Dankeschön. Es gibt ein paar Fragen aus dem Internet. Die erste ist eigentlich nur, wir haben, wie schon in euren Folien erwähnt, die Copyright-Direktive für Anstelle Märkte, die sowohl die Verantwortlichkeit und die Haftbarkeit für da einige Sachen empfiehlt. Wie hängen diese ganzen Vorstellungen zusammen, insbesondere für einen Reihen, der sich jetzt nicht mit dem Brusten-Jaguar auskennt? Ich kann mal anfangen und dann kann Chris vielleicht auch noch was dazu sagen. Ich denke, das ist auf jeden Fall eine gute Frage. Und vor allem, gerade bei dieser Terrorismusverschinderung, da gibt es Regulationen zu tun, und es gibt auch Regulationen zu tun, und es gibt auch Regulationen zu tun, und es gibt auch Regulationen zu tun, und es gibt auch Regulationen zu tun, und es gibt auch Regulationen zu Kindesmissbrauch zum Beispiel. Also da gibt es Sektorrichtlingen, das heißt, es gibt sozusagen einen horizontalen Ansatz, der sozusagen alles auf einmal abdeckt, und das andere wäre da sozusagen auf einzelne Aspekte einzugehen. Und das kann halt auch auf EU-Ebene passieren. Einerseits wurde systemische Regulierung versprochen und harmonisierte Ansätze zur Bekämpfung von illegalen Inhalten und gleichzeitig sehen wir immer noch, dass schlechte Vorschläge immer noch da gemacht werden, dass es da halt spezifische Regulierungseinsätze gibt. Ich würde sagen, wir würden das trennen. Es gibt negative Trends, die haben wir schon, die haben wir schon, die haben wir schon, die haben wir schon, es gibt negative Trends, die haben wir schon beschrieben, so dass zum Beispiel die Verantwortung in Richtung der Plattform geht und es geht halt natürlich auch um die gesetzlichen Grundlagen, die sind mit dem Einzelmarkt verbunden und zwar scheint es so, dass Sachen als illegal behandelt werden. Es sollte eigentlich sozusagen mehr an die Strafverfolgungsbehörden rangetragen werden, denn das ist eine schlechte Idee zu sagen, lassen wir das doch die Plattform selber entscheiden, was legal und illegal ist, weil die die schnellsten sind und die main decision making powers und so werden diese Verantwortung übergestülpt, obwohl das eigentlich die Mitgliedsstaaten und die entsprechenden Autoritäten regeln sollen. Ich würde also sagen, das sind, das ist alles bekannt, wir haben alle sehr da und gekämpft und vor allem im Europäischen Parlament und da jetzt die Verhandlungen abgeschlossen sein scheinen, da ist uns klar, dass das Ergebnis noch nicht ideal ist und es könnte sein, dass die Kommission halt da ehrlich entscheidet und oft wird da halt leider genau das Gegenteil getan, als diese negativen Beschlüsse, die schon da sind, zu bekämpfen. Aber das sollte halt auch auf nationaler Ebene passieren. Ja, Christa, ich glaube, du hast das perfekt erklärt. Das Einzige, was ich da noch zufügen kann, ist, dass wenn man sich an diese Bewegung von einzelnen, vereinzelten Legislaturen und dann wieder zu gemeinsamen, dann wieder zu einzelnen Legislaturen ankommt. Das ist ein Problem, das ist ein Chaos. Das ist nicht sehr gut koordiniert und das macht es ziemlich schwierig für die Plattformen, auch das alles zu befolgen und das ist problematisch für uns hier im Bereich. Sie wäre als Lobbyisten auch versuchen, Interessen zu vertreten. Wir müssen uns mit irgendwie Copyright, mit Taylorussing, mit TSA, DMA und ganz vielen anderen, 15 anderen Beamten beschäftigen und das ist wirklich schwierig, alles zu haben zu haben und deswegen ist es halt auch super wichtig, ganz früh schon bei Debatten dabei zu sein und das ist für uns eine sehr große Herausforderung, da rechtzeitig dabei zu sein und da müssen wir mal gucken, wie man das vielleicht irgendwie, wie man da besser zusammenarbeiten kann weil ich finde, das ist auch eine problematische Entwicklung. Also zusammengefasst ist ein ganz schönes Chaos und schwierig zu erklären. Ja, klar. Ich habe eine weitere Frage an Dileshka. Jemand hat gefragt, wie denn diese gute Samarita-Klausel in Deutschland momentan angewendet wird und ich weiß nicht, ob ihr das genau wisst, aber ich würde vielleicht nochmal das für allgemein an uns sagen, wie wird das denn jetzt gerade angewendet? Ja, danke. Das ist eine sehr gute Frage. Das erste, da ist, dass wenn man es im Kontext des EU-Gesetzes anguckt, kann ich das schlecht beantworten, wie es jetzt genau im deutschen Kontext ist. Ich bin kein deutscher Anwalt, ich kann das schlecht sagen. Es gibt nicht wirklich eine gute Samarita-Klausel, die wirklich allgemein vertreten ist. Ich benutze die Vergangenheitsform, weil das ja vom DSA verändert wird, aber dieses Level an Klarheit war nicht gegeben wirklich für die Plattformen. Es gab das konditionelle Modell der Zuverlässigkeit und wenn man sich jetzt aber diese gute Samarita-Klausel nochmal anguckt, dann sieht man, und ich habe sie auch hier als Beispiel benutzt, da sie halt auch als Antwort auf den Kommunistinsi-Akt benutzt wurde. Das ist erstmal der erste Punkt dazu. Ich habe auch am Anfang der Präsentation erklärt, was da passiert, dass im Raum der Vermeidung von illegalen Inhalten und insbesondere für dich da nicht beziehen auf die Kommunikation der Europäischen Kommission in 2018, wo es darum ging, dass die Online-Plattformen mehr mit illegalen Content zu tun haben sollen und diese Maßnahmen, die sie haben, auch wirklich zu benutzen, um illegalen Content zu modivieren. Und das Nächste ist dann die Deckbarkeit der Plattform, und das war dann so ein perfekter Sturm, den ich schon erklärt habe. Also die Plattformen wussten, dass ein bisschen gedrückt wurden von der Legislatur, sich mit diesen illegalen Inhalten zu beschäftigen und häufig mit automatisierten Prozessen. Aber sie hatten halt gar keine Sicherheit, dass wenn sie das machen, dass das im Endeffekt irgendwie, dass sie dafür verantwortlich sind und rechtliche Konsequenzen bekommen dafür, dass sie diese Dinge, die sie machen sollten, machen. Was jetzt das DSR macht, ist, dass es relativ einfach das klar macht. Ich glaube, es ist Artikel 6, wenn ich mich nicht irre. Ich kann das mal kurz öffnen. Da geht es spezifisch darum, dass Plattformen können diese praktischen Methoden benutzen, mit einigen Werkzeugen, um eine Antwort auf diese Art von Inhalten zu reagieren. Ohne dafür, strikt verantwortlich zu werden, rechtlich. Das sind 102 Paragrafen, aber es ist jetzt endlich im Gesetzestext. Das heißt, es wird endlich einige rechtliche Sicherheit geben an der Stelle. Auch sehr häufig in Europa werden wir die guten Samariterklauseln behandeln. Das ist eigentlich ein schlechter Titel, weil es sich ein bisschen an die amerikanische rechtliche Tradition orientiert. Aber vor allem mit der Prohibition von allgemeiner Überwachung, was ja auch ein zentrales Prinzip ist von diesen EU-Regularien. Solch eine Sicherheit kann auf jeden Fall von Vorteil sein. Und wird nicht zu diesen allgemeinen Immunitäten für andere in Plattformen führen oder zu dieser Idee, dass Plattformen einfach machen können, was auch immer sie wollen, mit illegalen Inhalten oder anderen Dingen. Und werden da auch mehr Zuverlässigkeit haben. Ich weiß nicht, ob das jetzt eine sehr komplizierte, legale Erklärung war, aber das ist, wie diese Provision funktionieren sollte in der Praxis. Wir müssen aber natürlich noch auf die tatsächliche Immentierung des Gesetzes warten. Aber die Hauptidee ist, dass diese rechtliche Sicherheit, die bisher gefehlt hat, jetzt endlich kommen kann, was helfen sollte, die übermäßige Entfernung von Plattformen zu verhindern. Ja, danke. Ich habe noch zwei weitere Fragen über die Interoperabilität. Ja, das ist dann wahrscheinlich Christophs Thema. Was ich zuerst fragen werde, diese Interoperabilität, würde dies schwieriger machen? Ich finde, es ist eine sehr gute Frage. Wie handelt man solche Vergehen, wenn die auf verschiedenen Plattformen stattfinden, die dann sozusagen zur Interoperabilität gezwungen werden? Und später komme ich dann noch auf die andere Frage zurück. Ja, bitte. Ja, das ist eine sehr gute Frage. Als Erstes die Interoperabilität. Die Idee davon ist zu verstehen, dass es gerne zwischen verschiedenen Plattformen halten, die aktuell viel Macht haben, dass auch kleinere Plattformen davon profitieren können. Es soll nicht nur zwischen den großen Plattformen sein, sondern auch, dass kleine Plattformen mit den großen Plattformen verbinden können. Und das Zweite, was wir glauben, ist, es muss halt helfen und nicht Dinge schlimmer machen. Wir haben ein Problem mit viel der Transparenz und viel Haarsprache. Und es gibt da bestimmte Bilder, die eventuell bestimmte Situationen trägern. Zum Beispiel, weil die Nutzer nicht wirklich die Entscheidung haben, wie der Inhalt moderiert wird. Und Nutzer haben nicht die Option, ihre Privatsphäre zu regulieren. Und die Idee ist, dass, wenn wir mehr Competition haben im Markt, dass Nutzer dann auch zu anderen Plattformen gehen können, die unter anderen Bedingungen arbeiten. Zum Beispiel erst recht, wenn eine Plattform meine Gefühle verletzt hat. So habe ich dann ein Level an Kontrolle. Und ich kann zu einem Provider gehen, der mir diese Optionen gibt. Und dann auch, wenn wir noch mal die Interoperabilität angucken, wir glauben, dass es die Möglichkeit geben soll, eine Drittpartie-Firma zu haben, die eingeschaltet werden kann in bestimmten Bereichen, so dass man zum Beispiel einen Nachrichten-Feed in einer anderen Reihenfolge sehen kann oder sowas. Und so kann die Interoperabilität ein großartiges Werkzeug sein, um Haarsprache und negative Entwicklungen zu vermeiden. Natürlich gibt es ein gewisses Risiko, dass wieder von der Industrie-Seite kommt, dass wir aufpassen müssen, nicht noch eine Datenverkaufsindustrie zusätzlich zu der aktuellen hinzuzufügen. Aber da gibt es auch einige Methoden, wie man das verhindern kann. Aber ja, wir glauben, dass Interoperabilität ein Werkzeug ist, um von den negativen Entwicklungen, die du erwähnt hast, zu entkommen. Ja, dann noch eine Gegenfrage von mir. Ihr seid doch für die Regulierung von diesen Empfehlungsmechanismen? Ja, also auch eine gute Frage. Aber ich glaube, das kann man recht einfach erreichen. Wenn man sich das Internet mal anguckt durch die Linse von der Marktkampf, dann sind diese verschiedenen abgezeichneten Gärten aus den Nutzern nicht rauskommen, ein großer Nachteil. Es gibt so viele alternative Optionen, die nicht abheben können, weil Nutzer irgendwo nicht ihre Freunde verlassen wollen oder die von dem Möderationssystem nicht entkommen können. Natürlich kann man Plugins oder dies und das benutzen, aber wir würden gerne den Nutzern erlauben, ihre Vault-Gardens der Plattformen auf den Inzidenz zu verlassen und zu anderen auch kommen zu können und trotzdem noch in Kontakt bleiben können mit Menschen von Plattformen, die nicht gewechselt haben. Ja, weitere Frage aus dem Internet. Zur Interoperabilität. Das ist aus einem historischen Blickpunkt. Bei den Setzen von Standards werden ja auch die Politik beeinflusst, wie unterscheidet sich das im Fall von Interoperabilität? Ja, Mastodon. Noch eine exzellente Frage. Wir haben mit der Frage von Standards auch schon viel gerungen und die Gerichtlinie, die wir jetzt vorstellen in der EU. Da halten wir uns fern davon neue API-Standards oder sowas zu spezifizieren. Wir glauben nicht, dass eine gute Idee ist, Technologie zu regulieren auf diesem Level. Wir wollen Ihnen sagen, dass Sie die Interoperabilität so bereitstellen sollen, wie Sie der Meinung sind, dass es gut ist. Wir wollen die einzelnen Plattformen entscheiden, sodass es nur die Monopole sind. Aber es ist eine gute Frage. Wir verstehen, dass nur die Prinzipien fest, die Ideen, wie das Grupp aussehen sollte, aber die vielen Fragen, die da noch offen bleiben, da wissen wir auch nicht genau, wie wir das weitergehen sollten. Ja, wir bleiben immer noch bei dem Thema. Eine andere Frage ist, wie verhindern wir das, dass es mit BSD II passiert? Das ist eine Richtlinie, die Banken verpflichtet, sich zu öffnen gegenüber anderen Dienste anbietern. Und das geht natürlich einher mit privatsphäre Fragen. Ja, sorry, das ist jetzt immer noch unterselbe Thema geht. Aber ich denke, das ist sehr wichtig. Ich muss die Erklärung noch einschieben. Auch eine gute Frage. Wir haben uns da mit dem Design-Communication-Akt beschäftigt. Wir benutzen das immer nur alles als Beispiele. Und das ist nicht wirklich möglich. Da hat manche Dinge einfach so im Gesetzestext zu gießen. Aber es gibt da natürlich auch viele Fragen, wie das natürlich jetzt wieder Politik. Die Frage davon hören die Leute, die tatsächlich die Richtlinie schreiben auf uns oder hören die auf andere. Das ist natürlich eine sehr gute Frage. Es gibt ein großes Risiko mit jedem Thema über das Versprechen, ob das Interoperabilität ist oder die Kontrolle über die Inhalte oder Werbung oder Rechenschaft. Wir glauben, dass vieles davon natürlich übernommen werden kann. Und dann natürlich Probleme hervorrufen kann. Für jede richtige Frage, die wir uns fragen, müssen wir natürlich immer überlegen, ob wir diese Box der Pandora eröffnen oder ob es den Kampf wert ist. Wir sagen da an der Front, sind wir sehr froh, ein bisschen Druck zu machen. Wir glauben, dass wir im nächsten Jahr mit die richtigen Personen finden, mit denen wir sprechen müssen. Das ist jetzt unsere große Herausforderung und da diejenigen, die Fragen haben, sollten natürlich auch gerne zu uns kommen und uns helfen, das dann ins Parlament zu tragen. Noch eine Frage an euch beide. Wäre es nicht hilfreich, für Anpassungen der Direktive zu kämpfen, dass das noch verbessert wird? Und wie könnte man das erreichen? Ich fange mal an, damit Christoph das sich ein bisschen ausruhen kann. Die Frage war, ob es nützlich sein könnte, für gewisse Anpassungen zu kämpfen, vor allem die, die Targetive betreffen. Ja, absolut. Es gibt natürlich eine kurze und lange Antwort, wie auf jede Frage. Die kurze Antwort wäre ja. Aber da die Wortwahl von so einem Dokument sehr präzise ist, ist es ein bisschen schwierig. Wir arbeiten noch an unserer Positionierung über Online Targeting und niemand kann das im Moment so genau definieren, was wir wollen und was wir nicht wollen. Und wir haben vor Kurzem da ein Blogpost drüber veröffentlicht, wo wir die Art, wie man über solche Dinge nachdenkt, etwas auseinandernehmen und wie wir darüber nachdenken. Und wie ich gesagt habe, insbesondere die Teile von Targeting, die definitiv schädlich sind. Und vor allem natürlich das Tracking von Individuen. Und vor allem wollen wir Individuen beschützen. Das ist definitiv eine Form, wo wir auf jeden Fall noch sehen können und das auf jeden Fall noch weiterbringen können. Das Gleiche gilt auch für das Tracking über mehrere Seiten von Nutzern. Aufgrund der Art, wie die Daten von Nutzern im Moment missbraucht werden, was ein integraler Teil von den Geschäftsmodellen von diesen Plattformen ist. Das ist eine der Richtungen, die wir auf jeden Fall anschlagen. Und wir laden euch natürlich auch wieder alle ein, da mit uns zusammen zu brainstormen und verschiedene Optionen zu erkennen und zu überlegen, die wir bedenken und nicht vergessen sollten. Aber ich denke, das wird auf jeden Fall eine der Hauptdiskussionen sein, wo wir auf der gleichen Seite sein müssen und zusammenziehen müssen. Unsere Kräfte zusammen tun, weil das DSA gibt uns eine gute Grundlage, aber es geht halt noch nicht gut weit genug. Das heißt, ja, es ist auf jeden Fall so. Aber da müssen wir noch eine sehr monstertierte Position finden. Und diese Aspekte könnten dann natürlich auch in der Praxis wieder schlecht aussehen. Ja, gute Intentionen sind nicht genug. Ja, danke. Wir überziehen ein bisschen, aber ich glaube, das ist okay. Drei Fragen sind noch offen. Eine kann ich selbst beantworten. Da ist die Antwort Nein. Irgendwas über Sponsoring. Und jetzt noch eine technischere Frage. Gibt es etwas, was die Legale, die die momentane Strategie beeinflussen könnte? Und gibt es da noch mal eine Berücksichtigung der Datenbanken? Da springe ich mal ein und du kannst später einspringen. Ja, manche Staaten haben tatsächlich eine Meinung abgegeben über das DSA. Da gab es einige Briefe und Diskussionen. Da gibt es ein paar gute Protokolle, die zeigen die verschiedenen Einstellungen der einzelnen Staaten zum aktuellen Entwurf. Und ja, das heißt, da gibt es viel zu besprechen mit den aktuellen Konsulaten. Ach so, was war die Frage? Ja, genau. Die Antwort auf die Frage kommt darauf an, was jetzt wirklich mit den Applikationen hier gemeint ist. Ob die Plattformrichtlinien dazutreffen, die diese E-Commerce-Direktive, da war ja noch nicht ganz klar, wie die korreliert zu zum Beispiel Non-Profit-Plattformen. Und da gibt es auch einige davon. Weil da gab es dieses Problem davon, einen Service über eine Generation hinweg, zum Beispiel irgendwie spenden oder so, was ist das schon, kommerziell oder so, Werbeverband. Das ist eine große Frage. Und die andere Frage ist, was sind da die Obligationen, müssen alternative Plattformen, eventuell bestimmte, ihre Interfaces ändern, entsprechend der rechtlichen Regulärien. Das sind noch offene Fragen, das haben wir noch nicht analysiert, aber das ist auf jeden Fall was, wo wir uns Gedanken übermachen. Das ist halt wahrscheinlich nicht nur die großen Plattformen, sondern auch die anderen. Vor allem bei der Non-Profit-Prage, das war immer eine unserer größten Anforderungen an Non-Profit-Organisationen. Und es ist nicht klar, wie sich das in der Praxis darstellt, denn in einem Moment geht es um Online-Plattformen und in anderen wieder nicht. Jetzt ist mein Ton weg. Aber wie sich das konkret auswirkt und auch auf Menschenrechtsorganisationen, das werden wir noch sehen. Und der Europäische Gerichtshof für Menschenrechte hat da ja auch Prinzipien für Non-Profit-Organisationen versucht durchzusetzen. Zum Beispiel in Estland mit der MTE-Entscheidung. Und ich bin nicht sicher, wie gut das implementiert wurde. Aber da arbeiten wir auf jeden Fall weiter dran und was den... Diese Interfereintels-ID angeht die Schnittstellen. Da müssen wir auch noch gucken, wie sich das in der Praxis auswirkt. Wir hoffen natürlich, dass wir unsere Positionen noch weiter verstärken können. Und dass wir weiter an die DSA und an Empfehlungen arbeiten können. Aber wir hängen auch davon ab, dass wir halt das Organisationen aus Brüssel auf uns zukommen und uns informieren. Und daraus leiten wir dann auch unsere Position und unsere Empfehlungen ab. Also, wir arbeiten da alles sehr hart daran. Wir stehen einer sehr großen Macht vor. Die von privaten Akteuren ausgeübt wird. Aber wir haben auch sehr gut mit der Europäischen Kommission zusammengearbeitet. Und das stimmt nicht hoffnungsvoll. Es gibt immer noch mehr Fragen als Antworten. Aber nun ja. Ja, das ist eine große Frage. Wir haben jetzt definitiv keine Zeit mehr. Danke euch beide, um hier zu sein. Viel Spaß noch in der 2D-Welt von Kongressen. Vielen Dank an euch alle. Danke. Tschüss.