 Herzlich willkommen zur Februar Ausgabe des digitalen Salons hier im Humboldt-Institut für Internet und Gesellschaft in Berlin. Mein Name ist Max und ich bin wissenschaftlicher Mitarbeiter im Forschungsprogramm Daten, Akteure und Infrastrukturen. Heute Abend soll es um den Digital Services Act gehen. Als Soziologe beschäftige ich mich grob gesagt damit, wie Gesellschaft funktioniert. Und Gesellschaft findet nicht nur im physischen Raum statt, sondern auch im digitalen Raum. Im physischen Raum haben wir zum Zusammenleben eine Reihe von Regeln und Gesetzen, die die meisten Mitglieder der Gesellschaft befolgen. Und diese Regeln gelten natürlich auch im digitalen Raum. Aber der digitalen Raum hat einige Besonderheiten, die neue Regeln und neue Rahmenbedingungen erfordern. Anfangs Euphorie des Internets in den 90er Jahren gab es einige Menschen, die die Vorstellung vom Internet als eine Art dezentralen, anarchistischen Raum hatten. Wo es wenig Regeln gibt, wo man vielleicht auch kostenfrei Inhalte teilen kann, denken wir da an Tauschplattformen wie Napster oder Beershare. Es gab relativ wenig Kontrolle darüber, was getauscht wurde. Mit der Kommerzialisierung des Internets haben sich private Akteure zunächst selber Regeln auferlegt, um ihre Geschäftsmodelle zu festigen. Das haben sie unter anderem deshalb gemacht, um ihre etwaige Umsatzeinbußen zu vermeiden. Schließlich möchte kein Unternehmen in irgendeiner Weise mit moralisch verwerflichen Inhalten in Verbindung gebracht werden. Aber genau da kommt schon das erste Problemspiel in einer Gesellschaft. Verschiedene Menschen haben verschiedene Vorstellungen davon, was okay ist und was nicht. Und deshalb braucht es den Staat quasi als eine Aushandlungsebene der Gesellschaft, die Regeln für alle festlegt. An dieser Stelle kommt der Digital Services Act ins Spiel. Er soll dazu dienen, die bisherigen Regeln, die wir in der Analogenwelt haben, in der digitalen Welt besser durchsetzen zu können. Für Anbieter bedeutet dies beispielsweise, dass es EU-weite Regeln für das Vorgehen gegen illegale Inhalte oder Produkte gibt. Nutzerinnen sollen vom DSA profitieren, indem beispielsweise grundrechtsverletzende Inhalte einfacher gemeldet werden können oder auch mehr Transparenz über Modrationsentscheidungen hergestellt werden sollen. Das heißt, dass Nutzerinnen einfacher sehen sollen können, warum ihre Inhalte gelöscht wurden oder auch Einspruch gegen Lösungen einlegen können. Damit sind wir auch mitten im Spannungsfeld. Es stellen sich einige Fragen. Wo hören grundrechtswahrende Moderierungen von illegalen Inhalten auf und wo fängt die Kuratierung von Inhalten an, die eigentlich den Bereich der Meinungsfreiheit betrifft? Bei meiner alltäglichen Nutzung von Social-Media-Plattformen kann ich stark unterschiedliches Moderationsverhalten feststellen. Während beispielsweise auf Instagram relativ schnell körperliche Selbstdarstellung gelöscht wird, kann man auf Twitter, was jetzt X ist, relativ einfach explizite Inhalte und Hass finden. Über diese Spannungen möchten wir heute Abend mit unseren Gästinnen reden. Dazu übergebe ich jetzt gleich an Katja. Vielen Dank dir. Und euch auch ein herzliches Willkommen von meiner Seite im Stream und hier im Raum. Schön, dass ihr da seid. Ich bin mir nicht sicher, ob ihr gemerkt habt, dass seit mehr als zehn Tagen, seit dem 17. Februar der Digital Service Act, von dem gerade die Rede war, vollumfänglich gilt in der EU. Also für die großen Tanker von Alibaba bis Amazon bis hin zu YouTube und Zalando und auch für kleinere Anbieter digitaler Dienstleistungen. Das soll uns allen euch einen zu mehr Rechten verhelfen gegenüber den Plattformen. Es soll erleichtern, strafbare Inhalte zu melden, für mehr Transparenz sorgen. Seitens der Unternehmen soll Online-Werbung regulieren und uns vor Manipulationen durch Design, also sogenannte DAG-Patterns, schützen. Das Internet-Respektive der Plattform Kapitalismus kriegt ein Grundgesetz. So wurde das mitunter apostrophiert oder bejubelt nicht zuletzt logisch aus Brüssel, wo es ja auch herkam. Bisher leider nur ein netter Versuch hat, aber die SZ zum Beispiel im Montag dazu geschrieben. Mal hören, was die Sachverständigen hier vorne auf dem Panel dazu meinen. Wie immer ist aber natürlich auch interessant, was meint ihr denn, was kriegt ihr davon mit, was nehmt ihr wahr und was sind eure Fragen. All das ist hier sehr erwünscht. Also stellt die Bitte entweder hier im Raum oder online, macht euch gerne bemerkbar. Jetzt stelle ich euch die Runde vor. Sie hat sich colorblockingmäßig weitgehend abgesprochen. Stell ich fest, Sabine Frank ist bei uns, sie ist Rechtswissenschaftlerin und leitet seit vier Jahren die Abteilung Government Affairs und Public Policy für YouTube in Deutschland, Österreich und Schweiz, also in deutschsprachigen Ländern und auch für Zentral- und Osteuropa. Vorher war sie zuständig für Regulierung, Verbraucher und Jugendschutz im Politikteam von Google in Deutschland. Und ich halte es kurz, ich weiß, es gäbe noch andere Stationen zu benennen. Schön, dass du da bist, Sabine. Willkommen. Julian, jetzt weiß ich doch wieder nicht, wie man den Nachnamen richtig ausspricht. Ich finde es so kompliziert, obwohl er einfach aussieht. Jauersch. Okay, also da ist nämlich ein E in dem Nachnamen, das nicht hingeschrieben wird. Wahnsinnig türkisch und ein echter Mottfalle. Also Julian Jauersch ist Politikwissenschaftler und Projektleiter im Bereich Stärkung digitaler Öffentlichkeit bei der Stiftung Neue Verantwortung. Da geht es in seinem Arbeitsbereich um den Umgang mit Desinformationen. Es geht um Fragen der Regulierung von Tech-Plattformen. All das gehört zu den Schwerpunkten. Schön, dass du da bist. Schönen guten Abend. Anna hat sich eingefunden. Anna Biseller, sie ist Informatikerin und Co-Chef Redakteurin bei netzpolitik.org. Erst vor ein paar Tagen hat sie da auf Netzpolitik gemeinsam mit einem Kollegen beschrieben, was sich jetzt durch den Digital Services Act ändert bzw. Futur ist vielleicht auch nicht unangebracht, ändern soll. Der Artikel endet mit dem Satz. Es wird sich erst in den kommenden Monaten zeigen, wie wirksam die neuen Regeln wirklich werden. Das wollen wir heute Abend ausleuchten. Willkommen Anna. Und last but not least. Tim Klaas ist hier der zweite Jurist in der Runde bei TikTok seit zweieinhalb Jahren verantwortlich für Strategie, Regierungs- und Parlamentsbeziehungen und öffentliche Angelegenheiten von TikTok in Deutschland, Österreich und der Schweiz. Ihr seid so was Sabine und Tim wie Counterparts, jeweils aus den beiden Unternehmen. Zu deinem Zuständigkeitsquälreich gehört auch noch Südeuropa und Israel. Vorher hat Tim mehrere Jahre für Airbnb und Booking gearbeitet. Auch dir einen schönen guten Abend. Super, dass du da bist. So, wie gesagt, Vorschuss, Lor Bern gab es schon als das Digital Services Act, der noch im Stande der Planung war, schon reichlich. Da wurde gesagt, die Verordnung ist historisch, claro, und sie schafft so was wie ein Plattformgrundgesetz. Stimmst du diesen Aussagen zu, Tim? Ich glaube, was man vorab erst mal sagen müsste, ist, was ich ganz persönlich spannend fand, als ich zu TikTok gekommen bin, gab es das Netz-DG bei Switzerland schon. Es wurde dann mit dem DSA schon verhandelt. Das heißt, ich hatte so eine Beobachterrolle, weil in meiner Verantwortlichkeit ist jetzt nicht Brüssel und dementsprechend nicht DSA in der ersten Reihe. Aber was dort einfach nochmal zu beobachten war, für TikTok ist so der Grundgedanke, für den der DSA transportiert, nämlich Transparenz zu schaffen, schon vor dem DSA da gewesen, schon vor dem Netz-DG da gewesen. Wir haben durch unsere Transparenzberichte auch schon seit Mitte 2. Hälfte 2019 damit begonnen, darüber aufzuklären, wie wir moderieren, wie viel wir runtergenommen haben. Ich glaube, was jetzt mit dem DSA stattgefunden hat, ist das, worüber man ja auch immer wieder gestöhnt hat, diese Fragmentierung innerhalb von Europa. Ich meine, Deutschland war sehr prominent mit dem Netz-DG unterwegs. Ich habe mitbekommen, dass unsere Kolleginnen aus anderen europäischen Ländern uns mal wieder gefragt haben, was ist das eigentlich, wie sieht das aus? Immer mit dem Hintergedanken, dass da ja auch über den DSA diskutiert wird. Was kommt da auf einen zu? Also ich glaube, das ist jetzt schon so der nächste Schritt, den wir dann genommen haben, in dem wir gesagt haben, okay, jetzt ist es da, jetzt ist die Basis da. Aber es ist jetzt nicht, ich sage mal, etwas, was vorher noch gar nicht da war. Viele Fragmente waren bereits da. Jetzt ist es so ein holistischer Ansatz, den wir sehen. Okay, also nicht Ground Rocking, sondern so ein Rahmen um das rum, was du schon vorher beobachtet hast. Das klingt relativ gelassen. Ich könnte mir mal vorstellen, dass TikTok da doch auf den ein oder anderen Aspekt hatte aus dem DSA. Na ja, Bock, würde ich jetzt nicht sagen, es geht eher darum, ich meine, es war natürlich dann eine Herkulesaufgabe. Also bei TikTok haben mehr als 1.000 Expertinnen und Experten aus 80 Teams daran gearbeitet, zum Stichtag Compliance zu sein. Also wir haben von Anfang an das begleitet, das war von Anfang an, haben wir es unterstützt. Und wir sind dann auch mit dem Stichtag für die VLOPS, der ja früher da war, als jetzt für die kleineren Plattformen. VLOPS, bitte nochmal kurz die Fußnote dran. Also die dicken Tanker. Und dementsprechend war das auch unser Anspruch und das haben dann die Teams umgesetzt. Wie sieht es bei YouTube aus, Sabine? Wie groß war Ärger oder Jubel angesichts dessen, was da auf euch zukommt? Also ich kann bei ein paar Sachen anschließen, die Tim schon gesagt hat, viel davon gab es vorher schon, insbesondere für Unternehmen, die in Deutschland oder Europa tätig waren. Neben den Sachen, die Tim gesagt hat, finde ich es auch noch ganz wichtig, was der DSL jetzt bringt, nämlich Research Access. Das ist glaube ich hier im Raum ja ganz spannend. Wir haben als Unternehmen eine API schon lange, sodass Research Access angefragt werden kann. Aber das haben nicht alle Unternehmen. Bei uns gibt es schon lange auch so Möglichkeiten. Wenn Inhalte runtergenommen werden, dann werdet ihr, wenn das euer Inhalt ist, darüber informiert und könnt Beschwerde einlegen. Aber nicht alle Unternehmen haben das. Wie ist das Gute am DSL, das wirklich ein einheitlicher Standard gesetzt wird, der europaweit eingehalten werden kann? Das heißt, wir haben da auch nicht unterschiedliche Niveaus. Es kann nachvollzogen werden, wie viele Leute in welcher Sprache tätig ist. Da gab es ja auch immer große Fragezeichen auch bei den Unternehmen. Das heißt, wir haben Transparenzbereiche, die wir vorher nicht hatten, die wir mit dem DSL haben. Das ist total richtig. Ich finde nicht, dass es ein Grundgesetz ist weil der DSA sozusagen Strukturrahmen gibt, aber kein Inhaltsrahmen. Der Inhaltsrahmen ist immer noch national. Das sind die Strafgesetzbücher und auch andere Gesetzbücher. Das ist der Teil, der uns schon auch Sorgen falten auf die Stirn heißt. Auf die Stirn bringen, nämlich sind so wahnsinnig viele Normen, die zu berücksichtigen sind. Das ist glaube ich nicht so ganz einfach. Also von Tierschutz, Umweltschutz, Produktsicherheiten bis zu Strafrechtsnormen, das ist der Zugengeschutzverbrauch. Also sozusagen diese ganze Bandbreite. Und ich glaube, das ist sowohl für uns, aber auch für die Aussichtsbehörden nicht so ganz trivial. Da war das Netz-CG sehr viel stringenter. Da ging es um 23, glaube ich, STGB-Normen. So, da kann man sich die Frage stellen, ist es ja wirklich richtige Ansatz, diese Breite zu haben? Das glaube ich, muss man gemeinsam austesten. Okay, fass mal deine Antwort so zusammen. Es ging bei dir auch los. Mit einem gewissen Maß an Gelassenheit bin der dann. So haben wir schon alles bei YouTube. Wenn man dann die Umsetzung in den nationalen Rechtsrahmen geht, dann wird es schon noch mal trickreich. Und dann sind wir vielleicht auch bei dem, was ich eingangs aus Annas Artikel zitiert habe, dass da noch einiges nachzulegen und nachzuschärfen ist. Ich habe eben ja auch die SZ zitiert, Anna, die sagt, der DSA ist ein netter Versuch. Wie gelungen findest du den Versuch oder die Verordnung? Ich glaube, in der Verordnung steht erstmal viel drin, was sinnig ist. So, und ich glaube aber das Problem, dass wir ja auch bei der Datenschutzgrundverordnung haben, die ja auch viele sehr begrüßt haben und gesagt haben, okay, das löst jetzt viele unserer Datenschutzprobleme, ist halt die Frage, wie kontrolliert man es oder wie enforced man im Endeffekt die Regeln, die da sind. Es geht ja jetzt nicht nur um die sehr großen Plattformen, auf die viele gucken, sondern es geht ja auch um ganz, ganz viele andere, die eben vielleicht kleiner sind, die nicht so krass in einem öffentlichen Interesse stecken, die aber viele Dinge gerne tun, die sie vielleicht nach dem DSA nicht mehr dürften. Also ich meine, es ist ja nicht nur eine Moderationsregulierung oder zumindest eine Transparenz und sonstige Pflicht zur Moderation, sondern es geht ja beispielsweise auch um Darkpattern. Das heißt irgendwie manipulatives Design, das Leute davon abhalten soll, wesentlich nicht in Accounts zu kündigen oder andere Dinge zu tun. Und da haben wir ja auch bei der Datenschutzgrundverordnung gesehen, das ist jetzt schon ein paar Jahre her und wir klicken uns immer noch durch irgendwelche komplett absurden Cookie-Banner, wo man bei vielen sagen würde, die sind ziemlich eindeutig rechtswidrig und wo man aber einfach nicht hinterherkommt, das durchzusetzen, weil die Behörden eben nicht ordentlich ausgestattet sind, die das irgendwie tun. Und da haben wir ja immer noch in Deutschland das Problem. Wir haben ja noch kein finales Gesetz, wie dann eben auch die Aufsicht in Deutschland umgesetzt wird. Und da müssen wir noch mal gucken. Was kommt dazu, wer sanktioniert? Denn dann eigentlich was kommen wir bestimmt noch? Dann würde ich jetzt mal gerne so eine relativ simple Ent- oder Wederfrage stellen, regelt der DSL zu viel oder zu wenig? Weder noch. Sondern? Wir werden noch sehen, was da wirklich regelt und wer dann auch davon betroffen ist. Ich glaube, viele Dienste wissen noch gar nicht, dass sie vom DSL betroffen sind, weil wir reden ja nicht nur über Online-Plattformen, wir reden nicht nur über sehr große Anbieter, wir reden ja über Vermittlungsdienste. Und dann wird sich, glaube ich, noch in nähere Zukunft, werden sich viele Leute die Frage stellen, ob sie da eigentlich dazugehören. Das heißt, du teilst Sabines-Einschätzung. Wir haben jetzt sowas wie einen Rahmen, aber wie wir alles, was innerhalb dieses Rahmens ist, zusammenfügen oder zusammenpuzzeln, da sind wir noch dran. Das muss noch gefunden werden. Ja, und es muss auch letztlich, wahrscheinlich wird es auch diverse Gerichtsputzesse geben, darum, ob dann irgendwie etwas die Meinungsfreiheit zu stark einschränkt oder ob irgendwas dann noch in Ordnung ist. Das wird auch sicherlich überall in der EU anders aussehen. Ich glaube, wir werden eine ganz, ganz andere Situation haben in Ländern wie Ungarn mit dem beliebten Beispiel, als wir das jetzt irgendwie in Deutschland haben werden. Und ich glaube, da kommt noch einiges an Beobachtung auf uns zu. Da kommt einiges auf die Anbieter zu. Da kommt einiges auf die Gerichte zu. Und das dauert dann noch ein paar Jahre. Und ich glaube, wir sollten halt jetzt nicht, ich sag mal, nicht den Fehler, aber das Versäumnis machen, dass man dann eben bei den Datenschutzregeln hatte, dass man relativ spät angefangen hat, vorherzulaufen, wenn dann eben Anbieter angefangen haben, ihre Schlupflöcher oder ihre Wege drum herumzufinden. Jetzt sind wir schon, glaube ich, in diesem großen Kapitel leerstellen. Ich würde aber trotzdem Julian von dir gern auch nochmal hören. Was findest du denn an der Verordnung richtig, richtig sinnvoll? An einer Stelle kann ich mich da schon, schon anschließend, was schon gesagt wurde, nämlich die Bewegung weg von alleinigen nationalen Regeln und Selbstregulierungen hin zu europäischen Regeln. Also dieser ganz grundsätzliche Ansatz, dass man europäisch an die Plattformregulierung rangeht, find ich sinnvoll. Das ist, glaube ich, die gute Sache. Und wie das jetzt schon anklingt, kann man sich sicherlich über einzelne Regeln streiten, ob die weit genug gehen, ob die zu weit gehen, ob zu viel oder zu wenig reguliert und wer das durchsetzt. Das sind ja alles Sachen, mit denen meine Kolleginnen und ich bei der SNF uns ja auseinandergesetzt haben. Also dieser ganz grundsätzliche Ansatz, sich nicht auf die Selbstregulierung und die freiwilligen Maßnahmen in Plattformen zu verlassen, find ich gut, ist ein sinnvoller Sache. Und wo hättest du dir mehr versprochen? Oder auch anderes, also jetzt hier Raum für Kritik? Es gibt ein paar Vorschriften im DSA, die im Ansatz gut sind, aber aus meiner Sicht noch ein bisschen weiter hätten gehen können, zum Beispiel zum Thema Nutzung von Personen, von personenbezogenen Daten, von persönlichen Daten für die Werbung. Da gab es lange Diskussionen drüber. Auch die angesprochenen Regeln zu potenziell manipulativen Designs sind eine Erweiterung von dem, was wir hatten, aber jetzt auch kein riesiger Schritt. Das als so inhaltliche Beispiele, aber ansonsten würde ich mich in jedem Fall anderen anschließen und die Sache ansprechen, mit der ich mich auch intensive auseinandergesetzt habe, das ist die Durchsetzung. Aus meiner Sicht auch der Kern der Frage, ob die Mitgliedsstaaten, die Kommission und noch eine ganze Reihe anderer Personenkreise, die Forschung wurde schon angesprochen, die Zivilgesellschaft, Journalismus, kleinere Plattformen, Größteplotter und das halt in diesem, als Gemeinschaftsaufgabe gelingt, das Ziel des DSA zu erreichen. Und das sollte, finde ich, nicht aus dem Kopf verloren werden. Das Ziel ist es, das Online-Umfeld sicherer und transparenter zu machen. Und ich finde, diese Zentrierung auf die Nutzer enden, das ist das Wichtige. Und es geht nicht darum, dass am Ende ein Machtgewinn bei der Kommission steht oder die Plattformen sich dafür auf die Schultern klopfen können, dass sie jetzt Transparenzmaßnahmen oder so haben oder dass die Zivilgesellschaft und die Forschung sich auf die Schultern klopfen, dass sie jetzt Datenzugangsanfragen stellt, sondern letztendlich soll es ja den Leuten was bringen. Und das ist, glaube ich, der Maßstab. Und dafür ist die Durchsetzung eben enorm wichtig. Können wir unternehmen, auch Kritikpunkte noch äußern? Okay, ja, jetzt ausgelöst durch das, was Julien und Anna ausgeführt haben? Oder wo kommt deine Kritik jetzt hin? Nein, nein, vielleicht noch mal ergänzend. Man braucht ja auch eine Weile, bis man hier wird. Betriebstemperatur? Ja, zwei Sachen, die mir noch eingefallen sind, wo ich dachte, also das, was der DSA macht, ist, habe ich vorhin gesagt, er gibt ja nur einen Rahmen und sozusagen die inhaltlichen Regelungen sind nationale Normen, die umgesetzt werden. Aber das ist nicht ganz wahr, weil der DSA auch noch die Möglichkeit eröffnet, Kodizä ist einzuführen und die Kodizä, diese freiwilligen, ich komme deshalb drauf wegen Freiwilligkeit, diese freiwilligen Kodizä sind nicht mehr so ganz freiwillig zukünftig, weil sie sozusagen in die Regulierung reingezogen werden. Für große Plattformen ist das so in der Tat. Aber trotzdem muss man sich ja die Frage stellen, wer schreibt diese Kodizä? Sind das Unternehmen? Oder ist das nur die Kommission? Oder ist das vornehmlich die Kommission? Und wenn das dann enforced wird, und das sind keine Strafrechtsnormen mehr, sondern da geht es dann um untergesetzliche Normierung, dann ist schon Potenzial für Missbrauch auch da. Und zumindest bewusst sein muss man sich das. Ich sage nicht, dass die Kommission es tut. Aber das ist ein völlig neues Instrument, das hier geschaffen wird. Es wird jetzt gerade diskutierten Code of Conduct zum Thema Jugendmedienschutz, wo zum Beispiel die Unternehmen, die nachher aber quasi Codex-Unterzeichner sein sollen, gar nicht am Tisch sitzen. Und das ist schon eher ungewöhnlich für mich. Also das ist vielleicht eine Sache. Und die zweite Sache, die der DSA einführt, sind Out-of-Court-Mechanismen, Redress-Mechanismen. Das heißt, es gibt dritte Stellen, die dann quasi als Schlichtungsstellen fungieren. Das ist aber außerhalb quasi der Gerichtsbarkeiten. Und da wiederum gibt es vielleicht auch Länder, wo wir Fragezeichen hintermachen können, ob das wirklich so sinnvoll ist, dass es nicht gerichtet oder zusätzlich zu Gerichten nochmal dritte Stellen sind, die dann entscheiden. Genau, das wären zwei Punkte, wo ich die... Nein, tatsächlich mit Blick auf die Uhr nicht, weil ich bin noch auf der ersten Hälfte meines zweiten Zettels. Und das ist mir verdammt noch mal zu wenig. Lassen wir ein paar lose Enden stehen. Ich nehme aber schon mal fest, was ich erstaunlich finde, nach ein paar Minuten Diskussion, wie viel aus euren Warten herausgeguckt noch offen ist. Das ist tatsächlich wesentlich mehr, als mir im Vorfeld klar war. Und du hattest, Julia, ich nehme jetzt doch Bezug auf dich, ihr Sicherheit und Transparenz angesprochen. Und dann dachte ich, okay, dann müssen wir jetzt mal praktisch werden in einem Jahr mit wichtigen Landtagswahlen, mit Europawahlen, mit US-Präsidentschaftswahlen. Was bedeuteten das jetzt für uns, für uns alle, wenn wir uns mit Desinformationen und Hassrede beschäftigen? Es soll mir als Userin ja künftig leichter gemacht werden, strafbare Inhalte zu melden, also Sicherheit und Transparenz, dann eben sozusagen aus meiner subjektiven Sicht heraus. Wie sieht es jetzt, Tim, bei TikTok aus? Was mache ich, wenn ich strafbare Inhalte entdecke? Wie gehe ich vor? Was habt ihr verändert im Prozedere? Also eine Vorgabe war A, dass man die Meldfunktion einführt und B, dass sie leicht zu bedienen ist. Das haben wir dahin ging gemacht, dass man entweder auf das Kurzvideo den Livestream draufklickt, kurz hält und dann poppt ein neues Fenster auf und oben ist dann die Funktion melden, dann klickt man drauf. Dann muss man auswählen, das ist auch eine Vorgabe des DSA, dass man angibt, in welchem Land man sich, also für welches Land das gelten soll, das wählt man aus und gibt dann aber auch an, warum man dieses Video, diesen Livestream für illegal hält, also eine Beschreibung des Ganzen ist halt wichtig. Und je konkreter das ist, umso einfacher ist es dann halt quasi auch für unsere Experten, das denen dann zu überprüfen und nachzuverfolgen, ob das tatsächlich ein Verstoß gegen eine Strafbezüge ist. Wie sieht es dann aus? Habt ihr dann so ein Pulldown-Menü, wo ich anklicke und das finde ich strafbar oder formuliere ich frei, was ich daran, um das Zöhn gewaltsam beleidigend finde? Genau, also der Drop-down ist halt tatsächlich, ich sage mal die Juristiktion, also Deutschland und der Rest sind halt Freifelder, wo man dann erklären kann, was man in dem Video, in dem Livestream für illegal sieht. Wie sieht es bei YouTube aus? Was mache ich, wenn ich dann strafbaren Inhalt melden möchte? Mit Mikrofon ist viel besser. Ist uns vorher extra gesagt worden. Also relativ ähnlich, es gibt drei Punkte, die kann man sozusagen anklicken und dann öffnet sich Menü und dann kann man sagen, also wir machen es ein bisschen anders. Es gibt eine Auswahl sozusagen an Themenbereichen, die man dann auswählen kann. Und man sagt, glaube ich, dass es ein strafrechtsrelevanter Inhalt ist und dann begründ ich das oder will ich das nach Hausregeln melden. Das ist sozusagen die Unterscheidung, die da ist und dann wird das Ding abgeschickt. Und dann passiert irgendetwas damit. Es wird gelöscht oder nicht. Und ich kriege Rückmeldung, ob ja oder nein. Genau. Und wenn gelöscht wird, dann wird derjenige, der Inhaltersteller ist informiert und kann eine Beschwerde einlegen und sagen, ich finde, das habt ihr aber falsch bewertet, aus folgenden Gründen. Und dann findet ein erneuter Prozess statt, wo andere Menschen, als sie die ursprüngliche Entscheidung gefällt haben, nochmal sich den Inhalt angucken und gucken, dass es tatsächlich nicht gegen deutsche Strafrecht, verstößt es nicht gegen deutsche Strafrecht und dann wird es wieder hochgeladen. Wenn ich da kurz ergänzend reinkommen kann, also bei uns ist es so, dass wir zum einen zwei unterschiedliche Möglichkeiten öffnen. Einmal das, was ich gesagt habe, mit dem langen Drücken oder halt auf ein Icon-Drücken am Seite des Bildschirms. Und da ist es dann so, dass wenn jemand es als illegal ansieht, es ist erstmal so, dass wir dann automatisch erstmal überprüfen, ob das gegen unsere Gemeinschaftsrichtlinien verstößt. Und dann in zweiten Schritt, in der der Gemeinschaftsrichtlinien ist dieser erste Schritt, ein Verstoß gegen die Gemeinschaftsrichtlinien, findet schon statt. Wenn der schon als Verstoß befunden wird, wird das Video oder der Livestream dementsprechend moderiert. Ansonsten geht es quasi in die Schleife der Überprüfung illegal. Und dann das, was Savine gesagt hat, folgt die Entscheidung. Wenn jetzt das dann sozusagen moderiert wird und der Nutzer die Nutzerin damit nicht einverstanden ist, dann gibt es halt den Appeal-Prozess im Nachhinein. Anna, du hattest vorhin nach den Kontrollinstanzen gefragt. Also wer kontrolliert, wer setzt durch, wie sieht das auf der Ebene aus, auf staatlicher Ebene? Wer guckt, dass diese Verordnung, so wie sie gemeint und gedacht ist, umgesetzt und eingehalten wird? Wir sind ja in Deutschland mit dem Gesetz entsprechend noch nicht fertig. Für die ganz großen Plattformen ist eine Stelle bei der EU-Kommission zuständig. Das heißt, es geht dann erst mal eine Ebene höher. In Deutschland wird es dann wahrscheinlich eine Stelle bei der Bundesnetzagentur, die das in Deutschland koordiniert. Aber es sind ja auch noch andere Beteilig. Das heißt, es gibt beispielsweise für den Bereich der personalisierten Werbung ist der Bundesdatenschutzbeauftragte mit zuständig. Die Medienanstalten sind mit zuständig, wenn es beispielsweise um den Schutz von Kindern und Jugendlichen geht. Und wenn dann eben strafbare Inhalte festgestellt werden, ist das Ganze natürlich eben auch an erst mal das BKA wahrscheinlich und von da aus dann den Weg weiter. Das heißt, wir haben eine, ich würde nicht sagen zerfaserte Aufsicht, aber wir haben auf jeden Fall eine Aufsicht, die nicht ganz, ganz einfach ist. Aber für die Nutzerin soll es eben einfach sein. Und die sollen sich dann eben bei der Bundesnetzagentur melden können und die koordiniert dann den Rest, ohne dass sich die Leute damit beschäftigen müssen, wo sie jetzt genau an welcher Stelle hin müssen. Also das heißt beispielsweise, wenn sie was auf TikTok melden und irgendwie das Gefühl haben, dass TikTok das nicht ordentlich bearbeitet oder irgendwie ein Meldebutton fehlt oder was auch immer, dann können sie eben mit ihrer Beschwerde über die Plattform, dass die was nicht richtig gemacht haben, können sie dann da hingehen. Das heißt, wir haben jetzt ein Regelwerk, aber im Grunde fehlt noch die Stelle, die koordiniert, die sanktioniert oder die kontrolliert und sanktioniert und das, was du gerade geschildert hast sind denkbaren Ansprechstellen, das mal 16, weil Föderalismus und so weiter. Geht das nicht über die Landesdatenschutzbeauftragten? Dann auch? Nein, das sollte schon erst mal, dass die Leute quasi eine zentrale Ansprechstelle, also diese zentrale Koordinierungsstelle im Deutschland haben. Aber die ist noch zu schaffen, habe ich das richtig verstanden? Die ist noch zu schaffen, weil die Parteien sich vielleicht ein bisschen zu viel Zeit gelassen haben, die gelten ja alle Regeln für alle, seit dem 17. Februar und bis dahin sollte eigentlich auch das Gesetz fertig gewesen sein, das hat nicht funktioniert, weil das eben zeitlich nicht hingehauen hat und aber ich glaube die Grundzüge dieses Gesetzes, also es ist jetzt nicht so umstritten, in der Meldung auf dem Bundestagskanal war dann, es gab moderate Kritik so, das ist etwas, was jetzt nicht daraufhin deutet, dass es da jetzt ein Riesen-Iklag geben wird, wie das dann am Ende aussieht, das heißt, wir können schon davon aussehen, was da oder was gerade im Bundestag diskutiert ist, dass dann auch das ist, wie dann die Aufsicht aussehen wird. Klingt für mich das, was du beschreibst, nach einem erheblichen Personalmeerauffand bei all diesen Institutionen, ist das leistbar Julian? Gibt es da gerade Stellenausschreibungen? Mastro, hier das geneigte Publikum, sich bewerben könnte? Die wird es, soweit ich weiß, ab dem nächsten Jahr geben, weil das vor allen Dingen mit dem Haushalt für das kommende Jahr ein Budget ist. Aber die Ausstattung ist tatsächlich eine große Frage, wie Anna ja schon gesagt hat, ist das deutsche Gesetz zur Umsetzung des TSA noch nicht durch. Das wird kommen. Aus meiner Sicht ist es schon wichtig, dass die Aufgaben, die dort anstehen, dass die auch von qualifizierten, motivierten Leuten ausgeübt werden und dafür Leute zu finden, wird sicherlich eine der großen Aufgaben am Anfang für diesen Koordinator sein. Na klar, man kann jetzt in jede Diskussion einfach mal reinrufen, Fachkräftemangel, egal worum es geht. Ja, die Konkurrenz ist natürlich auf jeden Fall da, also erstmal muss man das Budget dafür haben, dann konkurriert man mit anderen Mitgliedstaaten, die ja auch diese Koordinatoren aufbauen müssen, man konkurriert einen privaten Unternehmen, man konkurriert mit der Wissenschaft, das wird sicherlich eine der Fragen. Ich muss noch einmal kurz zurückkommen auf den Punkt von eben zu den, was sich für Nutzen ändert und fand die Beispiele, die geliefert wurden ideal dafür, das ist ja genau dieser Punkt, dass was TikTok oder YouTube in diesem Fall bei sich hier sitzen, ja schon sowieso hatten, die Meldesysteme, dass die eben jetzt vielleicht mal ein bisschen geändert, verbessert wurden und dass das jetzt eben auch für andere Plattformen, die jetzt vielleicht vorher nicht hatten, verpflichtend sind. Nichtsdestotrotz, komme ich auch nicht, um hinzuentwähnen, dass weder bei den Plattformen, die hier sind, noch bei allen anderen Plattformen alles rund läuft, sondern es sind noch viele und die Kommission hat auch gegen mehrere sehr große Online-Plattformen hat Informationsanfragen gestellt zu dem Thema Datenzugang, weil die Kommission Fragen hat, dass einige der Regeln aus dem DSA obwohl sie schon gelten für diese großen Online-Plattformen noch nicht vernünftig umgesetzt wurden, das heißt, da besteht möglicherweise Nachbohl darf, das ist jetzt zu klären und gegen zwei sehr große Online-Plattformen wurden auch Verfahren eingeleitet für mögliche Verstöße, auch das möglich, dass das Verfahren ist offen, das heißt, es heißt nicht, dass es definitiv schon DSA-Verstöße gibt, aber gegen X und gegen TikTok wurden eben Verfahren eingeleitet und das zeugt eben davon, dass selbst bei großen Unternehmen, die viel investiert haben, wir haben gerade gehört, wie viele Leute dahinterstecken, dass selbst da eben noch Fragen offen sind, wie der DSA umgesetzt wird und da hat er ja auch schon gesagt, es sind ja nicht nur die großen, sondern auch die kleinen und ich glaube deshalb wird sich wirklich noch zeigen, wie diese Verfahren ausgehen und wie die Umsetzung wirklich auch bei den Plattformen gelingen kann. So, Times flying, when you have a fun. Gibt es Fragen von euch? Ich sehe, wir haben schon die halbe Stunde auf jeden Fall voll und ich habe hier ein Konvolut an weiteren Fragen. Denke aber, dass ihr auch welche habt, da werde ich nicht drüber bügeln. Also gebt mal bitte ein Anzeichen, wenn ihr euch hier reinschalten wollt. Wenn keine Fragen sind, dann würde ich natürlich eine Antwort. Ja, ich hätte eine Reaktion auf das, was Julian gesagt hat, weil wir genannt wurden. Okay, dann reagiert du gerne und da gibt es ein Handzeichen. Irgendwo kommt du auch mit dem Saalmikro zusammen und in der Zeit kannst du ja hier noch dran flanschen. Ja, ich finde das spannend, was auch was Julian gesagt hat, weil zum Einen ist es ja auch nicht nur für uns als Plattform wichtig zu wissen, was wir machen müssen, sondern es ist glaube ich auch ein Lernprozess und ich muss ja auch wissen, die Kommission hat ja in der gewissen Weise auch so eine Doppelrolle. Sie ist einmal Co-Gesetzgeber und jetzt auch noch Regulierer für die großen Plattform und wie Julian gesagt hat, also wir haben von Anfang an mit der Kommission zusammengearbeitet, wir haben unsere Risikogerichte eingereicht, wir haben auf Rückfragen geantwortet und zum ersten Mal muss man ja sagen, dass das, was der Regulierer jetzt macht, das ist ja auch richtig, weil das ist ja die Aufgabe das nachzufragen, nachzugucken und für uns ist es jetzt wichtig, besser zu verstehen, was will die Kommission jetzt eigentlich noch mehr wissen oder wo sind Fragen und das begrüßen wir ja auch, weil da ist der DSA wiederum auch nicht anders als alle anderen Gesetze, das wird veröffentlicht, es tritt in Kraft natürlich findet dann weiterhin einen Austausch statt, es ist ja nicht so, als wenn dann das Gespräch endet, nachdem das Gesetz oder in diesem Fall die Verordnung in Kraft tritt, es ist ja ein ständiger Austausch eine Informationsgewinnung für beide sein und da werden wir auch aktiv natürlich mitmachen. So, ich hatte hier ein Seilmikro versprochen, habe ich gelogen? Nee, da ist eins prima, danke. Ja, Lulina Stelzner von GermanWatch danke für die spannende Runde meine Frage, weil der DSA ja auch ein Gesprächsöffner ist, was für Geschäftsmodelle verfolgen eigentlich große Plattform ist genau, also auf der einen Seite ist klar, dass wir die Plattform ja brauchen, die unsere Demokratie schützen, Verbraucherrechte stärken und genau, meine Frage ist auf der einen Seite in der DSA Umsetzung ist ja geplant, dass sensible Daten geschützt werden sollen von Minderjährigen und also genau, sensible Daten und die der Minderjährigen wie hat, wir haben die Plattform bisher geplant sozusagen das umzusetzen, weil es ja in bestehenden Geschäftsmodellen eigentlich nicht bisher praktiziert wird und meine zweite Frage bezieht sich auf dieses themischen Risiken als Plattform, haben sie eine große Verantwortung für ja, als Infrastruktur sozusagen und als Umwelt- und Klima-NGO fragen wir uns da oft, wie sind eigentlich auch Klima- und Umweltaspekte als systemische Risiken mit so denken genau, ist das was, was Sie auch als Plattform mit aufgreifen? Interessantes Morfen deiner Stimme vielen Dank für die beiden Fragen und ich vermute mal, die gehen an Sabine und Tim, also fangen wir vielleicht mal an mit den sensiblen Daten und mit den Daten Minderjähriger mit denen jetzt anders zu verfahren ist wie passiert es auf YouTube? Also du weißt sicherlich dass sozusagen das Kerngeschäftsmodell bei den Google-Diensten ist oder Google-Dienste sich in der Regel über Werbung finanzieren das ist sozusagen die Haupteinnahmequelle und es gibt Dienste wo du sozusagen monatliche Fies zahlen kannst und dann ohne Werbung quasi die Dienste nutzen kann, das sind sozusagen die zwei Bereiche in dem einen Bereich wird Werbung geschaltet aber für Minderjährige haben wir uns das schon vor dem DSA ausgeschlossen, dass wir sensible Daten für den Einsatz von Werbung nutzen, das ist sozusagen unsere Reaktion darauf, dass es hinter dem DSA festgelegt worden, wir haben es aber vorher schon gemacht das wäre meine eine Frage soll ich auch noch was zu der anderen Frage sein? Wenn du da auch noch was zu sagen kannst ehrlich gesagt nur die systemischen Risiken genau, die systemischen Risiken, unsere Primär die Primäranalyse soweit mir bekannt ist hat das Thema Energie Nutzung, das ist ja sozusagen das was letztlich dahinter steht ich weiß nicht drin aber das müsste ich noch mal nachschauen es sind eher Primärrisiken die dort abgebildet sind da wir sie aber im Moment nur an die Kommission geben dürfen und noch nicht veröffentlichen dürfen kann ich das konkreter im Moment auch gar nicht beantworten. Du guckst so an als wolltest du was dazu sagen obwohl du glaube ich kann nicht primär gefragt was? Ich finde halt, dass man an diesen sensiblen Daten ganz schön so ein Problem sieht ist festgelegt welche Daten besonders sensibel sind zum Beispiel Gesundheitsinformationen oder irgendwie Religion oder sonstige Dinge und irgendwie meine Kollegen haben letztes Jahr eine Recherche gemacht zu Datenbrokern und da eben geguckt okay was findet man darin und dann findet man da halt so Kategorien wie Depressionen, Glücksspiel was auch immer d.h. so Dinge wo man erst mal sagen würde so ui so das dürfte ja jetzt theoretisch nicht mehr gehen und da dürfte man ja jetzt nicht mehr sagen okay wir kaufen uns jetzt die Werbeflächen bei Personen die dann in dieser Kategorie irgendwas mit Depressionen drin sind und dann haben die Kollegen natürlich auch bei den entsprechenden Händlern nachgefragt und gesagt so hey sind das nicht besonders sensibel Daten und dann kam halt die Antwort ja nee also wir sagen ja nicht dass die Person depressiv ist, dass keine Gesundheitsinformationen sondern die interessiert sich für Dinge mit Depressionen so und das ist irgendwie so ein Ding wo wir wieder Probleme kriegen werden also ich beziehe das jetzt nicht auf Google dass wir eigentlich andere Datenbroker die dann aber ich glaube da werden wir glaube ich sehr viele Probleme kriegen und auch gerade bei den Daten minderjähriger es ist ja was ich gut finde nicht vorgeschrieben zusätzlich Informationen zu erheben um das Alter festzustellen das finde ich erstmal positiv weil das eben die nicht identifizierte Nutzung des Internets schützt aber das heißt ja auch dass es niemals vollständig wirksam sein kann d.h. wenn der Dienst eben keine Daten erhebt standardmäßig über das Alter der Nutzerin muss er das nicht tun ist okay so aber dann kann er auch gar nicht wissen ob jetzt diese Person besonders geschützt ist oder eben auch nicht also da sind wir dann auch in einem Wattig-Wolking Bereich wie sieht es bei TikTok aus wo ja viele Kinder viele Jugendliche unterwegs sind jetzt konkret mit der Nutzung sensibler Daten das betrifft uns euch alle oder eben der Daten minder jähriger also zum einen erstmal so Datenbroker dann macht TikTok natürlich nicht Geschäfte mit also es ist auch nicht das Geschästmodell genauso wie von YouTube dass wir Daten an Datenbroker rausgeben also das erste ganz wichtige was ich mitteilen möchte das zweite ist mit dem DSA ist es auch so dass keine personalisierte Werbung mehr für 13 bis 17 jährige ausgespielt wird aber der Jugendschutz auf TikTok war auch vor dem DSA schon absolute Priorität also wir haben mehrere Tools stellen wir zur Verfügung wir haben einen Altersabgestuften Ansatz dass wir sagen das beispielsweise für Nutzer zwischen 13 und 16 dass da die 13 und 15 die Direct Messages also die Direktnachrichten von Anfang an nicht möglich sind also entweder im System Bereich schon drin aber dann auch im Erlebnis welche Inhalte diese Personen in ihrem Feed bekommen ist auch abgestuft im Vergleich zu einem 14-Jährigen zu einem 17-Jährigen und dann einem der über 18 ist also das Thema Datenschutz gepaart mit dem Thema Jugendschutz war und ist für TikTok absolute Priorität und wenn ich noch einen letzten Satz zum Datenschutz sagen kann losgelöst vom DSA arbeitet TikTok daran bislang waren die Daten aller Nutzerinnen aus Europa auf Servern in Singapur USA und in Malaysia gespeichert und wir sind jetzt dazu übergegangen dass wir die Daten in Europa speichern werden also physisch in Datenzentren in Europa das erste Datencenter in Europa ist schon live dorthin migrieren wir gerade die Daten also wo steht das in Dublin das nächste was was öffnet wird dann in Norwegen sein was ich persönlich ganz toll finde das läuft komplett auf erneuerbaren Energien und sukzessive werden wir jetzt quasi die Daten die wir in drei Datenzentren gespeichert oder in den anderen drei Ländern gespeichert haben jetzt nach Europa bringen also physisch die europäische Datensouveränität damit erhöhen und das besondere an dem System ist dass wir auch dort sagen wir erhöhen nochmal das Level der Datensicherheit dahingehend dass wir mit einer Drittpartei zusammenarbeiten die das überwachen wird also dass wir gesagt haben wir wenn ihr uns nicht vertraut dass das Level schon hoch ist vertraut dem Drittunternehmen das ist die NCC Group in Sicherheitskreisen weiß man wer das ist ich muss das immer noch dazusagen weil wenn ich mit Leuten aus der Branche dann spreche die wissen das aber viele wissen es nicht aber es ist ein angesehenes Sicherheitsunternehmen und das überwacht es dann quasi was wer vom Innerhalb des Unternehmens darauf Zugriff hat warum hat die Person Zugriff es wird reglementiert damit diese Person die Arbeit machen kann nicht jeder hat Zugriff darauf und dieses Unternehmen ist sozusagen unser und es ist auch eine Investition die wir tätigen zu der wir nicht rechtlich verpflichtet sind wir investieren 12 Milliarden Euro da rein das das funktioniert und wir glauben dass das nochmal das nächste Level dann der Datensicherheit für die europäischen NutzerInnen sein wird jetzt siehst du so aus Julian als wolltest du was sagen ja nur als Ergänzung und dass es zu den Punkten unterschiedliche Ansichten gibt gerade bei dem Thema Jugendschutz die ich eben erwähnt habe gegen X und gegen Tiktok hier öffnet wurden haben unter anderem Fragen zum Jugendschutz zum Thema das heißt alle Maßnahmen die bei Plattform dazu ergriffen wurden gehen in die richtige Richtung wahrscheinlich sonst wäre wahrscheinlich schon ein Verstoß festgestellt worden aber es gibt eben Fragen dazu und bei dem Thema Nutzung von Daten minderjähriger oder Ausspielung an Datenminderung wollte ich auch nur auf die unterschiedliche Sichtweise hinweisen meiner beiden Kolleginnen beziehungsweise im Team bei der SNV und der Leitung von Kathi Messer und Martin Degeling die sich in genau das angeschaut haben bei Tiktok und festgestellt haben dass die Ausspielung von Personalisierter Werbung an Minderjährigen doch noch teilweise stattfindet das ist also auch hier eventuell noch Lücken gibt bei denen in diesem Fall war die Forschung zu Tiktok war sicherlich auch bei anderen Unternehmen nachgebessert werden muss weil die Aussagen die Unternehmen tätigen müssen immer halt von der Kommission oder von anderen geprüft werden und ich glaube gerade in so einem Kontext wie Forschung in dem wir uns heute Abend auch befinden ist das eben wichtig dass der DSA da sehr viele Möglichkeiten offenbart für Forschende Unternehmen eben unter die Lupe zu nehmen auch die Behörden unter die Lupe zu nehmen und eben genau diese Rechenschaft hoffentlich herzustellen also Anspruch und Wirklichkeit dann bleiben wir vielleicht dabei Anna lass uns nochmal gucken auf die veränderten Anforderungen beim Einwilligen oder Ablehen von bestimmten Funktionen Manipulatives Design viel schon mehrfach soll jetzt verboten sein bei mir ist aber die Einwilligung ins Absaugen aller möglichen Daten oder platzieren von Kuckis immer noch groß blinky blinky oder grün und sehr einladend während ich alle anderen Optionen irgendwie keine Ahnung wo suchen muss und alles grauen graues und so dass man es fast nicht sieht wer setzt das nochmal gleich durch das ist ein Datenschutz Problem das setzt dann halt eben die Datenschutzregeln durch das ist auch so ein Problem der DSA regelt quasi Dark Patterns oder manipulatives Design in einem bestimmten Bereich aber eben nicht in allen Bereichen das heißt da wo es um Datenschutz geht gelten die Datenschutzregeln und in anderen Bereichen wo es um fairen Wettbewerb geht gelten wieder das heißt es wird und wo beschwer ich mich jetzt wenn mir das beim 8. Mal passiert bei einer Vorbereitung wie oft in heutigen Abend und ich denke oh Leute jetzt lang dann musst du dich letztlich erst mal wahrscheinlich wenn es um Kuckibanner geht beim Datenschutzbeauftragten beschweren und wenn du es nicht schaffst dich irgendwo deinen Account zu löschen dann beschwerst du dich wahrscheinlich bei der Bundesnetzagentur würde ich sagen ich würde auch sagen also bei den manipulativen oder irreführenden Sein-Praktiken ist auf jeden Fall eine Besonderheit aber ich würde da wirklich auch den sogenannten Digital Service Coordinator der ja schon jetzt öfter mal erwähnt wurde und bei der Bundesnetzagentur in Deutschland eingerichtet wird der ist da für zuständig bei dem kann man sich beschweren und der leidet sehen zur Not weiter das wird noch dauern März, April, Mai aber diesen Jahres das wäre jetzt schon ein sehr schwaches Bild für Deutschland, das glaube ich nicht aber dieser Koordinator wie der Namir schon sagt ist dann eben auch für die Weiterleitung zuständig, das heißt wenn es ein Datenschutzfrage ist, leidet es an die Datenschutzbehörden weiter wenn es eine Frage ist die vielleicht Inhaltemoderation betrifft leidet es an die Landesmedien ansteigen weiter und das ist eine sehr wichtige Funktion dieses Beschwerderecht was Nutzende haben von Plattformen dass sie sich eben bei dem Koordinator zentral beschweren können und der die wenn gewünscht die zentrale Ansprechstelle bleibt und das ist eine große Neuerung aber ich glaube als Nutzerin muss ich ja nicht warten also die die Organisationen die bestehen heute alles schon, die haben erweiterte Aufgaben das heißt wenn ich denke hier gibt es ein Datenschutzverstoß dann gehe ich doch bitte heute schon zur Datenschutzbehörde dann können die Sachen unternehmen das gleiche zum Thema Verbraucherschutz, Jugendmedienschutz also ich würde jetzt nicht nur weil der deutsche Gesetzgeber anders übrigens als 19 andere europäische Gesetzgeber leider ein bisschen länger gebraucht hat warten bis zum Mai oder wann auch immer Juni, sondern der Verstoß liegt vielleicht vor, also unternehme ich doch was und das glaube ich kann man auch Antworten gerne schon, ich würde aber hier nochmal um Handzeichen bitten wenn es Fragen gibt weil so viel Zeit bleibt dafür nicht mehr okay, dann fahren wir hier fort ansonsten krummelt bitte laut weil jetzt gucke ich wieder nach hier, dann kriege ich das vielleicht nicht mit und ich würde sagen die zum Beispiel die Verbraucherzentralen haben ja auch gesagt sie sind ansprechbar, das heißt das ist ja eine Stelle an die kann ich erstmal einfach gehen wenn ich wirklich nicht weiß was ich tun soll und die helfen einem dann auch weiter das sind dann zwar nicht die an die ich meine Beschwerde habe eine Schicke, aber die können mir auch helfen die zu formulieren, die können mir helfen eine Ansprechpartnerin zu finden und das sind glaube ich verlässliche Ansprechpartner und die Unternehmen selbst ja auch schon beschrieben, dass man sich bei denen bei bestimmten Fragen melden kann, das existiert ja alles schon jetzt waren ja eigentlich weitreichendere Spielregeln vorgesehen zum Unterbinden von personalisierter Werbung ich glaube du Juhu, er hat das es vorhin schon mal kurz an getippt, was ist aus denen eigentlich geworden wo haben wir die verloren teilweise kommen sie noch in einer komplett anderen Verordnung die nicht der DSA ist, nämlich die Verordnung zu politischer Werbung bzw. Transparenz bei politischer Werbung die Ergänzung zum DSA die eben sehr eng begrenzt ist auf bezahlte politische Kommunikation und da gibt es nochmal klare Regeln welche Daten genutzt werden dürfen wie personalisiert werden darf aufgrund welcher Datengrundlage was mit der Einwilligung sein muss das heißt in dem Fall kommt das noch die Verordnung war gerade gestern im Europäischen Parlament die Veranstimmung wurde angenommen das heißt das wird jetzt auch alles kommen bei anderen Fragen so generell personalisiert Werbung im Internet ist offen und ich glaube das ist aus meiner Sicht eine Lücke im DSA dass eben genau diese Data Broker oder auch AdTech Unternehmen wie immer man sie nennen darf dass die vom DSA nicht abgedeckt sind und dass da die Lücke genug durchgesetzt werden Möchtest du noch reagieren? Ja gerne, also ich verstehe die Reaktion ich glaube nur, dass es wichtig ist Regulierung nicht durcheinanderzubringen und der DSA hat völlig andere Regulierungsrahmen als primär Datenschutz man kann ja gesellschaftlich diskutieren ob ich personalisierte Werbung will oder nicht und das hat Vorteile und das hat Nachteile und dazu kann man eine faire offene Diskussion führen eine Datenschutzgrundverordnung und zwar vielleicht in der Erneuerung aber nur weil ich gesellschaftlich jetzt denke das habe ich irgendwie vor ein paar Jahren verpasst zu machen das an ein anderes Gesetz anzuflanschen finde ich nicht richtig wir hatten die gleiche Diskussion auch schon bei der politischen Werberegulierung das finde ich ist eigentlich auch nicht der richtige Ort ich sage nicht, also ich habe eine Meinung und das Unternehmen würde sich tätig bin hat bestimmt auch eine Meinung dazu ich würde einfach nur sagen Diskussionen gehören an den richtigen Ort und nicht irgendwo hin weil das ist für die Rechtsanwender total überhaupt nicht mehr durchzuhalten und wir haben jetzt schon ganz viele europäische Gesetze wo Teilaspekte in unterschiedlichen Bereichen reguliert sind und das ist Chaos Anna hat sich schon in Stellung gebracht Entschuldigung Ich würde sagen Jein ich glaube es ist gar nicht so einfach den richtigen Ort irgendwie zu benennen eine Datenschutzsache es soll ja nicht Datenschutzgrundverordnung auf der anderen Seite geht es aber auch um ein sicheres online Umfeld und da geht es ja auch um es geht ja nicht nur darum, dass irgendwie personalisierte Werbung nervt und ich dann irgendwie wenn ich eine Wetter aböffne irgendwie meine Daten an 738 Partner weitergebe denen allen mein Datenschutz wichtig ist so darum geht es ja nicht es geht ja darum, dass ich dadurch potenziell manipulierbar werde dass ich beispielsweise von Dingen ausgeschlossen werde oder was auch immer das heißt da geht es ja nicht nur um dieses reine Datenproblem und bei anderen Sachen könnte man es genau so sagen wie zum Beispiel bei manipulativen Design so die Frage ist, regeln wir das immer jeweils für den jeweiligen Teilbereich in der jeweiligen Verordnung oder sagen wir, weiß ich nicht wir brauchen eine faire Designrichtlinie und dann regulieren wir einmal alles durch das könnte man machen, das hat Vor- und Nachteile ich will gar nicht sagen welchen wirklich ich hier bevorzuge weil so einfach kann man die Frage nicht beantworten gibt es nicht und wir müssen ja auch akzeptieren dass man manche Probleme dann erst nachdem irgendwas in Kraft getreten ist nochmal sieht, dass es vielleicht doch noch nicht durchgeregelt und erledigt ist Tim hätte da noch eine Idee ich wollte nur abschließend eine Art Fußnote oder Sternchen noch sagen politische Werbung also bezahlte politische Werbung ist auf TikTok gar nicht erlaubt also es hatten wir vor dem DSA es gilt jetzt der Gedanke dahinter ist dass wir sagen politische Meinung soll nicht derjenige eine größere Reichweite sich kaufen können der einfach ein größeres Portemonnaie hat das nur als FYI ok und jetzt nochmal hier reingefragt ich seh dich zumindest zucken ich will euch nicht abwürgen nicht, dass ihr hinterher nach Hause geht und sagt immer reden die davon wir können hier mit tun und dann fragt mich keiner doch möchte jemand noch was wissen ja dort und da war es zumindest noch eine halbe Frage glaube ich Hi, Aline von Wikimedia mich würde interessieren Anna und Julian was sind denn die Dinge die ich wirklich eigentlich noch gewünscht hätte vom DSA also eben jetzt kurz personalisierte Werbung angesprochen aber an welcher Stelle hätte das Schwert noch ein bisschen schärfer sein können und vielleicht haben wir dann ja auch noch Gelegenheit die Reaktion darauf zu hören warum warum die Plattformen doch glücklich damit geworden sind wie es jetzt ist Wellic los, angesprochen was ihr beide ... keine Ahnung wenn ich jetzt wünschte was Spiele würde ich sagen personalisierte Werbung kann halt weg das braucht niemand außer der personalisierten Werbeindustrie so das heißt wenn wir jetzt irgendwie radikalen Ansatz machen dann könnten wir sagen ok personalisierte Werbung verbieten das würde das Leben von vielen Menschen wahrscheinlich besser machen und die Verdienste von einigen fünf kleiner das tut mir persönlich nicht so leid weil ich irgendwie aus der Perspektive der Nutzerin manche Dinge müssen noch konkreter werden das heißt wenn ich jetzt sage Transparenzpflichten dann habe ich vielleicht das gleiche Problem wie beim NetzDG das dann irgendwie die Plattformen schönen Transparenzberichte machen dass ich dann immer noch immer nicht weiß ok wie viele Inhalte waren es denn jetzt die potenziell schraftbar waren weil die einen sagen wir löschen erstmal in unsere Community-Richtlinien die anderen sagen wir gliedern das irgendwie auf und am Ende wird es dann eben schwierig ja das so als erste Umschlüsse ich glaube du hast wahrscheinlich noch andere erste mal ganz kurz zur politischen Werbung auf Plattformen gerade Tiktok auch da gab es Untersuchungen dass das vielleicht nicht ganz so gut funktioniert wie es angesagt ist zum Thema was könnte noch besser sein personalisierte Werbung würde ich auch zustimmen ich würde aber auch grundsätzlich nochmal das Thema Aufsicht und Durchsetzung sagen also egal wie die Regeln jetzt sind man kann sich sicherlich wirklich trefflich darüber streiten was jetzt besser oder schärfer oder schwächer hätte sein können aber die Regeln sind da durchgesetzt werden und zwar so dass es fair ist für die Nutzen fair ist rechtssicher für die Unternehmen und halbwegs handhabbar auch für die Behörden und das muss gelingen also das wäre für mich so der größte Punkt dass halt Aufsicht und Durchsetzung funktioniert und ich würde auch nochmal betonen ich hatte das ja am Anfang schon gesagt also dieser grundsätzliche Ansatz vom DSA inhaltlich wirklich nicht viel verkehrt wir haben jetzt sehr viel über offene Fragen gesprochen über das Erwartungsmanagement die Erwartungshaltung, den Zeitraum die Sachen die noch besser sein können das finde ich enorm wichtig weil manchmal in der Debatte so ein so ein Bild kommen ah jetzt wird das Internet gerettet und alles ist gut, wir haben ja den DSA oder auch das Gegenteil so oder DSA kommt das ist nur Bürokratie und Zensur und alles schlecht aber ich glaube genau dieser differenzierte Ansatz der jetzt hier auch durchkommt der ist wichtig und dass man weder so tut als sei der DSA jetzt ein Wundermittel noch ihn irgendwie verteufelt ich glaube das ist das Wichtige der Wunsch oder meine Hoffnung dass das halt in der öffentlichen in der politischen Debatte dass das halt klappt eigentlich schon ein super Schlusswort aber ein paar Minuten haben wir doch noch und tatsächlich fragtest du ja auch Tim und Sabine was ihr euch denn noch wünschen würdet oder finde ich auch interessant euch das zu fragen wo ihr euch den DSA Schärfer wünschen würdet Tim ist zu einfach ich glaube da ziehe ich mich jetzt wirklich auf meine Beobachter eine Rolle zurück und vielleicht auch, also ich bin nicht in der Rechtsabteilung ich bin aber Jurist und ich finde das immer wieder spannend zu sehen weil du es anfangs auch gesagt hast wir werden sicherlich viele Auseinandersetzungen in der Zukunft sehen von unterschiedlichen Themen geprägt ich glaube das ist das Spannende was wir noch sehen werden nämlich dieser Rechtsfortbildung und es klingt dann auch immer so, dass wenn man vor Gericht zieht dass es dann irgendwie im Streit ist aber oft ist es tatsächlich so man möchte Fragen gelöst haben und ich bin gespannt was es dort was da kommt nicht dass wir was geplant hätten aber es ist so, dass sicherlich Fragen auch seitens der Kommission sind die wir vielleicht anders sehen oder die die Plattform anders sehen und diese Rechtsfortbildung die da stattfindet die sehe ich eigentlich mal als positiv an ich möchte ein bisschen wegkommen von diesem Gedanken nur weil man vor Gericht zieht es geht eher darum man möchte quasi eine Rechtsfrage gelöst haben die dann dazu beiträgt dass die Plattform Rechtssicherheit haben dass die NutzerInnen Rechtssicherheit haben dass die Kommission als reguliere Rechtssicherheit hat und das kann uns allen dann auch nur helfen das ist ja auch schon der Fall mehrere Plattformen haben ja schon Klage gegen die Europäische Kommission eingereicht um Klarheit zu bekommen da ging es jetzt nicht so sehr um die Fragen des DSR sondern eher um die Berechnung wie man denn als der große Online-Plattform ist oder wie die Gebühr dafür berechnet wird also Zalando, Amazon, TikTok und Meta haben das bisher gemacht also genau diese Fahnen kommen halt und das kam jetzt ja mehrfach auf dass auch das einfach noch dauern wird jetzt würde ich gerne zum Schluss noch eine Frage an euch alle vier stellen um eine kurze Antwort bitten mir würde ein Hauptsatz oder ein kleiner kurzer Aussagelsatz um das zu erreichen was ist denn eurer Ansicht nach einfach wenn ihr jetzt priorisiert ihr habt gesagt was da alles passiert was gleichzeitig passiert was noch zu definieren ist was ist euch davon am wichtigsten wo würdet ihr gerne im Ressourcen sind endlich das größte Augenmerk drauflegen und da einfach so schlagleichtartig durch Sabine bitte zum einen wollte ich nochmal sagen Personalisierte Werbung kann ich übrigens abschalten weil ich mich aktiv dafür entscheide dass ich sie nicht will das ist glaube ich nochmal wichtig zu sagen wir sind nicht, es geht nicht über uns einfach so her wir können mit dem DSA deshalb okayes Leben glaube ich weil sie die europäische die europäische das mache ich auch noch die europäische die europäische Zersplitterung dann die europäische Zersplitterung sozusagen aufhebt und ich würde mir wünschen dass wir das Thema Researcher Access wirklich schnell gelöst kriegen das ist glaube ich eine Frage, die auch für die Unternehmen total interessant ist Fokus auf die Wissenschaft ist hier mit weg von der Wunschliste Julian was steht bei dir noch? starke Aufsicht unabhängig unterm Sinne der Verbraucherin was für eine tolle kurze Antwort, danke bitte Anna Mir ist es wichtig, dass man sich eben vor allem auf strafbare Inhalte konzentriert und nicht anfängt alles Mögliche dann am Ende wo es wirklich gilt danke schön und Tim deine Antwort ich glaube es ist wichtig, dass wir viele Themen betreffen die Branche manche Themen betreffen vielleicht einzelne Unternehmen dass wir gemeinsam an den Branchen spezifischen Fragestellungen arbeiten vielen herzlichen Dank euch vielen für die Auskünfte und für das Reingucken in das was bei euch jeweils so los ist zum Thema DSA euch vielen Dank fürs Zuschauen fürs kommen und hierfürs mitdiskutieren und zumindest zuhören und ich hoffe ihr kommt dann auch am letzten Mittwoch im März wieder da sprechen wir dann über Klimamodelle und technologischen und auch digitalen Fortschritt und was die einander zu sagen haben jetzt wünsche ich euch noch einen schönen Abend und morgen ist ja so ein Tag im Jahr den haben wir nicht alle Jahre also nutzt den gut schönen Abend kommt gut nach Hause