 Hallo Welt, Hallo World, Hallo Kongress. Hier folgen jetzt Jana Alfering und Sebastian Maynack. Die beiden sind freie Journalisten und präsentieren uns ihre Recherche Inside X-Hamster. Die beiden haben sich per aufwendigem Social Engineering in das Unternehmen hineingehackt, um herauszufinden, was X-Hamster gegen illegalen Content tut. Wir erinnern uns an die Skandale von illegalen Mitschnitten aus Dixie Toiletten auf diversen Festivals, die über lange Zeit auf X-Hamster zu sehen waren. Und auch bei fotografischen Aufnahmen sexualisierter Gewalt kommt es bei X-Hamster zu Problemen bei der Löschung. Jana und Sebastian zeigen uns jetzt, wie sie in das Löschteam aufgenommen wurden, wie das interne Regelwerk für das Löschteam gestaltet ist und in einem dritten Schritt die netzpolitische Bedeutung ihrer Erkenntnisse. Ich wünsche euch einen spannenden Vortrag, bitte euch wiederum fleißig Fragen zu stellen über den IRC-Channel bei Twitter unter dem Hashtag RC3-Restrealität oder dem RC3-Strang in der Restrealität auf dem Sofa. Damit übergebe ich jetzt an Jana und Sebastian und wünsche euch viel Spaß. Ich bin Jana Alfering, das ist Sebastian Meinack und wir sind beide Journalistinnen. Der Vortrag, den wir jetzt halten, basiert auf insgesamt sechs Artikeln, die wir auf weiß.com veröffentlicht haben und die wurden zusammengefasst, mittlerweile in sechs unterschiedlichen Sprachen übersetzt. Wenn ich in einem Satz einmal zusammenfasse, worum es geht, dann geht es darum, weiß-gescherchen zeigen erstmals, wie schlecht Exempster Betroffene von sexualisierter Gewalt schützt. Mit unserem Vortrag haben wir, untersetzen wir drei Schwerpunkte. Einmal möchten wir erzählen, wie wir bei Exempster reingekommen sind, was in dem internen Regelwerk für Löscharbeiter entsteht und welche netzpolitischen Folgen das hat. Vorab würde ich ganz gerne eine Trigger-Warnung geben. Dieser Vortrag enthält teilweise explizite Schilderungen von sexualisierter Gewalt. Bildaufnahmen sind stark verpixelt. Außerdem möchten wir noch gerne ein paar Anlaufstellen geben, an die sich Betroffene von sexualisierter Gewalt oder angehörige Freundin wenden können. Die Links findet ihr dann alle, wenn ihr dem Shortlink folgt. Wir hören bei den Vorab-Bemerkungen sind, unser Vortrag setzt einen Fokus und kann deshalb nicht auf alle Gebiete eingehen, die eigentlich dazugehören, deshalb hier eine kurze Übersicht über die Interessengruppen, die noch so relevant sind. Da gibt es zum einen fundamentale Porno- und SexarbeitsgegnerInnen. Die Pornografie und Sexarbeit im Allgemeinen abschaffen wollen. Super bescheuerte Idee, darum wird es heute nicht gehen. Dann gibt es noch Darstellerinnen und SexarbeiterInnen, die nochmal ihre ganz eigenen Probleme mit dem Internet und mit Porno-Plattformen haben. Ihnen werden Hürden in den Weg gelegt. Sie können einfach nicht ihre Arbeitregule ernachgehen. Auch darum wird es heute nicht gehen. Unser Fokus ist die Beziehung zwischen Porno-Plattformen und den Betroffenen digitaler sexualisierter Gewalt. Worum ging es bei Inside Exemstar? Exemstar ist ein Riese. Es ist die meistbesuchte Porno-Seite Deutschlands und auch im Ranking der meistbesuchten Websites in Deutschland ziemlich weit vorne. Ihr seht das hier sogar noch vor dem Spiegel vor Bild.de und so weiter. Unsere ersten Berichte über Probleme auf Exemstar kamen 2019. Die Gemeinsamkeit dieser Artikel ist meistens Menschen haben Aufnahmen von sich auf der Plattform gefunden, obwohl sie das gar nicht wollten. Ähnliche Berichte auch bei unseren Kolleginnen von Y-Kollektiv und Steuerung F. Eine weitere Gemeinsamkeit dieser Berichte, das waren erst mal eher nur Einzelfälle und wir hatten uns gefragt, gibt es da auch ein strukturelles Problem? Strukturell kann man sich Content Moderation auf Exemstar in etwa so vorstellen. Auf der Content Seite gibt es Videos, Fotos und Stories. Stories sind wirklich buchstäblich Kurzgeschichten und auf der Moderation Seite gibt es zum einen ein bezahltes Support Team, das sind Mitarbeiter von Exemstar. Es gibt technische Mittel. Das geht wohl so in die Richtung KI-Lösungen, aber wir wissen überhaupt nicht, was genau Exemstar da verwendet. Und es gibt den Reviewers Club, eine Gruppe aus freiwilligen Löscharbeitenden. Wir wissen über einige dieser Bereiche noch nicht sehr viel, aber wir wissen sehr viel über den Bereich Fotos und den Reviewers Club. Warum? Wir waren selber Teil davon. Nach einem recht zähen Bewerbungsverfahren über das Januar gleich noch mal sprechen wird, haben wir eine Einladung bekommen von einem Account namens R-Club, das steht für Reviewers Club und waren damit drinnen im Reviewers Club. Ein sehr großer Vorteil für uns als Recherchierende, dieser R-Club hat eine Freundesliste mit 132 Mitgliedsercounts. Einige davon sind Mitarbeitende von Exemstar, die meisten anderen sind Reviewer. Dadurch wissen wir die Anzahl der freiwilligen Löscharbeitenden von Deutschlands meistbesuchter Pornoseite ist unter 130. Wie funktioniert die Arbeit des Reviewers Club? Ich würde es gerne an einem Beispiel einmal so durchgehen. Stellen wir uns vor, wir haben den anonymen Nutzer N, der hat sich mit einer x-beliebigen E-Mail-Adresse einen kostenlosen Exemstar-Account geklickt und lädt nun diese Fotogalerie hoch. Wir finden, wenn eine Plattform Content Moderation macht, gibt es eine Frage, die man klären sollte. Liegt Konzent vor, also Zustimmung und zwar in drei Dimensionen. Zustimmung dafür, dass das überhaupt hochgeladen wurde. Zustimmung dafür, dass die Aufnahme erstellt wurde. Zustimmung dafür, dass sich auf der Aufnahme überhaupt Menschen anfassen oder was auch immer. Wenn dieser Konzent nicht vorliegt, ist es Gewalt. Wenn er vorliegt, alles super, ist Pornografie. Wie gut ist nun die Arbeit dieses Reviewers Clubs geeignet, um diese Frage zu beantworten? Die einzelnen Fotos der Galerie von Nutzer N werden nun mehreren Mitgliedern des Reviewers Clubs angezeigt und das sieht dann so aus. Also in der Mitte vor schwarz im Hintergrund des Fotos, im Original natürlich unverpixelt und dann eine Palette aus Knöpfen, von denen der Reviewer die Reviewerin einen drücken soll. Auf die Knöpfe gehen wir später noch mal im Detail ein. Für uns ist jetzt erstmal nur wichtig, Papelik heißt, das Foto kann weiterhin online bleiben und einer der roten Knöpfe heißt, das Foto soll gelöscht werden. Und ja, die Fotos sind alle bereits online, wenn der Reviewers Club mit seiner Arbeit beginnt. Dann geben die Reviewerin ihr Votum ab und die Mehrheit entscheidet. Wir wissen nicht genau, wie viele Vote nötig sind, damit eine Entscheidung sozusagen eingelockt wird. Das heißt, dass wir hier fünf sehen, es ist nur ein Platzhalter. Es könnten mehr oder weniger sein. Wir finden dieses Verfahren hat eine Menge Probleme und die fünf wichtigsten haben wir hier aufgelistet. Das erste Problem, die Entscheidung muss nach Augenschein geschehen, zum Beispiel ob eine Person unter 18 ist oder nicht. Ebenso nach Augenschein muss die Entscheidung geschehen, ob eine Vergewaltigung oder sexualisierte Gewalt in einem Foto zu sehen ist oder nicht. Grundsätzlich können Löscharbeitende natürlich auch Foto überspringen und müssen dann die Entscheidung nicht treffen, aber dann ist halt jemand anderes an der Reihe. Erschwerend kommt eine Arbeitsanweisung hinzu für die Löscharbeitenden, die besagt, man soll sich eines Regelverstoßes zu 100 Prozent sicher sein, bevor man votiert, dass ein Foto gelöscht wird. Das heißt, weniger stark ausgeprägte Zweifel gelten nicht, wenn man dieser Regel folgt. Ebenso kommt er schweren hinzu. Es ist nicht vorgesehen, dass Löscharbeitende Dokumente einfordern, Modelverträge oder was auch immer. Solche Dinge könnten ja ein fragwürdiges Foto aufklären. Uns Problem Nummer fünf von wahrscheinlich sicher noch mehr Problemen. Es gibt keine Regel zu Voyeuraufnahmen, versteckte Kameraaufnahmen und so weiter. Also wer schlicht dem Handbuch folgt, hat keine Arbeitsanweisung, bei diesen Themen tätig zu werden. Aber man kann solche tollen Badges bekommen. Reviewer of the Month Badges in Gold, Silber und Bronze, wenn man besonders fleißig reviewed. Gamifiziert wird das Review noch hier. Das ist ein Leaderboard, eine Highscore derer, die am meisten Fotos reviewed haben. Wir haben hier mal geklickt auf All Time und sehen, der fleißigste X-Hamster Löscharbeiter aller Zeiten hat schon fast 20 Millionen Fotos überprüft und mehr als eine Million Videos. Denn ja, früher hat dieser Club auch Videos überprüft. Es ist heute nicht mehr so. Deshalb haben wir das in diesem Vortrag ausgeklammert. Wie schafft man das, so viele Fotos zu reviewen? Runtergerechnet auf eine Woche haben die fleißigsten Reviewer Quoten von 10.000 bis 40.000 Fotos pro Woche. Es gibt da noch ein Trick in der Reviewer Konsole, nämlich das hier. Mit einem Klick sieht man dann bis zu 51 Fotos an der Fotogallerie und kann die alle auf einmal in die gleiche Kategorie schieben. Das erhöht natürlich massiv die Geschwindigkeit des Reviews. Ob das auch die Qualität der Überprüfung erhöht, ist eine andere Frage. Wir haben X-Hamster natürlich ausführlich mit allen unseren Beobachtungen und Problemen konfrontiert und eine ehrpauschale Antwort bekommen. Der zentrale Teil dieser Antwort ist dieser hier. Wir können aus einer Reihe von Gründen, Sicherheit, technische Gründe nicht auf Einzelheiten unserer internen Überprüfung eingehen. Also seien sie versichert, dass Kontrollen und Überprüfungen existieren, sagt Alex Hawkins, Vice-President X-Hamster. Aber spulen wir nochmal kurz zurück. Wie sind wir da überhaupt reingegangen? Also nach ersten Recherchen über X-Hamster haben wir natürlich erstmal versucht, ganz klassisch per Presseanfrage mehr über die Content-Moderation von X-Hamster zu erfahren. Die Fragen sind allerdings einfach an X-Hamster abgepreilt. Wie ihr hier zum Beispiel auch in dem Gespräch mit der zuständigen Presseagentur, die im Auftrag von X-Hamster mit uns kommuniziert hat, sehen könnt. Ich lese die mal kurz vor. Also wie viele Personen arbeiten in der Content-Moderation von X-Hamster? Antwort, wir können die genaue Anzahl nicht bekannt geben. Nach welchen Richtdienen Katalog wird geprüft, intern regeln von X-Hamster. Wie kann man Content-Moderator für X-Hamster werden? Man kann sich beim X-Hamster-Review-Club anmelden. Ja, also die Antwort auf die letzte Frage war dann für uns der ausschlaggebende Punkt zu sagen, okay, wenn wir im direkten Gespräch keine Informationen bekommen, dann machen wir das eben so. Also haben wir uns einfach selber beworben. Ganz so einfach war das nicht. Es gibt nämlich ein paar Hürden, die man erfüllen muss, um überhaupt Löscharbeiter innen zu werden. Und zum Beispiel muss der Account, den man hat mindestens 200 Tage alt sein, steht auch so in den Facts von X-Hamster, bedeutete für uns dann in dem Fall allerdings warten. Und da die Löscharbeiter innen mit ihrem privaten Accounts arbeiten, war das die Geburtstunde von Holger, einem 30-jährigen Berliner, der sich laut seinem Profil als Hetero und zuverlässig bezeichnet und wahnsinnig gerne in seiner Freizeit Nacktfotos überprüfen würde. Das gute Verifizieren mussten wir uns in dem Fall nie während unserer gesamten Recherche, während er den Account steckt, weiß nämlich nicht mal X-Hamster. War natürlich für uns in dem Moment von Vorteil, sonst hätte X-Hamster wahrscheinlich bemerkt, dass sich da nicht wirklich Holger hinter versteckt, sondern ein Journalist und eine Journalistin. Als wir dann endlich den Account hatten, haben wir erneut einen Abfuhr erhalten, weil eine Mitarbeiterin uns mitteilte, dass Holger erst mal eigenen Content hochladen müsse, bevor überhaupt Löscharbeiter werden kann. Also mussten wir irgendwie an Content kommen, den wir legal auf der Plattform hochladen könnten und der irgendwie eindeutig belegen würde, dass Holger ein sehr eifriger Nutzer ist, der natürlich auch selber dazu beiträgt, dass etliche Menschen kostenlos im Internet Sex Videos und Nacktfotos anschauen können. Zum Glück kannten wir aus einer vergangenen Recherche eine politisch engagierte Sexarbeiterin, die sich bereit erklärt hat, für uns in die Rolle von Holgers Ehefrau zu schlüpfen und uns Material zur Verfügung zu stellen. Doch auch mehrere Videos von ihr haben nicht ausgereicht, um die Administratoren zu überzeugen. Dann hieß es nämlich unter anderem plötzlich, okay, ihr müsst auch Fotogall oder du musst auch Fotogallerin hochladen, weil für uns in dem Moment eine ziemlich dofe Situation, weil wir natürlich die hilfsbereite Sexarbeiterin auch nicht bitten wollten, uns jetzt noch mehr Material zur Verfügung zu stellen. Deswegen sind wir ein bisschen erfinderisch geworden und haben einfach das Material genutzt, was wir sowieso schon hatten. Also gab es dann sowas wie beste Close-ups, Kunst. Also wenn unser Arbeitgeber in Spähe möchte, dass wir Fotos hochladen, dann laden wir Fotos hoch. Aber auch das hat offenbar nicht ausgereicht, wie ihr hier auch an einem Gespräch sehen könnt, jeder Auszug aus dem Gespräch. Edmund, kannst du noch mehr hochladen? Holger, klar, wie viel brauchen wir denn? Daraufhin kam keine Antwort mehr. Also wir wurden mehrere Tage lang einfach ghosted und Holger hat mehrfach freundlich nachgehakt, ob er irgendwas falsch gemacht hat, aber wir haben keine Antwort bekommen. In dem Punkt hatten wir eigentlich schon aufgegeben, jemals Löscharbeiter zu werden. Dann wurde Holger allerdings doch noch im Sommer 2020 als Löscharbeiter freigeschaltet und hat eine Einladung von einem Account bekommen mit dem Namen R-Club. Also waren wir damit drin, monatelange stuhlartnäckig bleiben, hatte sich also ausgezahlt. Ab dem Moment prankte dann auch auf Holger's Profil ein goldener Schärfstern und für uns die Eintrittskarte zu dem bis dato noch geheimen Regelwerk anhand dessen Menschen für Examser überprüfen, welche Fotos auf der Plattform landen und welche nicht. Und dazu würde ich euch gerne ein bisschen mehr erklären. Und zwar könnte man Examser auf den ersten Blick für einen sicheren Ort halten, weil in den Nutzungsbedingungen steht, dass niemand Inhalte hochladen darf, an den er keine Rechte hat. Außerdem dürfen die Inhalte nicht gegen Gesetze verstoßen. Und mit der Bestätigung der Nutzungsbedingungen erklärt sich auch jeder Einverstanden damit, dass jede Person, die in den Videos oder in Fotos zu erkennen ist, vorher ihr Einverständnis dazu gegeben hat, dass die Inhalte auf Examser landen. Hört sich in der Theorie gut an. Aber auf Examser laden Menschen eben auch Fotogalerien hoch wie diese zum Beispiel. Titel nur 18-jährige Mädchen, Fotos mehr als 250.000. Und zu jedem Foto müsste dann die schriftliche Einverständenserklärung vorliegen. Na ja, aber wer liest schon die Nutzungsbedingungen? Vor allem, wenn man die eben beim Upload mit nur einem Klick bestätigen kann. Und durch das Regel, also durch einen Blick auf das Regelwerk, wird einfach deutlich, wie wenig Examser dafür tut, dass die eigenen Regeln auch wirklich durchgesetzt werden. Und deswegen haben wir uns auch dazu entschieden, nach dem Ende unserer Recherche zu sagen, okay, wir veröffentlichen das gesamte Regelwerk. Das Handbuch besteht aus 2800 Zeichen und 38 Beispielbildern, auf die ich später noch mal eingehe. Jetzt könnte man sich natürlich fragen, warum wir das in voller Länge veröffentlicht haben, weil für uns in dem Fall eine Abwägung, eine Frage war uns besonders wichtig, und zwar ob die Veröffentlichung gegebenenfalls betroffenen Schaden könnte, weil potenzielle Täter in dadurch rausfinden könnten, wie sie diese Regeln umgehen können. Wir sind allerdings zu dem Entschluss gekommen, dass das Regelwerk so dermaßen löchrig ist und dass die Missstände so groß sind, dass es die Situation nicht wirklich verschlimmern würde. Also im Gegenteil, im besten Fall würde es eben den öffentlichen Druck erhöhen und auch zu einer Änderung der Regeln von Examser führen. Übrigens wichtig zu erwähnen an der Stelle, dass während unserer Recherche immer mal wieder Updates gekommen sind. Das heißt, die Veröffentlichung ist nur eine Momentaufnahme. In vielen Bereichen sind die Regeln aber konstant geblieben, wie man auch daran erkennen kann, wenn man sie vergleichen mit einem Handbuch, das offenbar vor sieben Jahren erschienen ist. Beginnen wir mal mit der Superregel, die auf Examser herrscht. Grundsätzlich gilt, entferne keine Inhalte, wenn du nicht zu 100 Prozent sicher bist, dass es illegales, wenn sie hier sind. Bedeutet im Zweifel sollen Inhalte auf Examser erst mal online bleiben und das bedeutet eben, dass sie auch weiter der Öffentlichkeit zugänglich sind. Im schlimmsten Fall handelt es sich dabei um illegale Inhalte, die trotzdem Tage oder Wochen online bleiben, obwohl ein Löscharbeiter oder ein Löscharbeiterinnen sie im Vorhinein schon angezweifelt hatte. Da ist noch mal wichtig zu sagen, also die Löscharbeiterinnen bewerten die Fotos oder beurteilen die Fotos vorher, sorry, die Löscharbeiter beurteilen die Fotos, wenn sie schon online sind. Also das heißt, sie können schon eingesehen werden von Menschen, die auf Examser gehen und genau dafür ist auch dieses Regelwerk, also zu gucken, welche Fotos bleiben online. Ihr Urteil können die Löscharbeiterinnen mit einem klick auf folgende Buttons abgeben. Die haben wir hier einmal für euch eingeblendet, also Skip, Public, Copyrighted, Move to Man, Move to Sceemail, Underage, Sue, Shitting, Error, Other. Und jetzt starten wir mit Copyright und vergesst an dem Punkt eigentlich alles, was ihr über Copyright wisst, weil es jetzt erst mal zu der Vorstellung von Examser kommt, was Copyright bedeutet. Es wurde bis Oktober das Thema Copyright relativ präsent besprochen im Regelwerk. Damals hieß es noch jedes Foto, das zum Beispiel eine Webadresse oder ein Logo einer anderen Webseite zeigt, würde gegen Copyright verstoßen und müsste dementsprechend gelöscht werden. Gleiches Geld auch für Fotos, die zum Beispiel im Nachhinein retuschiert wurden, also zum Beispiel das Links einfach mit einem schwarzen Balken im Nachhinein retuschiert wurden. Ein Thema, wo zu dem Zeitpunkt allerdings gar nicht besprochen und zwar das, was Copyright eigentlich bedeutet, dass man eben einfach keine fremden Fotos hochladen darf. Und ja, laut dem Regelwerk von Examser sind die Löscharbeiter in nicht wirklich dazu aufgerufen, darauf zu achten, also zum Beispiel bleiben auch Aufnahmen von Filmen oder Serien weiter online. Den Moment haben wir gedacht, okay, weniger Regeln zu Copyright geht eigentlich nicht. Aber im 7. Oktober hat dann eine Examser Administratorin angekündigt, von nun an lassen wir alle Copyright geschützten Fotos online. Stattdessen sollte dann in Zukunft nur noch das Material gelöscht werden, das offensichtlich Spam war, also zum Beispiel den ganzen Fotogalerien dasselbe Logo beinhaltet haben. Außerdem sollen auf Examser Aufnahmen von Männern und Aufnahmen, die mindestens eine Frauzeigstrengung gelöscht werden. Die Aufgabe der Löscharbeiter in ist in dem Fall zu sortieren, beim Sortieren zu helfen. Und dann hat mehrere Beispielfotos zeigt das Handbuch, dann welche Fotos zum Beispiel in dem Männerbereich gehören. Super absurd, also Examser ist an der Stelle sehr ausführlich. Selbst ein begleiteter Mann, wie ihr hier sehen könnt, genau in groß, wird noch mal extra mit einem Bild illustriert, so just in case, dass sich die Löscharbeiter in nicht vorstellen können, wie er aussieht. Weniger ausführlich geht es dann allerdings beim Thema Underage zu. Dazu gibt es im Regelwerk nur knapp vier Zeilen Text und zwei Beispielfotos und demnach sind nicht erlaubt auf Examser Fotos, die dem Anschein nach Personen zeigen, die mit hoher Wahrscheinlichkeit unter 18 sind. Wie genau die Löscharbeiter in das rausfinden soll, sagt Examser an der Stelle nicht. Wäre auch ziemlich schwierig, weil wie möchte man mit bloßem Auge sicher entscheiden, ob eine Person minderjährig ist oder nicht? Ja, weitere Informationen. Gab es zwar einen ergänzenden Handbuch dazu, also ein paar kleine Hinweise, worauf man achten könnte, zum Beispiel Tätowierung, generelle Körperfülle, Dehnungsstreifen, aber wichtig ist an der Stelle auch nochmal zu erwähnen, dass die Verbreitung jungen pornografischer Schriften nach dem Strafgesetzbuch verboten sind. Also es droht darauf eine Freiheitstrafe von bis zu drei Jahren oder eine Geldstrafe. Deswegen haben Holger natürlich diese Hinweise nicht ausgereicht und er hat nochmal nachgefragt und hier lesen wir euch mal den Dialog vor, den wir da geführt haben. Sorry, dass ich nochmal frage, aber ich weiß nicht, wie ich mit dem Thema Minderjährige umgehen soll, wenn die Person auf dem Bild unter 18 sein könnte, vielleicht aber auch nicht, soll ich aus dem Bauch heraus entscheiden? Edmund, hi, du kannst skippen, das ist besser als ein Fehler zu machen. Danke, aber wenn ich skippe, heißt das, dass niemand überprüfen wird, ob die Person tatsächlich minderjährig ist? Wenn du skippst, wird es jemand anderes Reviewen. Ja, das Problem diese anderen können das natürlich genauso schlecht wie Holger. Einer schrieb zum Beispiel, dass es unmöglich ist zu entscheiden, ob eine Person an der Age ist oder nicht. Ein anderer sagte, er entscheidet das nach Bauchgefühl. Echte Minderjährigkeit liegt im Auge des Betrachters. Ja, ebenfalls strafbar, die Verbreitung tierpornografischer Schriften und dann nimmt sich Exams der offenbar ein bisschen mehr Platz für Erläuterung. Unter dem Stichwort SU lehrt das Handbuch die Löscharbeiter, nämlich Fotos von Tieren, die in einem sexualisierten Kontext entstanden sind, zu löschen. Generell Fotos von Tieren können allerdings online bleiben. Übrigens hier zu sagen, dass die Verpixelungen, die ihr seht, die kommen von uns. Was diese schwarze Balken auf den Augen des Hundes macht, ist uns ebenfalls ein großes Rätsel. Auch gelöscht werden sollten Fotos auf den Code zu sehen ist und auch das Thema scheint Exams besonders wichtig zu sein. Es gibt nämlich einen eigenen Button, Shitting, unter denen die Löscharbeiter in solche Fälle kommunizieren können. Ebenfalls verboten sind Fotos von Kotze oder Regelblut, Funfact, einen eigenen Button für Fotos von Vergewaltigung oder voyeuristischen Bildern, gibt es bei Exams da nicht. Dabei ist beides im Gegensatz zu Regelblut oder erbrochenem Illegal. Sexualisierte Gewalt findet grundsätzlich im Exams der Handbuch allerdings nur unter dem Begriff Sonniges, ersonstiges Beachtung. Es gibt zwar mittlerweile einen eigenen Button von, der heißt Violence, was es aber genau beinhaltet, erklärt das Handbuch nicht. Also es gibt zum Beispiel ein paar Beispielfotos, auf denen aber lediglich blutende Personen zu sehen sind. Explizit erwähnt werden sonst noch echtes Wein, Blut und echtes Erhängen. Da klicken die Löscharbeiter zum Beispiel den Otherbutton an, um ein Foto zu sagen, dass sie explizit zum Beispiel eine Vergewaltigung sehen. Dann müssen sie diese Begründung auch mit angeben, ansonsten können sie das gar nicht abschicken. Ebenfalls verboten sind laut Exams der Fotos, die Drogen oder Drogenkonsum zeigen, sind uns jetzt aber im Laufe der Recherche kaum begegnet. Es sind aber auch noch ein paar Verbote dazu gekommen im Laufe der Recherche. Zum Beispiel sind jetzt Ausweichsdokumente verboten oder Links zu Dropbox Ordnern. Was wir gar nicht gefunden haben, waren Regeln für den Umgang mit Wojuristischen auf Bildern. Also Fotos, die ohne Kenntnis der abgebildeten Personen entstanden sind. Das haben offensichtlich auch andere Reviewer bemerkt. Einer hat zum Beispiel geschrieben, versteckte Kamera, Wojur, Absquirt, alles okay. Auch hier haben wir natürlich nachgefragt und das lesen wir euch auch gerne nochmal vor. Habe ich es richtig verstanden, dass nichtkonsensuelle Aufnahmen wie Wojurismus keine Verletzungen der Exams der Regeln sind und ich auf Publish drücken soll? Hi, hast du irgendeinen Beweis, dass der Content ohne Einverständnis veröffentlicht wurde? Na, hi, nein, aber ich habe auch keinen Beweis für das Einverständnis. Keine Reaktion mehr vom Edmund. An dieser Stelle möchten wir auch noch mal erwähnen, dass wir Exams dann natürlich ausführlich mit allen problematischen Beobachtungen, die wir während unserer Recherche gemacht haben, konfrontiert haben, die Firma hat sich allerdings dazu entschieden, nicht im Detail darauf zu antworten, sondern pauschal. Die antworten wir sich auch gerne nochmal vor. Wir können aus einer Reihe von Gründensicherheit, technische Gründe, nicht auf Einzelheiten unserer internen Überprüfung eingehen. Also seien sich versichert, dass Kontrollen und Überprüfungen existieren. Welche netzpolitischen Bedeutungen haben unsere Beobachtungen? Wir haben gemerkt, es gibt so eine krasse Spreizung im Internet. Auf der einen Seite haben wir Plattformen wie Instagram und Facebook, die fast jede Form von Nacktheit verbieten, bis auf ganz wenige Ausnahmen, damit auch ganz viele Kulturgüter per se ausschließen. Auch Pornografie ist ein Kulturgut. Sexarbeit kann nur unter schwerten Bedingungen stattfinden auf diesen Plattformen. Das ist das eine. Und auf der anderen Seite haben wir dann eigentlich nur einen Klick entfernt, die Plattform wie Exams, damit der Lachsenkontrollpraxis, die wir gerade beschrieben haben. Das ist komisch. An dieser Stelle ein Querverweis auf den sehr, sehr tollen Talk von Add Zweifel und Tech for Sex Work. Sobald er online ist, ist er auch in unserem Linkdossier zu finden. Er hat noch mal super eindrücklich beschrieben, wie im Bereich von Internet und Technik Sexarbeit durch Hürden und Regulierung massiver schwert wird. Aber zurück zu unseren Entdeckungen. Wir hatten unsere Beobachtungen mit mehreren politischen Stellen geteilt und um eine Einschätzung gebeten. Das Justizministerium hat es unter anderem geantwortet. Verpflichtende Anforderungen für Betreiber von Online-Portalen zum effektiven Umgang mit strafbaren Inhalten sind ein wichtiger Baustein. Es muss zudem ausgeschlossen sein, dass Anbieter durch ein bewusstes Wegschauen oder eine Lachsekontrollpraxis einer Verantwortlichkeit entgehen. Der unabhängige Beauftragte für Fragen des sexuellen Kindesmissbraus hat es noch mal mit konkreten Forderungen verbunden und unter anderem geschrieben, wir brauchen in Deutschland eine gesetzliche Verpflichtung für Internetprovider, Missbrauchsabbildung im Netz melden zu müssen und die Pflicht der Anbieter zur möglichst automatisierten Suche. Auch im EU-Parlament gibt es da eine Meinung zu, wir haben mit Timowölken gesprochen, der auch im Rechtsausschuss sitzt. Die Kontrollpraxis dieser Webseite ist offensichtlich ungenügend, schrieb bei uns. Auch außerhalb politischer Institutionen gibt es dazu eine klare Meinung, da wäre zu nennen die deutschsprachige Petition Not Your Porn, wird inzwischen mehr als 60.000 Unterschriften. Wir haben auch einige konkrete politische Forderungen, die sich teilweise decken, mit dem was wir gerade gehört haben. Konkret geht es ihnen unter anderem um eine Ausweitung des Netz-DGs, Melderauskunfts- und Prüfungspflichten von Porno-Plattformen, Schulungen und Ausstattungen für Anlaufstellen von Polizei bis Beratung. Ich möchte mir im folgenden vier potenzielle Lösungsansätze angucken im Bereich Regulierung, Netzpolitik, Selbstregulierung und was da so gerade der Status ist. Der erste Ansatz wäre der Ansatz Meldepflichten. Jeder Betroffene, der könnte nicht von einer Meldepflicht profitieren im Nachhinein, also das wäre dann sozusagen zu spät. Immerhin könnten Meldepflichten aber einen Eindruck davon geben, welchen Umfang das Problem überhaupt hat. Fangen wir an mit dem Netz-DG. Long Story Short, ein zahnloser Tiger bei diesem Problem. Eigentlich müssten Betroffene Anbieter regelmäßig einen deutschsprachigen Bericht über den Umgang mit Beschwerden und rechtswidrigen Inhalten veröffentlichen. Gilt aber nicht für Porno-Plattformen, da gibt es eine Menge Gründe für, der entscheidende ist wohl, dass es immer noch die Grenze gibt von 2 Millionen registrierten Nutzerinnen in Deutschland, die gegeben sein muss, damit ein Anbieter unter das Netz-DG fällt. Registriert sein muss man bei XEMS aber nur um zu kommentieren und Dinge hochzuladen und nicht um einfach nur zu konsumieren, insofern hilft das derzeit wenig. Dann gibt es natürlich noch die Option, dass Plattformen einfach freiwillig mit Behörden zusammenarbeiten, hindert sie ja keiner dran. So eine Art Selbstverpflichtung gibt es auch schon, da werden zum Beispiel ein elf Punkte Papier zu nennen, da haben sich unter anderem Google und Facebook verpflichtet, entsprechende Inhalte weiterzugeben an Staaten wie USA, Großbritannien und Australien. In den eigenen Nutzungsbedingungen hat XEMS da gesagt, dass die Plattformen, Zitat, enthousiastisch mit Behörden zusammenarbeitet. Wir haben nachgefragt, welche das zum Beispiel wären und haben keine Antwort bekommen. Das heißt, wir können das nicht unabhängig überprüfen. Außerdem sehr interessant im Zusammenhang ist der Digital Services Act, eine geplante Gesetzgebung auf EU-Ebene. Netzpolitik nennt es den Act pointiert das Plattform-Grundgesetz. Aktuell aber noch nur ein Kommissionsentwurf. Grundlegend geht es um eine ganze Menge eben auch darum, wie Plattformen und Behörden zusammenarbeiten sollen. Bis daraus etwas ganz handfestes ist, wird aber noch ein bisschen Zeit vergehen. Der zweite von vier Ansätzen, über die ich sprechen will, ist automatisierte Suche. XEMS da sagt jetzt schon, dass sie Mittel einsetzen, um auch ein automatisierter Weise Inhalte zu finden. Aber sie verraten nicht mehr. Wir haben unter anderem konkret gefragt, Leute, wenn ihr ein Foto gelöscht habt, weil es gegen die Regeln verstoßt, macht ihr dann zumindest etwas dagegen, dass genau dieses Foto noch einmal hochgeladen wird, wurde uns nicht beantwortet. Also auch das können wir nicht überprüfen, wie das genau abläuft. Sehr bekannt ist außerdem noch die NGO, das National Center for Missing and Exploited Children. Die führen eine Hash-Datenbank mit Hashes von Aufnahmen, sexualisierter Gewalt, gegenüber Kindern und Jugendlichen. Plattformen können diese Datenbank kostenlos nutzen, um bei sich selber entsprechende Inhalte zu suchen und dagegen vorzugehen. Ex-Semster arbeitet offenbar nicht mit denen zusammen. Das stand schon mal in einem älteren Medienbericht. Wir hatten das noch mal nachgefragt im Rahmen unserer Recherche und keine Antwort erhalten. Grundsätzlich muss man bei diesem Ansatz natürlich mit bedenken. Das könnte Tür und Tor öffnen für Upload Filter, die aus ganz anderen Gründen noch mal zu Problemen führen. Der dritte Ansatz über den ich sprechen möchte ist Notice and Take-Down. Da wird auch jetzt schon praktiziert. Das bedeutet, eine Plattform muss dann tätig werden, weil sie dann haftbar ist, sobald sie erfährt, dass ein Rechtsverstoß vorliegt. Das größte Problem von Notice and Take-Down vor unserem Hintergrund ist unserer Meinung nach Notice. Also wie sollen Betroffene verdässlich mitbekommen, dass sie Betroffene sind? Wir denken nur an den fleißigsten Reviewer mit seinen fast 20 Millionen überprüften Fotos. Ein zweites Problem haben wir mal Beweislast genannt. Es gab einige Fälle, in denen uns Betroffene berichtet hatten, dass sie nicht einfach nur eine Nachricht geschickt haben und dann wurde die Aufnahme offline genommen. Nein, sie mussten auch noch in irgendeiner Weise belegen, dass sie wirklich die Personen in der Aufnahme sind. Das hat eine abschreckende Wirkung und man kann sich fragen, sollten Hürden für Betroffene wirklich so groß sein in einem solchen Fall? An dieser Stelle ein kurzer Hinweis, Janna und ich, haben einen ersten Hilfegreit für Betroffene von nicht konsensuell veröffentlichten Aufnahmen geschrieben. Der Link dazu ist auch in dem Dosier zu finden. Und kommen wir zum vierten Ansatz, der spannendste ist, weil es da aktuelle Entwicklung gab. Wir hätten nicht über diesen Ansatz sprechen können, wenn heute November wäre, weil all das ist im Dezember passiert. Maßnahmen vor dem Upload. Da ist zuerst einiges bei Pornhub passiert. Zuerst haben sich die Zahlungsdienstleister, Visa und Mastercard von der Plattform zurückgezogen. Dann hat die Plattform gesagt, nicht verifizierte Accounts können künftig nichts mehr hochladen. Nicht verifiziert bedeutet anonyme Accounts. Das heißt, man muss sich irgendwie de-anonymisieren, sei es mit Zahlungsdaten oder sonst was, um nun etwas hoch zu laden auf der Plattform. Und darüber hinaus wurden auch noch rückwirkend. Das hat Millionen Aufnahmen betroffen, alle Aufnahmen offline genommen von nicht verifizierten Accounts. Seltsam. Auch bei X-Hamster gab es so ein ähnliches, wenn auch deutlich kleineres Erdbeben das beschränkte, sich zumindest stand aktuell auf Photo Uploads. Ganz ähnliche Kiste nicht verifizierte anonyme Accounts können keine Fotos mehr hochladen. Ein möglicher Grund dafür ist ein Gesetzesvorhaben in den USA, der Stop-Internet-Sexual-Exploitation-Akt. Und hier wird es kompliziert. Auf den ersten Blick könnte man meinen, das ist doch die Wunschliste von betroffenen, sexualisierter digitaler Gewalt, aber nur auf den ersten Blick. Also dieser Akt sieht zum Beispiel vor Klarnamenpflicht für Uploader unterschriebene Einverständiserklärung aller dargestellten, auch die Plattformen müssten deutlich mehr tun, um mögliche Beschwerden zu überprüfen, zum Beispiel durch eine Hotline und kürzere Reaktionszeiten und so weiter. Die Kehrseite von diesen Plänen ist aber es brechte nochmal enorme Probleme für Sexarbeitende, die zur Abwehr von massiver Diskriminierung ihre Klarnamen schützen müssen. Das Ganze muss man sehr differenziert betrachten. Wir haben spannende Links dazu in dieses dossier gelegt. So ganz allgemein zusammengefasst könnte man sagen, dieses Gesetzesvorhaben ist wohl eher diese klassische Gesetzeskeule und noch nicht dieser differenzierte Entwurf, der wirklich allen irgendwie betroffenen Personengruppen hilft. Denn irgendwie müsste es ja auch möglich sein, sowohl die Rechte von betroffenen sexualisierter Gewalt zu stärken, als auch die Rechte von Sexarbeitenden im Internet. Und jetzt. Es passiert irgendwas. Das können wir schon mal zusammenfassen und das hat uns auch überrascht, denn viele Monate haben wir uns bei der Recherche so geführt, als stünden wir vor einer ganz dicken Mauer und es würde einfach sich nie etwas ändern. Jetzt aber offenbar schon. Im Oktober 2019 hatte X-Hamster Vizeschef Hawkins gegenüber uns noch von Freedom of Sexual Speech gesprochen. Aber der Zusammenhang von dieser Aussage ist voll wichtig, denn da hatten wir ihn gefragt, warum X-Hamster Aufnahmen online lässt, bei denen wir einen starken Verdacht auf sexualisierte Gewalt hatten. Warum lasst ihr die online? Und das war ein Teil seiner Antwort, Freedom of Sexual Speech. Und jetzt etwas mehr als ein Jahr später hat Hawkins diesen Freiheitsbegriff noch mal aufgegriffen und was er schreibt, ging ganz anders. Er schrieb, rather than police sexuality we've often defaulted to greater freedom that has to change. Natürlich, wenn man möchte, kann man auch sein Vokabular kritisieren. Wenn es sexualisierte Gewalt ist, dann geht es um Gewalt und nicht um Sexualität. Aber was wir daraus sehen, dann könnte eine Wende herauslesen und vielleicht wird sich das Jahr 2020 als Wendepunkt erweisen. Eine kleine Änderung, die wir noch gesehen haben, möchten wir euch auch nicht vorenthalten. Wir hatten im Oktober noch geschrieben, die Genres Teen und Voyeur werden auf der Startseite von X-Hamster präsentiert. Aus den Moderationsregeln habt ihr gerade gehört, dass es bei beiden Genres Probleme gibt. Und Überraschungen. 18. Dezember hat sich die Startseite von X-Hamster geändert. Voyeur ist verschwunden. Und aus Thien wurde das erläuternende Teen 18 Plus. Wohin die Reise letztendlich geht, ist auch für uns noch völlig offen. Aber wir recherchieren auf jeden Fall weiter zu dem Thema und da sind wir auch auf eure Hilfe angewiesen. Also wenn ihr zum Beispiel mal bei X-Hamster oder Pornhub oder einer anderen Pornoplattform gearbeitet habt oder wenn ihr mal versucht habt, Inhalte von einer Pornoplattform löschen zu lassen oder irgendwelche anderen Ideen oder Hinweise habt, dann meldet euch sehr, sehr gerne bei uns. Wir freuen uns von euch zu hören und jetzt freuen wir uns auch auf Q&A. Okay, vielen Dank erst mal, euch beiden. Es sind glücklicherweise viele Fragen reingekommen. Oh. Wir freuen uns schon drauf. Und zwar die erste Frage. Arbeitet ihr beziehungsweise die Löcherinnen als Privatpersonen und gibt es deswegen eine Art Haftungsdurchgriff? Also wir haben ja als Analysten gearbeitet in dem Moment. Und die Löcherarbeitenden sind ganz normale X-Hamster-Lutzende. Ich habe keine Ahnung, was ein Haftungsdurchgriff ist und ich bin mal so frei zu raten. Ich glaube, die wissen das auch nicht, die anderen Löcherbeitnen. Okay, gut. Dann wäre eine anschließende Frage daran, wenn ihr Content jetzt auf euren Rechnern habt beziehungsweise dann von mir aus auch nur zwischenzeitlich, seid ihr dann nicht mit einem Bein eigentlich schon im Knast, wenn das illegaler Content ist? Das ist eine sehr wichtige Frage. Wir haben, bevor wir damit angefangen haben unsere Kanzlei zur Rate gezogen und das mit enger juristischer Betreuung gemacht, denn man muss da tatsächlich aufpassen. Das betrifft sowohl das Vorgehen der Recherche als auch die Dokumentation der Recherche. Und ich würde auch jedem raten, der selber das Thema interessant findet und dazu recherchieren möchte, macht das nicht auf eigene Faust, holt euch juristische Beratung dazu, dass das professionell abgesichert ist. Okay, genau. Das wäre jetzt die anschließende Frage noch mal daran. Was sind da eure Bedenken und auch Tipps an andere Investigativ-Journalistinnen? Und das heißt? Kanzlei dazu. Kanzlei. Und auf jeden Fall. Ja. Okay. Dann eine weitere Frage. Wie ließe sich denn die Prüfung von Konzent, Alter etc. so gestalten, dass es nicht zu Doxing von zum Beispiel Sexarbeiterinnen kommen kann? Also wir können, wir müssen auch sagen, dass wir die Omni-Lösung natürlich auch nicht auf dem Tablet servieren können. Wir haben uns da auch viele Gedanken drüber gemacht. Wir haben jetzt eher in, wir haben viel in die Richtung gedacht, okay, wie könnte man zeigen, dass man einverstanden ist, ohne zum Beispiel seinen Klarnamen zu zeigen? Und da wäre es zum Beispiel eine Überlegung zu sagen, dass man gerade bei Fotos vielleicht am Ende noch ein Bild mit einbaut, wo man sich hinstellt und zum Beispiel ein Schild hat, wo drauf steht. Ich bin einverstanden, dass diese Fotoreihe auf Xamestar erscheint. Dann würde man zumindest auf eine gewisse Art abgesichert sein. Aber natürlich ist das alles, wie gesagt, die perfekte Lösung. Das ist sicherlich für mich. Okay, danke schön. Dann eine weitere Frage. Menschen, die an einem netzpolitischen Diskurs interessiert sind, stimmen doch bei den großen Plattformen, Facebook etc. zu, dass Rechtsdurchsetzung nicht privatisiert werden soll. Warum sollte das für eine Porno-Community nicht genauso gelten? Tja, es ist immer die Frage, wie viel Content-Moderation soll die Plattform machen und wie viel Rechtsdurchsetzung soll da noch mal von außen kommen, von Behörden. Also da kann ja auf beiden Seiten irgendwie, können irgendwie Probleme entstehen, weil irgendjemand ist nicht zuverlässig genug, ist überfordert oder unterbesetzt und so weiter. Und ich finde, auch wenn das jetzt so ein bisschen die lame Antwort ist, dann müssen alle Akteure irgendwie zusammenarbeiten, dass das optimal funktioniert. Wir können ja auch nicht wollen, dass es dann irgendwie die Porno-Plattform Prüfungsbehörde gibt, pppb, die dann für all das zuständig ist. Also dann folgen ja auch nochmal ganz andere Probleme. Also es ist ganz sicher keine einfache Aufgabe. Okay, danke schön. Dann eine weitere Frage, die Sie da echt daran anschließt, zu dem Vorschlag mit den gesetzlichen Meldepflichten. Was konkret sollte X-Hamster denn melden und wie wird dann weiter verfahren? Denen zu. Naja, wenn Sie dem NetzDG folgen würden, dann würden Sie zum Beispiel melden, ich bin da kein NetzDG-Experte, aber zum Beispiel, welche Rechtsverletzungen, welche Rechtsverstöße gab es in dem Jahr und dann hätte man immerhin schon mal eine Zahl. Man kann sich Betroffenen noch nichts von kaufen, aber vielleicht künftige Betroffene. Denn, sobald man mal eine Zahl hat, könnte auch ein Bewusstsein dafür entstehen, wie groß ist das Problem überhaupt. Und von solchen Zahlen hängt dann ja natürlich auch ab, werden irgendwie Gelder für Beratungsstellen, Polizeidienststellen und so weiter freigesetzt. Und wer man einfach nicht weiß, in das 500.000 im Jahr, ist das schwierig. Okay, danke schön. Dann eine bisschen andere Frage. Im Vortrag wurde gesagt, ich habe nur Texte gehostet und aktuell scheint dieser komplette Bereich entfernt. Habt ihr da eine Idee, warum? Danke für den Hinweis. Ja, ich wusste das auch nicht. Deswegen nein. Okay, gut. Dann eine nächste Frage. Habt ihr mit Opfern selbst gesprochen? Also habt ihr Kontakt zu irgendweben, deren Rechte auf Ex-Hemster verletzt wurden und was die dazu sagen? Also ich habe einen ganz langen Artikel geschrieben über eine betroffene Person, die im Internet unfreiwillig mit Nacktfotos gelandet ist. Und genau also der Austausch hat auf jeden Fall viel stattgefunden und auch einfach aufgrund der vorherigen Recherche, die ich mit ihr hatte und da haben wir auch viel geredet, war ich da auf jeden Fall recht tief drin. Ja, und auch sonst immer wieder. Ich habe das gerade eingeblendet. Ich weiß nicht, ob ich die Regie damit sehr verwirrt habe. Es gab noch den Artikel über Saunen von dir. Ja, stimmt. Vielleicht magst du da auch noch kurz was zu erzählen? Ja, da hatte sich mal eine betroffene Person bei uns gemeldet, die darauf hingewiesen wurde, dass Fotos von ihr aus einer Sauna online waren auf einer Pornoplattform und sie ist da natürlich erstmal aus allen Wolken gefallen, weil sie keine Ahnung hatte, wie das sie da gefilmt wurde, in dem Moment oder aufgenommen wurde und das war ziemlich krass, weil sie damals auch andere Fotos gefunden hatte, die sie aber nicht löschen lassen konnte, weil sie nicht die betroffene Person darauf war. Man könnte ja vermuten, dass diese Fotos dann auch ohne Einverständnis entstanden sind aus derselben Perspektive, aber wurden nicht gelöscht. Also war ein krasser Fall, fand ich, wie jeder eigentlich. Ich finde all diese Fälle absurd. Ja. Seid ihr jetzt noch aktuell oder hat X-Hamster euch mittlerweile da gebannt? Also wie der Status ganz aktuell ist, können wir nicht sagen aus recherchetechnischen Gründen, aber was wir sagen können, der Holger ist zum aktuellen Zeitpunkt kein Reviewer mehr. Wir haben ja auch diese Chatgespräche veröffentlicht, also das war jetzt heute nicht exklusiv, die stehen auch in den Weißartikeln drin und da war natürlich klar, früher oder später wird dann zugeordnet werden, und dann war der Gute nicht mehr drin. Okay. Ich glaube, die Frage übt sich fast, weil ihr die glaube ich eben schon antwortet. Ob ihr festgestellt habt, ob das Melden von Fotos negative Auswirkungen hat, also wie haben eure Entlündungen die Debatte verändert? Das habt ihr eigentlich eben schon dargestellt. Genau. Also das ist eine Mischung. Ich glaube, dass einzelne Dinge, die X-Hamster gemacht hat, zum Beispiel das Entfernen von diesen zwei Kategorien von der Staatsseite schon, was sie stehen könnten, weil das schon sehr spezifisch ist. Andere Reaktionen, das sehen wir beim Fall Pornhab und auch bei der geplanten Gesetzgebung auf US-Ebene, geschehen wohl eher unabhängig von uns. Okay. Und eine letzte Frage. Wie ist die Haltung der Strafverfolgungsbehörden in Fragen ungewollter Veröffentlichungen? Also wie ist da die Kooperation, die Bereitschaft, habt ihr da irgendwie von betroffenen Seite vielleicht was mitbekommen? Es ist ein bisschen schwierig, weil meistens die Aussage gekommen ist, dass es einfach wahnsinnig schwierig ist, auf die Daten zuzugreifen. Also es wird schon beraten zur Seite gestanden und es wird gesagt, okay, ihr könnt die Inhalte löschen lassen und dazu sind die Porno-Plattformen ja auch verpflichtet, wegen Notices and Hakedown. Aber wer dann letztendlich dahinter steckt, ist relativ schwierig rauszufinden, weil die Server sehr häufig auch auf Zypern zum Beispiel stehen. Und dann kann die Polizei auch angeblich, sagt sich, kann es jetzt nicht zu 100 % sagen, auch nicht an die Daten rankommen. Und deswegen ist die Strafverfolgung relativ schwierig, tatsächlich. Okay, danke schön, da ist also noch viel zu tun. Gut, das war's mit diesem Talk. Wir sehen uns dann um 8 Uhr wieder mit dem Pen-Kollektiv. Und ja, ich wünsche euch eine schöne Zeit. Bis gleich.