 Und zwar kommt jetzt Reclaim Your Face, biometrische Massenüberwachung und wie wir uns dagegen wehren können. Das wird mir als von zwei spannenden Kollegen vorgetragen. Auf der einen Seite ist das Kantorkel, zertifizierte Tele-Shopping Ultra habe ich gehört aus Hamburg. Der sowohl beim Freifogen, bei Torknoten macht er mit und jetzt macht er sozusagen auch diese Reclaim Your Face Initiative und ist auch so eine kleine treibende Kraft, die immer wichtig ist, dass sowas da ist, um solche Sachen auch voranzubringen. Und Nummer zwei von dem Duo in Fanale, was jetzt gleich kommen wird, ist WIC. Der eine oder andere wird, wenn er gleich das Bild sieht, sagen, ey, warte mal. Warte mal, den kenn ich doch aus dem Fernsehen von dieser Elektropunk, bankt die immer so Datenschutz. Awareness mit Punk, also das ist eigentlich so das Beste, was es gibt. Richtig, Systemabsturz, das ist der WIC und der wird sozusagen auch noch irgendwie ein Teil dieses Vortrags halten. Und an der Stelle würde ich jetzt erstmal sagen, bevor ich alles irgendwie schon spoiler, lassen wir sie jetzt einfach reinkommen. Ich sage Applaus, Applaus, Applaus vorab und ja, the stage is yours. Ja, schönen Dank für die nette Begrüßung. Ich bin Kantorkel. Ich bin WIC, hi. Und wir erzählen euch heute erstmal was zu biometrischer Überwachung in Deutschland und auch ein bisschen in Europa. Und danach erzählen wir was zu der Initiative Reclaim Your Face. Als kleiner Erinnerung, es dreht sich heute um biometrische Daten. Das sind Daten, die unseren Körper oder unser Verhalten beschreiben. Das kann zum Beispiel unser Fingerabdruck sein, das kann unser Gesicht sein. Aber diese Daten können auch beschreiben, wie wir zum Beispiel gehen oder wie wir auf einer Tastatur tippen. Diese Daten sind prinzipiell einmalig. Das heißt, wir können über diese Daten identifiziert werden. Sie sind unveränderbar und konstant über die Zeit und sie sind messbar und universal. Das Problem ist, dass die eingesetzten Verfahren, wenn ich biometrische Verfahren habe, häufig diskriminieren sind oder fehleranfällig und gepaart mit einer gewissen Technik. Die Gläubigkeit ist das Ganze gefährlich, denn wenn zum Beispiel irgendeine Überwachungskamera, die behauptet, intelligent zu sein, sagt, da läuft ein Straftäter rum und ich stecke die Person in Knast und hinterher stellt sich raus, die Person war gar kein Straftäter, dann ist das Ganze nicht gut. Das Ganze ist auch gefährlich, weil ich mich schlecht vor biometrischer Überwachung verstecken kann. Ich kann meinen Gesicht nicht einfach so nennenswert verändern und wenn ich es ein bisschen verändere, hilft das nicht. Ich habe hier ein paar Bilder mitgebracht. Da ist eine Person, die hat mal längere Haare, mal ist sie jünger, mal ist sie älter, mal ist sie geschminkt, mal hat sie ein Bad und das alles hilft nicht, um vor biometrischer Überwachung sich zu verstecken. Und genauso wenig hilft eine Gesichtsmaske, die wir dank Pandemie draußen relativ häufig tragen. Genau, es geht also um biometrische Daten und auch in Deutschland wird mit biometrischen Technologien experimentiert, und zwar im öffentlichen Raum. Man macht uns alle einfach so, ohne uns zu fragen, zu Versuchskaninchen. Bekannt ist wahrscheinlich das Beispiel vom Berliner Südkreuz. Da hat die Bundespolizei mit dieser Risikotechnologie herumspielen wollen. Die Polizei war mit dem Versuch der 2017 dort durchgeführt worden, ist ganz zufrieden. Allerdings waren die Ergebnisse massiv geschönt worden. Halbwegs brauchbar waren die Ergebnisse auch nur, wenn man ideale Bedingungen für die Fotos hergestellt hat und wenn man gleichzeitig mehrere Systeme miteinander verbunden hat, was man in der Praxis auch nicht machen würde. In Wahrheit war dieser Versuch also ein Reihenfall. Trotzdem gab es 2020 noch ein Austausch zwischen der Berliner Polizei, der Bundespolizei und einem ähnlichen Versuch am Flughafen Prag. Auch dort hat man Gesichtserkennung ausprobiert. Wir haben versucht dort Unterlagen zu diesem Austausch zu erhalten, überfragt den Staat. Abgeordnete haben im Bundestag freundlicherweise auch die richtigen schriftlichen Fragen oder Kleine Anfragen gestellt. Und da haben wir leider auch nichts weiter herausbekommen. Das heißt, wir wissen nur, dass dann 2020 noch mal ein Austausch zwischen Flughafen Prag und Berliner Polizei stattgefunden hat. Aber wir wissen nicht so richtig, worüber dort gesprochen wurde. Jedoch wissen wir, dass die Bundespolizei 2020 auch noch mal gesagt hat, dass Gesichtserkennung im Regelbetrieb eingesetzt werden kann. Und das zeigt auch dieser Versuch von 2017. Momentan ist wegen der geltenden Rechtslage aber kein weiterer Erfahrungsaustausch mit der tschechischen Polizei geplant. Also, der Versuch ist abgeschlossen, aber irgendwie passieren da im Hintergrund noch Dinge. Es ist aber sehr schwierig dort Transparenz herzustellen und an Informationen zu kommen. Ein anderes, nicht so schönes Thema ist der G20-Gipfel, der 2017 in Hamburg stattgefunden hat. Während des Gipfels und nach dem Gipfel hat die Polizei mehr als 100 Terabyte an Bild- und Videomaterial eingesammelt. 17 Terabyte davon wurden auch biometrisch verarbeitet. Und wieder passierte das, ohne die Betroffenen vorherzufragen. Das heißt, die Polizei hat dort einfach besonders sensible Daten verarbeitet und wahrscheinlich sogar ohne eine Rechtsgrundlage. Da gibt es noch einen Rechtsstreit, der noch nicht abgeschlossen ist. Das Videomaterial stammte aus verschiedensten Quellen. Da wurden Kameras von U-Bahn-Höfen angezapft oder von Busen im öffentlichen Personennahverkehr. Aber es gab auch einen Hinweisportal, wo Privatpersonen einfach Videos hochladen konnten. Und ja, alle möglichen Daten wurden dann von der Polizei mit einer bestimmten Software im Nachhinein biometrisch verarbeitet. Das Besondere hier ist also, dass ganz normales Bild- und Videomaterial genutzt wurde, wo noch gar keine Biometrie drinsteckt. Und dieses Material wurde dann im Nachhinein biometrisch verarbeitet und analysiert. Auch der harmonische Datenschutzbeauftragte fand das Ganze nicht so lustig. Hat unter anderem angeordnet, dass die Polizei die Daten löschen soll. Die Polizei hat das ignoriert. Sie sah sich im Recht. Mehr konnte der Datenschutzbeauftragte in dem Moment nicht durchsetzen. Und genau dazu läuft jetzt immer noch ein Rechtsstreit, ich glaube, vom hamburgischen Oberverwaltungsgericht. Und da hören wir hoffentlich bald, dass das, was die Polizei da 2017 in Hamburg getan hat, nicht rechten zwar. Ja, weiteres schönes Thema, was auch 2017 seine ersten Schritte ging. Und zwar geht es um die Gesichtersuchmaschine Clearview AI. Diese Gesichtersuchmaschine wurde 2020 bekannt. Und zwar wurde im Januar 2020 in New York Times erstmalig groß über diese Gesichtersuchmaschine berichtet. Diese Suchmaschine hat mehr als 3 Milliarden Bilder im Internet durchsucht und die Gesichter dazu biometrisch analysiert. Als Service wurde diese Suchmaschine dann nicht nur Strafverfolgungsbehörden, aber auch irgendwelchen reichen Leuten zum Beispiel als Spielzeug zur Verfügung gestellt, die dann von irgendwelchen Passanten zum Beispiel Bilder hochladen konnten. Und diese Suchmaschine hat dann alle möglichen Fundstellen des gleichen Gesichts im Internet bereitgestellt. Und genau das ist das Problem. Die Suchmaschine sucht nicht einfach nach ähnlichen Bildern, sondern die Suchmaschine sucht nach ähnlichen Gesichtern. Wenn ich heute mit einer herkömmlichen Suchmaschine ein aktuelles Foto von mir hochladen würde und danach suchen würde, dann würde ich wahrscheinlich kein ähnliches Bild suchen. Aber bei Clearview AI kann ich ein aktuelles Bild von mir hochladen. Das Gesicht wird in diesem Bild identifiziert, biometrisch verarbeitet und anschließend zeigt mir die Suchmaschine alle möglichen Fundstellen im Internet, wo das gleiche Gesicht auch schon mal aufgetaucht ist. Das heißt, diese Suchmaschine stellt eine Technik bereit, mit der ich mich an eine Demo stellen könnte und ich kann dann alle Leute, die bei dieser Demo mitdemonstrieren, identifizieren. Sofern die Leute irgendwie in den letzten 20 Jahren mal im Internet aufgetaucht sind mit einem Foto. Ja, ich habe diese Suchmaschine auch angeschrieben, habe den sogar ein Foto von mir geschickt und habe gesagt, ich hätte gerne eine Kopie meiner Daten und habe sie aufgefördert, meine Daten zu löschen. Schließlich sind biometrische Daten nach Datenschutzgrundverordnung besonders sensible Daten und besonders geschützt. Ich war ein bisschen überrascht, als die Suchmaschine dann auch geantwortet hat. Die Antwort seht ihr hier. Das erste ist das Suchbild, das ich eingereicht habe. Die Bilder 1 und 2 waren tatsächlich Fotos von mir, die irgendwo im Internet liegen und dann wurden noch sieben weitere Bilder gezeigt, die nicht mein Gesicht zeigten. Das heißt, hier sieht man auch, Clearview AI liefert gar keine perfekten Ergebnisse, sondern auch da kann es falsche Ergebnisse geben. Ja, nachdem ich diese Antwort vom Clearview AI bekam, habe ich mich beim harmonischen Datenschutzbeauftragten beschwert. Zuerst gab es da ein bisschen hin und her, weil ich der Meinung war, dass er zuständig sei wegen der Datenschutzgrundverordnung und er war der Anfassung, dass die Datenschutzgrundverordnung nicht anwendbar sei. Da wurden wir uns aber einig. Er hat ein Verfahren eröffnet und mit Unterstützung von Non-of-your-business haben wir es dann gemeinsam erreicht, dass Clearview AI schließlich im Februar 2021, also nach gut einem Jahr, mein biometrisches Datum löschen musste. Gleichzeitig wurde festgestellt, dass diese Verarbeitung durch Clearview AI illegal war, zumindest in der Europäischen Union. Das Problem, das wir hierbei immer noch sehen, ist, dass ich mich beschwert habe, dass nur mein biometrisches Datum im Anschluss gelöscht worden ist. Und obwohl wir wissen, dass viele andere Europäerinnen und Europäer auch in dieser Datenbank stecken und auch betroffen sind, hat die Anordnung des hamburgischen Datenschutzbeauftragten nur meine Personen abgedeckt. Insofern schauen wir auch hier weiter, was man da noch machen kann. Clearview AI ist leider längst nicht mehr die einzige Gesichtersuchmaschine. Eine andere, die ursprünglich in Polen war, ist PIMEIS. Diese Suchmaschine gibt es seit 2019. Hier sehen wir ihre beiden Gründer Lukas Kowalschik und Dennis Tatina. Die beiden tauchen nicht so gerne im Internet auf. Inzwischen scheinen die beiden Gesichter von den beiden auf PIMEIS auch auf einer Blacklist zu sein. Da findet man jedenfalls nichts mehr. Das war früher anders. Und als da dann auch erster Protest laut wurde, ist die Firma ganz spontan von Vroswaf auf diese Schellen umgezogen. Das heißt, hat sich der Datenschutzgrundverordnung so ein bisschen entzogen. Allerdings gibt es immer noch eine Firma, die irgendwie mit diesen beiden Herren zu tun hat, die da in Polen sitzt. Die Adresse seht ihr auf der Folie. Wenn ihr da zufällig Verbindungen in die Gegend habt, wir würden uns sehr freuen, über Infos zu dem, was da heute in diesen Büros passiert. Es könnte nämlich sehr interessant sein, wenn PIMEIS de facto heute noch eine Niederlassung in der Europäischen Union hat. Was auch ganz interessant war, wir haben hier neue Verbündete geworden. Und zwar finden die Polizeigewerkschaften Gesichtserkennung auch gar nicht mehr so gut. Jedenfalls dann, wenn alle diese Gesichtserkennungsdienste nutzen können. Daher möchten die Polizei die Polizeigewerkschaften ebenfalls, dass dieses PIMEIS verboten wird. Und damit gebe ich jetzt weiter an Viktor. Genau, wir machen jetzt noch so einen weiteren Überblick, was sonst noch so in Deutschland los ist. Und haben so einen Best-of vorbereitet an biometrischen Überwachungsprojekten, dass ihr einfach so ein bisschen Überblick kriegt, was da gerade so los ist. Wir fangen an mit Mannheim. In Deutschland gibt es seit 2018 eine Verhaltenserkennung in der Fußgängerzone. Wir haben es immer so ein bisschen aufgeschlüsselt in wo passiert es, was passiert da und gibt es eine Rechtsgrundlage. In diesem Fall, genau, es gibt eine Verhaltenserkennung. Die Leute, die das betreiben und zwar die Polizei in Mannheim sagt, nein, gar kein Problem, auch kein Datenschutzproblem. Es gibt ja gar keine Identifikation, sondern es wird nur geguckt, ob Menschen sich komisch verdächtig verhalten. Und wenn ja, kann sofort die Polizeistreife losgeschickt werden. Und das ist es darüber, dass anscheinend angeblich ganz datensparsam sofort alle Gesichter verpixelt werden und dass man gar nicht genau sieht, welche Person sich da auf eine auffällig Verhalten hat, sondern nur, dass das passiert ist und dann als Polizeistreife vorbeigucken kann. Da kann man aber natürlich schon hellhörig werden, denn um überhaupt Gesichter zu verpixeln, muss ich Gesichter erkennen und damit muss ich auch auf eine gewisse Art und Weise die biometrische Daten verarbeitet haben. Sie sagen selber, sie brauchen keine Rechtsgrundlage, vermutlich gibt es auch keine Rechtsgrundlage. Ich glaube, da sind wir uns noch nicht einig und ich denke, das wird sich in Zukunft auch noch klären lassen. Aber genau, man darf skeptisch bleiben. Ähnlich sieht es in Karlsruhe aus. In Karlsruhe ist das auch noch geplant, da hängen diese Kameras noch nicht, aber hier gibt es ein paar spannende Sachen und zwar, ich hier soll auch ein Verhaltensanalyseprojekt im öffentlichen Raum passieren, aber nicht von der Polizei, nein, nein, sondern von einem Unternehmen, von der ENBW, der Baden-Güttembergischen Energiegesellschaft. Und die sagen auch wieder selber, nein, nein, alles okay, ist ja alles anonymisiert. Das heißt, es geht gar nicht in personenbezogene Daten, da greifen auch die ganzen Gesetze, die das regulieren, greifen gar nicht. Es sei alles super. Wir haben mal über das IFG-Gesetz versucht, IFG versucht, da weitere Dokumente zuzukriegen, die Stadt sagt, kann man nichts sagen, es gibt ja noch gar keine Verträge. Es bleibt spannend, aber auch hier scheint sich sowas zu entwickeln. Dann schauen wir weiter nach Sachsen. In Sachsen haben wir nicht nur einen kleinen Punkt, sondern eine ganze große Zone. Und zwar gibt es seit dem Polizeigesetz 2019 die Befugnis im Grenzgebiet 30 Kilometer, um die Grenze entfernt Gesichtserkennungstechnik einzusetzen, um grenzbezogene Kriminalität zu ahnden und zu finden. Und mir wäre auch nicht bekannt, dass da schon eine einzige Kamera hängt, aber das Gefährliche ist die Gesetzesgrundlage, wäre theoretisch damit da. Die Gesellschaft für Freiheitsrechte hat auch schon angekündigt, dagegen zu klagen und die versuchen, das vor Gericht zu kippen. Aber da ist es schon so weit, dass es das Gesetz gibt. Dann gucken wir weiter in Köln, in unserer Überwachungsgesichtserkennungsrundumschau, dem Best of. In Köln hängen auch keine Kameras, die jetzt schon Gesichter erkennen und verarbeiten. Aber in Köln hängen sehr, sehr viele Kameras, die vor allem sehr, sehr gut sind. Also das nennt man auch oft biometric ready. Das heißt, das sind Kameras, die von den Spezifikationen von der Auflösung so gut sind, dass sie ohne Weiteres umgestöpselt werden könnten, auf nicht mehr zu einer Leitstelle, sondern zu einem Gesichtserkennungssystem und dann auf einmal ganz viele Gesichter erkennen könnten. Gegen diese sehr, sehr vielen, sehr, sehr guten Kameras in Köln hat sich das die Organisation Kameras Stoppen.org schon zu weggesetzt. Die haben auch da schon erster Folge gehabt und die versuchen da einfach diese Kameras wegzuklagen. Also einfach zu sagen, hey Leute, das gibt keine Rechtsgrundlage. Diese Kameras müssen hier weg. Und genau, dann haben wir das Fazit. Wir sehen, es werden immer mehr Punkte auf der Karte, die ploppen hoch wie kleine Pilze und insgesamt kann man sagen, teilweise sind Kameras aufgehängt, die zwar noch keine Gesichter erkennen, aber die im Prinzip den ersten Schritt, den ersten Voraussetzungsschritt von biometrischer Gesichtserkennung bereits erfüllen, weil sie schon als Kamera in der Lage wären, dafür das entsprechende Glied in der Kette zu sein und man merkt, richtig viele Leute haben so richtig Bock. Also es vielen Menschen kitzelt das in den Fingern und in den verschiedensten Landespolizeien auch im Bundesinnenministerium haben Leute so richtig Lust, das auszuprobieren. Und deshalb merken wir, es wird höchste Zeit, dass man da ein bisschen was macht. Weil man kann im Prinzip relativ klar sagen, gucken wir diese Karte an, das wird immer mehr. Wenn wir jetzt 10 Jahre still sitzen, ist das überall. Also es ist einfach so ein bisschen in die Zukunft voraus extrapolieren. Von diesem Überblick in Deutschland, wo man noch einzelne Punkte malen kann, wird es tatsächlich deutlich gruseliger, wenn man einfach mal nach Europa guckt, weil da sind es tatsächlich so viele Projekte, dass ich im Zeitrahmen dieses Vortrags das nicht schaffe, alle vorzustellen. Es ist so massiv viel, dass man einfach nur so ein bisschen drüber scannen kann. Also so die Best-ofs sind dann typischerweise, wenn es tatsächlich die Gesichtserkennungssysteme sogar schon benutzt wurden, um Personen von Demonstrationen zu identifizieren. Das ist ja eigentlich allgemein das, wofür wir die Große Angst haben, beziehungsweise wo wir sagen, dann wird es im Allerschädlichsten für Demokratien, wenn man nicht mehr anonym an Demonstrationen teilnehmen kann, sondern wenn man Angst haben muss, identifiziert zu werden. Und das ist zum Beispiel in Österreich schon passiert. Dann gibt es auch viele Länder, in denen einfach große Verträge geschlossen wurden. Griechenland hat Gesichtserkennungssysteme für 4 Millionen gekauft. Die Niederlande hat ein Gesichtserkennungssystem aufgebaut mit 1,3 Millionen Personen in der Datenbank. Viele Firmen benutzen das da ohne Rechtsgrundlage. In Frankreich wurde das schon in Schulen eingesetzt. In Belgien wurde man durch den Flughafen getrackt. In Slowenien wurde das eingesetzt, um Demonstrierende zu identifizieren. In Schweden konnte die Polizei nicht widerstehen, Clearview AI zu benutzen, obwohl das vermutlich auch rechtswidrig war. In Belgrad wurden Gesichtserkennungssysteme aufgebaut. Die Liste ist lang. Ihr seht, die Karte fährt sich blau und blauer. Das Zeug kommt leider überall und verbreitet sich schnell. Die aufmerksamen Verfolgerinnen der europäischen Politik und vor allem was Sicherheitsbehörden mit den Gesetzen angeht, können sich überlegen, wer fehlt hier wohl. Es geht um einen weiteren Namen von Leuten, die manchmal ein bisschen kreativ sind mit Gesetzesgrundlagen, natürlich Frontex. Frontex hat auch richtig Lust. Das war in diesen Frontex. Pfeils in diesem League war das drin. Die haben vermutlich besitzen sie bis jetzt. Da auch noch nicht großartig Technik. Aber es ist dokumentiert, dass sie richtig Lust hatten, da aufzurüsten und sehr viel Geld in die Hand zu nehmen. Und gerade auch zum einen Ausrüstung, Waffen und solche Sachen. Zum anderen aber auch digitale Überwachungstechnologie, gerne auch Dual-Us für das Militär hergestellt. Da geht es aber vor allem auch um Gesichtsmuster und Verhaltenserkennungssysteme. Da geht es um Lügendetektoren. Da geht es um Fingerabdrücke, die genommen werden sollen von allen Menschen, die nicht aus der EU sind und einen ausreisen. Das ist also richtig groß einzusteigen in diesem Spiel der biometrischen Daten. Genau. Was gibt es noch? Dann machen wir noch mal einen kurzen Überblick über diese ganze Situation, weil Gesichtserkennung in sich ist ein bisschen die Steigerung von Videobewachung. Videobewachung ist per se schon ein Eingriff in die Rechte von Menschen und auch Videobewachung kann sogenannte Chilling-Effekts erzeugen. Die Effekte sind das, wie man das nennt, die Negativ-Effekte von Überwachungsmechanismen. Das bedeutet, das sind so Selbsteinschränkungs-Effekte. Zum Beispiel, wenn jemand das Gefühl hat, wenn ich das jetzt mache, dann könnte die Information darüber mir in Zukunft zum Verhängnis werden. Da mache ich das mal besser nicht, dann gehe ich mal besser nicht zu dieser Demo. Das passiert alles schon bei Videobewachung. Videobewachung in sich ist schon nicht so geil, aber das wird alles noch mal viel schlimmer als Gesichtserkennung, einfach wegen Skalierungseffekten. Bei Gesichtserkennung, bei Videobewachung, zum Beispiel, wenn man eine U-Bahnstation hat und da hängt eine ganz normale Kamera, dann kann man sich da zwar beobachtet fühlen, aber es muss immer noch ein Mensch dazugucken. Und das ändert sich mit Gesichtserkennungsalgorithmen. Weil mit so normalen Kameras ist es einfach nicht praktikabel, flächendeckend eine ganze Stadt sich anzugucken, denn bei Videobewachung gibt es ein oberes Limit von wie viele Plätze und wie viele Flächen kann ich mir angucken. Wenn man das alles digitalisiert und das einen Algorithmus machen lässt, gibt es das nicht mehr. Auf der anderen Seite sind die Daten auch in einem viel besseren Format, kann man jetzt mal sagen, in einem viel präziseren Format. Denn Videobewachung, da gibt es dann auch nur diese Videostreams, wenn ich mir jetzt überlege, alle viele Kameras von vielen Plätzen tatsächlich aber ein Gesichtserkennungsalgorithmus habe und mir nur die Timestamps und die GPS-Datenspeicher von welche Person ich wann wo gesehen habe, das ist richtig wenig. Das ist absolut plausibel in einem ganzen Land, in einer ganzen Stadt einfach alles aufzuzeichnen und alles zu behalten, weil man weiß ja nie, könnte ja nochmal praktisch werden. Deshalb über diese Skalierungseffekte wird es viel, viel dramatischer und viel, viel gefährlicher, dass das so richtig massenhaft benutzt und ausgeweitet wird, weil es eben nicht mehr menschliche Faktoren gibt, die das verhindern. Und wichtig ist dazu auch noch zu sagen, in Deutschland es seit dem letzten Personalauswahlsgesetz gibt es einen automatisierten Zugriff von mehr oder weniger allen Polizei- und Geheimdiensten auf die digital bereits digitalisierten Fotos von allen Personen. Das heißt, theoretisch gibt es schon die Sammlung von digitalen Fotos von allen Menschen in Deutschland, oder man sie identifizieren könnte. Das heißt, wenn man sich überlegt, was braucht man für ein funktionierendes Gesichtserkennungssystem, dann wäre das die gute Kamera, die hängen da schon, dann wäre das ein Foto von der Person, die man identifizieren möchte. Das gibt es auch schon, das Letzte, was fehlt, sind dann die Computer, die Analyse-Systeme, die gibt es doch nicht, aber da müssen wir es gucken, dass es die nicht gibt. Genau. Und damit übergebe ich an Cantorkel, weil wir wollen natürlich, dass wir dann wieder eine Kampagne haben. Genau. Jetzt geht es um die Initiative, die wir gestartet haben, Reclaim Your Face. Diese Initiative haben wir bereits im November letzten Jahres gestartet und seit Februar 2021 ist das sogar eine richtige offizielle europäische Bürgerinitiative. Und zwar ist das Ziel, diese Initiative ein Verbot biometrischer Massenüberwachung zu erreichen. Dann stellen wir das. Zum einen ist die Gelegenheit günstig, denn es gab bereits Anfang 2020 ein White Paper der EU, das geliebt wurde und auch da wurde schon ein Erwägung gezogen, dass man biometrische Massenüberwachung vielleicht mal streng regulieren oder verbieten sollte. In der finalen Fassung des White Papers war dieser Satz leider nicht mehr enthalten, aber dennoch zeigt das, dass es auch auf EU-Ebenen eine gewisse Erwärme für dieses Thema gibt. Andererseits zeigen die vielen Beispiele, die wir jetzt aufgeführt haben und noch viele weitere mehr, dass Handeln dringend notwendig ist. Denn diese Techniken verbreiten sich immer weiter. Ich habe gestern erst in der Zeitung gelesen, dass so ein Roboter-Hund durch Hamburg gelaufen ist, der eine extrem hochauflösende Kamera auf dem Kopf hat. Hersteller ist ja die schöne Firma und wenn wir nicht wollen, dass wir bald überall leicht biometrisch erfasst werden können, dann müssen wir jetzt tätig werden. Ansonsten ist es irgendwann einfach viel zu spät. Im Rahmen dieser Initiative müssen wir jetzt eine Million Unterschriften sammeln und zwar in mindestens sieben EU-Ländern. Je nach Land gibt es dann auch nochmal verschiedene Schwellwerte, denn EU-Land alleine diese Initiative vorantreiben kann, sondern das muss ein europäisches Thema sein und dass das ein europäisches Thema ist, zeigt auch die Tatsache, dass diese Initiative überhaupt angenommen wurde. Das Thema wurde von der Europäischen Kommission geprüft und diese Initiativen werden nur zugelassen, wenn die EU die Regelungskompetenz hat. Diese Initiative hier wurde jetzt zugelassen, sie kann unter reclaimyourface.eu auch unterschrieben werden und das war quasi ein erster, kleiner Erfolg, die richtige Arbeit, die eine Million Unterschriften jetzt sammeln, liegt noch vor uns. Das machen wir natürlich nicht alleine, sondern das ist ein sehr, sehr breites Netzwerk. Gestartet haben wir mit etwa ein Dutzend Organisationen, die alle aus diesem Netzwerk European Digital Rights stammen, so etwas wie der Dachverband der Bürgerrechts- und Datenschutzorganisation in Europa und inzwischen ist dieses Netzwerk auf mehr als 55 Organisationen angewachsen, die alle im Rahmen ihrer Möglichkeiten unterstützen und längst haben wir auch diese Datenschutzbubble verlassen, zum Beispiel Amnesty International ist auch dabei oder in Deutschland die Wirtschaft für Informatik, die zwar auch Datenschutz auf dem Schirm hat, aber da ist Datenschutz nicht das Kernthema alleine. GermanWatch.ev ist dabei oder auf europäischer Ebene der Dachverband der europäischen Dienstleistungs-Gewerkschaften Uni Europa, die immerhin 7 Millionen Mitglieder repräsentieren. Das heißt, ja, das ist ein schönes, buntes, breites Netzwerk, das auch immer noch am Wachsen ist. Inzwischen haben wir 46.000 Unterschriften gesammelt, mehr als die Hälfte, 25.000 kommen aus Deutschland. Das klingt jetzt nach viel, allerdings sind wir noch von der Million ein gutes Stück entfernt. Trotzdem denken wir, dass wir das Ziel auf jeden Fall noch erreichen können, zumal das Bündnis auch jetzt noch stark am Wachsen ist. Ja, in der Vergangenheit, in den vergangenen Wochen haben wir uns intensiv damit beschäftigt, neue Partner zu finden. Wir sind auf erste politische Organisation auch zugegangen. Da haben Einzelne auch schon gesagt, dass sie diese Initiative ebenfalls unterstützen wollen. Und wir haben unter anderem viele fragenden Startanfragen gestellt, um mehr Transparenz in Sachen Überwachung herzustellen und viel zu häufig stellen wir fest, dass die Stellen, die Auskunft geben müssten, keine Auskunft geben wollen, häufig, die Dokumente zumindest offiziell noch gar nicht da sind. Und jetzt macht Weg weiter und erzählt, was noch so passieren wird. Ja, genau. Also es ging ja gerade erst frisch los. Und das ist natürlich auch eine große Herausforderung, sich zu überlegen, wie hält man über ein ganzes Jahr, da die Spannung und die Energie in so einer Kampagne, deshalb wird es auf jeden Fall zum Beispiel noch Themenwochen geben. Also wir werden uns auf bestimmte Dinge fokussieren, da genauer zu arbeiten und auch mit Akteuren, die da in diesen Themen unterwegs sind. Zum Beispiel eine große Sache ist Fußballstadien, Stadien insgesamt, die Fanszene, weil die trifft das vermutlich ja auch dann sehr stark, falls das das geben würde. Dann ist ein anderes großes Thema, was wir sehen, sind Geflüchtete und europäische Außengrenzen. Bei Frontex haben wir schon geredet, dass die richtig Lust haben und von Frontex wissen wir auch, dass die manchmal Lust haben und dann haben wir auch noch den Punkt ArbeiterInnen. Also es gibt auch dieses ganze Feld, diesen ganzen Kontextüberwachung am Arbeitsplatz. Wir haben ja auch, ich glaube von den Amazon Trucks gehört, mit wo die Kameras immer liefen und so was. Also ich glaube, da gibt es auch viel noch zu, einen Inhalt zu erarbeiten. Da wollen wir im Themenwochen zu machen, wo wir uns einem Thema genauer widmen und das bearbeiten. Insgesamt geht es aber natürlich jetzt einfach noch darum, dass es ein sehr, sehr buntes und breites Bündnis zu bauen und da möglichst vielen Gesellschaften abseits der Datenschutzszene zu zeigen. Ey, das ist ein wichtiges Thema, da müsst ihr mitmachen. Das heißt, falls ihr irgendjemand zuhört und denkt, Mensch hier, das wäre da mal was für uns, meldet euch gerne bei uns, genau. Anderenfalls, wenn ihr denkt, cool, wie kann ich eigentlich mitmachen, kommt jetzt noch ein kleiner, wie können wir euch einen binden Block und zwar zum einen bringen, das ist super, insgesamt einfach Transparenz hier zu stellen. Also es gibt viele Dinge, die passieren, über die wir noch nicht Bescheid wissen. Das heißt, an euch alle, wenn ihr Lust habt, fragt Unternehmen nach euren Daten, fragt Unternehmen, die vermutlich so was wie Gesichtserkennung oder Biometrie angewendet haben nach euren Daten, fragt ihr auch, hey, was habt ihr damit eigentlich gemacht und auf welche Rechtsgrundlage und wie verhandelt ihr das? Sind das für euch biometrische Dinge? Fragt auch bei öffentlichen Stellen nach, fragt nach Verträgen, nach Dokumentationen, benutzt, fragt den Staat, stellt möglichst kreative Anfragen, möglichst nervige Anfragen. Wir freuen uns da immer sehr über alle Dokumente, die ihr da irgendwie rausgepult kriegt, weil ich glaube, auch da gibt es noch sehr, sehr viele spannende Dinge zu lernen. Und das einzige, was man tun muss, ist so ein bisschen Nachrichten lesen und schlaue IFG-Anfragen stellen. Was könnt ihr noch tun? Bewusstsein wir müssen vor allem so ein bisschen, also wir haben jetzt hier eine Konferenz, in der es irgendwie allen klar ist, aber vor allem das Thema in anderen Räumen, in anderen Organisationen tragen ist glaube ich immer noch total wichtig. Wenn ihr die Möglichkeit habt, sprecht eure Abgeordneten an, das ist auch immer schön, um denen zu zeigen, hey, wir gucken dazu und das läuft gerade nicht in die richtige Richtung. Und als letzten Punkt können wir sagen, nehmt an unserer Self-Organize Session-Teil. Denn wir haben uns jetzt um einfach Leuten zu helfen, die sich das anhören und denken, da möchte ich mitmachen. Machen wir eine, haben wir eine Self-Organize Session eingetragen, organisiert, auch hier beim R2R, am Montag um 15.30 Uhr und da seid ihr alle herzlich eingeladen, falls ihr denkt, ihr habt Lust bei der Kampagne mitzumachen, ihr kennt eine Organisation, die da unbedingt dabei sein sollte oder was euch sonst irgendwie einbringen und da können wir dann genauer darüber reden. Und damit sind wir ziemlich am Ende, würde ich sagen. Hier sind Kontaktdaten von uns, falls ihr uns kontaktieren möchtet und damit bedanke ich mich eigentlich einfach erstmal, baue ich für eure Aufmerksamkeit und danke, dass wir den Vortag hier machen durften. Ja, dann sag ich doch erstmal Applaus, Applaus, Applaus, Applaus, Applaus, also Wick und Kantorkel, ja, ich war gebannt, hab an den Lippen geklebt, auch wenn das natürlich immer gut ist, ich seh gerade hier live im Pet, da kommen mal Fragen und Feedback schon rein, das heißt, ihr habt da wohl auch einen Nerv getroffen und viele, viele, viele interessierte Menschen, darum ich scroll hier einfach mal rein und dann fange ich oben bei den Fragen an, ohne dass ich sie werte. So, aus meiner Sicht sind bislang alle Schritte und Aktionen gegen diesen Wahnsinn zu weich gespült. Was kann nachhaltig getan werden? Ich weiß nicht, die Kameras kaputt machen oder... Ja, also vielleicht auf jeden Fall würde es vielleicht helfen, auch diese Überwachung sichtbarer zu machen, so den Protest auf die Straße zu bringen, ist etwas, was wir im Hinterkopf haben, aus Gründen ist das momentan nicht ganz oben auf der Liste und ich glaube auch ganz schlecht ist das Mittel der Initiative nicht, denn wir können erzwingen, dass die Kommission sich mit uns treffen muss. Dann wird es eine öffentliche Erhöhung im EU-Parlament geben und danach muss die Kommission schriftlich Stellung beziehen und sagen, warum sie unsere Ziele umsetzen oder warum nicht. Das heißt mit einem gewissen öffentlichen Druck kann man hier tatsächlich was erreichen. Dann gibt es bereits Aktionen gegen Clearview. Lohnt es sich, gemeinsam weitere solcher Löschanfragen zu stellen? Auf jeden Fall. Also ich habe das jetzt einmal gemacht, über ein Jahr gedauert. Jetzt ist halbwegs klar, wie das läuft. Wenn du und ihr Antworten erhaltet, würde ich mich über eine Nachricht freuen und dann können wir schauen, was wir daraus machen. So, kann ich meine Fotos bei Clearway.ai auch löschen lassen? Gibt es da Vorlagen? Firma sitzt nicht mehr in die EU, also vermutlich keine Handhabe mehr. Das ist schwierig. Wir haben in meinem Fall bisher auch nur erreicht, dass das biometrische Datum zu meinem Gesicht gelöscht wurde. Da wurde nichts über irgendwelche Bilder gesagt, aber wir sind auch noch nicht fertig. Nur zu meinem Verständnis. War es nicht mit der DSGVO so, dass sobald du deine Dienstleistung innerhalb des Europas anbietest, schon drunter fällst? Nicht, wo dein Sitz ist? Das ist korrekt. Offiziell, heute zumindest, gibt es auch keine europäischen Kunden. Die schwedische Polizei müsste 250.000 Euro zahlen, weil sie doch Kunde waren. Manheim, was gilt als auffälliges Verhalten, damit die Polizei vorbeischaut, slash wegschaut? Das glaube ich auch so eine spannende Sache. Das ist immer gar nicht so gut dokumentiert. Das wäre ein weiterer Gefahr von diesem automatischen Erkennungssystem, dass entweder wird nicht nach außen transparent kommuniziert, wann die Systeme anschlagen oder die Leute wissen selber nicht, weil es irgendwelche Magic-Fu-AI-Geschichten sind. Ich glaube, da war die Rede von körperlicher Auseinandersetzung. Also irgendjemand rennt weg nach einem Diebstahl oder schlägt eine Person. Das kann auch mal falsch aussehen. Du hast jemand umarmt und ich glaube, das Problem ist, weiß man nicht genau, weiß man nicht präzise, Open Source wäre hübsch, aber noch besser, wenn die Systeme gar nicht sind. Dann haben wir Videoüberwachung im Grenzgebiet. Ist das üblich, dass Grundrechte 30 km vor der Grenze aufgeweicht werden? Wie kommen gerade die 30 km zustande? Wie die 30 km zustande kommen, weiß ich nicht. Im europäischen Raum war es bisher nicht üblich, die Grundrechte an den Grenzen so sehr aufzuweichen und an den Grenzen ist gut. Das betrifft ja Halbsachsen. Ja, ich sehe auch gerade, hier hat jemand ins Pet auch noch irgendwie auf Wikipedia Zollgrenzbezirk verwiesen. Es ist ja so, dass in den Grenzbereichen, ich komme von der niederländischen Grenze, da gibt es immer so Art Möglichkeiten, und ich weiß nicht, ob das damit sozusagen einhergeht, diese 30 km. So, wie seht ihr das Thema in Sassen in einem autonom K-Sharing Fahrzeug? Wäre es falsch, dort zum Beispiel sexuelle Übergriffe automatisiert zu erkennen? Ja, wäre es. Danke. Insgesamt ist das ja auch spannend mit den ganzen Kameras, die heutzutage Autos sozusagen nach draußen gucken. So, tauschen die EU-Länder die Daten jetzt auch schon aus? Ist dazu etwas Konkretes bekannt? Beziehungsweise, um Personen zu verfolgen? Es werden sicherlich Fandungsbilder ausgetauscht. Inwieweit da der Fokus auf biometrischer Verarbeitung liegt, kann ich nicht sagen. Wie kann man am besten seine Mitmenschen überzeugen, die Petition zu unterschreiben? Ja, vielleicht einfach. Ich würde sagen, auf die Dringlichkeit des Themas. Erstens viel Mensch ist überhaupt nicht klar, was da passiert, und dass das passiert. Dann ist viel Mensch nicht klar, dass das ein Problem ist und dass wir da jetzt was machen müssen. Und meine Erfahrung ist auch, dass es wichtig ist, eine Art Dringlichkeit zu erzählen. Warum muss das genau jetzt passieren? Es gibt auch immer 20 andere Sachen, die ich glaube, so ein bisschen zu erzählen. Das ist gerade zwei Sachen pro Jahr. Die ganze EU, ganz Deutschland, quillt über alle Scharen mit den Hufen, überall biometrische Gesichtserkennungssysteme aufzubauen und zu installieren. Wenn wir nicht jetzt etwas tun, dann sind für mindestens 10 Jahre diese Dinger dahängen. Gucken wir in die Geschichte der Grundrechtseingriffe in Deutschland, sobald so was passiert, dass erstens erst mal 10 Jahre bevor eine entsprechende Klage vom Bundesverfassungsgericht durch ist und in diesen 10 Jahren hängt das System dann dar. Das heißt, um zu verhindern, dass wir zumindest mal auf 10 Jahre überall in Deutschland und Europa diese ganzen Gesichtserkennungssysteme hängen haben und uns dann da tatsächlich beobachtet fühlen müssen in der Öffentlichkeit ist die logische und beste Möglichkeit, jetzt zu sagen, wir haben den Link von MediaCCC mit diesem Vortrag vorworden, dann kann man es vielleicht auch in sich gut aufnehmen. Nächsten, gibt es eine Liste mit Firmen, die man anfragen könnte? Macht ihr ein How-to in der Self-Organized Session und gibt es da seine Dokumentation von? Eine Liste von Firmen haben wir noch nicht. Wir haben angefangen, Firmen zusammenzutragen, aber ich glaube, wir sind weiter von weg zu sprechen und in der Self-Organized Session werden wir auch darauf eingehen, wie man ganz konkret auf solche Firmen zugeht, wie man solche Firmen findet und wie man sie dann anschreibt. So, die nächste Frage ist gleichzeitig auch, glaube ich, ein Impuls, den ich ganz spannend finde. Was macht eigentlich Zoom als biometrischer Massentest mit all den willfährig geschenkten Daten? Zoom ist doch die ideale Goldgrube für Gesichter, Stimmen, Augen, Hautfarbe, Nebstverhaltensmuster verquickt mit einem immensen inhaltlichen Fundus. Worüber reden die Menschen so? Die Zoom-AGB geben es jedenfalls her, dass die gesammelten Bills auch weiter verarbeitet werden dürfen. Ich möchte Zoom nichts unterstellen. Natürlich nicht. Allerdings halten sie sich aus Gründen sehr bedeckt, was zum Beispiel ihren Sitz in der EU angeht. Das heißt, die Datenschutzbehörden, die Aufsichtsbehörden in der EU sind sich unter einander immer noch nicht einig, wer denn eigentlich zuständig ist, weil Zoom einfach nicht erzählt, was Sache ist. Den Rest kann man sich vielleicht denken. Teile der Antwort würden sich verunsichern. Gibt es wieder humorvolle Aktionen bezüglich der Kameras? Ich würde mal sagen, es ist auf jeden Fall geplant. Wir haben ja immer noch so eine Pandemie, von der ihr vielleicht gehört habt. Wir müssen mal ein bisschen gucken, ob es gerade nervt oder nicht. Aber daran vorbei haben wir auf jeden Fall vor, auch noch Dinge auf der Straße zu tun und auch in verschiedenen Städten. Vor allem an alle Menschen, die nicht in Berlin und nicht in einer großen Stadt sitzen und denken, Mensch, auch in dieser Stadt wäre das cool, wenn wir da geilen Scheiß machen. Meldet euch bei uns, weil wir jetzt auch schon heiß laufen mit Plänen, um dezentrale Fotoaktionen zu machen und coolen Scheiß auf die Straße zu bringen. Und genau, macht da gerne mit. Hier noch ein konkreter Fall. Es gibt in der Chemnitzer Innenstadt zu viele hoch auflösende Kameras mit 8 Objektiven. Gegen den Widerstand des Stadtrats wurden diese installiert. Wie kann ich sie weglagen? Wer hilft mir dabei? Wir stellen gerne den Kontakt zu Kameras Stoppen her. Die haben da Erfahrung. Ja, ansonsten ist ja fast eine Punktlandung. Wir haben noch Notizen und Anmerkungen. Ich denke mal, das war Reclaim Your Face, die Links und so weiter. Und es war vorhin auch irgendwie schon ein Feedback da, wo drin stand, sehr schön gemacht und herzlichen Dank. Darum im Zweifelsfall sage ich jetzt einfach das Gleiche auch nochmal. Herzlichen Dank Vick und Kantorkel und jetzt nicht nur für den Vortrag, sondern für euer gesamtes Engagement, was ihr da reinbringt. Weil was ihr gerade gesagt habt, dass andere Leute auch infizieren, dass sie diese Sache mit unterschreiben. Also wir brauchen jetzt eine Mutation. Wir brauchen eigentlich eine Debunk, eine R2C-Mutation von irgendeinem Virus, welcher dann, wenn ihr mit Leuten redet, aus euer Mund kommt die Viren in den Kopf, denen die euch zuhören und die entzeihen das dann auch. Das spreadet dann so bis um die ganze Welt. Darum erst mal herzlichen Dank für euer Vortrag Reclaim your face biometrische Massenüberwachung und wie wir uns dagegen wehren können. Dann sage ich winke winke und mach danach noch ein paar Announcements.