 muss digitalisiert werden, alles muss effizienter und schneller werden, aber ist es am Ende dann auch noch gerecht und rechtens und gut und ist es wirklich das, was wir am Ende haben wollten oder haben wir dann einfach nur noch eine Maschine, die über uns entscheidet. Darüber werden unsere nächsten zwei Vortragenden berichten. Anna Biselli ist Informatikerin und Journalistin und Lea Beckmann ist bei der Gesellschaftsverfreiheitsrechte Juristin und beschäftigt sich mit dem Thema. Also ich kann mir kein besseres Team vorstellen als Anna und Lea für dieses Topic eine dicke Runde Applaus bitte. Hallo, ich freue mich, dass ihr so zahlreich gekommen seid. In der Vorstellungsrunde möchte ich jetzt vielleicht einmal kurz doch noch, das war jetzt nicht geplant Anna, aber dich vorstellen. Anna Biselli ist Informatikerin und Journalistin und recherchiert seit einigen Jahren zu Digitalisierung in der Migrationskontrolle und wenn wir über das Thema in Deutschland etwas wissen und wenn wir vor allem auch mehr wissen als in anderen Ländern, dann ist das sicherlich ein maßgeblicherweise auch dir zu verdanken. Die Frage ist also so ein bisschen, was ich eigentlich hier auf der Bühne mache. Das will ich vielleicht kurz erklären. Ich arbeite bei der Gesellschaft für Freiheitsrechte und wir sind eine Berliner NGO, Organisationen, wir setzen uns ein für den Schutz von Menschenrechten und zwar machen wir das durch strategische Prozessführungen, also in aller Regel durch Gerichtsverfahren und zwar wollen wir dort, also wir sehen das in bestimmten Themenbereichen einfach nicht geklagt wird, rechtswidrige Behörden, Praktiken oder auch verfassungswidrige Gesetze nicht angegriffen werden und deswegen sich Rechtsschutzlücken in der Praxis stellen und wir wollen helfen, das mitzuschließen und also in diesen Themenbereichen genauer reinzuschauen und bei der Digitalisierung in der Migrationskontrolle kommen quasi zwei Themenbereiche zusammen, in denen das der Fall ist, nämlich einmal der Migrationsbereich, also insbesondere Asylsuchende, die einfach faktisch Schwierigkeiten im Zugang zu Recht haben, die in Deutschland neue Ankommen, die Sprache nicht sprechen, traumatisierende Erfahrungen möglicherweise in der Vergangenheit haben, mit ganz anderen Problemen im Alltag auch zu kämpfen haben, also mit großen Rechtsschutzlücken und andererseits geht es um Digitalisierungsthemen und da ist für viele Menschen einfach auch technisch nichts zu verstehen, worum es geht und die Eingriffe zum Beispiel in informationeller Selbstbestimmung sind nicht so spürbar und deswegen ist es also ein Thema, in dem es wichtig ist, dass auch mehr gerichtliche Kontrolle herbeigeführt wird. Deswegen haben Anna und ich quasi zu diesem Thema zusammengefunden, weil Anna seit Jahren zu diesem Thema recherchiert und wir eben aus juristischer Sicht prüfen wollen bei einem sonderen Thema, wie wir vorgehen können und dazu werden wir gleich noch genauer kommen, vielleicht so viel zur Einleitung. Genau und bevor wir mit dem Anfang was Behörden machen, wollen wir eigentlich mal gucken, wie wirkt sich denn Digitalisierung auf Flucht überhaupt aus, weil an sich ist der Zugang zu digitalen Technologien erst mal ein ziemlich wichtiges Werkzeug auch für gerade Flüchtende und Geflüchtete, weil es wird eben benutzt, um zum Beispiel Übersetzungshilfe zu leisten wie auf diesem Bild bei einer Aktion in Linz. Es wird auch benutzt, um Menschen Informationen darüber zu geben, wie es gerade ja vielleicht auf dem Mittelmeer aussieht und wo sie sich hinwenden können, wenn sie Probleme bekommen und Menschen benutzen eben Smartphones und Facebook-Gruppen, um sich auszutauschen, zum Beispiel zu möglichen Fluchtrouten, zu Gesetzen in den Ländern, in denen sie sich gerade befinden oder in die sie wollen, als Kommunikationsmittel nach Hause, gerade auch wenn die Menschen dann in dem Land angekommen sind, aber auch eben als quasi so letztes Bewahren von Erinnerungen, die man noch hat, von Fotos, von allen möglichen Sachen. Und eine Menge Geflüchtete und Flüchtende Menschen haben eben Smartphones dabei, das heißt eine Befragung der FU Berlin von 2016. Die haben in Berlin rumgefragt, in Aufnahmelagern haben ergeben, dass zum Beispiel 78 Prozent der Menschen, die aus Syrien nach Berlin gekommen sind, während ihrer Flucht ein Smartphone dabei hatten und genutzt haben und 88 Prozent nach ihrer Flucht ein Smartphone hatten und das auch genutzt haben, um eben diese ja primär eben Dinge zu tun, die ihnen den Alltag möglich machen und sie dazu recherchieren. So, das ist eben die eine Seite, das heißt wir haben irgendwie eine Technologie, die Menschen hilft, anzukommen, die Menschen hilft sich zurechtzufinden, aber das produziert eben jede Menge Daten und wir kennen den Spruch vielleicht, wo ein Trog ist, da sammeln sich die Schweine, der kommt aus einem relativ passenden Kontext, wann nämlich während der Vorratsdaten Speicherungsverhandlungen 2009 und das heißt da, wo die ganzen Daten anfallen und produziert werden, da interessieren sich plötzlich auch Behörden für diese Daten. Heißt man kann aus diesen Smartphone Daten vor allem gucken, naja, was ist denn während der Flucht passiert? Wie sind so die Fluchtbewegungen der Person? Mit wem kommuniziert die Person? Was ist das für eine Person? Wie verhält sie sich? Und da geht es sowohl um das Individuum, das heißt die einzelne Person und ihr Verhalten, aber auch um quasi Flucht als Allgemeines, das heißt alles, was auf Social Media passiert, unabhängig von der einen Person, ist für Behörden interessant. Und wir finden Deutschland ist ein ganz gutes Beispiel dafür, was passiert, wenn gerade Behörden, die für Migration zuständig sind, solche Möglichkeiten entdecken und dann immer wieder weiter digitalisieren, digitalisieren, digitalisieren und deshalb wollen wir zur Einleitung erst mal ein kleines Video zeigen, dass das BAMF zu sich selbst gemacht hat, zu ihren Digitalisierungsbemühungen, weil es glaube ich ziemlich gut zeigt, mit was für einem Digitalisierungsenthusiasmus wir es zu tun haben. Das ist alles dabei. Herzlich willkommen im IT-Labor des BAMF. Das hier ist der Ort, an dem wir unsere Digitalisierungsagenda 2020 umsetzen. Mit dieser haben wir uns nicht nur aus technischer Sicht eine ganze Menge Herausforderungen gestellt, sondern auch aus organisatorischer Sicht. Hier findet agile Softwareentwicklung statt. Folgen Sie mir. Wir sind Sie im wichtigsten Raum des IT-Labors. Hier arbeiten unsere Entwickler. Es gibt hier die entsprechenden Arbeitsplätze. Dort gibt es das Product Backlock entsprechend der agile Softwareentwicklungsmethode SCRUM und hier sehen Sie bereits ein erstes Resultat des Datenbankschema. Hier befinden wir uns in unserem multimedialen Präsentationsraum. Neben einigen Entwicklungsergebnissen werden hier die herausragenden Kernprojekte unserer Digitalisierungsagenda vorgestellt. Ein ganz wesentlicher Erfolgsfaktor beim agilen Projektmanagement nach SCRUM Methode ist es nicht nur, dass das Entwicklungsteam eng zusammenarbeitet, seine Ergebnisse direkt der Fachseite präsentieren kann, sondern auch, dass es einen Ort gibt zur kreativen Lösungsfindung und manchmal auch zur Konfliktlösung. Das IT-Labor mit seinen drei Räumlichkeiten ist ein wesentlicher Beitrag dazu, dass wir unsere Digitalisierungsagenda 2020 zum Erfolg führen. Also wir sehen, die Motivation ist definitiv da, aber die nächsten Themen werden nicht mehr ganz so witzig, weil wir gehen jetzt so ein bisschen in die Inhalte, die wir untersucht haben und zwar fangen wir an mit nicht nochmal dem Video, sondern der Handydatenauswertung. Genau das Thema, was wir uns eben zusammen genauer angeschaut haben, sind die Handydatenauswertungen, die das Bundesamt für Migration und Flüchtlinge das BAMF vornimmt. Und zwar ist das im Kontext zu verstehen, dass 2015 eben mehr auch Geflüchtete nach Deutschland kamen und in der Folge etliche Gesetzesänderungen im Asylbereich Asylrecht erschwert haben und insbesondere eben auch Gesetze, die Ausreisepflicht verschärft haben. 2017 wurde das Gesetz zur besseren Durchsetzung der Ausreisepflicht verabschiedet und in dem Zusammenhang wurde auch eine Rechtsgrundlage eingeführt, die dem BAMF ermöglicht, Handydaten Geflüchteter auszulesen. Und zwar über folgenden Passos. Und zwar sind Asylsuchenden Deutschland verpflichtet, bei der Aufklärung des Sachverhalts mitzuwirken. Und da wurde 2017 also einfach die Nummer 6 eingeführt und die heißt dann, das bedeutet, wenn man keinen Pass- oder Passersatz vorlegen kann, dann kann das BAMF die Datenträger auslesen. Das ist in der Praxis, sind das Handys größtenteils Smartphones und zum Teil auch einfache Featurephones. Es kommen tatsächlich eben auch viele Geflüchtete in Deutschland ohne Pass an. Das ist über die Hälfte der Geflüchteten in den vergangenen Jahren. Das hat damit zu tun, das hat ganz unterschiedliche Gründe, aber es hat zum Teil damit zu tun, dass es manche nicht so üblich ist, überhaupt einen Pass zu haben. Manche Pässe werden auch nicht anerkannt. Also das gibt Einschätzungen des Innenministeriums gemeinsam mit dem BAMF. Das hat auch mit den politischen Situationen in Ländern zu tun, dass also Pässe nicht anerkannt werden. Zum Beispiel betrifft das Somalia, wo fast ausnahmslos Pässe nicht anerkannt werden oder auch viele Pässe, die aus Nigeria stammen. Das BAMF liegt diese Rechtsgrundlage zu dem Weid aus. Also jeder, der im Moment, in dem er beim BAMF vorsteht, keinen Pass hat, der in dem Moment seine Echtheit überprüft werden kann, bei dem glaubt es eben die Datenträger auslesen zu können. Es kann also sein, dass der Pass aktuell bei einer anderen Behörde liegt in einer anderen Angelegenheit. Es kann auch sein, dass, vielen mir gerade die anderen Beispiele, aber jedenfalls gibt es unterschiedliche Gründe, warum eine Person die eigentlich einen Pass hat, also der Pass wird nicht anerkannt, kann nicht vor Ort direkt computergestützt überprüft werden, dann kann das Handy ausgelesen werden. Genau, wir haben das Thema auch bei der Gesetze für Freiheitswächter eigentlich seit den Ursprüngen verfolgt, denn bereits im Gesetzgebungsverfahren war die Verfassungswidrigkeit dieser rechtlichen Grundlage ganz scharf kritisiert worden, von der damaligen Bundesdatenschutzbeauftragten, vom Deutschen Anwaltverein, von diversen anderen Organisationen. Das lag eigentlich klar auf dem Tisch und das Gesetz ist dann trotzdem verabschiedet worden. Es ist unserer Ansicht nach verfassungswidrig, aber wir kommen eben hier an die bereits beschriebenen Rechtsschutzlücken. Denn ein verfassungswidriges Gesetz anzugehen heißt, man muss es im Normalfall durch die gerichtlichen Kontrolle, durch die Instanzen bringen, dann zum Bundesverfassungsgericht und kann dann etliche Jahre warten, in der Hoffnung, dass das Bundesverfassungsgericht dann direkt eine rechtliche Grundlage für nichtlich erklärt. Das ist für die individuell betroffenen Personen, also in ihrer Biografie, eine Hilfe, die viel zu spät kommt. Deswegen haben wir eben beschlossen, dass es strategischer Prozessführung bedarf und dass wir diese Rechtsgrundlage vor Gericht bringen wollen. Dafür haben wir uns gemeinsam der Aufgabe gewippt, mit einmal den Sachverhalt sehr, sehr klar aufzuzeugen, um eben diese Rechtswidrigkeit und vor allem auch die Unverhältnismäßigkeit der Grundrechtseingriffe darlegen zu können. Also einmal kurz zu dem, wie das eigentlich passiert. Wenn man also beim BAMF vorstellig wird, im Normalfall ist das direkt bei der Registerung, also ganz am Anfang im Asylverfahren, kein Pass vorlegen kann, damit ein Rohdatensatz vom Handy ausgelesen kopiert, durch eine speziell dafür eingeworbene Software analysiert nach bestimmten Indikatoren, die eben vermeintlich Auskunft geben sollen über Herkunft und Identität, denn nur darum geht es hier. Und dann wird also ein Ergebnisprotokoll ein Digitales kreiert, das dann in einem digitalen Datentresor abgespeichert wird und aus diesem Datentresor eben nur abgerufen werden kann nach vorheriger Freigabe durch eine Juristin oder eine Juristin innerhalb des BAMF. Die Indikatoren, die dabei untersucht werden, sind die Folgenden. Einmal Ländervorwahlen in Kontaktdaten, in Eingehene und Ausgehenden anrufen und in Nachrichten, dann Länderendungen aufgerufen nach Webseiten, die im Internetbrowser aufgerufen worden sind, Lokalisationsdaten in Apps und Fotos, die Sprache in Nachrichten und zwar im Arabischen sogar der Dialekt und Benutzernamen und E-Mail-Adressen, die genutzt werden, um sich in Apps damit anzumelden, also zum Beispiel der Name, die man verwendet, um sich bei Facebook anzumelden oder auch in einer Dating-App. Der Ergebnisprotokoll wird zunächst abgespeichert und kann eben nur nach interner Freigabe dann verwendet werden. Was die entscheidende Person im BAMF dann sieht, sieht also so aus, das sind so Tortendiagramme und Länderkarten, die eingezeichnet werden, die also darstellen, in welchen Prozentsatz die Eingehenden Nachrichten zum Beispiel in welcher Sprache oder mit welchen Vorwahlen gewesen sind. Aus rechtlicher Hinsicht muss man dazu vielleicht einleiten, direkt sagen, dass migrationspolitische Ziel, das hier verfolgt wird, reicht eigentlich nicht aus, um in informationstechnische Systeme, also hier in Handys einzugreifen. Und zwar hat das Bundesverfassungsgericht 2008 das sogenannte Computergrundrecht erkannt, dass also die Integrität und Vertraulichkeit informationstechnischer Systeme heißt das und dabei hat es anerkannt, dass eben auf informationstechnischen Systeme, also Handys und Computer, eine Vielzahl von Daten zusammentrifft, die ganz unterschiedliche Lebensbereiche betreffen und dass das deswegen besonders gefährlich ist und einen besonders grundrechtlichen Schutz bedarf und das also ein staatlicher Zugriff nur unter sehr hohen Voraussetzungen zulässig ist und zwar sagt es zu gewichtigen Verfassungsgütern. Das sind zum Beispiel Leib oder Leben, also da kann man sich vorstellen, dass bei konkreten Anhaltspunkten das schwere Straftaten bevorstehen, also ein Zugriff gerechtfertigt ist, aber zu so rein abstrakten migrationspolitischen Zielen, nämlich Asylmissbrauch verhindern und Abschiebungen erleichtern, ist das an sich nicht zulässig. Denn die dahinterstehende Logik bei der Einführung war ja, dass man glaubt, also es gibt viele Menschen, die in Deutschland ankommen, die ein Pass nicht vorlegen können und die werden vermutlich ein anderes Land angeben als das, aus dem sie kommen, jedenfalls in Teilen, um so fälschlicherweise Asyl zu bekommen oder aber man weiß, dass sie nicht aus einem, dass sie kein Asyl haben und will sie abschieben, kann sie aber nicht abschieben, wenn sie eben einen Pass nicht vorlegen. Das Interessante ist, dass diese Handy-Datenauswertung des BAMF eigentlich das Gegenteil belegen, also gefüchtet in Deutschland ein sehr gutes Zeugnis ausstellen, dazu kommen wir auch gleich noch. Also im Grunde genommen ist bereits der Eingriff in Handys zu diesem Ziel unzulässig meiner Meinung nach. Wenn man aber das Ziel einmal grundsätzlich anerkennt, dann kommt man zur Verhältnismäßigkeitsprüfung. Dann würde man sagen, dann muss es also zu dem erstrebenden Ziel verhältnismäßig sein, was hier eigentlich an Eingriffen passiert und diese Verhältnismäßigkeitsprüfung ist eigentlich nichts anderes als eine Tradition von Fragestellungen, die sich Juristen stellen um möglichst alle Aspekte zu bedenken, die irgendwie sagen, wie gut oder sinnvoll oder wie verdammt schwachsinnig was ist, wie jetzt hier im Folgenden eigentlich. Das erste Argument, das man rechtlich sagen muss, ist, es handelt sich um eine anlasslose und flächendeckende Maßnahme. Hier wird nicht anhand konkreter Verdacht zur Momente bei der individuellen Person entschieden, sondern ohne konkrete Anhaltspunkte und flächendeckend bei allen Personen, die sich ohne Pass oder Passersatz melden eingegangen. Das ist, sagt das Bundesverfassungsgericht, ist besonders gefährlich, weil wir dann die Gefahr laufen, dass wir eben große Bevölkerungsteile ausleuchten und deswegen ist das nur unter hohen Voraussetzungen möglich. Dann der nächste Punkt ist und das werde ich jetzt auf zwei Beispiele beschränken, ist, dass die Indikatoren, die hier ausgewertet sind, auch einfach ziemlich unsinnig sind. Also, wenn man sich überlegt, es geht um die Frage, woher kommt jemand, also Nationalität und Identität, dann kann man sich plausiblerweise die genannten Indikatoren mal durchdenken und fragen, kann man damit eigentlich beweisen, wo jemand herkommt und jetzt mal ein Beispiel Ländervorwahlen. Also, bei einer Person, die möglicherweise vor Jahren geflohen ist aus einem Land, in dem Krieg herrscht, die jetzt in Deutschland ankommt, mit wem steht die Person also im Kontakt in der Zeit, in der Lebenszeit ihres Handys. Welche Ländervorwahlen werden dabei sein, vermutlich Ländervorwahlen des Gastlandes, vermutlich Ländervorwahlen von den Orten, an denen sich Angehörige und Familien zwischen aufhalten und das wird vermutlich nicht unbedingt das Herkunftsland sein. Das heißt, es ist einfach als vom Aussagewert des Indikators schlecht, um das überhaupt darzulegen. Ein weiteres Beispiel, weil es eben auch besonders interessant ist, ist die Aussagekraft, die das BAMF meint, sagen zu können über die verwendete Sprache in den Nachrichten. Und zwar gibt es eben vor, dass es bestimmen kann, welche Sprache verwendet wird und im Arabischen sogar welcher Dialekt verwendet wird. Und ganz unabhängig davon, dass das sowieso sehr schwer ist, Sprache zu erkennen, haben wir es hier mit der Besonderheit zu tun, dass wir schriftliche Sprache in Textnachrichten haben. Und wenn man sich das aus dem Arabischen überlegt, dann bedeutet das, dass das Arabische Schriftzeichen in diesen Textnachrichten übersetzt werden, in den Lateinischen Buchstaben geschrieben werden. Und es gibt Laute im Arabischen, die so im Englischen oder auch im Französischen nicht auftauchen und die man unterschiedlich dann phonetisch schreibt. Und da gibt es also sehr, sehr, eine sehr große Vielfalt an Schreibweisen, die zum Teil damit zu tun hat, ob die Länder, in denen das verwendet wird, eher englische oder eher französische Kolonialzeiten erlebt haben, also sich eher englische oder französische Phonetik orientieren, aber auch einfach individuell Unterschiede haben. Nur mal ein Beispiel für das Wort Befreiung, das werden jetzt Möglichkeiten, das also lateinischer Schriftzeichen in der Nachricht darzustellen. Ich denke, das macht so ein bisschen klar, wie schwierig das eigentlich ist, plausibel darzulegen, welcher Dialekt verwendet wird. Hinzu kommt, dass Dialekte nicht an Ländergrenzen enden, dass also zum Beispiel der gleiche arabische Dialekt gesprochen wird in Israel, Palästina, Jordanien, Libanon und in Syrien. Ich glaube, wir hatten auch ein paar ganz gute Beispiele von Auswertungsprotokollen, die wir gesehen haben und die wir einsehen konnten. Da waren eben auch, sag ich mal, Sprachauswahlen, die waren total abstrus. Das heißt, da stand dann zum Beispiel eine Person hat primär Nachrichten auf neu-griechisch empfangen, aber dann Nachrichten auf finish und Esperanto geschrieben. Das heißt, da steht halt auch irgendwie ziemlicher Bullshit drin. Das heißt, das ist nicht eine These von uns, dass das irgendwie nicht so einfach ist und schief gehen kann. Das zeigt eben auch, dass es in der Praxis eben schwierig ist, also zumindest das Kommunikationsverhalten dieser Person müsste schon sehr, sehr ausgefallen sein. Zeigt auch noch ein anderes Problem, nämlich zumindest meine persönliche These, warum diese Person offenbar primär auf neu-griechisch irgendwelche Nachrichten bekommen hat, ist, dass es zum Beispiel so Provider Nachrichten sind. Das heißt, die Person ist durch Griechenland geflohen und dann kommt dann der Provider und sagt hier Roaming und hallo willkommen in unserem Roaming. Das heißt, wir haben einfach eine ganze Anzahl von Faktoren, die es eben schwierig machen, überhaupt einzuschätzen, wie verlässlich das ist und spätestens der Entscheider oder die Entscheiderin müsste das dann einschätzen können, um das eben richtig in eine Asylentscheidung mit einbeziehen zu können. Und dann dachte ich mir, weil ich regelmäßig bei dem Banffragen stelle, ich frage mal, wie das dann so mit der Fehlerquote bei dieser Sprachnachrichten Auswertung aussieht. Das ist nicht die einzige Frage, die ich gestellt habe, aber auf jeden Fall hat mir dann das Banff gesagt, naja, das ist, können Sie mir leider nicht sagen, weil das ist irgendwie so speziell, das würde dann den Einsatz der Technik erschweren. Und ich finde das einfach ein erstaunliches Maß an Intransparenz und Reistigkeit zu sagen, dass selbst eine Fehlerquote von einem System, das Auswirkungen auf eine Asylentscheidung von Menschen hat, dass die Fehlerquote geheim gehalten werden muss und dass man die nicht rausgeben kann. Ich habe in der gleichen Anfrage eben auch gefragt, so Leute, was verwendet ihr denn für Verfahren, um das überhaupt zu bestimmen? Was ist denn eure Datenbasis? Welche Messenger könnt ihr denn überhaupt erkennen? Und wie tut ihr das eigentlich? Und nichts davon wird gesagt, weil alles ist so geheim, dass es dann irgendwie eben die Gefährdung dieses ganzen Systems nach sich ziehen würde. Und ich finde, das ist ein riesiges Problem, weil wir wissen eben auch, dass dieses Software nicht alle Messenger mit einbeziehen kann. Das heißt, es kann ja eben sein, dass eine Person primär SMS von dem Provider bekommt, selber aber über Messenger kommuniziert, die von dem System nicht ausgewertet werden können. Das heißt, allein dadurch, dass die Person so ein Kommunikationsverhalten hat, fällt sie dann komplett aus diesem System raus und selbst wenn das System die Sprache erkennen könnte, werden dann falsche Ergebnisse bei rauskommen. Und es ist eben nicht bekannt. Und ich bin mir fast sicher, dass die meisten der Mitarbeiter, die diese Zettel dann vorliegen haben, eben auch nicht wissen werden, welche Messenger das Ding genau erkennen können wird. Und es ist ein ziemliches Problem. Zufälligerweise gab es dann dieses Jahr so eine Datenethik Kommission, die die Bundesregierung eingesetzt hat, um mal arbeiten zu lassen, was denn passieren muss, wenn der Staat algorithmische Systeme und sogenannte künstliche Intelligenz einsetzt. Und diese Datenethik Kommission hat dann eben gesagt, OK, staatliche Stellen müssen ganz besonders transparent sein und die Entscheidungen müssen transparent und begründbar bleiben. Und dazu sollen eben auch, wenn es möglich ist, die Datenkategorien der einen Ausgabedaten irgendwie rausgegeben werden. Da sollen die Berechnungsformen rausgegeben werden und eben die Entscheidungen daraufhin eingeschätzt werden. Und all das passiert hier nicht, obwohl es um wirklich krasse Eingriffe geht und obwohl es um wirklich krasse Folgen eben für das Leben von Menschen und für das Schicksal von Menschen hat. Und das ist eben nicht das Einzige, was beim Bump so läuft. Das bezieht sich auch auf viele andere Systeme. Eines der Systeme, über das ich letztes Jahr ein bisschen mehr geredet habe, war die Dialektanalyse, die zusammen mit anderen IT-Tools eingeführt wurde 2017, wo es eben darum geht, Moment, dass eine Person in den Hörer sprich, zwei Minuten lang und dann wird eine Sprachaufnahme gemacht und dann fällt ein Zettel raus und auf dem Zettel steht dann drauf, aus welchem Land die Person vermutlich kommt. Das ist in Deutschland ziemlich einzigartig, die meisten anderen Länder, in denen sogenannte Sprachanalysen zur Herkunftsbestimmung gemacht werden, machen das immer noch händisch, sei es durch Behörden, interne Sprachexperten, sei es durch externe Gutachter oder private Unternehmen. Aber das Bump tut eben auch das immer mehr automatisiert. Und da wissen wir zumindest, okay, es gibt eine Fehlerquote von 15%, wir wissen aber auch, dass die Fehlerquote jener Sprache unterschiedlich ist. Das heißt, die haben wir rausgelassen in einer Antwort auf eine kleine Anfrage, dass die Erkennung für levantinisches Arabisch, also der Dialekt, der unter anderem in Syrien gesprochen wird, besser ist als für andere Dialekte im Arabischen. Und allein das zeigt schon, dass es ein riesiges Problem ist. Das liegt unter anderem daran, dass die Datenbasis ungleich verteilt ist. Das heißt, sie haben wesentlich mehr Sprachproben, mit dem sie ihr System trainiert haben für levantinische Arabisch, aber sie sagen eben nicht, wie viele das sind. Sie sagen dann, okay, das ist eine Antwort, die ist geheim. Die wird dann irgendwie als Verschlusssache nur für den Dienstgebrauch rausgegeben und die erfährt dann niemand, außer vielleicht den Leuten, die genauer nachfragen und versuchen, das rauszufinden. Und dann könnte man sich fragen, okay, wenn man so Systeme einsetzt, die relativ einzigartig sind, dann müsste man ja irgendwie mal dafür sorgen, dass jemand da drauf guckt und einschätzt, unabhängig am besten noch, ob das alles so funktioniert und sinnvoll ist. Und da wurde schon im Dezember 2017 aus dem Bundestag mal gefragt, so hier na, wollt ihr das nicht mal irgendwie mit Wissenschaftlern und Wissenschaftlerinnen begleiten? Und dann wurde gesagt, okay, in Planung für das Jahr 2018. Wir schreiben aktuell das Jahr 2019. Ich habe dann noch mal nachgefragt, weil ich mache das öfter mal und dann hat dann das Bumpf gesagt, na, findet aktuell noch nicht, die Stadt ist aber künftig geplant. Und das ist ein Zeitraum von, sag ich mal, zwei Jahren. Und in den zwei Jahren hat das Tausende von Menschen betroffen. Und ich finde es einfach krass, wie man derartig mauern kann als Behörde, wenn man irgendwie eine relativ große Verantwortung trägt, sowieso schon die ganze Zeit schlechte Presse bekommt, weil man eben auch relativ viel misst baut und dann immer noch weiter jegliche, sag ich mal, Einsicht und jegliche Aufarbeitung dessen, was man da eigentlich tut, verweigert. Das Gleiche ist irgendwie passiert mit Datenschutzfolgeabschätzung. Ich wollte wissen, eine Datenschutzfolgeabschätzung, das muss gemacht werden bei Systemen, die Daten verarbeiten, die zu einem großen Massensibel sind oder große Mengen an Daten verarbeiten oder automatisiert Entscheidungen aus diesen Daten ableiten. Und dann wollte ich wissen, so was ist denn die Datenschutzfolgeabschätzung zu zum Beispiel dieser Händieauswertung oder auch zu anderen Systemen, die er benutzt und dann wurde dann gesagt, okay, Sie können mir nicht rausgeben. Es hat dann irgendwie fast ein Jahr lang gedauert, bis ich eine Absage darauf bekommen habe, weil dadurch könnten ja mögliche Sicherheitslücken identifiziert werden und dann ist wieder die Sicherheit der Bundesrepublik in Gefahr. Das heißt, wir stehen hier vor einer riesigen Mauer aus Schweigen und bekommen, wenn dann überhaupt nur Tröpfchenweise-Informationen. Und das ist eben ein rechtsstaatliches Problem neben anderen. Ja, genau, das ist nicht nur bizarr. Das ist eben auch ein rechtsstaatliches Problem. Wenn das BAMF sagt, das wäre ein Sicherheitsrisiko, diese Fehlerkursenten offen zu legen, würde ich entgegen, es ist ein Sicherheitsrisiko, dass wir das nicht wissen und dass wir das nicht einschätzen können. Das betrifft einmal die fehlende Aussagekraft der untersuchten Indikatoren und es betrifft eben darüber hinaus auch die Frage, wie fehleranfällig die Systeme funktionieren. Hinzu kommt also, dass es technische Probleme gibt. Also in einem Viertel der Fälle können Geräte bereits nicht ausgelesen werden oder mal vorweg angefangen. Es kommt hinzu, dass unter den Geflüchteten in Deutschland, die ohne Pass also angefragt werden, etwa eine Hälfte gar keine Datenträger haben oder das zumindest angeben, was relativ verständlich ist. Aber das heißt, es ist relativ leicht, sich dieser Maßnahme zu entziehen. Es ist uns nicht bekannt, dass das BAMF das so weit verfolgt, aber in der Hälfte der Fälle also kommt das BAMF nicht weiter, weil die Personen also keine Datenträger haben. Dann ist in einer Viertel der Fälle scheitert die Aussaison bereits technisch. Es kommt überhaupt gar nicht zu einem Ergebnisbericht. Das hat vermutlich damit zu tun, dass es sich um besonders alte oder um besonders neue Geräte handelt. Oder dass Kabel nicht da ist. Also proprietäre Anschlüsse sind auch ein Problem. Haben Sie gesagt wirklich? Also denke ich mir nicht aus. Das ist also ein Viertel der Fälle. Dann in den Fällen, in denen es wenigstens zu einer Auswertung kommt, sind die überwiegend umbrauchbaren. Das sind mal die Zahlen für 2018. Also 64 Prozent der ausgelesenen Geräte, wo es zu einem Ergebnisprotokoll kam, waren umbrauchbar. Umbrauchbar heißt, da kam also irgendwas raus, wie das, was Anna eben beschrieben hatte mit Finnish, Japanisch, Chinesisch. Das ist dann umbrauchbar. Das sind also die Fälle, in denen BAMF Mitarbeiter das so erkannt haben als umbrauchbar. Das waren jetzt im ersten Quadrat 2019 und 55 Prozent, ein bisschen weniger. Aber dafür haben wir dann ein Erfolger, also das versprochene gute Zeugnis für die Geflüchteten. In den verbleibenden Prozent sind dann 34 Prozent bestätigen die Angaben und nur in zwei Prozent kam es 2018 überhaupt zu einem Widerspruch. Das heißt, nur da war überhaupt ein Indiz dafür gegeben, dass die gemachten Angaben möglicherweise nicht richtig waren. Das sagt überhaupt nichts darüber aus, ob das dann auch so war. Aber im ersten Quadrat 2019 waren es 44 Prozent, die bestätigt haben, die Angaben also noch mehr und nur einen Prozent in dem Widerspruch bestanden. Interessant ist auch, dass auch die BAMF Mitarbeiter zum Teil nicht davon auszugehen, scheinen, dass sie das brauchen. Also in 2018 sind 11.400 Geräte ausgelesen worden im Verlauf des Jahres und nur in 5.400 Fällen hat dann der Entscheider, der die Entscheiderin überhaupt einen Antrag auf Freigabe gestellt. Die ganzen restlichen wurden nicht mehr angefragt. Das heißt, da ist einfach mal das Handy ausgelesen worden, ohne dass man nachher irgendwie das Gefühl hatte, dass das irgendwie Masivverfahren auch wichtig war. Dem gegenüberstehen kosten. Und zwar hat das bereits in der Anschaffung 2017 6,9 Millionen gekostet für die Anschaffung von Hard and Software und kostet seither jährlich 2,1 Millionen auch an Supportkosten. Das sind jetzt vielleicht für ein behördliches Digitalisierungsprojekt nicht die Riesensummen. Aber wenn man sich überlegt, worum es ja eigentlich geht, dann finde ich das schon ziemlich große Summen. Denn worum es ja geht, ist, dass die Vermutung besteht, dass unter den Leuten, die hier Asylsuchen in Deutschland ein paar sind, die nicht kommen, weil sie vor Krieg fliehen, sondern weil sie vor Armut fliehen. Das ist nämlich dann Asylmissbrauch. Und die könnte man natürlich irgendwie kostenmäßig einkalkulieren oder man verwallert seine Kosten lieber für so ein Digitalisierungsprojekt, das zu unsinnigen Aussagen kommt. Hinzu kommt, dass eben Rechtschutz faktisch ziemlich ausgehebelt ist, weil man kann nicht im Vorhinein was dagegen machen, als geflüchtete Person, die kommt, kann man nicht vorher Rechtschutz suchen, sitzt dann in der Situation, in einem Bampfmitarbeiter gegenüber und man kann dann widersprechen und sagen, ich geb mein Handy nicht raus, aber das kann echt krasse Folgen haben, weil man dann seine Mitwirkungspflicht verletzt. Also im schlimmsten Fall kann das dazu führen, dass der Asylantrag als zurückgenommen angesehen wird. Jedenfalls kann es eben zu Misstrauen führen. Natürlich macht man das nicht. Und nach der richtigen Rechtsschluss, das habe ich eben schon dargestellt, ist schwer, weil es die gesetzliche Grundlage erst mal hergibt. Das heißt, da kann man sich auf einen langen, teuren und schwierigen Prozess einstellen. Es gibt faktisch keinen Rechtschutz. Was wären dann also die Alternativen? Ich glaube, Alternativ ist eigentlich gar nicht das richtige Wort, wenn ich ehrlich bin, denn de facto können diese Ergebnisse nur in Diezwirkungen erzeugen und man muss ohnehin bei den allvertrauten Methoden bleiben, wenn es darum geht, Herkunft und Identität herzustellen. Und das ist eben das sind spezifische Nachfragen in der Anhörung. Also wenn eine Person angebt aus einer bestimmten Region, aus einer bestimmten Stadt zu kommen, da muss man regional Wissen abfragen und genau nachfragen. Wie heißt denn die Kirche, die dann Onkel besucht und wenn du vom Flughafen dich in die Stadt rein bewegst, was für Gebäude sind da auf der Strecke? So macht man das bisher und das ist eine verlässliche Methode. Und das ist eine viel verlässlichere Methode als das, was das BAMF mit den Handyauswertungen macht. Und es ist nach wie vor die Methode, auf die es ankommt, weil diese Handyauswertungen keine Beweiskraft haben, sondern allenfalls eine Indizwirkung. Zwischenfazit also massiver Grundrechtseingriff, zu geringer Eingriffsvoraussetzungen, nämlich quasi keine, außer dass man kein Pass hat. Es ist extrem fehleranfällig, wenig aussagekräftig, Rechtsschutz gibt es faktisch nicht und zudem ist das mit hohen Kosten verbunden. So jetzt könnte man sagen, wir haben ja nicht so viele gute Worte dafür übrig, ist Deutschland alleine so doof, aber nee, Datenträger von Geflüchteten und an kommenden Menschen werden auch in anderen Ländern Europas ausgelesen. Und zwar teilweise schon länger als in Deutschland und teilweise auch von anderen Behörden. In vielen Ländern ist es tatsächlich, also in den rot markierten Ländern, in denen es zumindest gesetzliche Befugnisse dafür gibt, ist es tatsächlich die Polizei, die dafür zuständig ist, den Menschen, die Datenträger abzunehmen und auszulesen, die die dann teilweise an die Migrationsbehörden weiter leiten. Und es gibt aber auch jede Menge Länder, in denen diese Möglichkeit rechtlich eingeführt ist, aber wo nicht so wirklich viel darüber bekannt ist, was da eigentlich passiert. Dass wir haben selber gemerkt, dass es extrem schwer ist, an Information zu bekommen, weil das Thema kaum Aufmerksamkeit erfährt. Und ich habe zum Beispiel mit Geflüchtetenorganisationen in den Niederlanden geredet, wo dann gesagt wurde, ja, das wird gemacht und ja, das passiert häufig, aber genaueres dazu wissen wir auch nicht. Wir wissen, dass es zum Beispiel in Belgien und Österreich die gesetzliche Möglichkeit dafür gibt, die relativ frisch eingeführt wurde, dass die Maßnahmen aber noch nicht ausgeführt werden. Das heißt, in Österreich liegt es unter anderem an Datenschutzbedenken und Beschaffungsproblemen. Das heißt, da scheint man sich nochmal Gedanken darüber zu machen, ob das überhaupt so in Ordnung ist. In Großbritannien ist es sicherlich ein bisschen ein Sonderfall, weil Großbritannien gerade bei der Auswertung von Handydaten in Europa ganz, ganz weit vorne mit dabei ist. Vielleicht haben einige schon so ein bisschen gehört, dass zum Beispiel auch die Handys von Opfern, von Gewaltverbrechen oder von sexualisierter Gewalt ausgelesen werden, um dann eben Informationen zu bekommen. Das heißt, da ist die Schwelle generell sehr, sehr niedrig, ein Handy auszulesen und abzunehmen. Aber über die konkrete Praxis dessen, wie das bei Geflüchteten passiert, weiß man eben nicht viel. Was aber auffällt, wenn man sich das so ein bisschen anschaut und wenn man sich die ganzen Gesetze mal anschaut, die in den einzelnen Nändern so da sind, ist, dass gerade die Bestimmung oder Anhaltspunkte auf Herkunft und Identität über allen Thema sind, dass aber teilweise noch weitergeht. Und zwar in Dänemark zum Beispiel, wo das schon seit 2015 oder 16, glaube ich, gemacht wird, wo dann aber im 2017 Gesetze erweitert wurden. Das heißt, es geht dann nicht mehr darum, Identität und Herkunfts Hinweise zu bekommen, sondern da steht jetzt einfach im Gesetz, naja, wir können das für alles machen, was für das Asylverfahren von Bedeutung sein könnte. Und das ist natürlich eine relativ breite Definition. Das heißt, im Endeffekt hat einer der Beamten in Dänemark auch eine Zeitung gesagt, zum Beispiel, naja, wenn wir da so ein Zufallsfund finden, dann werden wir natürlich nicht liegen lassen. In Belgien geht die Dimension rechtlich auch noch ein bisschen weiter. Da wird es aber auch noch nicht durchgeführt und es gibt gerade auch eine Beschwerde beim Belgischen Verfassungsgericht dagegen. Aber da dürften quasi alle digitalen Dinge einer Person durchsucht werden. Das heißt auch, dass die Person im Zweifelsfall gefragt werden kann, was ist denn das Passwort zu deinem Mail Account? Das heißt, da geht es weiter und da geht es über, sag ich mal, einen physischen Datenträger hinaus, wobei es eben ein bisschen schwierig ist, von nur einem physischen Datenträger zu reden, wenn sich da E-Zugangsdaten für alle möglichen Dinge durch drauf befinden. Und gerade diese Social Media Analyse, wie sie in Belgien vorgesehen ist und in Norwegen und Dänemark schon gemacht wird, ist eine relativ krasste Sache, weil eben dadurch sowohl durch die, sag ich mal, Open Source Intelligent, indem ich auf irgendwelchen Facebook Profilen von Menschen, die ich vor mir habe, irgendwie surfe, als auch dadurch, dass ich mir die Passwörter von den Leuten hole und mir das angucke, irgendwie jede Menge Informationen bekomme über die Personen. Und das an einem Zeitpunkt, wo ich noch gar keinen Verdacht habe, dass die Person mir überhaupt was Falsches erzählt haben könnte. Das heißt, im Endeffekt stelle ich diese Person mit einem krassen Straftäter gleich und das Einzige, was diese Person getan hat, ist, aus ihrem Zuhause zu flüchten und vielleicht keinen Pass dabei zu haben. Und vielleicht kann man sich das so ein bisschen überlegen. In Deutschland gab es ja von ein paar Jahren relativ großen Aufschrei als die Jobcenter, die Facebook Profile oder die über Kleinanzeigenprofile von Klientinnen am Jobcenter durchsucht haben. Und da gab es einen riesengroßen medialen Aufschrei, aber der riesengroße mediale Aufschrei, wenn sowas gemacht wird bei Geflüchteten, der fehlt so ein bisschen. Wir haben einen solchen Fall tatsächlich auch in Deutschland gefunden, wo bei einer Person durch die Handy-Auswertung ein Facebook Profilnahme gefunden wurde. Das heißt, da stehen dann noch so Identitätsinformationen und dann wurde anhand dieses Facebook Profils weitergeschaut. Das heißt, der die Entscheiderin hat dann eben geguckt, was finde ich auf diesem Facebook Profil und hat dann auch in dem Bericht geschrieben, na ja, ich sehe, die Person hat den Fußballclub von XY geliked und hat den lokalen Laden da irgendwie gut gefunden. Und deshalb beziehe ich das in ihrer Asylentscheidung mit ein. Soweit wir wissen, ist das keine Gengengepraxis. Falls ihr andere Informationen habt, sind wir daran bestimmt interessiert, aber das zeigt eben, wie schnell das weitergehen kann. Das heißt, es geht dann nicht mehr nur darum, na ja, in dieser Handydatenauswertung sind dann eben eh nur statistische Informationen drin, sondern da geht es eben darum, dass irgendwie das auch weiter benutzt werden kann. Und Social Media Monitoring ist eben noch auf einer kollektiven Ebene interessant, nämlich um Migrationsbewegungen zu erfassen. Und da gibt es diverse, vor allem europäische Behörden, die daran Interesse haben. Das wären so drei davon. Die erste, die damit angefangen hat, ist EASO, die EU-Unterschützungsagentur für Asyl. Mein Kollege Alexander Pfanta hat dazu ein bisschen recherchiert. Und zwar haben die seit Januar 2017 Social Media Auswertungen gemacht und haben sich Facebook-Gruppen angeguckt oder auch andere, sage ich mal, Kanäle auf den Menschen Informationen zum Beispiel zu Fluchtrouten teilen oder in denen Menschen sich über Flucht austauschen und haben dann wöchentlich ein Monitoring Report an Asylbehörden in den EU-Mitgliedsdaten geschickt, ans UNHCR, auch in Europol und haben das nach Stichworten durchsucht. Das Ganze basierte auf einem Bericht von dem UN-Flüchtlingskommissariat aus 2017, wo man untersucht wurde, wie gerade so Angebote von, sage ich mal, Dokumentenfeldern und von Schmugglern, die Leuten irgendwie für viel Geld, irgendwie eine bessere Welt versprechen, so auf Social Media funktionieren und dann hat er so eben angefangen, das selber zu übernehmen und da eben Lagebilder zu erstellen. Und dann fragt man sich, was passiert dann mit diesen Lagebildern, die gehenden Behörden in den Mitgliedsdaten und dann hat der Kollege von mir mal nachgefragt, so naja, warum denn eigentlich? Und dann wurde als einer der großen Erfolge genannt, dass man den sogenannten Convoy der Hoffnung relativ früh entdeckt hat. Das war im März und April, gab es Gerüchte in sozialen Medien, dass die Grenze zwischen Griechenland und Macedonien offen sein soll und viele Menschen haben sich eben auf den Weg gemacht und dann hat man das früh entdeckt und mit Polizeigewalt und Tränengas die Leute wieder zurückgedrängt. Das ist dann einer der Erfolge. So, der europäischen Datenschutzbeauftragte hat sich das Ding mal angeschaut und nachgefragt, was macht ihr da eigentlich und auf welcher Rechtsgrundlage tut ihr das? Und eine Datenschutzfolgeabschätzung, die das beim uns zum Beispiel nicht geben will, hatten sie erst mal gar nicht. Das heißt, es gab dann später eine und da stand dann unter anderem drin, naja, wir haben da gar keine personenbezogenen Informationen drin. Da hat der europäische Datenschutzbeauftragte gesagt, naja, gut, aber warum steht denn da eine Telefonnummer von jemandem? Das ist alles ein bisschen implausibel. Und euere allgemeine Aufgabe da so Informationen zu sammeln, wenn es eben gerade zu einem sogenannten Massezustrom kommt, lässt sich auch nicht damit vereinbaren, dass ihr das einfach jede Woche seit Jahren macht und ihr sagt auch nicht, wie ihr das tut und generell seid ihr ziemlich intransparent und hat dann vor kurzem freulicherweise gesagt, ihr hört das mal damit auf. So, das heißt, es zeigt auch, wie wichtig es ist, dass Menschen seien es jetzt Behörden, seien es Aktivistinnen, seien es Journalisten, sich diese Praktiken mal anschauen, weil das Ding lief einfach zwei Jahre lang, ohne dass jemand irgendwas gemerkt hat, mehr oder weniger. Und dadurch, dass sich das eben jemand mal angeschaut hat und gesagt hat, okay, ich spinde ja, ich hab da überhaupt keine Rechtsgrundlage dafür und was macht ihr? Eigentlich hört man damit auf, wurde das eben erst entdeckt. In anderen Behörden, die an solchen Media-Informationen interessiert, das ist Europol. Von Europol kennt man vielleicht so diese ganzen Takedown-Aktionen, wo sie Posts in sozialen Medien mit terroristischen oder sogenannten terroristischen Inhalten oder mutmaßlich terroristischen Inhalten runternehmen. Das Ganze machen sie auch mit sogenannten schmuggelrelevanten Inhalten. Das heißt, 2018 hat Europol 800 Posts oder 800 Informationen gemeldet bekommen und die dann an die sogenannte Internet-Referral-Unit weitergeleitet, die dann bei den Providern oder bei den Betreibern angefragt haben, könnte die mal bitte runternehmen. Und das ist dann auch in 99 Prozent der angefragten Fälle passiert. Jetzt fragt man sich halt, was verstehen die unter schmuggelrelevante Inhalte? Sind das wirklich nur Posts, die dann zum Beispiel sagen, zahlen wir jetzt irgendwie 15.000 Euro und dafür kriegst du von mir ein pass- und ein schönes Leben? Oder sind das eben auch Seenotrettungsorganisationen, die illegalisiert werden? Und das wissen wir eben nicht, weil wir nicht wissen, was genau da passiert. Aber ich würde sagen, wir haben, also ich habe zumindest eine Vermutung. Und damit kommen wir auch zur dritten Behörde auf EU-Ebene, die sich interessiert, nämlich Frontex. Frontex wollte im September fast eine halbe Million dafür rausgeben, dass ihnen jemand so ein Monitoring-Ding mal baut, wahrscheinlich so ähnlich wie EA so. Das Ganze ist dann aber ein bisschen schief gelaufen. Das lief ungefähr zeitgleich mit der Prüfung von dem Datenschutzbeauftragten. Und Privacy International und andere haben darüber so ein bisschen berichtet und mal nachgefragt, so gesagt so Leute hier, Frontex, what the fuck, was macht ihr da eigentlich und warum? Und dann hat Frontex die Ausschreibungen wieder zurückgezogen. Dafür macht Frontex andere Sachen, nämlich mit Drohnen und sogenannter künstliche Intelligenz und mit Drohnen Schwärmen irgendwie Grenzen überwachen. Das seit einer relativ langen Zeit, dass wir proben sie und versuchen da eben auch zu gucken, na, was ist da an der Grenze, ist das jetzt ein Auto, ist das jetzt gerade ein Schiff, sind da Personen drauf und im Zweifelsfall eben auch wie verhalten diese Menschen sich auch. Das heißt, man geht vielleicht irgendwo lang, dann kommt so ein kleiner Schwamm von Drohnen, guckt eine Weile an, analysiert das, schickt dann was an eine Einsatzzentrale, die ganz weit weg ist, Mensch guckt auf dem Bildschirm und im besten Fall hauen die Drohnen dann wieder ab oder eben auch nicht. Da haben wir eine relativ große Bandbreite an Digitalisierung, die wir noch bringen können. Ich will aber gerade gar nicht mehr so viel darüber reden, weil A haben wir keine Zeit mehr und B gibt es dann morgen einen extra Vortrag für, wo es ganz viele um eben diese europäischen Überwachungsprogramme gehen wird. Genau, überspringen tatsächlich noch ein paar mehr europäische Sachen, weil die Zeit rennt. Wir fragen uns nämlich jetzt ganz kurz, wer profitiert denn davon? Das heißt, wir sagen okay, also unsere These ist ja, es ist eine ziemlich Dreistigkeit gegenüber Geflüchteten und es klappt auch nicht so richtig. Wir hatten den Interesse daran, dass es weitergeht, außer irgendwelchen Sicherheitspolitikern, die eben immer wieder sagen, ja, wir brauchen Sicherheit und dafür brauchen wir das, egal was es kostet. Das sind nämlich die Firmen. Das ist eine große Menge an IT-Firmen, das ist auch eine große Menge an Unternehmensberatungen, das sind so Firmen wie Celebrite, die vom BAMF auch getestet wurden, aber nicht produktiv eingesetzt werden gerade, die eben sowohl in Deutschland als auch auf EU immer wieder auftauchen, wenn man sich mit solchen Dingen beschäftigt. Und zum Schluss wollen wir noch mal kurz zwei weitere, ja, Digitalisierungsprojekte des BAMF, das auf dem Weg zur digitalen Behörde ist, vorstellen. Haben wir noch Zeit, dieses Video zu zeigen? Können wir das? Wie lange dauert das? Nee, ich glaube nicht. Ja, eher nicht, ne? Wollt ihr noch ein Video sehen? Wollt ihr noch ein Video sehen? Okay, gut. Also heute ist der große Tag nach langer Bauzeit und ein wenig Planungszeit haben wir das CIC heute eröffnet. Das steht für Creative Information Technology Center und es soll dazu dienen, hier unsere allerneuesten IT-Ideen, IT-Projekte und Zukunftsprojekte darzustellen. Im Augenblick ist es unser Cloud-Projekt, deswegen ist auch das ganze Design so ein bisschen an der Cloud ausgerichtet. Also viele wellenförmige Design-Punkte finden sich hier weiter. Die Lampen sind so ein bisschen cloudmäßig angeordnet, soll es sein und das ist eigentlich eines unserer größten Zukunftsprojekte, die wir gerade laufen haben. Also heute... Reicht, okay. Ja, wir sprachen mit einer Abteilungsweiterin für Informationstechnik, die wahrscheinlich ein bisschen überrascht wurde von diesem Interview. Wir wollen gar nicht so viel über Cloud reden, sondern wir wollen kurz über KI reden, weil alle über KI reden und das ist irgendwie cool, das BAMF setzt auch ganz viel KI ein. Und zwar setzt das BAMF irgendwie KI zum Postsortieren ein. Da gibt es so ein schönes Zitat auf dem Digitalgipfel von dem IT-Chef Markus Richter, der meinte, wir bekommen jeden Tag 6.000 Dokumente und da ist auch mal so ein Anwaltsschreiben dabei, das ist ironisch formuliert und da muss man dann eben mit der KI erkennen, ob das eine Unterlassungsauferklage ist oder eben nicht oder nur freundlich. Naja, aber nicht ganz so lustig ist tatsächlich, KI wird auch in einem Pilotprojekt eingesetzt, um zu gucken, ob es Auffälligkeiten in Anhörungsprotokollen gibt. Das heißt, über dieses Projekt war relativ wenig bekannt, bis mal die KI und Cat-Kommission im Bundestag nachgefragt hat, was das BAMF so an KI-Zeug macht. Und da geht es darum, dass das BAMF laut Aussage des Innenministeriums seinen gesetzlichen Meldepflichten an die Sicherheitsbehörden leichter nachkommen kann. Und da wird es dann darum gehen, dass eben relevante Stellen in Anhörungsprotokollen markiert werden und dann gesagt wird, okay, vielleicht ist die Person ein Sicherheitsrisiko, vielleicht hatte die Person Kontakt zu Personen, die eben Sicherheitsrelevanz in interessante Informationen für Behörden abgeben könnten. Dass BAMF jede Menge Informationen an Behörden abweiter gibt, ist bekannt. Das heißt, 2015 waren es noch 500 Fälle, wo zum Beispiel an den Verfassungsschutzmännchen gemeldet wurden. Zwei Jahre später waren es schon über 10.000 Fälle. Das heißt, das dürfte sich dadurch noch ein bisschen weiter erhöhen. Genau, das BAMF hat aber auch erkannt, dass das ein Problem ist, wenn sie KI-Assistenzsysteme einsetzen. Aber sie versuchen, dass die Mitarbeitenden die Entscheidungshoheit besitzen werden, was sicherlich von der Arbeitsbelastung und der Professionalität der Mitarbeiter abhängen wird. Ein anderes Projekt, über das ich gerne mehr reden würde, wenn wir mehr Zeit hätten, ist das Blockchain-Projekt. Vielleicht können wir das einfach ganz kurz zusammenfassen. Das BAMF wollte was mit Blockchain machen, macht da gerade so eine Konzeptphase In Dresden im Ankerzentrum und diese Konzeptphase soll Anfang 2020 abgeschlossen sein. Das heißt, die Konzeptionierung, um dann in Piloten zu gehen. Und die Motivation hat eine der BAMF-Mitarbeiterinnen auf einer Präsentation November 2018 gesagt ist, wir kennen das aus der Presse, irgendwo ist ein Fax liegen geblieben und dann sitzt jemand fälschlicherweise im Flugzeug. Nicht mein Zitat. Das heißt, man will versuchen, diese ganzen Kommunikationsvorgänge zwischen den Behörden ein bisschen zu verbessern. Das heißt, dass die Ausländerbehörden auch weiß, was die Person für ein Status hat und so weiter und so fort. Jetzt kennen wir vielleicht so ein bisschen Blockchain, Blockchain hat so eine Eigenschaft, die es besonders ungeeignet für sowas macht, nämlich Blockchain ist eigentlich dafür da, dass man die Daten nicht mehr so wirklich löschen kann und auch nicht manipulieren kann. Aber eigentlich müssen ja die Daten gelöscht werden, zumindest irgendwie zehn Jahre nach Abschluss des Asylverfahrens. Das heißt, das BAMF hat sich irgendwie ein rechtliches Gutachten machen lassen und es gibt mittlerweile zwei White Paper dazu. Und man kann vielleicht zusammenfassen, dass so ziemlich alles aus einer Blockchain rauskastriert wurde, was man da so reinpacken kann. Die Empfehlung war dann, es sollen keine personenbezogenen Daten auf der Blockchain gespeichert werden. Und letztlich ist es dann einfach nur noch so eine Zustandsbeschreibung mit einer Kennnummer und alle Daten, die dazugehören, stehen dann irgendwelchen herkömmlichen Datenbanken, könnte man sich fragen, warum. Aber es gab einen Preis dafür. Auch gut. So, genau. Wir dürfen nicht vergessen, Geflüchtete sind eh schon ganz krass, auch ohne diese ganzen neuen fancy Sachen und ohne KI und ohne Blockchain, ohne diesen ganzen anderen Kram von Datenspeicherung ganz, ganz, ganz extrem betroffen. Es war viel mehr als, sag ich mal, Menschen, die in deutschen Pass haben. Und für die das ziemlich krass wäre, wenn man versucht sich vorzustellen, was das für einen selber bedeuten würde. Das Ausländerzentralregister, das sogenannte, ist eine Datensammlung mit 26 Millionen personenbezogenen Daten setzen. Und das betrifft eben nur Nicht-Deutsch-Pass-Menschen. Und das Ausländerzentralregister sagt das Bundesverwaltungsamt hat 14.000 Partnerbehörden und 100.000 Nutzerinnen und wird immer weiter ausgeweitet. Das heißt, man kann da jetzt biometrische Daten reinwerfen. Da sollen jetzt bald auch Fingerabdrücke von Menschen mit sechs Jahren und nicht nur erst ab 14 rein. Es gibt immer mehr zugriffberechtigte Stellen. Da kann der Bundesnachrichtendienst genau so drauf zugreifen wie irgendwelche Jobcenter. Die Abrufe werden automatisiert. Und jetzt gibt es auch noch die schönen Ideen. Man kann ja irgendwie den Zugriff auf die Daten mit einer Kennziffer gestalten. Man hat eigentlich mal gemerkt in Deutschland, das ist eine beschissen Idee, aber die Erinnerung hat nicht so lange gehalten. Das heißt, unser Fazit zu dieser ganzen Geschichte ist, das Anliegen bei diesen Digitalisierungsvorhaben ist meistens, dass alles besser und schneller geht in den Asylverfahren und auch sicherer gibt und es gibt weniger Fehler. Aber wir stehen eben vor dem Problem dieses Übereifers. Das heißt, wir versuchen alles Mögliche zu digitalisieren. Und die Digitalisierung wird so einem Zweck an sich. Ich glaube, diese Videos zeigen so ein bisschen, worauf man da hinaus will. Das ist aber erst mal nur ein Problem von Sinnlosigkeit und vielleicht ein bisschen Geld, das man rausgeschmissen hat. Das zweite Problem daran ist viel, viel krasser. Nämlich, dass Dinge entmenschlicht werden, dass wir hier massive und unverhältnismissige Grundrechtseingriffe haben und die einfach in Kauf nehmen und überhaupt nicht mehr darüber nachdenken, was das für eine Bedeutung hat. Das heißt, wenn ich jetzt sagen würde, okay, ich nehme jetzt einfach mal allen irgendwie die Handys ab und gucke da mal drauf, nur weil man könnte ja dann irgendwie noch was rausfinden. Aber vielleicht brauche ich das gar nicht, wäre das eigentlich eine ziemlich krasse Nummer. Genauso, wenn wir uns darüber aufregen, dass irgendwie die Schufer mit irgendwelchen komischen Algorithmen, irgendwelche Entscheidungen darüber trifft, ob man ein Handyvertrag bekommt oder nicht. Wenn das Gleiche für Menschen gilt, der in der Asylantrag davon abhält, ist es noch mal eine ganz andere Nummer. Und ein anderes Problem ist auch noch, Geflüchtete werden mit Straftätern gleichgesetzt, implizit. Das heißt, wir wenden Maßnahmen an, die sonst wirklich nur passieren, wenn es eben um Verbrechen geht bei Menschen, denen nichts vorgeworfen wird erst mal, bei denen kein Anfangsverdacht ist. Und zuletzt, wenn die Technologie mal da ist, wird sie zum einen auch anderweitig genutzt und zum anderen auch ausgeweitet. Das heißt, haben wir in anderen Ländern gesehen, das wird sich die Einsatzzwecke ausgeweitet werden, dass man das dann nicht nur für Identität und Herkunft benutzt, sondern auch, um eben mal zu gucken, ob jemand vielleicht ein Sicherheitsrisiko sein könnte oder welchen Fluchtweg jemand genommen hat, ob man ihn nicht vielleicht dann doch noch Dublin abschieben könnte und eben auch auf andere Bevölkerungsgruppen. Also wir haben irgendwie den Fall, dass Geflüchtete sich als Versuchskaninchen einfach eignen, um hier Überwachungstechnologien auszutesten und dann mal schauen, was wir noch damit machen. Genau. So, aber jetzt sind wir wirklich mal fertig, wir haben auf fünf Minuten und ihr könnt uns jetzt halt gerne kontaktieren. Dankeschön. Vielen Dank, Anna Lea, für diesen augenöffnenden Vortrag. Wir haben noch ganz, ganz kurz Zeit für einige wenige Fragen. Wir haben hier sechs Saal-Mikrofone verteilt, haben wir Fragen von unserem Signal Angel aus dem Internet. Den Signal Angel bitte. Genau, die erste Frage ist eher auf Hotspots bezogen und zwar ist da die Frage, gibt es Hotspots in Unterkünften oder Apps, die von den Behörden angeboten werden und dementsprechend daran angeschlossen, gibt es irgendwas, was die Geflüchteten Menschen beachten sollten, um da ja dem Ganzen vielleicht aus dem Weg zu gehen? Hotspots in, also die Frage kommt aus dem Internet, ne? Das kenne ich so ein bisschen aus dem USA, ne? Da gab es, glaube ich, diese Themen in New York. Also ich weiß nicht ab, sowas in Deutschland gibt. Ich wüsste zeitlich auch nicht, ich weiß nur, dass es irgendwie teilweise Informationen über Schlüsselkarten in Unterkünften an Behörden weitergeleitet werden, um zu gucken, ob die Person sich eben da aufhält, wo sie sich aufhalten soll. Aber von Hotspots weiß ich tatsächlich nichts. Mikrofon Nummer 4, bitte. Inwieweit ist dieses ganze Verfahren entsprechend durch die DSGVO zum Beispiel abgebildet? Es gibt ja so verschiedene Pflichten, die ja dann auch die Behörden in ihrer Dokumentation haben. Also welche Daten entsprechend dann von den Geflüchteten gespeichert werden. Das müssen die ja eigentlich auch alles mit angeben. Und wie verhält sich das dann auch beispielsweise im Rahmen dann mit dem Rückgriff auf andere Unternehmen, die dann auf irgendwelche Dinge in der Cloud Dinge tun? Das muss ja dann eigentlich auch alles aufgezeichnet werden. Ich habe ja vorhin gesagt, wir haben versucht, so eine Datenschutzfolgeabschätzung mal zu bekommen. Das ist ja genau das, was mit der Datenschutzgrundverordnung eingeführt wurde, diese Pflicht zu sagen, was wird dafür arbeitet und wie schätzt sich eben ein, ob dieser Eingriff gerechtfertigt und rechtmäßig ist und da wir das nicht bekommen und das Wendern rausklagen müssen, weil sie uns das einfach nicht geben, wissen wir dazu gerade einfach nicht viel. Und insofern kommt also vieles dessen, was ich jetzt gesagt habe, auf verfassungsrechtlicher Ebene findet sich auch wieder auf DSGVO-Ebene. Also auch da gibt es so eine Art Verhältnismäßigkeitsprüfung und eigentlich gilt insofern also Ähnliches. Meiner Meinung nach würde das auch gegen die DSGVO verstoßen. Und die DSGVO ist auch anwendbar, die ist nicht anwendbar, wenn zur Gefahrenabwehr oder Strafverfolgung nämlich tätig wird. Das ist ja hier vielleicht so ein Fall, wo das zukünftig nochmal anders sein könnte. Aber in diesem Fall vom Gesetzgeberischen Ziel jedenfalls ganz klar eigentlich anwendbar. So, wir haben noch ganz knapp Zeit für eine Frage von unserem Signaleinschul aus dem Internet. Genau, da ist die Frage, wie weit oder ob wir beschreiben können, wie weit diese Mitwirkungspflichten der geflüchteten Menschen reichen. Also ob das immer dazu ist, Handy offen zu legen, zu entsperren Ähnliches oder mehr. Kannst du die letzten Teile der Frage nochmal wiederholen? Habe ich nicht verstanden? Also die Frage ist, ob wir beschreiben können, wie weit die Mitwirkungspflichten der geflüchteten Menschen reichen. Was da alles der zugehörte Gruppe. Ja, die müssen also zum Beispiel auch relevante Dokumente offen legen, wenn es um die Frage geht, irgendwie herkommt auch zu klären. Also ob es irgendwelche Geburtsurkunden oder Ähnliches gibt. Du musst eben schauen, im Zweifelsfall Papiere zu beschaffen, wenn es dir zumutbar ist. Das heißt, im Endeffekt musst du an deinem Asylverfahren mitwirken und die notwendigen Informationen zur Verfügung stellen. Und die werden dann eben aufgelistet und dokumentiert und was es dich da genau handelt. So, wir sind jetzt leider mit der Zeit zu Ende. Vielen, vielen lieben Dank an Lea Beckmann und Anna Biselli.