 Hallo, herzlich willkommen. Es ist ganz schön weird, so ohne Publikum, ich seh mich nur selber. Aber ich versuch das einfach mal durchzuziehen. Der Vortrag heute, ich habe den Quo Vardes Gesichtserkennung genannt. Wenn ich ganz ehrlich bin, müsste es eher Shadowsquo heißen, weil das ist so viel passiert in den letzten ein, zwei Jahren, dass ich mich doch eher auf die, was jetzt schon da ist, konzentrieren werde und nicht so sehr auf was wo es noch hinkommen kann, wo es noch hingehen wird. Aber ich glaube, irgendwie so mit den letzten Slides, wenn man irgendwie auch dann sehen, in welche Richtung das dann in zwei für zwei laufen wird. Ja, wir fangen erst mal an, so ein bisschen die Einführung, wie Gesichtserkennung im Allgemein funktioniert und sagt man zwei verschiedene Möglichkeiten der Bildaufnahme oder der Verarbeitung. In der Regel ist das erstens oder entweder halt als 2D, also ein normales Bild oder halt so eine 3D Aufnahme. Und für 2D Aufnahmen hat man halt die Möglichkeit in verschiedenen Wellen, Längen, Bereichen des Lichts zu arbeiten. Das ist entweder das normale optisch sichtbare Licht, also halt das, was wir irgendwie auch sehen. Da ist das Bild ganz links so als Beispiel. Oder im nahen Inferotbereich, das ist das mittlere Bild, also nahen Inferotbereich ist praktisch das, was sich anders durch sichtbare Licht anschließt hinter dem roten vom Spektrum her. Es wird halt öfter auch mit Wärmebild verwechselt, ist aber nicht der Fall. Wärmebild, es hat das fernen Inferotbereich, also also im Mikrometer Wellen-Längen-Bereich und das Bild dafür ist es auf der linken Seite. Man muss dazu sagen, dass halt verschiedene Frequenzbereich oder irgendwie Well-Längen-Bereiche verschiedene Vor- und Nachteile haben. Ob das sichtbare Bereich ist halt sehr anfällig für Umgebungslicht, woin gegen zum Beispiel das Ferne-Inferot, also die Wärmestrahlung, halt eine sehr geringe Auflösung hat im Gegensatz zu den anderen Bildern. Die zweite Sache, gerade schon angesprochen, ist die Aufnahme in 3D, also halt die Form praktisch das Gesicht und da gibt es verschiedene Varianten. Das Code-Light-Verfahren, was auf der linken Seite dargestellt ist, ist von Siemens, war das glaube ich mal, initiiert. Was sie da tun, ist, sie projizieren parallele Linien und an den Formen des Gesichts sind die dann halt nicht mehr parallel, also werden halt dann wieder gebogen oder abgeschrägt und aus diesen Winkeln kann man halt die Tiefe berechnen. Mit einer relativ hohen Auflösung fand ich irgendwie interessant, irgendwie 0,2 mm haben sie damals angegeben und das ist auch schon eine Weile älter und auf der rechten Seite des Bild ist halt aus dem Face ID, also von Apple, was sie dort tun ist, sie projizieren Punkte auf das Gesicht und je nachdem wie diese Punkt die Punktgröße sich verändert, daraus berechnest du dann halt die Drittdimension. Algorithmenmäßig gibt es verschiedene Möglichkeiten, wie man, also wie die Gesichtskirche noch funktioniert. Auf der linken Seite dargestellt ist die Alexa Graph Matching, das heißt irgendwie es fährt halt markante Punkte in dem Gesicht gesucht und dann markiert und dann kann man halt sogar teilweise den Kopf noch drehen und in eine gewisse Art und Weise dann trotzdem noch die Menschen miteinander, also Menschen identifizieren. Auf der rechten Seite dargestellt ist das sogenannte Eigenface, da gibt es halt so eine Grunddatenbank aus ungefähr 100 Basisgesichtern und es funktioniert so ein bisschen wie Phantom Build, also das heißt man nimmt jetzt halt irgendwie einen gewissen Anteil vom ersten Gesicht und einen gewissen Anteil von den anderen 99 Gesichtern und macht praktisch eine Summe aus den Gesichtern, um halt dann das Gesicht darzustellen. Heutzutage ist es eigentlich in der Regel Machine Learning, das heißt irgendwie Algorithmen, wo halt keiner so richtig weiß, was die dann auch wirklich tun. Kommen wir zum Einsatz, wird halt also spätestens seit mobiltelefone relativ groß geworden sind oder biometrieren Mobiltelefonen, ist halt auch Gesichtserkennung mit dabei, neben dem Fingerabdruck eigentlich das häufigsten oder weitesten verbreitetste biometrische Verfahren, was da funktioniert und halt ganz lange im normalen Optisichtbaren Bereich bei vielen Telefonen und seit Apple Face ID dann halt irgendwie auch im 3D Verfahren. Das heißt also zum nicht nur Geräte entsperren, sondern halt irgendwie auch so authentifizieren, wenn halt Konterbewegung, Geldflos sich irgendwo anmelden und so weiter wird halt Gesichterkennung eingesetzt. Ein weiter großer Punkt ist die Überprüfung von Ausweistokumenten elektronischer Reisepass, elektronischer Personal aus Weiß. Seit Anfang der 2000er, ich glaube 2005 haben wir angefangen mit dem elektrischen Reisepass und seitdem wird es halt benutzt halt an hauptsächlich bei bei Grenzkontrollen, wenn man halt irgendwie ein Rest ausreist. Und natürlich die Überwachung, also jetzt ganz allgemeinen Kamerüberwachung bzw. halt identifizieren von Leuten anhand von Kameras im öffentlichen Raum stehen und neuer Gegens gibt es halt irgendwie auch so was wie Bordkarte, wo halt man nicht mehr so ein Dingster ausdruckt, die Bordkarte, wenn man irgendwie in den Flieger steigen will, sondern halt irgendwie auch schon mit Gesichterkennung dann irgendwie einfach durchgeht, also elektronische Bordkarte oder auch zum Beispiel Zugang zu Spielhalten, wo halt Leute, die halt spülsichtig sind, sagen können, ne, wir wollen nicht, dass wir hier reingelassen werden und das wird halt mit Gesichterkennung überprüft. Ja, was sind so die Fall- oder Nachteile? Ein großer Vorteil ist, dass es in der Regel halt keine teure Zusatzhaltwehr verlangt, also halt irgendwie alle Mobiltelefone oder Computer oder sowas haben halt heutzutage eine Kamera drin und für halt die ganz normale einfache Gesichterkennung im 2D auf der Sichtbahnbereich funktioniert damit. Das Verfahren ist berührungslos und über größere Distanzen möglich. Das ist halt so die Frage, ist das jetzt ein Pro oder ein Kontrapunkt? Es ist halt immer die Frage, wie also die Intention des oder derjenigen, die diese Gesichterkennende einsetzen und ein ganz klarer negativer oder ein Kontrapunkt ist halt die Möglichkeit der unbewergten Überwachung beziehungsweise halt als biometrisches Merkmal, das halt keine aktive Willensbekundung beinhaltet. Anders als ein Fingerabdruck zum Beispiel muss man halt den Finger nehmen oder die Hand nehmen und den Finger auf den Sensor legen. Gesichterkennung kann halt irgendwie unbemerkt irgendwie überall sein, wo halt mein Gesicht sichtbar ist und das ist halt überall. Ja, Nachteile hatte ich gerade schon gesagt, halt je nach Aufnahmeprinzip zum Beispiel eine sehr stark Abhängigkeit von von Umgebungsbeleuchtung, wenn halt das initiale Bild halt irgendwie mit frontal guter Beleuchtung aufgenommen ist, heißt es noch lange nicht, dass dann halt in der realen Welt halt, wenn das Licht von der Seite kommt, halt immer noch erkannt wird. Und zumindest bis vor kurzem relativ groß, relativ schlechter Erkennungsraten beim Abgleich gegen große Datenmengen, da kommen wir zum Schluss nochmal dazu, dass das sich inzwischen auch schon geändert hat. Ich habe hier mal ein Beispiel mitgebracht, so ein bisschen erschreckend irgendwie auch. Der Ton ist jetzt leider nicht da, das haben wir nicht mehr hingekriegt als Setup, aber das ist eine Bodycam, das heißt irgendwie Polizisten in Amerika haben halt irgendwie das, also ihre Bodycam, die halt irgendwie Bilder von Gesichtern aufnimmt und dann kriegen sie halt über Lautsprecher oder irgendwie, wo noch immer gestreamt, dass die Leute halt Missing person oder irgendwie gesuchter Kriminella oder was auch immer ist. Das ist hier so ein Demo Video von der Firma Wolfkonn, ist noch nicht real timefähig, aber sie arbeiten dran und das ist jetzt hier so ein Beispiel Video, aber da kann man davon ausgehen, dass das in wenigen Monaten oder irgendwie ein, zwei Jahren spätestens auch einfach funktionieren wird. Sie haben keine Angaben zu Erkennungsraten und da kommen halt schon zu einem sehr kritischen Punkt, also gerade, wenn Polizei oder Strafverfolgungsbehörden irgendwie diese Technik benutzen, muss man eigentlich davon ausgehen oder sollte man davon ausgehen, dass die Erkennungsraten halt eigentlich nahezu 100 Prozent sind, dass sie das nie sein werden, ist glaube ich jeden bewusst, der sich schon mal mit Biometrie beschäftigt hat und dann ist halt auch die Frage, wie man dann mit den Fehler, Fehlerkennungsraten umgeht. Also die sagen, sie haben mehr als eine Million Kameras verkauft an 1500 Police Departments in 35 Ländern und wenn halt irgendwie eine Million Kameras da unterwegs sind und auch nur eine Fehlerkennungsrate von irgendwie unter ein Prozent, was realistisch ist, dann hat man halt irgendwie andauernd Fehleralarme und dann ist halt die Frage, wie damit umgegangen wird. Ich weiß nicht, ob ihr das jetzt auch flackern sieht, hier flackert es gerade ein bisschen. Ich erzähle einfach mal kurz, was auf der Folie draufsteht. Das ist jetzt die sozusagen der in Deutschland, also wie es Gesichtserkennung in Deutschland auf den oder in die Gesellschaft vorgedrungen. Der erste große Schritt war auf jeden Fall das Terrorismusbekämpfungsgesetz, allgemein auch als Autokatalog bekannt. 2002, also nach den 2001er-Anschlägen in den USA, sind natürlich irgendwie alle drei irgendwie drauf aufgesprungen und haben das halt irgendwie an verschiedene Sicherheitsrelevante Gesetze verabschiedet. In Deutschland, wie sagt der Autokatalog, 21 Gesetzes- und Rechtsvorschriften, unter anderem für Pass- und Personalausweisgesetz und Ausländer- und Asylverfahrensgesetz. Und damals war noch die Frage irgendwie Aufnahme von Finger oder Gesicht. Inzwischen hat sich halt irgendwie das und dadurch gesetzt. Entschuldigung. Und der Nutzen soll halt Computer-Gestütz in Identifikation sein. Die Ausweisdokumente sollten falschungssicherer werden dadurch. Unten verbessert da behördlicher Informationsaustausch. Damals stand halt drinnen zur Verhandlung von der Einreise von Terroristen, dass das hat nicht der einzige Punkt geblieben ist, ist glaube ich auch jeden klar. Was die damals gemacht haben, um das halt, also um die Gesichtserkennung in Ausweisdokumenten zu benutzen, haben sie halt oder sind sie halt von dem Halbprofilbild, was halt früher in Ausweisen war, auf das Frontalbild gegangen. Und dazu muss man sagen, dass halt, wenn das System jetzt mal nicht funktioniert, das heißt, wenn da wieder eine manuelle Kontrolle mit diesem Bild stattfinden muss, dass dann die Sicherheit tatsächlich reduziert ist, weil halt die für die manuelle Kontrolle halt die Ohrform ganz besonders wichtig ist. Das heißt, wenn halt ganz Beamte kontrollieren, Personen an der Grenze, dann haben sie halt früher halt sehr häufig auf die Ohrform wertgelegt, neben dem halt außenscheinlichen Gesicht. Und dadurch, dass jetzt ein Frontalbild im Gespeichert ist, fällt halt irgendwie das Ganze weg. Das heißt, wenn der Pass oder der Ausweis, der Chip nicht funktioniert, ist die Sicherheit tatsächlich der Dokumente beziehungsweise der Identifikation reduziert. Ein kurzer Einschub zum Thema, wenn der Chip nicht funktioniert. In Deutschland ist es so geregelt, dass das Dokument weiterhin gültig ist, auch wenn der Chip kaputt ist. Der nächste oder ein wichtiger Schritt zum Thema Gesichtserkennung in Deutschland war ein Feldversuch Mainzer Hauptbahnhof. Das war 2007, das war ja nicht stimmt gar nicht, 2002, also auch kurz nach dem Terrorismus im Kämpfungsgesetz hat das BSI die Biop2-Studie losgetreten. Das war sozusagen das erste Mal, wo halt Gesichtserkennung auch wirklich getestet wurde im größeren Rahmen. Damals waren halt so Erkennungsraten von um die 40 Prozent, hat man irgendwie geschafft. Ein lustiger Nectote aus dem Bericht, also wir haben den damals, also Konstanz und ich uns zusammen durchgelesen haben und wir sehr viel gelacht. Ein lustiger Fakt war, dass halt sehr hohe Fehlerkennungsraten bei Personen aufgetreten sind, die dickrandige Brillen, also so Hornbrillen aufgesetzt haben oder auf hatten, was halt auch total Sinn macht. Das heißt irgendwie die Algorithmen, die halt sich auf markante Punkte im Gesicht konzentrieren, für die ist halt so eine dickwandige Hornbrille natürlich irgendwie ein sehr bekannter Punkt. Das heißt irgendwie halt so Fehlerkennungsraten sind halt in die Höhe geschnellt, wenn halt Leute so Brillen aufhatten. Jetzt zum Feldversuch in Mainzer Hauptbahnhof 2007 und hier lag die Quellverkot jetzt schon so ein bisschen besser, so im Schnitt 60 Prozent unter schlechten Lichtbedingungen, also gerade abends, wenn so halt Twilight, also Sonnenuntergang und war, müssen auf 20 Prozent runtergegangen. Also das heißt auch noch nicht wirklich gut. Der aktuelle Feldtest war Bahnhof Südkreuz, habt ihr vielleicht von gehört, das ist jetzt 2018, die Trefferquoten waren auch eher so fragwürdig zwischen 31 und 68 Prozent für drei verschiedene Systeme, die diese getestet haben. Sie haben dann irgendwelche ganzen wirren Tricks gemacht, haben diese Systeme zusammengeschaltet in unterschiedlichen Kombinationen und haben damit angeblich Erkennungsraten von 84 Prozent geschafft, was halt eigentlich immer noch total illusorisch ist. Dass es halt alles noch viel schlimmer ist, kommen wir gleich drauf. Ein Hinweis darauf ist, dass sie halt für die zweite Testphase, sind sie halt von den Mach-Shots, also die haben halt irgendwie vorhin natürlich mit hochaufflösender Kamera Bilder gemacht, gegen die sie verglichen haben. Für die zweite Testphase haben sie gesagt, die Bilder machen zu schlechter Erkennungsraten und sie haben halt Bilder genommen von diesen Bahnhof. Das heißt irgendwie die Bilder, die halt normalerweise die Kamera als die Überfachungskammer genommen hat, haben sie dann als Referenzbild genommen und damit natürlich irgendwie deutlich höhere Erkennungswerte gehabt. Aber das ist natürlich irgendwie nichts, was man in der Realität umsetzen kann, weil halt irgendwie diese funktioniert natürlich auch nur genau an dem Bahnhof. Das heißt, sobald sie es halt an einem anderen Bahnhof irgendwie machen würden, würden halt die Erkennungsraten halt massiv in den Keller gehen. Was sie halt noch haben, ist also immer noch die Erkennungsrate. Wir reden hier von wie gesagt sowas um die 80, 85 Prozent. Das heißt um die 15 Prozent Fehler-Erkennungsrat. Das heißt bei mehreren 10.000, 100.000 Leuten, die am Tag vorbeikommen, hat man halt irgendwie diverse Tausende von Fehler lahmen und dann kann man sich ja irgendwie mal überlegen, was passiert, wenn dann halt wirklich mal ein gesuchter durchkommt und zuverweise erkannt wird, dann ist die Erkennungsrat. Oder dann ist halt irgendwie unschlar, was der Beamte dann irgendwie macht, wenn halt die ganze Zeit immer Fehler lahmen hat, wird da wahrscheinlich da auch Denkenissen, Fehler lahmen. Das Bild auf der rechten Seite ist noch eine lustige Story dazu. Das zweite Bild von oben ist eine Person, die sich plötzlich, also die halt Warteilnehmer an diesen Versuch und hat versichert gekriegt, dass ihre Bilder irgendwie von niemanden zu sehen sind, also nicht mal von der Bundespolizei, die diesen Versuch durchgeführt hat und dann sieht sie ihr Bild plötzlich in der Tagesschau, den Schwarzenbanken habe ich rübergelegt, aber das Bild ist halt irgendwie allgemein, also kann man im Internet finden. Blöderweise ist diese Person nicht irgendein Mann, sondern ein Dokumentarfilmer, der sich ausgerechnet auch noch irgendwie mit recht am eigenen Bild beschäftigt hat und er ist jetzt gerade dabei eine Klage vorzubereiten. Ein bisschen Datenanalyse, wir haben leider nicht die Rohdaten gekriegt, das heißt irgendwie alle Analysen, die jetzt hier sind, sind halt aufgrund der Grafiken, der Diagramme, die in der Abschlussbericht sind. Auf der linken Seite habe ich mal aufgeführt, also man hat halt hier die drei verschiedenen Farben, Schwarz, Rot und Blau für die drei verschiedenen Systeme. Was auffällig ist, dass halt normalerweise sollten ja halt alle Systeme gleich Ergebnisse liefern oder eine gleiche Anzahl von Ergebnissen liefern, das ist hier schon mal irgendwie nicht der Fall. Also und wie teilweise haben sie ja einfach Systeme, die hat an einem Tag zum Beispiel gar keine Ergebnisse liefern, das ist schon mal sehr fragwürdig. Auf der rechten Seite, die zwei Pfeile, die ich da irgendwie, die zwei Punkte, die Ausreißer, die ich markiert habe, ist halt beinahe normalerweise bei einer Erkennungsrate von hier so 80 Prozent für die Blauen, hat man an einem Tag plötzlich nur Erkennungsraten von unter 20 Prozent und da würde ich mir als Hersteller auch schon irgendwie Gedanken machen, wie sowas passieren kann. Das ist halt schon sehr fragwürdig. Aber was halt viel schlimmer ist, dass sie augenscheinlich, beziehungsweise sogar bewusst, einfach Ergebnisse, Teilergebnisse weggelassen haben. Das heißt, sie haben halt für einen drei Monatsbereich einfach, also wir haben drei Monate lang Daten aufgenommen und für die spätere Auswertung haben sie dann halt, wie ihr hier seht, aus drei Wochen oder aus vier Wochen jeweils ein paar oder halt vier Wochen Abschnitte, vier Einzelwochen Abschnitte rausgenommen. Und dann halt auch noch nicht mal die kompletten Wochen, also hier zum Beispiel in der Woche sind halt nur an zwei Tagen Erkennungs oder halt irgendwie Daten aufgenommen werden für die Falscherkennungsrate irgendwie in der Woche gar keine. Das heißt, man kann davon ausgehen, dass halt hier einfach massiv die eh schon schlechten Werte irgendwie noch mal noch mal geschönt worden. Ja, noch ein paar Zahlen zur Gesichtserkennung, wo wir, wo wir heute sind in Deutschland. Es gibt in Deutschland eine zentrale Datenbank mit 5,8 Millionen Gesichtsbildern und im ersten halben Jahr 2019 gab es vom BKA Gesichtserkennungsanfragen ungefähr 24.000. Bundespolizei hat in diesem Zeitraum halt irgendwie 1200 mal recherchiert in dieser Datenbank und dabei 219 Menschen identifiziert. Ob das jetzt positiv, negativ ist, irgendwie steht da irgendwie nicht weiter. In Bayern ist es halt noch viel schlimmer, weil da wird das Ganze halt irgendwie seit zwölf Jahren, also halt schon relativ früh haben sie es eingesetzt und irgendwie seitdem läuft es weiter. Das LKA Bayern hat halt fürs Jahr 2019 387 Täter angeblich identifiziert und noch ein Satz zum vom Bundesratenschutzbeauftragten, den ich halt irgendwie sehr, sehr wichtig finde ist, dass Gesichtserkennung ein sehr weitgehender Grundrechtseingriff ist und das zeigt halt, wenn der das schon sagt, dann muss man halt, also dann ist es eigentlich klar, dass halt die Höhen irgendwie höher sein sollten, als dass irgendwie Bayern das halt zwölf Jahren irgendwie ohne, ohne Fragen nach dem Sinn irgendwie machen. Ja, kommen wir zum ganz aktuellen Thema und zwar Corona. Auch hier wird Gesichtserkennung durchaus eingesetzt, aber das Bild hier zeigt erst mal was anderes und zwar die Probleme der Gesichtserkennung. Jetzt gerade in Corona-Zeiten, wo halt ganz viele Leute Masken auf haben, funktioniert plötzlich die Gesichtserkennung nicht mehr. Es liegt einfach daran, dass halt natürlich ein Großteil des Gesichtes irgendwie verdeckt ist. Ein paar Leute sind halt auf die grandiose Idee gekommen Gesichtserkennungsmasken oder Gesichtsmasken mit dem passenden Gesicht oder halt unpassend Gesicht, je nachdem zu vertreiben. Das heißt, dann kann man zumindest sein Telefon noch entsperren. Auch hier mit der Einschränkung, das geht halt natürlich nur für die Telefone, die halt im normalen 2D-Bereich funktionieren. Das iPhone zum Beispiel, also wenn ich irgendwie im Supermarkt bin und Maske auf habe, dann muss ich halt da und meine Pinnen geben. Ist natürlich ein bisschen nervig. Es gibt ein paar Firmen, die versucht haben, das auszugleichen. Die haben dann den Bereich reduziert, der für die Gesichtserkennung benutzt wird, irgendwie halt den gesamten Nasen-Mund-Bereich irgendwie weggenommen. Und jetzt hast ich nur noch den Augenbereich für die Auswertung genutzt. Aber da ist halt irgendwie auch klar, dass die Erkennungsraten irgendwie dadurch halt massiv in den Keller gehen. Weil halt schon ein sehr wichtiger Teil, gerade so die Partie um die Nase und um den Mund ist für die ganzen Systeme. Ein sehr erschreckendes Beispiel zum Thema Gesichtserkennung und Corona kommt aus Russland. Da gibt es eine App, die halt irgendwie so dieses Social Monitoring, also eine App, wo halt irgendwie auch in Deutschland drüber geredet wird. Die sind halt aber schon ein bisschen weiter. Die App gibt es schon und die speichert irgendwie auch biometrische Daten, also Gesichtsdaten, angeblich nur in der App drinnen. Es gibt aber irgendwie Fälle, wo zum Beispiel Leute, die halt diese, also das Telefon zu Hause liegen lassen haben, dann auf der Straße von den Überwachungskameras erkannt wohnen. Das heißt, es gibt eine Datenbank von irgendwie allen Covid-19-Patienten oder irgendwie Erkrankten und die Überwachungskameras in Moskau gleichen halt Bilder von der Straße mit dieser Datenbank ab. Wenn man dort, also wenn es dort einen positiven Effekt oder eine positive Erkennung gibt, wird man halt dann zwangsweise ins Krankenhaus eingeliefert für eine Zwangskarantäne. Ich fand es sehr scary, also kann man nur hoffen, dass es in Russland bleibt und irgendwie nicht weiter fortgeführt wird. Ein Beispiel aus China zum Thema Gesichtserkennung, wie sie halt nicht funktionieren soll, ist dieses Bild hier. Die Story dahinter ist, dass in China gibt es ja irgendwie auch so Social Scoring und Social Scoring wird in dem Fall irgendwie auch viel mit, da wird auch viel mit Gesichterkennung gearbeitet, um halt automatisch die Scores zu berechnen. Und in dem Fall geht es um Rotzünder, also halt Jailwalker. Und was hier passiert, das ist halt normalerweise, wenn halt Leute bei Rot über die Ampel gehen, wird halt Gesichtserkennung gemacht, es wird halt der Name der Person und ihre Government-ID auf einem Bildschirm und wieder neben auf so einem großen Bildschirm angezeigt, so als irgendwie Public Shaming. Das Problem hier ist, dass irgendwie eine chinesische Geschäftsfrau Erwerbung auf eine Bus geschaltet hatte oder die Firma und dieser Bus halt natürlich dann immer rübergefahren ist, wenn die Fußgänger rot hatten und die Erkennung dann sozusagen dachte, sie wäre bei Rot übergegangen und sie wurde halt irgendwie mehrfach groß public shamed für angeblich überträgt, also für angeblich das Jailwalken, obwohl sie halt irgendwie nicht mehr in dieser Stadt gewesen ist. Ja, kommen wir zu einem richtig Kack-Thema. Ich habe die letzten zwei Tage irgendwie versucht, diese Slides zu machen über Clearview und bin halt immer so schlechte Laune gekriegt, dass ich halt irgendwann gesagt habe, ich schreibe jetzt irgendwie die zwei, drei Sätze dazu runter und mache da nicht weiter, weil ich irgendwie hab es einfach nicht hingekriegt. Was diese Firma getan hat, ist, sie hat diverse Bildquellen im Internet im Giscraped, also Facebook, YouTube, Twitter, Instagram und ist so auf Instagram drei Milliarden Bilder gekommen und hat halt dann angeboten, dass man halt gegen diese Datenbank halt irgendwie Vergleiche machen kann und da ist vor kurzem Anfang, also Februar 2020 eine Datenbank von denen geliebt, also ihre Kundendatenbank, wo halt 2200 Kunden aus 27 Ländern sind, unter anderem Strafverfolgungsbehörden, auch aus Europa, Interpol, die das benutzt haben, viele US-amerikanische Institutionen, Immigration Office, Border Patrol, Department of Homeland Security, aber halt irgendwie auch so Sachen wie Banken, Casinos, Apotheken, Supermarketten, Unis, also halt so wirklich für Einfasste oder halt, wo man halt denkt, irgendwie ihr habt nicht das Recht, irgendwie jetzt allen Leuten hinterher zu spionieren, die irgendwie auf eurer Uni oder in eure Apotheke einkaufen, aber haben anscheinend irgendwie Leute, Leute gemacht. Für diesen League hat der CEO, was auch immer von dieser Firma gesagt, ja, unfortunatly Data Bridges Apart of Life in 24 Century und das finde ich schon halt eine ziemlich krasse Einstellung für eine Firma, die halt mit so sensitiven Daten arbeitet, wie Gesichtsbilder. Der Grund, warum mir das so sauer aufgestoßen ist, war halt irgendwie ein Artikel, der erst vor kurzem rausgekommen ist und zwar hat sie den Gründer der Firma mit der Alt-Rite Bewegung in Verbindung gebracht, also halt so Weipers Supremacist, Neonazis auf gut Deutsch und die Idee dahinter, warum der das gemacht hat ist, wollte halt die Gesichtserkennung dafür benutzen, um Ausländer zu, also Massen zu deportieren von Illegals in den USA und das ist halt irgendwie so, also da hat es dann einfach aufgehört. Es gibt aber auch ein eher positives Beispiel oder bis zur Seite eine Möglichkeit, wo man das halt positiv benutzen kann, Gesichtserkennung und das ist eigentlich ein Projekt, was das Zentrum für politische Schönheit 2018 im Dezember gestartet hat, die Soko Leipzig, da gab es ja irgendwie diesen Tütungsfall in Chemnitz und danach halt irgendwie die Massen-Demonstration von halt irgendwie diesen ganzen Faschos in Chemnitz und was halt das Zentrum für politische Schönheit gemacht hat, was die haben halt gesagt, wir haben eine Webseite aufgebaut, wo man halt sich selber halt irgendwie suchen konnte, bzw. irgendwie seinen Kollegen suchen konnte und gucken, ob der halt irgendwie auf dieser Demo mitgelaufen ist, um halt praktisch irgendwie dieses Fremdschirm irgendwie auch mal gegen die Nazis auszuprobieren. War, hat erstaunlich gut funktioniert, also ich hatte die Chance irgendwie mal die Software dahinter, die Probe zu testen und war doch tatsächlich sehr erstaunend, wie gut sie funktioniert. Also da waren teilweise so Bilder von so einem Zombie-Merkel auf dem Plakat, was halt irgendwie diese Nazis um mich rumgeschleppt haben und ich habe halt irgendwie mal ein Merkgebild als die Quelle reingeworfen und das wurde trotzdem noch erkannt und da habe ich mir das erste Mal so gedacht, oh kacke, jetzt ist tatsächlich die Gesichtserkennung da angekommen, dass hier auch tatsächlich funktioniert auch mit größeren Daten. Also um das halt nochmal ein bisschen auszubauen, was die gemacht haben ist, sie haben halt Bilder genommen von, also Fotos von dieser Demo und halt irgendwie auch ein Video, wo halt diese ganzen Nazis an so einer Wohnung vorbeigelaufen sind, woher die man eine Kamera mitlaufen lassen hat, daraus irgendwie Standbilder gemacht und dann halt tatsächlich einfach mal geguckt, wie wehen sie da irgendwie aus den Nazis Größen und wie finden. Und hier ist ein kurzes Beispiel, den Höcke haben sie auf jeden Fall diverse Male gefunden, auch mit irgendwie super guten Erkennungsraten und das ist eigentlich das, wo ich halt bisher auch immer behauptet habe, die Gesichtserkennung auf großen Gruppen, wo halt mit irgendwie schlechten, komischen Lichtverhältnissen funktioniert nicht und da muss man jetzt einfach sagen, das ist anscheinend inzwischen anders. Ich will noch ein bisschen was Positives bringen und weil ich halt mich mit Biometrie auch immer viel mit Überwindungssicherheit beschäftigt habe, wie hier auch nochmal einen kurzen Auszug dahin bringen. Die meisten Systeme lassen sich tatsächlich immer noch relativ einfach überwinden, also auch bis zur neue Smartphones dieses Jahr, die halt mit Gesichtserkennung arbeiten, kann man halt irgendwie einfach ein Foto nehmen und davor halt, bzw. irgendwie auch ein Foto mit einem Telefon machen, das Display vor die Kamera halten und das funktioniert immer noch. Das wissen natürlich die Hersteller auch und versuchen halt, Lehmterkennung oder Trappenerkennung mit Bewegung zu, also halt Bewegungss selektion zu, zu kombinieren. Da kann man da halt irgendwie nicht mehr ein Foto davor halten, aber zum Beispiel ein Videosequenz abspielen kann man immer noch. Wenn man das halt nicht machen will, gibt es halt irgendwie noch so ein kleines lustigen Trick. Das ist eine Software, die halt auch Gesichtserkennung macht und auf das Blinzeln der Augen als Lehmterkennung wertlegt. Das ist ein ehemaliger Kollege von mir und wir jetzt erst mal so zu zeigen, wie es funktioniert. Sieht ja gleich um in der Ecke so dieses blaue Auge, was da irgendwie zu sehen war. Das heißt halt irgendwie jetzt Blinzelmann hat er geblinzt geblinzelt und dann wurde halt irgendwie der der Rechner freigeschaltet. Wir haben hier wollten halt irgendwie trotzdem mal gucken, ob man es nicht irgendwie trotzdem mit dem Ausdruck schaffen kann. Das ist sozusagen der Ausdruck der Person, also vom Gesicht. Jetzt kommt gleich irgendwie dieses blaue Auge hier, sagt oben jetzt Blinzel doch mal und statt zu blinzeln haben wir halt einen Stabilostift genommen und einfach mal kurz irgendwie vor dem Augen lang gewedelt. Hintergrund dabei ist irgendwie die Lehmterkennung von uns nicht halt soweit, dass die Algorithmen halt im Gucken sind da schwarze Pixel für die Propille und irgendwie sind die schwarzen Pixel dann vielleicht mal für eine Kurzzeit nicht da, wenn man blinzelt und lustigerweise hat irgendwie sehr stabilostift, hat ungefähr hautfarbene Eigenschaften. Das heißt, wenn man den kurz vor den Augen hin und herwischt, denkt Algorithmus, dass das halt, dass die Person geblinzelt hat. Gibt ein anderes Verfahr, also wenn es halt nicht nur um Blinzeln geht, sondern zum Beispiel Mastercard hat ein ähnliches Verfahren auch benutzt, wo halt irgendwie auch Gesten und Mimiken im Gesicht halt zur Identifizierung bzw. zur Lehmterkennung genutzt werden, als zum Beispiel irgendwie lächeln oder wie traurig gucken. Und da gibt es eine lustige Idee hierzu in meinem Video, wo halt eine amerikanische Uni das gemacht hat. Also die heißt die Film sozusagen das Gesicht von einer Person und machen praktisch als Overlay über das Originalbild und kann damit dann auch Dinge sagen oder lächeln oder irgendwie traurig gucken und so weiter. Für 3D im Sinne nahe Sachen funktioniert das Ganze natürlich irgendwie nicht mehr, aber auch da gibt es halt irgendwie Möglichkeiten, so 3D-Gerlöcker ist natürlich irgendwie dass das nahe links, das heißt irgendwie man muss halt dann die Gesichtsform nehmen, also entweder man hat halt ein 3D-Scan von dem Gesicht, es gibt irgendwie auch Software, die halt aus verschiedenen Blickwinkeln von Kamerabildern 3D, also ein 3D-Bild berechnet und dann kann man das halt irgendwie ausdrucken oder sich dann halt wie hier auf der linken Seite zu sehen, auf der rechten Seite halt so eine Maske draus machen und für einfache Systeme funktioniert das halt auch immer noch. Eine sehr lustige, ich habe ja vorhin schon kurz erzählt, dass heutzutage eigentlich alle Gesichtserkennungssoftware mit Maschinen funktioniert und das hat hier eine amerikanische Uni auch ausgenutzt, die Carnegie Mellon University und sie haben mal geguckt, wie kann man denn diese Machine Learning Algorithmen durcheinander bringen und was sie gemacht haben ist, sie haben halt, sie sieht das hier oben in der oberen Reihe, sich so Brillen gebastelt, die haben sie bedruckt und irgendwie diese grün-gelb-rote irgendwie Muster, die sie auf diesen Brillen gedruckt haben, hat diesen Algorithmus so durcheinander gebracht, dass halt irgendwie nicht die Originalpersonen erkannt wurde, sondern halt die Person erkannt wurde, die hat hier im unteren Bild ist. Also dann spielt es auch keine Rolle, ob irgendwie Frau oder Mann und das ist halt schon, also dann denkt man sich irgendwie auch irgendwie alles klar, wenn halt so einfach diese Systeme zu überwinden sind, dann wird es halt umso fraglicher, ob man sie jetzt einsetzen soll oder nicht. Kommen wir langsam zum Ende und zwar, Möglichkeiten sich dieser Gesichtserkennung zu entziehen. Es gibt eine oder eine, ein gutes Beispiel liefert die die Mustertafel für den elektrischen Reisepass schon mit und zwar alles, wo hier und wie rote Kreuze dran sind, also was man halt nicht machen darf, wenn man sich eine elektronischen Reisepass, also das Passbild dafür macht, darf man nicht machen, weil es halt irgendwie die Erkennungsrate der Algorithmen reduziert. Das heißt, wenn man nicht erkannt werden will, muss man sich halt irgendwie einfach nur an diese rechten Bilder halten, zum Beispiel halt ja diverse Teile des Gesichts irgendwie verdecken. Den Kopf zur Seite drehen ist irgendwie auch sehr beliebt, zum Beispiel auch die Studie in Südkreuz hat das irgendwie auch sogar noch quantifiziert, das heißt, die haben geschrieben, bei Gesichtstrehungen von über 15 Grad sinkt die Erkennungsleistung rapide. Eine andere lustige Idee hatten die Japaner und Fichmal wieder diese Privacy Glasses, wo halt in so ein Brillengestell ein paar Infrarot LEDs, also nahe Infrarot LEDs eingelötet wurden und jedes Mal, wenn man halt irgendwie ein Gesichtserkennungskamera gegenüber tritt, wird halt die Kamera durch diese LEDs so geblendet, dass halt eben keine Gesichtserkennung mehr möglich ist. Es geht halt irgendwie auch noch einfacher. Ich habe hier mal ein paar Tests gemacht mit Samsung Galaxy S8, was ich damals hatte und einfach mal geguckt, wo ich noch erkannt wurde und wo nicht. Auf der linken Seite, das ist sozusagen das Originalbild, wenn ich mich emrolt habe und die sechs Bilder wurden schon nicht mehr erkannt, das heißt irgendwie schon so einfache Sachen wie die Backen aufblasen oder halt so die Strähnen ein bisschen ins Haar hängen lassen oder ein Hoodie. Da scheitern irgendwie diese Systeme schon. Oder man kann sich natürlich irgendwie auch mit diversen Masken, Parücken und so weiter irgendwie anfreunden. Und was ich auch sehr lustig finde, ist auch schon ein bisschen älter, sogenannte Gesichtsetoos oder irgendwie Gesichtsschminke, wo halt mit diversen Formen, die halt irgendwie auf das Gesicht drauf gemalt wurden, die Algorithmen so durcheinander gebracht wurden, dass hier halt irgendwie dieses Gesicht nicht mehr können. Aber es hat auch irgendwie Sinn macht, also wenn ich mir dieses Gesicht hier zum Beispiel angucke, ich erkenne da irgendwie selbst ja fast irgendwie kein Gesicht mehr. So und mit dem letzten Bild würde ich auch zum Schluss kommen bzw. die Diskussion Q&A mal einleiten wollen. Ich habe es mal das Dilemma der Gesichtserkennung genannt und dargestellt so mit dem Fehlerkennung versus Totalüberwachung. Ich habe ja vorhin schon kurz erwähnt, dass also bisher habe ich halt auch meistens gesagt Gesichtserkennung in großen Mengen zur Massüberwachung taugt einfach nicht. Ich bin halt leider inzwischen eines Besseren belehrt worden, von daher muss man halt hier dann einfach mal sehen, also wir können uns jetzt nicht mehr auf die Aussage zurückziehen, die Systeme funktionieren eh nicht. Das heißt, unsere Privacy ist gesichert, sondern die Systeme funktionieren leider inzwischen auch zu gut. Das heißt, jetzt müssen wir aktiv werden und einfach irgendwie auch mal sagen Gesichtserkennung darf im öffentlichen Raum nicht benutzt werden. Zum Beispiel in Amerika, so wie Kalifornien hat da schon Gesetze zu erlassen, um halt genau Gesichtserkennung aus öffentlichen Bereichen zu verbannen. Und wir in Deutschland diskutieren halt immer noch, ob Gesichtserkennung an bahnöffentliche tolle Ideen da sind wir jetzt auch einfach mal gefordert, um da halt mal dagegen zu argumentieren. So, damit bin ich fertig und jetzt mal mal gucken, ob das hier mit dem Q&A vielleicht funktioniert. Hört ihr mich da hinten? Gibt es denn Fragen? Ich will nicht wie zu kurz erwähnen, dass wir in den letzten Tagen nicht so richtig gar können auf Corona-Geschichten. Also halt immer, wenn es die Masse ist, dann auch Corona-Geschichten. Aber dann haben wir es ja auch gut. Teilweise herrschen wir jetzt die Abdeckung gleich durch die Sicht, was wir jetzt versuchen, auszuschauen und halt nur noch auf die umfassenden Wert legen. Aber da gibt es natürlich auch keine wirkliche Lage. Also ich gehe nicht auf die schlechte Erkennungsverordnung, das ist ja kein Problem. Aber die schlechte Erkennungsverordnung, das heißt, wie ich die Erkennungsverordnung, wie ich die Erkennungsverordnung habe, dann enthalten wir auch irgendwas, was ich habe. Ich habe leider keine Erkennungsverordnung, wenn man halt nur in den Augenbereich nimmt. Also es ist natürlich sehr bekannt, wenn ich in der Hand habe, wo ich es davon übergegeben habe, dass wir da so auf die Bereiche im Moment nahe sind und in den Augenbereichen. Das heißt, ich glaube, das ist ein Iris oder ein Kontaktlinsen. Das ist halt so eine Idee, um Gesichtserkennung zu verbessern, indem man halt multimodale Systeme verwenden. Also zusätzlich zu der Gesichtserkennung halt noch eine Iris-Erkennung mit einbaut. Weil die Kameras sind eigentlich dafür schon irgendwie gemacht. Zumindest in modernen Smartphones, die Front-Facing-Kameras, also die Selfie-Kameras, die haben halt irgendwie so eine hohe Auflösung. Und für so eine Iris-Erkennung braucht man da gar nicht irgendwie so viel, also so eine gute Auflösung. Ich bin mir relativ sicher, dass wir irgendwie nicht allzu feiner Zukunft solche Systeme sehen werden, die halt Gesichtserkennung mit Iris-Erkennung koppeln. Dann ist eine Frage in Asien, wird wohl schon das Gesicht als ÖPNV-Ticket-Ersatz verwendet. Gibt es sowas auch möglicherweise in Deutschland genanntes hier der Mainz? Also der Bahnhof in Mainz, das war ein Feldtest von der Bundespolizei damals und vom BSI oder bzw. Innenministerium, wo sie halt irgendwie nicht, also da ging es überhaupt gar nicht um irgendwie fahrscheinloses oder irgendwie halt fahrscheinloses, irgendwie Benutzung des öffentlichen Nahverkehrs. Und dann tatsächlich, da ging es darum, diese Systeme, Alt-Überwachungssysteme als finden von gesuchten irgendwie zu testen. In Deutschland hätte das auch, glaube ich, datenschutzrechtlich, wäre das durchaus sehr problematisch, da eine Gesichtserkennung zu benutzen, weil es halt immer grundrechts, also weniger grundrechtsinvasive Möglichkeiten gibt und in Deutschland gibt es halt so das Gebot. Wenn es halt irgendwie andere Möglichkeiten gibt, dann müssen die benutzt werden und so gerade Gesichtserkennung, ich meine, biometrisches Merkmal ist halt so ein ganz wichtiges irgendwie persönliches Merkmal, wo halt deine Person mit beschrieben wird. Und wenn man es halt verheilt, vermeiden kann, sollte man das nicht tun und ich glaube, da sind sich inzwischen auch noch viele Leute ein. Ja, es gibt immer mal so ein paar Testversuche, irgendwie der Zoo in Hannover, glaube ich mal, mit Fingerabdruck angefangen. Es gibt irgendwie so ein Schwimmbad, was mal Wenerkennung hat, aber es sind halt irgendwie alles nur so kleine Sachen, die halt das mal testen und wo dann halt irgendwie auch entweder schnell rauskommt, dass es irgendwie nicht funktioniert, nicht angenommen wird oder wo dann irgendwann der Datenschutzbeauftragte sagt, irgendwie habt ihr eine Macke, irgendwie könnt ihr gleich mal sein lassen? Dann ist noch die Frage nach der Fortspositive Rate oder generell der Zahlen zu Genauigkeit? Da ist mir auch vorhin aufgefallen, dass ich da auf jeden Fall ein bisschen flüchtig drübergestiefelt bin. Wird's mir sein, die Folie... Achso, die Kunde, ich muss hier mal kurz die Folie umschalten. Danke, Peter. Also, Fortspositive und Fortsnegative bzw. ihr macht es einfach mal hier an diesen Daten, kann man das überhaupt lesen, machen es mal hier. Also, ich habe halt vorhin ja nur von den 80 Prozent Erkennungsrate geredet. Die kann man natürlich nicht alleinstehend betrachten, sondern irgendwie die Erkennungsrate ist halt immer damit, also die Erkennungsrate ist halt immer mit der falsche Erkennungsrate, bisschen mit der Fortspositive Rate in Zusammenhang zu bringen. Ich erkläre es mal hier ganz kurz an diesem Diagramm. Das heißt, bei einer falsch-positive Rate von 0,1 Prozent, das heißt halt jeder tausendste Versuch von einen nicht berechtigten wird aus Versehen als berechtigt die Person angenommen. Dem gegenüber stehen halt die Erkennungsraten, also die tatsächlichen Erkennungsraten und in dem Fall hier, also muss man halt auf dieser Linie dann irgendwie untergehen. Das heißt, bei dieser Einstellung, also es wird halt durch den Straschholt wird es eingestellt, bei 0,1 Prozent Erkennungsrate hat man eine Erkennungsrate von 97 Prozent für diesen Fall jetzt hier. Also, dann werden halt nur noch drei von 100 Leuten nicht reingelassen von dem System. Als letzte Frage würde ich zum Schluss mit rein nehmen. Wie wahrscheinlich ist es, dass Google oder Apple Gesichtsdaten weitergeben, um die Erkennungsrate zu verbessern? Die Erkennungsrate verbessern. Naja, so normalerweise machen die Firmen das ja selber, also ich meine halt Google-Phones und irgendwie das iPhone mit Gesichtserkennungssoftware, die haben halt ihre eigene Software. Das heißt, die haben natürlich die Daten, die sie halt aus diesen Tests mit ihren Devices haben, die gehen natürlich direkt wieder in die Entwicklung weiter oder in die Verbesserung der Algorithmen, wohin jetzt weiter gereicht werden sollten. Also werden sie vermutlich nicht tun, weil es natürlich auch ihr Datenschatz und natürlich irgendwie auch kann man das nicht einfach so machen, ohne jetzt irgendwie die Zustimmung der jeweiligen Person einzuholen. Das heißt, ich würde davon ausgehen, dass sie es nicht tun. Nichtsdestotrotz, ich meine, grad bei Gesichtserkennung oder grad bei Gesichtsbildern macht es halt eigentlich inzwischen schon jeder irgendwie freiwilliger. Ich meine, sucht einfach mal nach, oder sucht einfach mal nach eurem Namen oder wie nach eurem Gesicht oder irgendwie guckt mal von irgendwelchen Veranstaltungen, wo ihr wart. Ihr werdet einfach Bilder von euch finden und wie halt Facebook, Instagram, was auch immer. Irgendwo gibt es ein Foto, wo halt irgendwie auch der Name direkt mit verknüpft ist, beziehungsweise dann hat übern Umweg mit einem Namen von eurem Freundes verknüpft und irgendwie Twitter-Follower, was auch immer. Das heißt, Gesichtsdaten von euch sind einfach irgendwie da. Wenn sie halt nicht irgendwie im Internet sind, dann sind sie spätestens bei den Meldestellen. Wenn ihr euch ein Ausweis oder ein Pass geholt habt, die Bundespolizei nach dem neuen BKA-Gesetz hat irgendwie Zugriff drauf, bzw. das BKA hat Zugriff drauf auf diese Daten, geheimlich haben sowieso Zugriff auf die Daten. Das heißt, man kann davon ausgehen, dass eine große Anzahl von zumindestens Behörden und Leuten, die die nicht haben sollten, diese Daten. Gut, dann herzlichen Dank. Damit würde ich den Vortrag. Ich danke euch. War ein cooles Format. Ich hoffe, das war ganz schön wird, so irgendwie ohne Publikum zu sprechen. Ich hoffe, das kam irgendwie halbwegs, trotzdem sinnvoll rüber und ich wünsche euch noch eine schöne Veranstaltung. Ciao.