 Hallo. Ja, hallo und willkommen zu Starbucks Talk. Ich denke die meisten kennen ihn. Diesmal hat er für uns aus dem Bereich der Biometrie die Iris-Kontrolle vom S8 kaputt gemacht und erzählt uns jetzt nach vielen anderen Erklärungen wie man andere Dinge so in Biometrie aushebelt mal, wie das funktioniert hat. Vielen Dank. Herzlich willkommen zum ersten Vortrag zu dem Thema. Ist ganz frische Forschungsarbeit. Von daher hoffe ich, also ich bin auch so ein bisschen durch den Wind, aber das geht schon. Willkommen zum Vortrag Hacking Eio-Sacrificial Systems, gesponsert von der CCC Taskforce on Biometrics, die wir gerade gegründet haben. Genau und wie das das Bild ja schon ein bisschen zeigen soll, erzähle ich heute ein bisschen was zur Iris-Erkennung und Wert halt irgendwie mich also als so auf den aktuellen Hack zum Galaxy S8 beziehen. Ja, erst mal, wo was gibt es halt so für Systeme, die Iris-Erkennung einsetzen, da gibt es halt irgendwie so halt die richtig guten Systeme oder halt mehr oder weniger gut, wenn es ums überwinden geht, also die Wallmount-Sachen, die halt im Zweifelsfall auch in Banken oder in Kernkraftwerken eingesetzt werden, gibt tatsächlich auch so ein paar kleinere als End-User-Systeme für Computer. Und jetzt seit ungefähr, ja seit seit letzten Jahr hält die Iris-Erkennung auch in Mobiltelefone Einzug, angefangen hat es mit dem Lumia von Microsoft und seit zwei Wochen ist das Galaxy S8 draußen, wobei ich gelernt habe, dass tatsächlich das S7 auch schon Iris-Erkennung hatte, bloß hat man ja keins davon gekriegt, weil die sind ja immer gleich explodiert. Von daher die Forschung, die ich gleich vorstelle, halt irgendwie ganz exklusiv am S8 vorgenommen. Ja erst mal kurz ein bisschen zum Aufbau, also wie funktioniert so eine Iris-Erkennung. Prinzipiell funktionieren die alle gleich, und zwar hat man eine Kamera und eine LED, die halt Licht ins Auge leuchtet und das reflektierte Licht vom Auge wird dann halt mit dieser Kamera aufgenommen. Das Besondere ist, dass die Kamera im nahen Verrotbereich funktioniert, das heißt, man hat das sichtbare Bereich, das ungefähr so bis 8 natt oder 750 nanometer geht und dahinter schließt sich dann das nahe Inverrotbereich, der nahe Inverrotbereich an, nicht zu verwechseln mit dem Inverrotbereich, den man allgemein so als Wärmestrahlung kennt, weil der kommt erst später, so bei zwei Mikrometern irgendwann, Wellenlänge. Von daher genau, das ist halt irgendwie so der Bereich, der halt gleich hinter dem sichtbaren Licht ist, arbeitet, also die Inverrot-LED arbeitet bei 850 nanometer und um halt so Umgebungseinflüsse rauszufiltern, haben sie vor die Inverrotkamera noch einen Hochpassfilter gemacht, also er filtert praktisch alles, was unter 830 nanometer ist, also praktisch das gesamte sichtbare Lichtspektrum filtert er komplett einmal raus. Warum machen sie das? Na erstens natürlich, um das sichtbare Licht rauszufiltern, das heißt, irgendwie so Umgebungslicht, also Scheinwerfer und auch Reflektion von irgendwelchen Fenstern oder sowas, werden halt relativ gut mit weggeblendet. Und zum anderen hat es die Iriserkennung, oder der der Vorteil an Inverrot ist, dass halt in dem Bereich die Iris-Strukturen, die halt zur Erkennung benutzt werden, in dem Bereich deutlich besser sichtbar sind. Das heißt, halt gerade für dunkle Augen, also wenn ihr halt jemand mit schwarzen Augen mal in die Augen guckt, da sieht es halt normalerweise komplett schwarz aus, mehr oder weniger. Für den Inverrotbereich sieht das alles ein bisschen anders aus, da hat man halt wirklich dann schöne Strukturen, zeige ich gleich auch noch mal ein Bild, wo das ziemlich gut sichtbar wird. Ein interessanter Fakt ist, dass die Kameras gar nicht wirklich hochauflösend sein müssen. Das Paper oder halt so, dass das eine wichtige Paper zur Iris-Erkennung sagt, was man halt maximal 70 Pixel für den Iris-Durchmesser verwenden sollte, das heißt 70 Pixel, wenn man das mal hochrechnet, auch halt so eine normale Kamera auf den Abstand, kommt man so auf 100 DPI, also das hat wirklich wirklich nicht dolle. Und tatsächlich, diese Themen funktionieren irgendwie auch wirklich bis runter zu dem Durchmesser oder bis zu der Pixel-Anhalt, aber auch dazu später ein bisschen mehr. Das Verfahren sozusagen verwendet wird, das ist aus den 80ern, also ein wirklich sehr altes Verfahren von Professor Daudmann damals patentiert worden auch. Und tatsächlich, soweit ich weiß, verwenden alle Systeme, also alle Iris-Erkennungssysteme verwenden halt irgendwie dieses Verfahren, weil es hat, war halt irgendwie eine echt gute Idee, was er sich damals ausgedacht hat, ist es schnell und halt irgendwie einfach irgendwie auch auf mobile Geräte zu portieren. Von daher hat sich glaube ich noch nicht wirklich jemand die Mühe gemacht, das irgendwie zu verändern. Funktioniert folgendermaßen, nachdem ich jetzt halt ein Bild von der Iris gemacht habe, das heißt irgendwie infrared Licht strahlt in die Iris ein, wir machen ein Bild davon und dann müssen wir natürlich irgendwie erstmal in diesem Bild in die Iris finden, was relativ gut funktioniert, weil man hat halt sehr hohe Kontraste zwischen halt der Popille und der Sklalea, also das dem Augenweis sozusagen. Das heißt, was gemacht wird, ist man guckt halt erst mal von innen geht man los und legt halt einen Kreis und guckt halt irgendwie wo die Kante ist zwischen dem richtig dunklen der Popille und dem etwas helleren, was dann die Iris ist. Das gleiche macht man halt am äußeren Rand, also vom weißen zu der dann in dem Fall dunkleren Iris. Man muss dazu sagen, dass die nicht unbedingt konzentrisch sind. Das heißt, man kann ja nicht sagen, man hat jetzt die Iris genommen, vergrößert den Kreis einfach und hat die Popille, sondern die Iris ist halt in der Regel so ein bisschen versetzt, meistens halt Richtung Nase, also tatsächlich sowas wie 10, 15 Prozent. Das heißt, da würde man ganz schön viel abschneiden, aber die Lösung ist halt einfach man hat halt zwei Algorithmen, einmal für die Innere und einmal für den äußeren Durchmesser und dann hat man praktisch die Iris. Wie ihr hier aber auch schon seht, das ist halt tatsächlich ein Teil, also gerade hier oben, wo die Wimpern sind oder die das Augenlied sind, wird natürlich Teile von der Iris verdeckt, was aber prinzipiell kein Problem ist, also halt so Iris-Erkennung funktioniert total super, wenn irgendwie so drei Füttel der Iris noch zu erkennen sind. Bis runter zu der Hälfte der Iris ist es irgendwie auch noch definiert, als sollte funktionieren. Von daher irgendwie alles kein Problem. Das erfahren, also wie halt tatsächlich dann aus der Iris die Information gewonnen werden, also der sogenannte Iris-Code ist auch relativ einfach, man hat ja irgendwie jetzt diese zwei Kreise da zwischen Pupille und Iris und zwischen Iris und dem Augenweis und der Bereich wird in acht konzentrische Kreise unterteilt und dann so praktisch aufgefaltet, also praktisch von dem Polarkoordinatensystem in ein kathesisches umgewandelt oder andersherum, ich verwechsel das immer. Und im Endeffekt kommt dann das raus, was man hier oben sieht. Das heißt, man hat diese acht konzentrischen Kreise bzw. acht Linien von der Iris und da werden halt diese Strukturen in mehr der weniger einzelne Bits unterteilt. Also je nachdem, ob es dann irgendwie halt hell oder dunkel ist, ist dann halt eine einzelne Null oder da oben repräsentiert durch einen schwarzen oder einen weißen Balken. Daraus sieht man dann auch, dass die Farbe der Iris oder das Auge ist halt überhaupt gar keine Rolle spielt. Es ist halt tatsächlich nur eine reine schwarz-weiß Information und das Infarotbild ist mehr oder weniger auch nur ein Graustufenbild. Also es wird dann praktisch aus Graustufen in Binea, also in Schwarz-Weiß gewandelt und dann halt die einzelnen Bits rausgeholt. Das Schöne ist, diese Bits können dann halt wirklich bittweise verglichen werden durch einen ganz normalen Vergleich der Hamming-Distance. Das Vorteil an Hamming-Distance ist, dass du halt das eingelernte Bild und das live-aufgenommene Bild halt wirklich in einem X-O-Schritt mehr oder weniger gucken kannst, ob das übereinstimmt oder nicht. Funktioniert natürlich nur, wenn die Iris halt tatsächlich wieder in der gleichen Position bzw. in der gleichen Rotationsebene aufgenommen wird. Die meisten Systeme funktionieren aber halt auch bei, also wenn man seinen Kopf so ein bisschen schief fällt, funktionieren sie trotzdem. Das funktioniert dann so, dass sie halt einfach dann bittweise das Template-Muster irgendwie einmal rüber schiften und dann irgendwie gucken, ob sie übereinstimmt und halt meistens so plus minus 15 Grad lassen, die Iris-Erkennungssysteme zu. Ich habe der vorn schon kurz erwähnt hier so Wimpern und Augenlieder und Reflektion, so wie das hier oder das der weiße Punkt. Die wären halt in einer separaten Maske abgespeichert, also die 8-Kreise A256-Bit, glaube ich. Also 2048-Bit ist der sogenannte Iris-Code und dann hat man nochmal 2048-Bit, wo halt nur die Maske drin gespeichert ist, also was sozusagen sagt, was von der Iris wir jetzt benutzen und was wir nicht benutzen, weil es halt abgedeckt ist oder irgendwie halt durch Reflektion nicht zu sehen ist oder nicht verwendbar ist. Ja, kommen wir auch schon mal kurz zur Überwindung, wie sich das Hollywood zuvor stellt. Das ist aus dem Film Minority Report, habt ihr wahrscheinlich alle schon mal gesehen. In dem Fall ist das halt noch so ein bisschen markaber. Ich weiß nicht, wer den Film kennt, da nimmt er dann halt, glaube ich, einen Löffel oder sowas und kratzt irgendwie dem Opfer das Auge aus und hält es dann vor dem Türöffner. Das ist halt so, wie Hollywood sich das vorstellt, beziehungsweise irgendwie, was hier vorne im Eingangsbild gesehen hat, aus, vergessen wie der Film heißt, demolition bin, genau, danke, wo halt dann Skalpell genutzt wird, um das Auge irgendwie auszugratzen und irgendwie aufgespießt und davor gehalten. So stellt sich das Hollywood vor, wie gesagt, aber in Wirklichkeit ist das alles viel einfacher und zwar reicht meistens schon Ausdruck, aber wir kommen bevor wir zu der Überwindung kommen halt erst mal zu der Aufnahme der Merkmale. Also wenn man so Biometrie hekt, dann ist es halt in der Regel immer ein zweigeteilter Schritt. Das heißt, man muss halt erst mal irgendwie an die Merkmale kommen. Für die meisten Sachen ist es halt ein Foto machen, also ein Fingerabdruck Foto machen oder vom Gesichtserkennung, also ein Foto vom Gesicht machen oder in dem Fall von der Iris. Kann aber genauso gut, wenn es um Spracherkennung oder Sprechererkennung zum Beispiel geht, dann muss man halt irgendwie ein Audio-Recorder nehmen und hat dann das Sample. Und im nächsten Schritt muss man dann halt irgendwie das aufgenommene Bild so manipulieren oder ausdrucken oder abspielen, dass es halt vom System als echtes Merkmal erkannt wird. Noch mal zurück zur Aufnahme. Wir haben, also mit der Iris-Erkennung beschäftigt mich der schon eine ganze Weile, bevor das Galaxy rauskam, von daher war schon so ein bisschen Vorlauf da. Wir haben auf der ICMP vor sechs Jahren, das ist glaube ich schon hier, damals so ein paar Tests gemacht, einfach mal zu gucken, in welchem Abstand man irgendwie dann noch sinnvolle Bilder von der Iris kriegt. Auch hier wieder so im Hinterkopf bald, was ich vorhin sagte, so 70-Pixel Iris-Durchmesser ist das, was die Systeme in der Regel irgendwie fordern, maximal, minimal. Und wie ihr hier drüben seht, das ist halt mit einem Canon DX1, also irgendwie so ein, na schon ein bisschen besserer Spielreflex-Kamera, aber irgendwie wer halt so Foton hört, der hat in der Regel irgendwie so eine Canon zu Hause und ein 200 mm Objektiv, das ist jetzt irgendwie auch nicht der, der neueste Fancy-Scheiß, kostet zwar auch so irgendwie 1.000 oder sowas, aber die Leute, die halt das als Hobby haben, die haben halt in der Regel irgendwie mindestens irgendwie so ein Objektiv mit dabei. Genau, was wir gemacht haben, ist halt einfach mal geguckt, Meter-Abstand lassen, mal ein Foto gemacht, Iris-Durchmesser ausgemessen und das dann weiter nach hinten gezogen. Und hier so die 70-Pixel sind halt so beim ungefähren Abstand von so 6,5, 7 Meter, das heißt eigentlich würde hier bis zur Hälfte des Raumes oder für diesen 7 Meter bis zum Ende vom Raum fast, mit einer halbwegs guten Kamera würde man bei den passenden Lichtbedingungen ja gute, also brauchbare, Iris-Muster aufnehmen können. Es liegen auf Lichtbedingungen, vorhin ja schon angedeutet, das System selber arbeitet im Infrarot, das heißt es wäre total praktisch, wenn wir auch die Bilder selber im Infrarot-Bereich aufnehmen würden. Und hier können wir jetzt gleich mal vergleichen, also das ist praktisch irgendwie da oben, das braune ist mein Auge im sichtbaren Bereich und das ist irgendwie immer mein Auge im Infrarot-Bereich. Also die Grundstrukturen sind halbwegs gleich, aber es gibt tatsächlich einfach Strukturen, die halt im sichtbaren Bereich überhaupt gar nicht zu erkennen sind. Das heißt, da kann man auch irgendwie nichts mit, irgendwie du legst irgendwelche Filter an und versuchst es irgendwie ins rotes verschieben, weil der Infrarot-Bereich ist einfach halt bei normalen Kameras abgeschnitten und da kann man irgendwie auch nichts machen mit irgendwie Gimp Magic oder so, sondern muss man tatsächlich an der Hardware basteln, ist aber irgendwie auch gar kein Problem, weil die Kamerasensoren selber ist halt in der Regel ein Silizumsensor und der arbeitet im Bereich bis zu so 1000 Nanometer, das heißt den Bereich, der uns interessiert, so um die 850 Nanometer ist komplett abgedeckt. Allerdings, wenn man die Kamera normal benutzt, will man natürlich diesen Infrarot-Bereich nicht haben. Das heißt, die haben halt ein Infrarot-Filter davor, der halt irgendwie alles über den Bereich von 800 Nanometer wegblockt und da kann man jetzt entweder seine teure Canon nehmen und diesen Filter da irgendwie abpopeln oder man nimmt so eine so eine Kleinbildkamera, gab es halt vor einer Weile relativ häufig, die hatten dann so ein Nightshot irgendwie halt für, keine Ahnung, man kann sich fühlen wie die Soldaten im Krieg, wenn sie irgendwie nachts durchs Klo laufen und irgendwie nichts sehen würden sonst. Es hat noch mal diesen grünen Schimmer, den man irgendwie so kennt, das ist halt einfach tatsächlich nur der Bereich bis halt 1000 oder 1100 Nanometer genommen und dann halt gemessen und abgebildet. Das Ganze, also hier dieses mit dem Infrarot-Bereich trifft für die meisten Augen zu, es gibt so ein paar Ausnahmen und zwar halt so helle Augen, also so blau, blau grünen, graue Augen, da ist der Unterschied zwischen dem optisch-sichtbaren Bereich und dem Infrarot-Bereich halt nahezu nicht vorhanden, das heißt für alle diese Augen oder für alle die Personen, die halt irgendwie so blaue Augen haben, muss man sich nicht mal den Aufwand machen, um halt einen Infrarot-Bild zu machen, sondern man kann halt tatsächlich ein ganz normales Foto nehmen, Facebook-Foto oder was auch immer und dass das Foto ist irgendwie oder die Fotos, die da entstanden sind, sind von meinem letzten Kongressvortrag, wo wir ein anderes Ihres Erkennungssysteme gewonnen haben und da das halt immer so ist, wenn man das irgendwie im Labor macht, dann kann man zwar sagen, man hat es im Labor gemacht, aber man will natürlich irgendwie auch zeigen, dass es in der Realität geht und deswegen hatten wir damals einen Foto-Generalisten gefragt, aber irgendwie nicht mehr Bock hat, wenn er ins Kanzleramt irgendwie zu irgendwelchen Politiker reden geht, halt mal versuchen, nicht nur so halt so Großaufnahmen von von den Leuten irgendwie, wie sie da vorne sitzen und Scheiße erzählen, sondern halt wirklich mal tatsächlich versuchen, die Köpfe oder die Irinen in dem Fall mal ein bisschen deutlicher abzubilden. Das Bild stammt genau vom vorletzten Jahr, hat die gleiche Kamera genommen, also wie auch so eine Canon D1X, allerdings ein bisschen besseres Objektiv und zwar mit einer 560 mm Brennweiter, also es ist halt schon so ein richtig ordentliches und hat halt dieses wunderschöne Bild aus der Entfernung von 5 Metern geschossen. Das heißt, also in der Bundespressekonferenz 5 Meter ist auf jeden Fall irgendwie locker drin, so die nächsten Reporter, die irgendwie an den Politikern anstehen, sind so bei 3 Meter, so die erste Reihe, das heißt, wenn da ein Stückchen weiter weg ist, dann kann man irgendwie auch locker Bilder machen und die Politiker oder die Opfer wissen halt irgendwie auch nicht wie ein Geschied, ich meine, du machst halt einfach Bilder von Ihren Gesichtern und dabei ist halt zuverweise auch Bilder von einem guten Auge dabei. In dem Fall war der Iris-Durchmesser, glaube ich, bei 110 Pixel nur sowas, also auch weit aus in dem Bereich, wo es halt irgendwie noch gut funktioniert. Aber wir haben uns gedacht, naja, muss man halt ja trotzdem, um wie auf diese Bundespressekonferenzen oder irgendwo in die Nähe von Politikern, ist ja auch immer ein bisschen schwierig. Wo gibt es denn noch Bilder von Politikern und da sind wir irgendwie, da kommen natürlich Wahlplakate, ist irgendwie das, das Ideale, was man irgendwie haben kann, hochauflösend, wird halt normalerweise irgendwie so in 10 mal 10 Metern wie auf die Straße gestellt. Das heißt, sind dann dementsprechend auch die Augen, bzw. die Rieden ausreichend groß, in dem Fall ist es halt irgendwie 175 Pixel gewesen, also hat irgendwie mehr als doppelt so viel, wie man irgendwie eigentlich braucht. Genau und das haben wir damals benutzt, die Verfahren haben wir benutzt, um mal, wie die Iris-Erkennung damals zu überwinden. Panasonic BM-ET 200 war das Modell, ist schon ein paar Jahre, also ein bisschen betagter, aber tatsächlich also kein so End-User-Gerät, sondern es ist halt sowas, was tatsächlich so in Banken benutzt wird. Hat irgendwie auch noch 1500 Euro gekostet, aber wie ihr gleich sehen werdet, wird's dem Hack nicht standhalten. Wie meistens halt irgendwie, ich werd mich jetzt erst mal kurz irgendwie anlernen, um zu zählen, dass halt ich eingelernt bin, meine Echtes Auge funktioniert, jetzt mit dem Ausdruck davor und auch das hat funktioniert. Sieht natürlich ein bisschen doof aus, wenn man dann wie an der Grenze oder auch immer so Iris-Erkennung benutzt wird und dann mit diesem Papier da irgendwie rumwuselt. Deswegen, was ist näherliegender als Kontaktlinsen? Es gibt tatsächlich Kontaktlinsen, die halt schon Iris-Muster draufgedruckt haben, sind halt dann nicht die eigenen Iris-Muster, sondern halt so künstlich erzeugte. Aber wie ihr unten seht, die können halt genauso gut eingelernt werden und auch wieder erkannt werden. Das heißt irgendwie so ein anderes Szenario, wer zum Beispiel, man kauft diese in einem Kontaktlinse, hat halt eine Person, die halt vertrauenswürdig ist, die sich in so zum Beispiel so ein Vielflieger-System anmelden kann, gibt die halt die Kontaktlinsen mit, die meldet halt diese Kontaktlinsen an, dann verteilt sie die Kontaktlinsen oder kauft irgendwie 20 Stück davon, gibt sie irgendwie all ihren Freunden und die kommen halt dann irgendwie alle durch dieses System durch, nur mit der Kontaktlinse. Schön wäre natürlich, wenn man Kontaktlinsen hätte, die halt dann auch spezifische Iris-Muster hätten, wie zum Beispiel von Frau Dr. Merkel oder wem auch immer man da gerne die Identität klauen wollen würde. Das heißt, wenn von euch irgendjemand weiß, wo man Kontaktlinsen selber bedrucken kann, wäre ich auf jeden Fall sehr interessiert. Also ich weiß, dass es geht, aber ich habe tatsächlich noch niemanden gefunden, der das wirklich anbietet, bzw. irgendwie die zwei, die ich mir angeschrieben habe, haben irgendwie halt nach kurzem dann die Kommunikation eingestellt und wollten mit mir nichts mehr zu tun haben. Ja, das Problem ist, dass diese Kontaktlinsen natürlich dann auch die Augenfarbe irgendwie in zwei Zwei ändern und wenn man halt irgendwie braune Augen hat und dann blaue Kontaktlinsen, das geht manchmal nicht so gut. Aber auch dafür gibt es schon eine Idee und zwar, wir haben ja gerade gehört, dass diese Systeme im Infrarotbereich arbeiten. Das heißt, man könnte versuchen, die halt nicht mit normaler Farbe zu bedrucken, sondern mit Infrarotfarbe, die halt dann irgendwie auch nur genau in diesem Infrarotbereich sichtbar ist. Das heißt, irgendwie man hat halt nur seine normale Augenfarbe, hat eine Kontaktlinse, die halt im normalen Licht durchsichtig ist. Wenn aber die Infrarotkamera anfängt, irgendwie da infrarotlich in deine Augen zu brutzeln, dann zeigt es plötzlich halt irgendwie die Strukturen, die halt irgendwie der Kontaktlinse aufgedruckt sind in diesem Infrarotbereich. Noch nicht probiert, aber ich glaube, das ist durchaus machbar. Ja, jetzt kommen wir zu dem Highlight des heutigen Vortrags und zwar zu dem Samsung Galaxy S8. Ist ja erst vor, glaube ich, zwei Wochen rausgekommen. Ich habe es tatsächlich am Freitag schon in der Hand gehabt und hatte irgendwie auch am Freitag schon die Idee mit der Kontaktlinse, wie ihr gleich irgendwie sehen werdet, hatte allerdings einen zu schlechten Druck, beziehungsweise der Drucker, den ich verwendet habe, um die Iris auszudrucken, hat anscheinend Tonerpartikel verwendet, die halt im Infrarotbereich zu doll reflektieren sind. Das heißt, es hat irgendwie nur so alle 50 bis 100 mal funktioniert und das ist natürlich irgendwie nicht zufriedenstellend, dann habe ich irgendwie zwei Wochen rumgesleckt. Und letzte Woche dachte ich mir, naja, gucke ich mir nochmal genau an, habe ein paar andere Drucker ausprobiert und tatsächlich einen Drucker gefunden, der gute Bilder geliefert hat, die reproduzierbar dann irgendwie auch eingelernt werden konnte. Lustigerweise ein Samsung Drucker. Und weil es so schön war, irgendwie jetzt hier das Video, habe ich letzte Woche mit Linus gedreht und der hat irgendwie auch die tolle Vertunung gemacht. Viel Spaß. Das ist der Starbuck. Der Starbuck ist wie ein Metriehecker und er möchte gerne den Iris-Sensor auf neuen Samsung Galaxy S8 übergehen. Wie könnt ihr das nur machen? Naja, der Sensor funktioniert mit einer Kamera, also macht der Starbuck einfach mal ein Foto von seinem Auge, dazu hat er sich zwei Freunde eingeladen und die machen jetzt ein Foto von seinem Auge. Und weil der Sensor mit Infrarot arbeitet, machen wir das Foto im Infrarot-Modus, nämlich im Nachtmodus der Kamera. Da ist auch schon der Starbuck, guck guck, da haben wir Foto von seinem Auge. So und das Druck der Starbuck sieht jetzt aus mit dem Drucker von Samsung. Da ist auch schon der Ausdruck und jetzt geht der Starbuck damit ins Labor. Da ist der Starbuck auch schon in seinem Labor und der hat ein Samsung Galaxy S8. Jetzt muss er den erst mal beibringen, seine eigene Iris zu erkennen und das tut er auch super. So, nochmal ausprobieren, Handy gelockt, sagt, er kennt seine Augen alles gut. Jetzt nimmt der Starbuck sich eine Kontaktlinse und die Kontaktlinse legt er auf den Ausdruck von seinem Auge, damit das echter aussieht. Und da sehen wir auch schon, dass Handy und der Starbuck jetzt seine Attrappe dran und das Handy geht auf und damit ist der Drops genutzt. Ja, vielen Dank. Ja, warum, warum hat das irgendwie mit dem Ausdruck nicht funktioniert, mit der Kontaktlinse dann schon, ist halt so ein bisschen ungleich. Ich meine, es war ein kompletter Blackbox-Test, also ich weiß halt nicht, was die benutzen, was da irgendwie algorithmisch irgendwie funktioniert. Ich habe so ein paar Vermutungen und die, die am wahrscheinlichsten ist, also die haben ja irgendwie diese Info-Root LED und die leuchtet halt ins Auge und wenn man halt das Stück Papier davor hält, dann ist die Reflektion, also man sieht halt wirklich so den reflektierten Punkt von der Info-Root LED in der Kamera und das sieht halt auf dem Blatt Papier halt anders aus als irgendwie auf dieser Linse. Also es ist halt wirklich viel verschmierter und irgendwie auch an einer anderen Stelle. Das heißt, vermutlich muss man wirklich diese Grimmung machen, um die Stelle, also den Punkt an die richtige Stelle zu haben und irgendwie auch die Form der Reflektion dann zu verändern. Haben wir ja wieder das gleiche Problem. Papier mit Linse auch noch davor, irgendwie will man das irgendwie in einer richtigen Kontrolle durchführen. Also ich meine gut, beim Telefon ist es eigentlich egal, aber wenn es halt dann um Samsung Pay geht, also Samsung hat halt dieses Telefon irgendwie auch dazu freigeschaltet, also in Deutschland auch nicht, aber woanders dazu freigeschaltet, dass man damit bezahlen kann. Das heißt, man kann damit wirklich in Laden gehen und hat irgendwie NFC, hält man es irgendwie davor, irgendwie packt den NFC auf den NFC-Leser und kann dann halt irgendwie Dinge damit einkaufen. Deswegen haben wir uns irgendwie auch überlegt, na ja, wie machen wir das denn irgendwie so schön, dass es irgendwie auch in der Öffentlichkeit funktioniert und sind auf die Idee gekommen, halt die Iris sozusagen irgendwie auszuschneiden, aufzukleben und zwar auf eine gekrümmte Form. Sieht man halt sie ein bisschen schlecht, das ist halt, also ich habe einfach irgendwie so ein bisschen Verpackungsmaterial genommen, meine irgendwie Hitgarn, irgendwie dieses Warm gemacht und über so einen kleinen Glass Ball irgendwie rübergezogen. Das hat ungefähr die Form hatte von so einem Auge und tatsächlich, also so hat das funktioniert. Das Ganze kann man dann irgendwie in eine Brille kleben und dann setzt man sich die Brille auf und kann das halt wirklich auch in der Öffentlichkeit benutzen. Lustigerweise, dadurch, dass wir halt 850 Nanometer, also im Inferotbereich arbeiten und der Inferotbereich geht halt durch Sonnenbrillen durch. Also, wie halt auch die schwarze Sonnenbrillen, wo man halt normalerweise das Auge nicht sieht, für das Inferotlicht, irgendwie ist das Durchsicht. Das heißt, irgendwie in der Realität sieht man halt die schwarze Sonnenbrille, aber das System selber erkennt einen irgendwie trotzdem. Also, man kann dieses Telefon auch wirklich so mit Sonnenbrillen benutzen. So, jetzt kommt hier Feature. Genau, Attrapmentkennung. Also, ich habe ja gerade schon erzählt, was gibt es denn so für Möglichkeiten, da noch irgendwie Attrapment zu erkennen? Also, wenn man halt das Merkmal kopiert hat, was halt meistens relativ einfach ist, dann basiert halt die Sicherheit der Systeme halt in der Regel nur noch darauf, dass man halt diese Attrapment irgendwie versucht zu erkennen. Gibt es für ihres Erkennung mehrere Möglichkeiten, mehrere Paper dazu. Und das war auch so ein bisschen der Werte gegangen. Das Hacks, irgendwie habe halt diese Paper durchgelesen und dann haben wir mehr oder weniger alles, was sie da beschrieben haben gedacht. Na ja, was gibt es denn für Möglichkeiten, um das halt wieder zu überwinden? Reflektionen von der Infrarot-LED, habe ich schon gesagt. Also, was ähnlich ist, kann man auch mit so den 3D-Information das Auges machen. Wenn man halt irgendwie die tiefen Schärfe variiert, kann man halt tatsächlich die Krömung der Linse irgendwie einmal deutlich scharf stellen und dann halt ein bisschen weiter nach hinten hat man irgendwann die Iris, die dann scharf ist und hat dann irgendwie auch so diese 3D-Struktur des Auges. Das heißt, hier Kontaktlinse ist die Möglichkeit, um diese Attrappe oder eher Attrappenerkennung zu überwinden. Man hat die Möglichkeit, die Bewegung des Auges selber zu benutzen, um halt auf ein lebendes Auge zu schließen. Es ist natürlich irgendwie auch relativ einfach. Man nimmt halt irgendwie die Auge, schneidet die Iris aus und dann wackelt man dann wie halt hinten so ein bisschen und funktioniert tatsächlich auch. Also wurde mir zumindest gesagt, wie gesagt, diese ganze Systeme, die ich bisher in der Hand hatte, benutzen das nicht. Eine sehr coole Idee, die ich noch habe, also so für die ganzen nächsten Systeme, die kommen, gibt es auf jeden Fall auch noch genug Ideen, wie man die überwinden kann. Man nimmt sich ein Beamer und dann kann man irgendwie halt auch irgendwie blindzeln oder was auch immer Augenbewegungen einfach darstellen. Der eine wichtige Punkt, den man im Auge behalten muss, ist halt wieder im Verrotbereich. Beamer haben natürlich irgendwie Arbeiten im Sichtbahnenbereich, haben aber genauso wie diese Kameras einfahren in Verrot. Filter davor muss man vorher ausbauen und dann sollte das auch gehen. Nächste Möglichkeit ist die Veränderung des Pupillendurchmessers. Also halt so der Reflex, wenn man irgendwie aus dem dunkelen Zelle kommt, Licht ins Auge strahlt, zieht sich die Pupille zusammen. Das ganze kann man natürlich irgendwie auch versuchen zu detektieren. Die Bilder da drüben sind tatsächlich von so Drogen-Experimenten, somit verschiedenen Iris-Durchmessern. Und die Idee, um halt so eine Attrapmarkennung zu überwinden, ist man halt die normal, das normale Iris-Bild und halt einen kleinen Sensor, der halt irgendwie guckt, dass also ab wann das System praktisch dann den Lichtblitz aussendet, um halt sich, dass sich deine Pupille kontrahiert. Und in dem, also zu dem Zeitpunkt schaltet man halt praktisch von dem Einbild ins andere Bild um, also entweder mit dem Beamer oder man hat irgendwie so ein Doppelspiegelsystem, wo man halt einfach das eine wegblendet und das nächste reinblendet. Also da gibt es auf jeden Fall noch genug Ideen, die man verwenden kann. Und der vorletzte Punkt ist so ein bisschen kryptisch, dass die Analyse des Frequenzspektrums heißt so viel, dass wenn man halt so Digitalbilder mit einem Drucker ausdruckt, dann ist es ja in der Regel, also es setzt ja wirklich so Pixel an Pixel. Und das kann man, wenn man das Bild in den Frequenzspektrum transferiert, kann man halt irgendwie diese Rastermuster oder diese Raster relativ gut erkennen. Das heißt, da hat man im Zweifelsfall dann Probleme mit, wenn man es tatsächlich irgendwie aus dem Drucker ausdruckt. Ist halt immer so eine Frage, wie hoch auflösend es ist. Also wenn der Drucker dann irgendwann zu hoch auflösend ist, kann man es irgendwie auch nicht mehr feststellen. Beziehungsweise eine einfache Möglichkeit ist auch einfach, das Originalfoto so ein bisschen zu verblören. Dann hat man irgendwie auch die Struktur nicht mehr so drinne. Und dann geht es auch. Beziehungsweise ein sehr interessanter Punkt sind so Prosthetics. Also tatsächlich gibt es Leute, die den ganzen Tag nichts anders machen als irgendwie auf kleine Augen, die man sich da ins Auge steckt. Von Hand ihres Muster raufzumalen. Und zwar haben wir auch wirklich so fein, dass sie die Muster wirklich so eins zu eins kopieren. Also es geht halt so, wie ihr halt Tassen Auge verloren und dann nehmen sie halt ein Foto von dem anderen Auge und malen die wirklich halt die ihre Strukturen aus dem anderen Auge irgendwie H-Gedreuen nach. Und ich gehe davon aus, dass man damit irgendwie auch diese Frequenzspektrums, Analyse überwinden können. Das letzte, also die letzte Möglichkeit, so eine Attrappe zu erkennen, ist die Reflektionseinschaffnis-Auges in verschiedenen Wellenlängen. Das funktioniert folgendermaßen. Also in den meisten Fällen hat man halt wirklich nur diese 850 Nanometer LED. Und da hat man halt die Reflektion von dem Augenweiß und der Popille. Und das hat halt einen gewissen Reflektionsgrad. Wenn man jetzt die noch eine andere LED, zum Beispiel eine 950 Nanometer LED dazunehmen würde, dann würden sich die Reflektionseigenschaften verändern. Das heißt, irgendwie das weiße würde jetzt weniger stark reflektieren, das schwarze aber dafür stärker. Und das ist halt schwierig in Ausdrucken abzubilden, weil halt in Ausdrucken ist halt die Reflektion halt irgendwie immer gleich. Oder halt anders als im realen Auge. Das heißt, für die Möglichkeit wird es dann auf jeden Fall schon schwierig. Das ist mir so spontan jetzt irgendwie noch nichts dazu eingefallen, wie man das überwinden kann, außerhalten. Man nimmt sich so ein Schweineauge und irgendwie fängt der anderen drin rumzuschnitzen. Ich habe tatsächlich überlegt, also ich meine, wenn man halt irgendwie dieses Thema hat, dann überlegt man irgendwie auch, naja, man kann natürlich ein echtes Auge nehmen und dann irgendwie halt das Aufleihen. Hab versucht tatsächlich Schweineaugen zu bekommen, ist gar nicht so einfach. Hab dann irgendwann mir ein YouTube Video angeguckt, dachte mir, naja, das lass ich lieber sein, weil es ist echt ganz schön eklig. Also wenn ihr mal irgendwie nichts zu tun habt, guckt euch mal irgendwie an, wie so Augen setziert werden. Echt nicht schön. Und damit bin ich auch schon fertig. Hab meine Abschlussleiter vergessen. Deswegen vielen herzlichen Dank. Und wenn noch Fragen sind, ich bin da. Gibt es denn noch Fragen? Denkst du, dass Iris-Erkennung oder insgesamt Biometrie-Erkennung überhaupt ordentlich geht? Na, das ist ja wie mit allen Sicherheitssystemen irgendwie die elektronisch sind. Du kannst immer überwinden. Es ist halt die Frage, wie viel Aufwand man treiben muss. Aber ich glaube, irgendwie hier ist relativ gut gezeigt worden, dass der Aufwand also zumindest in dem Stadion irgendwie noch nicht allzu hoch ist, um es irgendwie zu überwinden. Also ich muss mal dazu sagen, fairerweise natürlich auch nur die Systeme bisher mir angeguckt, die ich mir auch irgendwie leisten kann bzw. wo ich irgendwie meine Finger irgendwie mal rangekriegt habe. Das heißt irgendwie so die richtig High-End-Systeme habe ich noch nicht in der Hand gehabt. Aber ich gehe davon aus. Also Ideen habt ihr ja gehört, da gibt es noch ein paar. Und also ich glaube nicht, dass man es wirklich sicher kriegt. Es wird immer, wird immer eine Möglichkeit geben, um wieder ranzukommen oder reinzukommen. Ihr habt ja da so eine Kontaktlinse verwendet. Du hast vermutet Reflektivität. Habt ihr einfach versucht, einen Glossier-Ausdruck oder eine Klarsichtfolie einfach vorzulegen? Ja, also ich habe zum Anfang tatsächlich irgendwie alle möglichen Ausdrücke auf verschiedenen Papieren, mit verschiedenen Druckern versucht. Aber er hat tatsächlich niemals eine Iris erkannt. Also das System funktioniert vollermaßen, hat dann irgendwie halt, wenn du dich einwährend zeigst, dann irgendwann so die Prozentangabe und wie das halt eine Iris erkannt hat. Und bei allen Ausdrucken ohne irgendwas drauf, hat da immer 0%. Er hat halt wirklich nie, auch nur, also nicht mal irgendwie die schlechte Iris und hat einfach gesagt, da ist nix. Von daher, ja, also man muss wirklich halt irgendwie diese Runde, also es muss keine Kontaktlinse sein, sondern irgendwie halt irgendwas Rundes, was man rauflegen kann, was die Iris nicht allzu sehr verzerrt sollte, aber gehen. Hier vorne noch. Starbucks, du hattest, Angne, gedeutet, dass es schon vorher sollte Erkennungssysteme in Mobiltelefonen gegeben, im Lumina hattest du gesagt. Hast du dir die auch angeschaut und wenn nicht, warum nicht? Habe ich mir angeguckt, aber darf ich nicht drüber reden. Also ich kann vielleicht ganz unverfänglich dazu sagen, sie sind noch schlechter als die anderen. Also es war tatsächlich noch einfacher, aber mehr sage ich dazu nicht. Hier ansonsten, also ich hab das, das System hier, wie so bei, bei Live-Fort vorführungen ist es ja meistens so, manchmal klappt es, manchmal klappt es nicht. Aber wer Interesse hat, irgendwie noch mal raufzugucken, ich würde es gleich noch mal versuchen, irgendwie, ob es jetzt auch in der Live-Demo funktioniert, ist halt so ein bisschen schwierig, so auf der, auf der Bühne zu machen, aber irgendwie, ich mach's hier gleich mal vorne und dann, der Bock hat, kann noch mal vorkommen. Ja, vielen Dank.