 Okay, moin. Willkommen im nächsten Vortrag. Es geht hier um Biometrie und das ist sicherlich vielen von euch mit dem Fingerabdruck und ähnlichen Dingen schon ein Begriff. Simon hier, der forscht in Sachen IT-Sicherheit und hat sich in den Zuge auch mit, naja, nicht nur der Biometrie an sich, sondern sogar weitergehend mit Behaviour de Baromitie beschäftigt, also Bewegungen, die wir unbewusst tun und wird uns jetzt das Themenfeld einmal vorstellen, was es da so alles gibt, worauf man achten kann und was man da also alles lernen kann. Viel Spaß mit dem Vortrag. Ja, danke für die Einleitung. Kann man mich gut hören durch die Maske? Okay, ich versuche es mal lauter. Hört man mich jetzt besser? Ja. Okay, perfekt. Dann fangen wir mal an. So, genau. Ich möchte heute ein bisschen das Thema Behaviour de Baromitrix beleuchten und wie das Ganze so ein bisschen mit unserer Privatsphäre klatscht und in Verbindung steht. Erst mal ein bisschen was zu mir. Ich bin der Simon. Ich arbeite am Lehrstuhl für praktische IT-Sicherheit hier in Karlsruhe am KIT und bin prinzipiell angestellt auf dem Center for Tector Internet. Das ist ein Projekt in Dresden und da sammeln wir ganz viele menschliche Bewegungen, die wir mal auf Roboter übertragen wollen, dass wir die steuern können und dass wir mit denen was machen können. Und dabei ist aufgefallen, dass die halt sehr viel Privats, private Informationen enthalten und deswegen beschäftige ich mich damit, wie kann man diese Bewegungen analysieren. Und jetzt zum Talk, was ich heute machen möchte, ist einfach ein bisschen Aufmerksamkeit für die Verhaltensbiometrie zu generieren und zu zeigen, was das eigentlich ist. Zu zeigen, was da ein bisschen auf uns zukommt mit zukünftigen Projekten, sowas wie den Metaverse, was irgendwie noch mehr Daten über uns sammeln soll und was man neben der reinen Identifikation von Personen noch über Leute herausfinden kann. Und da fangen wir erstmal ganz klassisch mit der normalen Biometrie an, die man so kennt. Das sind ja irgendwie Fingerabdrücke, Gesichter, Iris Gens. Und in der Regel sammelt man die einen, um damit Leute zu authentifizieren oder im schlechteren Fall halt irgendwie Massenüberwachung zu machen. Und was all diese Faktoren gemeinsam haben, ist, dass sie in der Regel so ein Ist-Zustand von Menschen beschreiben. Also man hat irgendwie so ein Foto von der Person und das ist halt zu dem Zeitpunkt das Gesicht der Person und kann die Person dann damit identifizieren. Wenn wir jetzt zur Verhaltensbiometrie gehen, das ist ein bisschen anders, da haben wir in der Regel irgendwie eine Sequenz, die wir von einer Person aufnehmen. Das heißt, wir haben irgendwie zum Beispiel ein Video oder ein Motion Capture oder halt eine EMG von einer Person aufgenommen und können dann über die Zeit beobachten, wie sie sich verhält und daraus noch ganz andere Schlüsse ableiten, als wir jetzt bei den statischen Sachen machen können. Und zu diesen Verhaltensbiometrien zählen, zum Beispiel Körperbewegungen, aber auch Herzschläge, Gehirnaktivitäten und zum Beispiel auch Augenbewegungen, die sind auch ganz spannend. Und ich komme aus der IT-Sicherheit und da hat man immer irgendwie einen Feind. In dem Fall ist das ja Marc. Marc, er wird wohl liebevoll das Auge Sauron von seinen Mitarbeitern genannt. Deswegen ist es doch ein sehr schönes Beispielbild. Marc ist einfach ein sehr neugieriger Mensch, der möchte alles über uns wissen, auf seiner Plattform sammeln und dann irgendwelche Leuten verkaufen. Und an der Stelle möchte er natürlich viel über uns lernen und deswegen beschäftigen uns auch gleich mal ein bisschen damit, was für Ideen er so in der Zukunft hat und was das für unsere Privatsphäre bedeutet und ja im Punkt auf Verhaltensbiometrie. Und zu dem Mehr zur Identifikation. Bei der Verhaltensbiometrie kann man halt neben dem Identifizieren von Menschen auch noch Rückschlüsse, zum Beispiel über Alter, Geschlecht, aber auch Persönlichkeitsmerkmale, zum Beispiel sind Leute eher extrovertiert oder introvertiert. Wie ist der Gesundheitszustand, humpeln die Leute, gibt es viele, viele Dinge, die man da auch über den Gesundheitszustand rauskriegt oder über die geistige Verfassung, also ist jemand müde, gestresst, was gefällt ihm, was gefällt ihm nicht. Und jetzt würde ich erst mal anfangen mit so den Sachen, die es heute schon in der Regel gibt, die auch vielleicht bei euch schon zu Hause stehen. Dann sind das halt zum Beispiel diese Sprachassistenten, die wir jetzt schon haben. Und aus Sprache lässt sich natürlich noch viel mehr gerinerieren als so die Identität. Jetzt neben Geschlecht und Alter sind zum Beispiel auch noch die Herkunft ganz interessant. Also zum Beispiel kann man irgendwie rauskriegen an der Sprache aus welchem Land kommt jemand, aber auch so die soziale Herkunft, also ist jemand eher gebildet oder ungebildet. Das lässt sich natürlich auch an der Sprache rückschließen. Oder was sind die Emotionen, die jemand gerade verspürt. Das ist natürlich immer so aus der Sicht von Marc ganz interessant, weil wenn er weiß, uns gefällt was, wir sind ganz aufgeregt, wir finden das ganz toll, dann kann man den Leuten ja vielleicht etwas verkaufen. Dann gibt es aber auch noch unsere Alltagsgegenstände, Maus und Tastatur, die lassen sich auch ganz wunderbar nutzen, um uns zu identifizieren. Also im Mikrobereich läuft es so, dass man halt zum Beispiel Tastaturanschläge hat oder bei einer Maus Traektorien mit Klicks und daran kann man auch Leute identifizieren. Bei Tastaturen ist es zum Beispiel die Idee, dass man meldet sich einmal mit einem Passwort an und dann kann der Computer fortgehen, gucken, ist das immer noch dieselbe Person, die da tippt und wenn sich das mal ändert, dann späht er sich wieder. Also aus Atemfizierungssicht kann das sogar ganz spannend sein, ist aber halt ja an der Stelle blöd, dass wir halt natürlich den ganzen Tag tippen und auch zum Beispiel im Web die Informationen damit rauskriegen. Und auf der Makroveben ist das eher so ein bisschen gröber, wenn ihr heute schon mal auf einer deutschen größeren Webseite wart, dann ist die Wahrscheinlichkeit hoch, dass wir von Inf online getrackt wurden. Das ist einer der größten deutschen Tracking-Dienstleister, die so als Third Party Groups eingebunden sind. Und die speichern sich, wie man sich auf Webseiten verhält. Also die sagen, okay, zu dem Zeitpunkt mit DIP hat man die Webseite angeserved, dann hat man die Unterseite X aufgerufen und so weiter. Und aus diesen verschiedenen Klicks kriegt man einen Trace und der geht dann auch nicht nur auf einer Webseite, sondern wir haben dann die nächste Webseite angeserved, wo Inf Online auch eingebunden ist, dann findet man die Leute da auch. Und ein Kollege von mir hat dazu eine Studie mit den Daten von Inf Online gemacht und diese Click Traces sind sehr, sehr schnell, sehr identifiziert, also die sind einzigartig. Das heißt, selbst wenn er nur irgendwie so zehn Minuten hat, kann man, es ist schon eine einzigartige Sequenz an Webseiten aufrufen, die man macht. Und wenn man dann jetzt zum Beispiel jetzt der Spiegel ist und man kauft sich diese Daten von Inf Online, weiß noch ungefähr, okay, zum Zeitpunkt X hat sich Person Y angemeldet, dann kann man zuordnen, wer diese Person in diesen Click Traces ist und dann auch mal gucken, okay, wo war die Person denn, nachdem sie auf dem Spiegel war. Und vielleicht sind da ein paar Webseiten dabei, die man nicht unbedingt dem Spiegel mitteilen wollte. Das heißt, auch hier muss man aufpassen, dass man nicht identifiziert wird. Und dann noch ein weiteres Beispiel, was es heute schon gibt, ist die Aufnahme von Herzschlägen in Form von so Fitness-Trackern, aber auch irgendeiner als Smartwatch lässt sich auch super zum Identifizieren vom Leuten verwenden. Aber natürlich kann man aus dem Herzschlägen und dem ECG dann noch Gesundheitsdaten von Personen ableiten. Also geht es im Herz gut oder nicht, ist die Person vielleicht gerade am Sport machen. Und wir haben gesagt, okay, für ECG braucht man in der Regel ein Gerät am Körper, gibt es auch schon Forschung dazu, dass das tatsächlich aus der Entfernung geht mit Lasern. Es gibt wohl Forschung vom US-Militär, dass sie das Ganze zum Identifizieren von Zielen nutzen wollen und dann halt mit einem Laser aus über 200 Metern noch identifizieren können, wer die Person ist. Ein bisschen gruselig. So, das war jetzt grob einmal, was es heute schon gibt. Und jetzt geht es um in die Richtung, wo geht denn der ZUK hin? Und Facebook hat ja angekündigt, dass sie jetzt das Metaverse bauen wollen, wie die große Datenwelt. Mir ist ehrlich aber noch nicht ganz klar, was es dann am Ende wirklich wird. Ich habe letzte Woche einen Vortrag von einem Meta-Mitarbeiter dazu gehört. Ich weiß es immer noch nicht. Ich glaube, auf Facebook ist noch nicht ganz sicher, wo die Reise eigentlich hingeht. Was aber, glaube ich, schon relativ fest ist, ist die Technik, die dafür eingesetzt werden soll. Denn zum Animieren dieser virtuellen Charaktere und der virtuellen Avatare, die wir dann mal verkörpern sollen, braucht man relativ viele Daten und auch neue Daten, die wir noch nicht haben. Dabei kommt ganz viel auf Augmented Reality und Virtual Reality ein. Da sind hier ein paar Beispiele von den Geräten, die man da so einsetzen würde. Rechts oben, das ist eine Augmented Reality Brille, die HoloLens 2. Funktioniert so. Dann hatte ich auch einen Kopf und guck dann durch die Gläser durch. Man kann auch die reale Welt sehen. Auf dem Glas werden virtuelle Objekte aufgezeigt und die kann man dann auch zum Beispiel berühren. Das funktioniert dadurch, dass oben noch zwei Kameras eingebaut sind, die Hände trecken und dann kann man relativ natürlich mit diesen Objekten interagieren. Und dann links unten, das ist eine Virtual Reality Brille, da hat man statt, dass man durch die Gläser durch guckt, natürlich direkt Bildschirme vor den Augen. Man ist ja komplett immersiv dann in der Welt. Und auch hier haben wir wieder das Mehrdaten getrackt werden, zum Beispiel werden die Kopfbewegungen getrackt. Das heißt, das Gerät weiß, wie der Kopf ausgerichtet ist, aber auch die Hände werden über Controller getrackt. Das heißt, hier fallen dann noch die Kopfbewegungen und die Handbewegungen mit an. Und generell kann man auch zum Beispiel diese IMUs, die hier links abgebildet sind, einmal die Handschuhe und der Anzug selbst verwenden, um Leute zu trekken. Das funktioniert so, dass 19 Sensoren auf verschiedenen Körperteilen befestigt werden. Und in den Sensoren sind eingebaut Axiometer, Gruskop und Magnetometer. Und mit denen können dann die relativ Bewegungen der Sensoren zueinander aufgenommen werden und so können die Bewegungen einer Person getrackt werden. Die Idee im Kontext vom Meterwurst, dann wahrscheinlich, dass man das halt auf eine Figur überträgt, die man dann verkörpern soll. Und bei dieser ganzen Datensammlung fallen zum einen halt die neuen Daten an. Das ist doch gar nicht erwähnt, in den Geräten des Teilwelts zum Beispiel auch in Kameras, die die Augenbewegungen aufnehmen, aber es ist jetzt auch schon pläne da die gesamte Gesichtsmimik von ihm aufzunehmen. Dann ist die Qualität der Daten jetzt auch schon besser dadurch, dass zum einen halt Sensoren einfach sensibler geworden sind, dass man jetzt so etwas wie Tiefenkameras in Geräten hat. Zum Beispiel im neuen iPhone sind die Mitarbeiter drin, das heißt, man kriegt da einfach bessere Daten. Und dadurch, dass man diese ARV-Geräte dauerhaft am Körper trägt, nimmt man halt auf die ganze Zeit von der Person Daten auf, einmal von der Person selbst, aber auch von der Umgebung. Das heißt, hier fallen noch mal mehr Daten an, als man das ohnehin schon vorher hatte. Und jetzt ein bisschen was zu den einzelnen Faktoren. Fangen wir mit den Körperbewegungen an. Da gab es jetzt schon eine größere Studie mit Virtual Reality Geräten, wo Leute Videos geguckt haben. Und da kann man über 200 Leute und die können mit hoher Wahrscheinlichkeit zuordnen, wer die Person ist aus den Daten. Das heißt, identifizieren funktioniert ohne Probleme. Für sich kann man aus Körperbewegungen auch noch so etwas die Emotionen, also ist jemand gerade sehr angespannt, weil er einen Vortrag hält, oder ist jemand gerade entspannt, wenn er auf dem Nachhauseweg ist, auslesen. Und bei diesem Tracking-Daten kriegt man dann halt nicht direkt ein Video, sondern eher sowas wie rechts unten abgebildet ist, hat man so eine Punktwolke mit den verschiedenen Sensoren an verschiedenen Stellen, wo man dann wirklich eine 3D-Repräsentation der Person in Daten hat. Generell gerade angesprochen, das kann man einmal visuell machen, halt über Kameras. In der Regel sind das mehrere, damit man auch eine richtige 3D-Repräsentation kriegt oder halt über so ein IMU-Tracking. Dann eine weitere Körperbewegung, die sehr wichtig ist, ist die Gangerkennung. Früher mal war es ganz praktisch für uns Menschen, dass wir andere Menschen, die wir kennen, am Gang erkennen können, wenn die dann irgendwie weit weg sind und wir die Gesichter noch nicht sehen können. Dann können wir halt früh einschätzen, gehört er zu unserer Sippe oder gehört er zu dem, wem anders und müssen wir wegrennen oder bleiben wir da. Und heute hat es dann eher ein bisschen Nachteile, denn es ist eine relativ robuste Möglichkeit, um Leute zu identifizieren. Das heißt, analog zur Gesichtserkennung kann man das zur Massenüberwachung einsetzen mit Kameras, hat aber tatsächlich gegenüber Gesichtserkennung ein paar Vorteile, denn es ist deutlich schwerer zu verstecken, also der Winkel, in dem ich jemanden aufnehme, muss nicht so sein, dass ich jetzt Vollfrontal das Gesicht darauf habe, sondern es ist eigentlich relativ egal, aus welcher Seite man jemanden aufnimmt. Dann ist es relativ schwer zu verstecken, also auch selbst, wenn ich die Beine jetzt unter einem langen Kleid oder Rock verstecken würde, aus dem Oberkörper lassen sich immer noch genug Informationen gewinnen, um Leute zu identifizieren. Und ja, es ist generell sehr robust. Genau. Und jetzt auch von der Menge an Daten, die man dann braucht, da reicht in der Regel auch schon einen Schritt, also ein Doppelschritt, dass man wieder in der Anfangsposition ist, um jemanden identifizieren zu können. Und jetzt nochmal zurück zu dem Metaverse Beispiel, wenn ich dann halt so einen Anzug anhab und mit meiner Figur im Metaverse rumlaufen, dann muss ich mich noch einmal bewegen und dann ist klar, wie ich bin. Dann jetzt weiter zu den Handbewegungen. Hier gibt es auch wieder verschiedene Möglichkeiten, das aufzunehmen. Jetzt gerade schon die angesprochene Handschuhe oder halt die Brille und links unten. Und aus Interaktionsmöglichkeit ist das eigentlich relativ cool, weil man kann halt direkt mit virtuellen Objekten interagieren, man kann die Anfassen durch die Liegen chupsen. Allerdings kann man halt auch aus den Handbewegungen die Intetität ableiten und zum Beispiel das Geschlecht. Eine etwas abgefahrender Methode, das Ganze aufzunehmen, ist sehr über Elektronen, dass man die Muskelaktivierung im Vorarm zum Beispiel aufnimmt und dann anhand derer weiß, wie sich die Hand jetzt bewegt hat und welcher Position die ist. Da gibt es auch wieder ein Beispiel von Facebook, dass sie da daran arbeiten, dass es halt so Armwender gibt, die dann durch ganze mit aufnehmen. Weiter geht es zur Augenbewegung. Jetzt bei den Geräten, die ich bis jetzt gezeigt habe, einmal die Wife und einmal die HoloLens 2, die haben beide auch Kameras drin, die Augenbewegung aufnehmen. Mit denen kann man dann dadurch, dass die Geräte auch eine Kamera nach vorne haben, ausrechnen, wo die Person in der Szene hingeguckt hat. Also jetzt hier rechts unten ist zum Beispiel ein Beispiel von der Webseite, wo man dann so eine Hitmap kriegt, wo hat die Person hingeguckt, wie lange, wo lag also die Aufmerksamkeit. Und dann kann man damit relativ gut rauskriegen, was Leute interessiert und was sie nicht interessiert. Und ein Beispiel ist zum Beispiel, dass man halt zum Beispiel Männer und Frauen zeigt und dann guckt, was die Person mehr interessiert, um über ihre Sexualität zu lernen. Das heißt, in den Augenbewegungen denken tatsächlich sehr sensible Daten. Man kann auch zum Beispiel verschiedene Persönlichkeits-Eigenschaften über Augenbewegung ableiten. Und generell geht es so in die Richtung, dass man, wie bei Facebook, halt Dinge leigt, ohne dass man halt wirklich einen Button geklickt hat, sondern man macht es eher unbewusst. Es ist auch so ein bisschen das Gemeine an Augenbewegung, dass man die meiste Zeit die Augen sehr unbewusst bewegt. Man kann sich zwar mal darauf konzentrieren, sie nur auf bestimmte Objekte zu richten, aber durch dieses unbewusste kann man halt sehr schwer verstecken, was man sich eigentlich angucken wollte. Und auch über den Gesundheitszustand kann man was lernen. Zum Beispiel kann man PTSD auch über die Augenbewegung diagnostizieren. Und das Ganze ein bisschen weiter gedacht. Es nimmt noch die Gesichtsbewegung, also jetzt konkret vom Mund dazu. Die Idee dahinter ist, dass man halt in so einer virtuellen Welt dann das gesamte Gesicht der virtuellen Figur animieren kann. Aber natürlich hat man halt wieder hier die Augenbewegung und dann auch noch die Mimik vom Mund dazu. Wenn ihr dann irgendwann im Metaverse das Treffen im Chef hat, kann der nachher noch mal zurückspulen und gucken, wer alles die Augen verdreht hat. Und generell lassen sich halt Emotionen, aber auch kleine Ausfälle in der Mimik, damit relativ gut erfassen. Genau, jetzt würde ich noch ein bisschen in die Zukunft gucken, was noch so kommen kann. Das ist jetzt noch nicht so direkt eingebaut, aber funktioniert auch jetzt schon ganz gut. Das sind Gehirnaktivitäten. Es gibt die mittlerweile außerhalb des medizinischen Anwendungsbereichs, so off the shelf, rechts ist so ein Headset, was man da kriegt. Und damit kann man auch ganz wunderbar Authentifizierung machen. Dann zeigt man den Leuten eine Abfolge von Bildern und misst, wie sie auf diese Bilder reagieren und kann das dann zum Anmelden in irgendwelchen Systemen nutzen, was natürlich auch bedeutet, dass man die Leute wieder identifizieren kann. Zudem geht auch so was wie der Geisteszustand, so ist jemand gestresst, ist jemand erschöpft. Aber es gibt auch erste Studien, die zeigen, dass man zum Beispiel die Intention von einer Person vorher sein kann. Also was mit sie als Nächstes tun, wie wird sie sich verhalten. Und was ich vermute, was irgendwann in der Zukunft noch kommen wird, ist, dass man muss halt nur die Elektronen in die bestehenden ARV-Headsets einbauen. Und dann hat man das auch mit Triller. Ich vermute, das kommt dann irgendwann als nächster Schritt. Und jetzt noch eins weitergehobt, dass jetzt nicht mehr richtig verhalten ist, Biometrie, aber auch ein Faktor, den man vielleicht auch im Blick halten möchte, ist Großidentifikation. Generell ist hier wieder das Problem, dass es relativ schwer zu verstecken, auch wenn man es übertüncht mit irgendwie Papiermen oder so, ist der eigene Ruch halt in Teilen immer noch da. Und es steckt auch wieder sehr viel Informationen drin, die man vielleicht aus anderen Faktoren nicht rauskriegt. Also zum Beispiel kann man Atemanalysen machen. Da gibt es jetzt gerade die ersten Tests, die funktionieren mit Corona. Das heißt, da kann man dann auch wieder gucken, hat die Person Corona oder nicht. Für den Anwendungsfall wahrscheinlich legitim und gut. Man kann aber natürlich auch noch andere Dinge rauskriegen, zum Beispiel welche Drogen hat die Person genommen oder hat sie Alkohol getrunken und so weiter. Und auch Teile unserer Ernährung haben einen Einplus auf unseren Geruch oder zum Beispiel Homozyklin. Das heißt, ja, bis jetzt war es so, dass man, um Geruch zu analysieren, einen Massenspektrometer brauchte, wo man den Geruch reingegeben hat. Mittlerweile gibt es jetzt auch so kleine Geräte. Das sind dann Chips, wo die Moleküle drüber geleitet werden, also die Luft und die, durch verschiedene Nanoböchen drauf. Und dann kann der Sensor einem sagen, wie viele Moleküle in bestimmter Größe durchgekommen sind und daraus kann man dann wieder Rückschlüsse ziehen über den Geruch und den Geruch aufnehmen von der Person. Das ist noch so in der Entwicklung. Also die Geräte sind, glaube ich, noch nicht gut genug, dass es wirklich funktioniert. Aber es ist definitiv etwas, was man vielleicht im Blick halten sollte, was in Zukunft vielleicht noch kommt. Okay, ich sehe jetzt bin ich doch ein bisschen sehr schnell durchgegangen, aber das bedeutet, wir haben noch ein bisschen mehr Zeit für Fragen. Vielleicht als kurzes Fazit, es gibt deutlich mehr biometrische Faktoren als jetzt so die üblichen Verlichten, die man kennt. Und Verhaltensbiometrie redet halt noch viel mehr als nur die blanke Identität von uns. Das heißt, dort sollte man sehr genau hingucken, welche Daten man rausgibt. Ich denke vor allem bei Augenbewegungen wird klar, wie sensibel diese Daten sind und dass man die, mich irgendwelchen großen Plattformen rausrücken geben möchte, weil sie doch sehr viel Informationen darüber über eine Person damit erfassen. Genau und jetzt, wie sich die Technik im Moment entwickelt, werden wir in Zukunft deutlich, deutlich mehr von diesen Daten aufnehmen. Deswegen sollte man jetzt schon mal drüber nachdenken, was man dagegen tun kann und wie man damit umgehen möchte. Und ja, da sind noch meine Kontaktdaten, falls ich mir noch quatschen möchte. Ja und jetzt würde ich noch mal kurz vielleicht Quellen und Literatur kurz anwerfen, dann kann man im Stream das anhalten und sich noch ein bisschen Informationen raussuchen, für das, was einen interessiert hat. Okay, das wäre soweit. Ja, vielen Dank für deinen Vortrag. Es war sehr interessant. Wenn ihr jetzt Fragen habt, dann meldet euch bitte. Ich komme mit dem Mikro zu euch und dann haben wir die auch in der Aufzeichnung die Fragen und dann werden sie beantworten auf mich. Gut, wer hat Fragen? Erst mal danke für den Talk. Meine Frage wäre, in welchen Größenordnung hat man da jetzt mit diesen neuartigen biometrischen Faktoren Tests gemacht? Und wie weit kann man sich sicher sein, dass sie tatsächlich auch über Milliarden Menschen eindeutig und einzigartig sind verglichen mit dem Fingerabdruck? Wie klar ist das mittlerweile schon? Gut, eine Studie über eine Milliarde Menschen durchzuführen ist ein bisschen schwierig. Es ist auch die Frage, ob man das wirklich braucht, dass man über eine Milliarde, es ist, die Daten existieren ja meist nicht im luftherren Raum, sondern man hat noch Daten nebenher, die man verknüpfen kann und mit denen man die Leute wieder einschränken kann. Also zum Beispiel jetzt bei so einer VRR-Brille könnte man für die Nutzerbasis jetzt nicht eine Million Menschen umfassen, sondern irgendwie vielleicht zehn, zwanzig. Also einfach die Verglichen mit einem, sagen wir, etablierten biometrischen Merkmal, wie beispielsweise einem Fingerabdruck. Da würde ich davon ausgehen. Da würde ich davon ausgehen, die Spezifität wir damit erreichen können oder andere damit erreichen können. Dass wir andere Leute erreichen, noch mal. Also verglichen jetzt mit einem Fingerabdruck zum Beispiel. Der hat doch ein biometrisches Merkmal, das schon sehr lange erforscht und etabliert ist und wir wissen halt, dass es sehr spezifisch ist, auch über sehr viele Leute hinweg. Die Frage ist halt, und wie weit das auch funktioniert mit diesen neuartigen Merkmalen? Also gibt es da Doktorungen, sind sie weniger spezifisch als so etwas wie ein Fingerabdruck? Also wie weit ist das mittlerweile erforscht? Es gibt, als die größten Studien zum Beispiel zur Gangerkennung waren so um die tausend Leute. Ich würde vermuten, bei Gang wird es wahrscheinlich sehr spezifisch sein, da wird es auch mit wahrscheinlich deutlich größeren Gruppen noch funktionieren. Bei ein paar der anderen Faktoren wird es wahrscheinlich nicht ganz so gut funktionieren. Das wird nicht so spezifisch sein, wie ein Fingerabdruck nähen. Danke. Hi. Du hattest ja gesagt, du beschäftigst dich mit der Deanonymisierung, nee, mit der Anonymisierung von solchen physiologischen Daten. Da wollte ich fragen, wie weit lässt sich da auch eine Deanonymisierung durchführen, weil es ja schon häufiger bei Datensätzen gezeigt wurde, dass man ein scheinbar schon anonymisierten Datensatz nachträglich doch nochmal deanonymisieren konnte. Wie stehen da so bisher die Erfolgschancen, gab es Beispiele, dass das schon passiert ist? Ja, zum einen gibt es in dem Bereich noch nicht so super viele Methoden. Und wir haben uns jetzt auch angeguckt, wie wir die Methodik dahingehend so bauen können, dass wir halt ordentlich testen, dass wir uns sicher sein können, dass es zumindest nicht super einfach ist, das zurückzudrehen. Wir gucken uns zum Beispiel gerade an, wie man mit Maschinenlernen lernen die Anonymisierung zurückdrehen kann, ob das geht und ob man dann Modell lernen kann, was das für einen machen kann. Außerdem ist es so, dass wir, wenn wir so ein Identifizierungssystem haben und wir die Anonymisierung testen wollen, dann trainieren wir das Erkennungssystem mit anonymisierten Daten. Damit das System sieht okay, so sieht die Person anonymisiert aus, kannst du sie mir noch zuordnen in den anonymisierten Daten. Das ist tatsächlich etwas, was bei vielen Methoden, die getestet wurden, nicht so richtig gut getestet wurde. Das heißt, da muss man auch sehr genau hingucken, was die Autohandales ausgewertet haben in der Evaluation. Okay, danke schön. Was gibt es denn für Methoden, zum Beispiel jetzt einen Datensatz von einem aufgenommenen Gang zu anonymisieren? Wie würde man das machen? Bestehende Methoden sind zum Beispiel, dass man bei Videos die Silhouette extrahiert und dann vermischt mit anderen Silhouetten quasi als Random Gate mit einmischt und dann versucht das Video möglichst gut wieder mit maschinellem Lernen zusammenzusetzen, dass es wieder einigermaßen in Ordnung aussieht. Das ist so für Video, für zum Beispiel diese Motion Tracking Anzüge gibt es einen Ansatz, wie man zum Beispiel Emotionen entfernen kann. Da trainiert man dann verschiedene Outer-Encoder. Das ist auch ein maschinelles Lernmodell, wo man halt versucht, die Emotionen rauszulöschen und dann richtig neue Gate Sequenzen zu generieren. Ja, aber es steht noch relativ am Anfang, also so viel gibt es da noch nicht. Alles klar, vielen Dank. Also mich hat es ziemlich überrascht, dass man anhand der Handbewegung das Geschlecht feststellen konnte. Und ich wollte fragen, ob es dann wie das verstanden ging, ist es wirklich, gibt es eine Bewegung, die mit einem bestimmten Geschlecht zugeordnet wird? Oder ist es jetzt zum Beispiel in Hand des Handaufsbaus oder ist es einfach durch Maschinellining bestimmt, dass es das und das Geschlecht gewesen? Da die Datensatznummer verwendet hatten, das war von so einem Handschuh, das heißt, man hat die Winkel, wie sich die einzelnen Gliedmaßen bewegen, was jetzt aber genau in den Daten dazu führt, dass man eine Person erkennen kann, kann ich das jetzt auch gerade nicht sagen. Das ist immer das Problem, dass man dann nicht ganz genau interpretieren kann in vielen Modellen, was dann jetzt eigentlich dazu geführt hat, dass diese Klassifizierung so durchgeführt wurde und nicht anders. Genau, es war schon die Bewegung und nicht nur der Aufbau. Okay, eine Frage haben wir noch. Woran kann man ihr Iris identifizieren? Gute Frage, habe ich mich ehrlicherweise auch noch nie mit beschäftigt, wie die Iris Identifikation funktioniert. Oh, okay. Ja, ich beschäftige mich bis jetzt nur mit Verhalten, mit Geometrie, deswegen habe ich mich genau in der Letzte oder auch in der Letzte, wenn man noch mal armen Haare hat, man kann zum Teil durch die Gugelhilfe anschauen oder auch, dass es einfach auf die Scheibe geht. Dann, aber trotzdem danke, dass du alle Fragen hier angenommen hast und deine Kontakte anstehen dir auch, falls es noch weitere Fragen gibt. Und dann würde ich sagen nochmal, ein Kraftlinger-Applaus für Simon. Vielen Dank für den Partner.