 Du hast gerade in einem Experiment mit einem Facial Detection System experimentiert. Mit Facial Detection System versucht man in einem beliebigen Bild Gesichter zu finden, und zwar beliebige Gesichter. Aber wie funktioniert so ein System eigentlich? Man nimmt für so ein Facial Detection System heutzutage ein sogenanntes neuronales Netz. Ein neuronales Netz ist ein Statistiksystem. Dazu, um das anwenden zu können, zerlegt man das Bild, was man hat, in dem vielleicht Gesichter sichtbar sind, in seine einzelnen Bildpunkte und übersetzt jeden dieser einzelnen Bildpunkte in eine Zahl, die zum Beispiel die Farbe an diesem Bildpunkt beschreibt. Diese Zahlen kann man dann benutzen, um darauf Statistiken anzuwenden. Um das Netzwerk wirklich aufzuschlauen, damit es dann Gesichter erkennen kann, muss man es erst trainieren. Dazu nimmt man sehr, sehr viele Bilder von sehr unterschiedlichen Menschen aufgenommen in unterschiedlichen Positionen und füttert sie durch dieses statistische System und passt das System darauf an, dass es das Ergebnis raus gibt, was man sich wünscht. Das heißt, wenn man ein Bild reinsteckt, bei dem man weiß, da ist ein Gesicht drauf, dann passt man das System so an, dass dieses Gesicht auch quasi erkennt in den statistischen Gleichungen. Das macht man sehr, sehr oft, Millionen mal, 10 Millionen mal, 100 Millionen mal. Wenn man das dann trainiert hat, das fertige Netzwerk kann man es auf beliebige Bilder anwenden und in diesen Bildern dann halt beliebige Gesichter finden. Aber diese Gesichtsfindung ist halt nicht immer wie näher. Es ist nicht immer einfach zu sagen ja oder nein, sondern weil dieses Netzwerk statistisch operiert, gibt es eine Wahrscheinlichkeit an. Die wahrscheinlich ein bestimmtes Objekt, was es gefunden hat, ein Gesicht sein könnte. Das drückt aus, wie sicher das System quasi ist in dem, was es sagt. Wenn es sagt, es ist zu 95 Prozent ein Gesicht, dann ist es sehr, sehr sicher ein Gesicht gefunden zu haben. Wenn es sagt, es ist zu 50 Prozent ein Gesicht, dann ist es sehr, sehr unsicher, ob es ein Gesicht gefunden hat. Du hast gerade in dem Experiment mit diesem System ein bisschen gespielt und hast Dinge verändert. Die wurden vielleicht auch Hinweise geben, was man machen kann. Die sind auch selber Sachen eingefallen, wie du dein Gesicht vielleicht verändern kannst, um zu sehen, wie das System überhaupt funktioniert. Warum verändert es seine Erkennung eigentlich? Warum kann es sich nicht merken, dass es dich erkannt hat und weiß die ganze Zeit, wo du bist? Dieses System arbeitet erstens immer nur auf Einzelbildern und hat also quasi kein Gedächtnis, sodass es quasi dich verfolgen kann. Und auf der anderen Seite ist es, wie wir vorhin schon gesagt haben, ein statistisches System. Und es hat halt bestimmte Strukturen gelernt, wie Gesichter aussehen, zum Beispiel. Da geht es davon aus, dass man zwei Augen hat oder eine Nase oder ein Mund irgendwie sichtbar ist. Und sobald du in dieses statistische System aus Gleichungen eingreißen, zum Beispiel dein Mund abdeckst oder deine Nase verdeckst oder ein Auge zumachst, kann es halt sein, dass die Wahrscheinlichkeit, dass es glaubt, dass es noch ein Gesicht bei dir gefunden hat unter einen gewissen Schwellwert sinkt und dann sagt, nee, okay, das ist wahrscheinlich kein Gesicht und dann verschwindet halt quasi dieser Kreis oder dann verschwindet die Erkennung. Diese Systeme sind halt immer nur so gut wie die Daten, die man reingesteckt hat. Und je nachdem, was du halt tust und je nachdem, wie stark du von dem Trainingsdatensatz abweist, größer ist die Wahrscheinlichkeit, dass das System eben nicht mehr begreift, dass dein Gesicht ein Gesicht ist. Auch wenn jeder Mensch natürlich sofort erkennen würde, dass das ein Gesicht ist. Facial Detection Systeme werden heute in ganz vielen Systemen, mit denen wir jeden Tag interagieren, eingesetzt. Zum Beispiel, wenn wir eine digitale Fotokamera haben, dann sind da Facial Detection Systeme eingebaut, um in dem Foto, was ich gerade versuche, aufzunehmen. Zu erkennen sind der Gesichter, sind die Gesichter vielleicht scharf oder unscharf, hat jemand die Augen offen oder geschlossen, um mir einfach zu erlauben, möglichst gutes Bild aufzunehmen. Man setzt ihr auch einen für so Interaktionsstationen, wo Personen an einen Gerät ran treten, an einen Bildschirm zum Beispiel und ich automatisch erkenne, okay, jemand guckt auf den Bildschirm, jetzt aktiviert sich der Bildschirm und niemand muss einen Knopf drücken und kriegt vielleicht direkt den Hilfetext, den er oder sie braucht, um mit diesem System sinnvoll zu interagieren. Weil diese Facial Detection Systeme aber wirklich nur erkennen, ob da irgendein Gesicht ist und nicht Wessengesicht da ist und irgendwie auch nichts über die Personen wissen, sind sie natürlich weit weniger problematisch als biometrische Systeme, wie wir sie im zweiten Experiment uns angucken werden.