 So, mein Name ist Federtanz, und ich gebe Ihnen eine Einführung an Kai Kunze, der momentan in Japan arbeitet. Er wird einen kurzen Talk halten über Eyewear Computing, also elektronische Brille. Und das Interessante daran ist, dass es nicht nur auf bestimmte elektronische Signalverarbeitung begrenzt ist, sondern im Grunde ist das Ziel hierbei, dass wir unsere Fähigkeiten mit Dingen wie elektronischen Brillen verbessern und erweitern. Also einen großen Applaus für Kai Kunze. Vielen Dank. Ja, der Mikrofon ist an, alles klar. Kann ich meine Folie bitte haben? Okay, also für mich ist das immer wieder ... Ich halte relativ viele Reden, aber hier zu sein beim Chaos Communication Congress, das ist immer was Spezielles. Also, ich bin ein kleines bisschen nervös, und ich hoffe, dass ich in den nächsten 25 plus-minus-minuten nicht eure Zeit verschwende. Worüber ich heute reden will, ist Eyewear Computing Augmented Human Mind. Ich arbeite in Yokohama, Japan, und bevor ich jetzt anfange, will ich euch ganz kurz eine Demo zeigen. Wir hatten nämlich vorhin mal ein paar Probleme mit Bluetooth, aber ich hoffe, es funktioniert jetzt. Was ihr hier seht, ist ein Prototyp, eine japanischen Brille, und es benutzt Elektroden, um meine Augenbewegung zu messen. Ich trage diese Brille gerade, und ihr könnt sehen, wie ich zum Beispiel Blinzle oder wie ich meinen Kopf nach links und rechts bewege. Das heißt, ihr könnt also meine Kopfbewegung mitverfolgen. Und ich werde noch detaillierter darauf eingehen, was dieses Ding genau macht und was man alles damit anstellen kann. Und weil diese Demo hat gerade funktioniert, und deshalb wollte ich es gleich am Anfang machen. Also, fangen wir mal mit einer kleinen Übersicht an, ein bisschen Hintergrundwissen über mich. Und danach gehe ich ein bisschen in die Details, warum ich glaube, dass dieses Eyewear Computing ein sehr interessantes Feld ist. Und wir reden darüber, wie wir das zugänglich machen können, wie wir das jeden Tag verwenden können. Und damit es eben nicht nur die Geeks nutzen können. Und wir reden auch über Spezialsachen wie zum Beispiel die Elektrookulografie. Und ich werde einen kleinen Ausblick darauf geben, wie man da zum Beispiel verschiedene kognitive Zustände messen kann. Und das ist mehr oder weniger nur so ein kleiner Blick in die Zukunft. Also, vielleicht als Hintergrundinformation zunächst mal. Ich arbeite im Feld des Wearable Computing. Das heißt also, wir arbeiten viel mit Bewegungssensoren. Und wir ziehen die den Produzent an und versuchen irgendwas mit dem Output anzufängen. Mein ehemaliger Chef, ihr könnt ihn hier in diesem Bild sehen, nennt das das Weihnachtsbaum Setup. Denn wir hängen an jede Menge Sachen an die Leute dran und versuchen dann so ein bisschen rauszufinden, was diese Leute machen. Und versuchen sie zu unterstützen bei alltäglichen Aufgaben. Wie zum Beispiel, wenn sie Sport treiben. Und ein großer Teil meiner Arbeit ist, dass wir irgendwie diesen Übergang finden von diesen Sensoren, die man einzeln anziehen muss. Hin dazu, dass man die zum Beispiel in seinem Smartphone oder in seiner Jacke zum Beispiel hat. Und so ungefähr seit einem Jahr sind wir auch sehr interessiert daran, was in unserem Gehirn vorgeht, in unserem Geiste vorgeht. Können wir das irgendwie erkennen? Können wir das irgendwie detektieren? Die Augen wurden immer interessanter. Ich habe mit EEG angefangen und ich bin ein kleines bisschen faul deshalb. Ich fand es immer ein bisschen schwierig, aus den EEG-Signalen irgendwas abzulesen. Und die Augen waren eben ein weiterer Weg zu beobachten, was in einem Menschen vorgeht. Denn wenn wir benutzen unsere Augen ständig, permanent, sogar wenn wir schlafen benutzen wir unsere Augen. Selbst wenn wir die Lieder geschlossen haben, dann bewegen wir trotzdem noch unsere Augen. Und die in dem Feld in der Psychologie und der kognitiven Wissenschaften ist da jede Menge Arbeit gemacht worden, um die Augenbewegung zu verfolgen und daraus Schlüsse zu ziehen, was Dinge angeht wie Konzentration, und kognitive Aufgaben. Leider ist die meisten Forschungen, die sich auf Augenbewegungen konzentrieren, gehen alle so in Richtung Werbung und wollen wissen, wo man hinschaut. Das heißt, ein Supermarkt will zum Beispiel wissen, wie ein bestimmtes Produkt aussehen muss, damit die Leute sich dafür interessieren. Und das ist ein bisschen traurig. So, letztes Jahr habe ich darüber geredet, wie man Lesegewohnheiten tracken kann. Und in diesem Fall haben wir einen mobilen Augentrack benutzt von SNI. Das ist ein optisches System, das Infrarotlicht benutzt. Man sieht das hier oben in dem Bild. Und es benutzt Infrarotkameras unterhalb der Augen, um zu erkennen, wohin die Popeln gucken. Und dann kann man zum Beispiel erkennen, wann man die Augen schnell bewegt oder wenn man sich auf etwas fokussiert. Und damit kann man erkennen, wenn eine Person liest und auf wie viele Wörter pro Minute man zum Beispiel liest. Nicht nur das, aber wir können auch zum Beispiel herausfinden, welche Art von Dokument man liest, indem wir einfach schauen, wie sich eure Augen verhalten. Und das ist eine ganz wichtige Sache für japanische Studenten. Das heißt, wir können also zum Beispiel herausfinden, ob sie gerade in einen Lehrbuch schauen oder in einen Comic. Und wir versuchen natürlich auch herauszufinden, wie viel man davon versteht von dem, was man liest, aber das ist ein bisschen schwieriger. Also das war letztes Jahr und damals konnten wir schon so eine Art Fitbit für das Gehirn bauen. Es war alles ein bisschen grob. Wir konnten aber zum Beispiel sagen, wie viele Wörter man pro Tag liest und wie schnell die Lesegeschwindigkeit ist und ob man mehr wissenschaftliche Texte liest oder eben Comicbücher. Aber die Frage ist ja, wie kann ich meine Lesegehohnheiten zum Beispiel verbessern? Was passiert zum Beispiel, wenn ich versuche, dasselbe zu lesen wie jemand anderes über zwei oder drei Jahre, werde ich dadurch automatisch zum Experten. Das große Problem, was ich dabei sehe, ist, dass durch diesen Ansatz, den wir letztes Jahr verfolgt haben, ist zum einen, das funktioniert nur, wenn man Sachen liest. Ich hätte aber auch gerne etwas, was allgemein dann funktioniert. Also ganz allgemein ein System, was erkennen kann, auf das man sich gerade konzentriert im normalen Leben, im Alltagssituationen und es sollte auch funktionieren im täglichen Leben sozusagen. Und das größte Problem dabei ist diese mobilen Augentracker, die man hier sieht. Es ist nicht etwas, was man irgendwie ständig aufhaben möchte. Na ja, vielleicht wollten einige Leute das gerne aufhaben, aber die meisten eben nicht. Und das nächste Problem ist auch die Batterielebenszeit, die man da hat. Die ist normalerweise nicht so richtig gut, so ungefähr fünf Stunden kann man damit aufnehmen, mehr eben auch nicht. Und unser Schwerpunkt lag eben darin, dass wir uns auf Tablets und Smartphones konzentriert haben. Aber das Problem dabei ist, wenn man das Tablet ausschaltet, dann funktioniert das ganze System nicht mehr. Das heißt, man hat gar keine Abdecken des ganzen Tages. Man kann nur, man kann das auch nur benutzen, wenn das Gerät eine Frontkamera anhat. Wir haben ein bisschen mit Google Glass auch gearbeitet. Wie erwisst, ist das nicht überall gesellschaftlich akzeptiert. Das ist ein ganz anderes Problem. In Deutschland vielleicht mehr als anderswo. In Japan ist es nicht so ein Problem. Also es ist auch schon eine kulturelle Geschichte. Aber ein bisschen kann man auch mit Google Glass machen. Und ich wollte jetzt zeigen, eine kleine Demonstration. Eine Erweiterung der Arbeit, die wir letztes Jahr gemacht haben. Im Grunde Google Glass hat schon ein Gerät zur Augenverfolgung. Es hat also auch einen kleinen Verrot-Sensor. Der ist ungefähr hier drüben. Und der wird dazu zu erkennen, ob ihr das Gerät gerade benutzt oder nicht. Und man kann auch einen Foto damit schießen, den man einfach lang geblinzelt. Okay, was ihr jetzt gerade seht, ist das Bild, was ich auf meinem Display in dem Google Glass sehe. Und neben hat es so ein kleines Touchpad. Ich kann also jetzt sehen, alle Bilder, die ich aufgenommen habe. Und wenn ich jetzt also zum Beispiel gerade jetzt mal ein Bild aufnehmen würde, dann solltet ihr jetzt sehen, okay, es ist hauptsächlich schwarz. Und neben so eine kleine weiße Ecke, weil der Helligkeitssensor halt eben ein bisschen runter geregelt hat. Was wir damit gemacht haben, wir haben eine kleine Open Source Anwendung, die nennt sich Glass Logo, die lockt alle Sensoren, alle Messdaten aus diesem Google Glass. Und wir können auch zum Beispiel den Infrarotsensor beobachten. Und das ist etwas, was ich schon letztes Jahr gezeigt habe. Das ist schon eine etwas fortgeschrittene Version. Und ihr könnt sehen, wenn ich zum Beispiel meine Puppeln bewege und nicht blinzle. Ja, okay, er hat jetzt interpretiert, als ob ich blinzen würde. Aber man kann schon ein bisschen sehen, wie dieser Infrarotsensor ausschlägt. Das heißt, man kann also zum Beispiel erkennen, ob man nach links oder rechts schaut. Indem man einfach die Abstandsmessung zum Google Glass eben misst. Und jetzt ein etwas fortgeschritteneres Beispiel, was man noch damit machen kann. Man kann so ein bisschen erkennen, was der Benutzer gerade macht. Also in einigen Sekunden sollte das Gerät zeigen, was ich gerade mache. Es sagt jetzt, dass ich gerade eine Räder gebe, eine Räderhalte. Und wenn ich mich jetzt hier drauf konzentriere auf das, was ich hier gerade vor mir habe, dann ... Okay, jetzt hat es erkannt, dass ich gerade etwas gelesen habe. Und das benutzt also dazu nur meine Kopfbewegungen und eben auch meine, wie oft ich blinzle beispielsweise, um zu erkennen, ob ich jetzt gerade rede oder lese. Das mit dem Erkennen, ob man redet, funktioniert schon ziemlich gut. Ob man liest oder nicht, das ist ein bisschen schwieriger mit dem Infrarotsensor. Naja, wenn man zum Beispiel einen Film schaut, dann sagt das System eben auch manchmal, dass man liest. Also das funktioniert nicht ganz so gut. Was man noch machen kann durch Blinzeln, ist zum Beispiel, ich habe es schon erwähnt, ob man erkennen, ob jemand redet. Dann blinzelt man nämlich öfter, typischerweise doppelt so oft wie normal. Und es gibt auch eine Korrelation auf, was man sich konzentriert. Wenn man also etwas fokussiert, dann blinzelt man weniger oft. Und auch, was den Inhalt angeht, also wenn man zum Beispiel von einem Ebook-Reader liest, dann merkt man, dass man immer genau dann blinzelt, wenn man die Seite umblittet. Und was ich gerne machen würde, ist diese kurzen Momente der Blindheit. Wenn man blinzelt, das würde ich gerne irgendwie nutzen. Also wenn man blinzelt und irgendwas ändert sich, zum Beispiel die Farbe des Hintergrundes oder irgendwas ändert sich, dann nimmt man das normalerweise nicht wahr, weil ich zu dem Zeitpunkt gerade die Augen zu hatte. Und das kann man beispielsweise nutzen, um ein Display zu generieren, dass sich immer gerade dann verändert, wenn man blinzelt. Das heißt, man würde gar nicht erkennen, dass sich da etwas verändert hat, aber wenn man die neue Informationen gerne sehen möchte, dann ist sie bereits da. Also solche Ideen beispielsweise finde ich ziemlich cool. Und das wäre vielleicht eine schöne Sache für zum Beispiel Horrorspiele oder interaktive Filme. Ich glaube, man kann damit jemanden richtig Angst machen mit so einer Technik. Und eine weitere Idee, was auch ziemlich leicht zu implementieren ist, ist, ob zu erkennen, ob jemand müde ist oder nicht. Also einfach nur, indem man erkennt, wie lange man blinzelt und wie oft man blinzelt, kann man blinzen zum Beispiel öfter, wenn man müde ist. Und daran kann man erkennen, in welchem Zustand sich jemand befindet. Und man kann auch voraussagen, wie müde jemand werden wird. Und ich hatte die Idee, dass man einfach ein paar Studenten nimmt und mit diesen Blinzelerkennern ausstattet. Und dann einfach mal zum Beispiel die verleschierten Vorlesungen in eine Art Ranking einteilt, sodass man also sehen kann, welches war die langweiligste Vorlesung, welches war die zweitlangweiligste Vorlesung und diese Dinge eben. Ich habe das mit einigen Professoren diskutiert. Vorhin aus und sie waren nicht begeistert von der Idee. Andere Dinge, die man machen kann, mit den Blinzeln und der Kopfwägung, sind Dinge, die Videos hat zu sehen oder Sudokus lösen, ob man redet. Allein mit der Blinzelfrequenz kommt man da schon sehr weit. Bis zu 70 Prozent. Wenn man dann noch die Kopfwägung mit rein nimmt, bekommt man bis zu 80 Prozent Sicherheit. Allerdings gibt es dabei noch einige Probleme mit der Glas. Besonders mit der Hardware, die die Augenwägung trakt. Und die Brillen sehen nicht besonders schön aus. Es ist etwas nicht, etwas, das jemand immer tragen möchte. Aber da gibt es neue Systeme von SMI und von Tobi, die besser aussehen. Aber es sind immer noch Prototypen, die von Ingenieuren gebaut wurden, für Ingenieure und nicht für normale Personen. Deswegen war ich sehr froh, als mich die japanische Glascompany, Glasformal Jinns, fragte, ob ich die Jinns Meme Brille tragen möchte. Die haben eine besondere anderen Ansatz als Google Glass. Es hat kein Display, es hat keine Kamera. Das Gerät ist nur verbunden zu deinem Telefon. Es arbeitet nur mit der Erkennung von Augenbewegungen und Bewegungssensoren für die Kopfbewegung mit einem Beschleunigungsmesser und einem Gyroskop. Über eine andere Sache war ich sehr froh. Zum einen kann man im Forschung arbeiten, zum anderen die Demo. Ich habe die Demo schon gezeigt. Hier noch ein paar Prinzipien, wie das Ganze funktioniert. Im Prinzip ist das Auge ein Depot. Es hat eine positive und negative Ladung, vorne und hinten. Darüber kann man die Augenbewegung feststellen. Mit einer Elektrode über und unter dem Auge kann man die vertikale Bewegung des Auges feststellen. Und mit Detektoren links und rechts zum Auge die horizontale Bewegung des Auges. Damit kann man sehr hohe Detektionsraten erhalten. Die Batteriehaltdauer ist besser, weil man nicht so viel Prozessgeschwindigkeit hat. Es hängt aber auch davon ab, wie man die Sensoren aufklebt. Man kann auch dafür Kopfhörer benutzen und muss keine Elektroden aufkleben. Auf der rechten Seite sehen wir einen hohen Setup mit Elektroden oben, über, unter, links und rechts vom Auge. Jetzt sehen wir, wie man das in eine normale Brille einbaut. Man hat jetzt nur noch drei Elektroden, wie auf der rechten Seite gezeigt. Ich kann es euch aber auch jetzt auf der Kamera zeigen. Nein. Jetzt funktioniert es. Das sind die drei Elektroden. Die linken und die rechten wird für die horizontale Bewegung benutzt. Und diese beiden werden für die vertikale Bewegung benutzt. Zurück zu den Folien. Jetzt sind das erst mal nur Prototypen und die Batterielaufzahl sind etwa acht Stunden. Es kann aber noch besser werden. Was kann man damit machen? Zum einen können wir die Augenbewegung bemerken, so wie man das jetzt sieht, zum Beispiel blinzelt oder er guckt nach links und rechts. Das war eine der früheren Prototypen. Was ist das Erste, was man damit versucht zu machen? Wenn man ein binäres Kontrollprogramm hat, wie Eiblings, kann man Flappy Bird damit spielen. Das ist wirklich wirklich schwer zu spielen. Man kann es ja gerade sehen. Ich kann es auch später noch mal versuchen, das zu zeigen. Selbst ein Score von eins oder zwei ist sehr schön. Man kann natürlich auch sehr viel interessanterer Sachen machen. Hier wird die eine Lesegeschwindigkeit gemessen. Lesen und Sprechen kann unterschieden werden über die Kopfbewegungsveränderung und das Blinzeln. So kann man einen Überblick bekommen über den ganzen Tag, wie viel physische Aktivität man hatte und wie viele soziale Interaktionen und wie viel man gelesen hat. Jetzt, denke ich, sollten wir... ...der Hauptschwerpunkt dieses Produkts... ...nächstes Jahr im September... ...es ist nicht so schwierig, man kann es in den Konsumentenbereich kommen, aber nicht bis nächsten September warten möchte. Ich war besonders beeindruckt von dem Eibaud, eines honduranianischen Teenagers. Und Masai, einer meiner Studenten, hat auch so eines gebaut. Er hat ein Do-it-yourself Handbuch genommen und hat nur links und rechts eine Elektrode genommen, um die horizontale Augenbewegung zu messen. Und wie man sieht, funktioniert das schon recht gut mit diesem Do-it-yourself-Set. Jetzt müssen wir uns beeilen, weil wir nur noch fünf Minuten haben. Okay, und was wir auch noch versuchen, sind ein paar andere Platzierungen der Elektroden, um zu sehen, womit kann man am besten Sachen wie Lesen erkennen oder ob man gerade sich konzentriert. Und wir können EOG auch benutzen, um eben Lesegewohnheiten zu mitzulocken und zu vergleichen, wie das mit dem Augentracker, die Daten aus dem Augentracker, sich damit korrelieren. Und wenn wir einfach mal uns auf die horizontale Komponente konzentrieren, und hier sehen wir das ein Potenzialdiagramm, das ist, wenn ich am Lesen bin, das ist also von mir. Und ich versuche also einen ganz einfachen Algorithmus zu benutzen, um eben festzustellen, wo solche Brüche in dieser Welle dran sind und damit kann man ganz gut erkennen, wann ich zum Beispiel mit meinen Augen von einer Zeile in die andere gewandert bin, indem man hier diese Extremstellen auswertet. Und das wäre mit einem normalen Augentracker nicht möglich, weil die Auflösung da eben nicht hoch genug ist. Das haben wir übrigens noch nicht veröffentlicht, aber sobald wir das veröffentlichen, dann werde ich auch den Kot mit allen teilen und werde auch dann ein bisschen erklären, wie man zum Beispiel ein paar Filterungen vornehmen kann. Und für die letzten fünf Minuten meines Vortrags möchte ich ein bisschen darüber reden, wie wir erkennen können in einer etwas allgemeineren Form, in welchem kognitiven Zustand sich eine Person befindet. In diesem Fall haben wir also versucht, durch Messungen der Gehirnströme Rückschlüsse zu ziehen. Das nennt sich NIRS, Near Infrared Spectroscopy Estimating. Wir haben also in den präfrontalen Cortex Messungen vorgenommen, zum Beispiel im Änderungen der Sauerstoffgehalts im Blut. Und da haben wir zum Beispiel die Ginz Meme Brille genommen, einen Augentracker und eben dieses Gerät, was diese Person aufhat. Und was man von diesem NIRS bekommt, ist ein Bild, welche Bereiche des Gehirnungs gerade aktiv sind. Rot heißt also hohe Aktivität, blau heißt niedrige Aktivität. Das sind etwas seltsame Schnittstellen, die wir hier haben, aber gut. Und das hier ist, wenn man die Augenbewegungen mit der Gehirnaktivität synchronisiert, dann bekommt man das hier bei einem typischen Laseraufgabe. Was mich dabei besonders interessiert, ist, wir haben nicht nur Dinge wie Lesen aufgezeichnet, sondern auch, wenn jemand zum Beispiel eine Berechnung durchführt oder ein Gedächtnisspiel spielt. Wenn man zum Beispiel sein Gedächtnis bemühen muss, dann wenn man um mehrere Spielzüge zurückdenken muss, dann sieht man hier, dass ein bis zwei Spielzüge es noch möglich und bei vier wird es dann schon fast unmöglich. Und wenn man dann die Leute fragt, wie schwierig das war, dann sagen sie, ja, eins war noch ganz leicht, zwei war schon sehr schwierig, drei war sehr knifflig und vier war völlig unmöglich, die Person hat dann aufgegeben. Und das ist das, was mich am meisten interessiert. Wenn wir diesen Zustand erkennen könnten, nicht mit diesem EEG-Geschichte, sondern mit der Blinzelfrequenz oder einem anderen einfachen Sensor, dann können wir etwas implementieren, was uns beim Lernen zwar fordert, aber nicht frustriert. Und das ist eigentlich das, wo wir hinwollen. Wir haben also diese Daten aufgenommen. Wir wissen noch nicht, ob wir da was finden werden. Es gibt da verschiedene Korrelationen, wie zum Beispiel Popillendurchmesser, die Blinzelfrequenz ist auch sehr interessant an dieser Stelle, aber es ist noch nicht gut genug, um diesen Zustand zu erkennen oder auch vorherzusagen. Denn das ist das, was ich eigentlich machen möchte. Ich möchte diesen Zustand vorhersagen, denn wenn ich von hier aus die Aufgabe noch schwerer mache, dann gibt die Person auf. Und damit komme ich bereits zu meiner Zusammenfassung. Wenn ihr also euch die letzten Jahrhunderte anschaut, die größten wissenschaftlichen Durchbrüche waren eigentlich dafür gedacht, unsere physischen Einschränkungen zu überwinden. Wir können also schneller reisen, wir können höher bauen. Wir wissen aber noch nicht, was in der Zukunft passiert. Wir hoffen, dass es nicht darum geht, unsere Limitationen, unsere physischen Limitationen zu überwinden, sondern unsere kognitiven Limitationen. Und daran müssen wir zusammenarbeiten mit offenen Werkzeugen und mit offenen Code, um das zu erreichen. Und das, da möchte ich noch kurz Danke sagen. Ich will noch zwei Leute besonders hervorheben. Ich möchte noch ein paar Leute, die hier im Griff der Schupe oder Olle beampft, die einen Teil zu diesem Talk beigetragen haben, weil ich von ihnen eben Hardware bekommen habe. Und noch mal ein besonderes Dankeschön zu den Leuten, die diese ganze Arbeit gemacht haben. Schoya Katsuma und die anderen. Und wenn ihr jetzt noch Fragen habt oder Anmerkungen. Und auch wenn es übrigens Leute gibt, die in diese Open-Eye-Ware-Plattformen Interesse haben, dann kommt zu mir und fragt mich einfach. Wir haben fünf Minuten für Fragen. Ihr könnt auf die Mikrofonen line-up. Wir beginnen mit der Mikrofon 4. Können Sie die Blink wieder erklären, wie Sie das fangen? So, für die Blink. Entschuldigung für die Interruption. please move out quietly. No talking, thank you. You said it's a depot, so it moves down when you blink? Ja, im Grunde, es ist ein Muskel. Ich zeig es nochmal. Was ihr hier seht, ist, wenn man blinzelt, dann ist es eine sehr nette, eine extrem wert in diesem Signal hier. Und man bekommt das über die Muskelbewegung. Wir nutzen den Depot nicht aus. Also beim Blinzeln nutzen wir nur die reine Muskelbewegung aus. Man kann das aber auch über die Elektroden registrieren. Also hast du eine Art Sensor für das Blinzeln und eine für die Augenbewegung? Ja, genau. Man muss das natürlich auch noch ein bisschen filtern, also z.B. wenn ich meinen Kopf bewege, dann sieht man das natürlich auch in dem Graf. Es ist so klein. Danke. Ja, eine Frage noch von dem Signal Angel. Die 5. Frage ist, mit welcher Samplingrate arbeitet das EOG? Ja, die Samplingrate hängt ein bisschen davon ab. Die Gins Meme sampled mit ungefähr 100 Hertz. Es kann, glaube ich, bis zu 200 Hertz leisten. Das hat nichts mit Elektroden zu tun, sondern mit dem Chip, der dann verbaut ist. Und das, was wir vorhin gesehen haben, diese Daten für dieses EOG, das ist ein medizinisches Gerät, das geht mit 500 Hertz. Da brauchen wir also höhere Samplingraten. Aber ich glaube, mit 200 oder 150 Hertz bekommt man auch schon ganz vernünftige Resultate, um zu erkennen, wenn jemand z.B. in Zeile wechselt. Ich habe mich gefragt, gibt es da irgendwelche ethischen Überlegungen in dieser Studie und in deiner Arbeit? Man braucht nicht zu viel Fantasie, um sich vorzustellen, wie das, was jetzt hier ganz lustig ist, zu einer Kontrolle ist. Ja, ich stimme da völlig zu. Ich glaube, da passiert auch schon ein ganzes bisschen, eine ganze Reihe von Arbeiten. Ich glaube, wir haben uns da schon ganz gut ... Es gibt schon einige Firmen, die in diesem Bereich arbeiten und die haben schon ein bisschen mehr Wissen an dieser Stelle über Gehirnaktivitäten und Augenbewegungen. Und da geht es natürlich darum, wie man Product Placement betreibt oder wie man einen Supermarkt designet. Für mich ist der wichtige Teil, dass die Daten bei dem Benutzer bleiben. Wir wollen nicht, dass Google oder Apple oder eine dieser Firmen solche Brillen entwickelt und dann die ganzen Daten von uns einsammelt. Denn mir macht das schon genug Angst, dass sie schon meine ganzen Standortdaten und sehr viele andere Daten wissen. Also ja, das ist eine ganz wichtige Sache. Eine Sache, die wir machen können, ist, wir können versuchen, diese Forschung zu öffnen für die Leute und wir können den Leuten zeigen, was möglich ist und damit hoffentlich verhindern, dass irgendjemand das missbraucht. Meine Frage ist, machst du irgendwelche Forschung um deine Technologie mit der virtuellen Realität zu verbinden, zum Beispiel im Feld der Architektur oder der Kunst? Ich persönlich nicht wirklich, aber es gibt einige Leute, die das machen, Leute, die in dem Bereich der virtuellen Realität arbeiten. Ich glaube, speziell für diese Virtual Reality Anwendung, das optische Augentracking ist besser, denn man bekommt da so ein bisschen eine Relation rein, wo man hinschaut und man hat nicht das Problem, wenn man schon so ein Oculus Rift oder ein ähnliches Gerät trägt, dann hat man nicht mehr das Problem, dass man noch irgendwas, irgendwann zu den Rädern, dass man noch irgendwas, irgendwann zuletzt die Gewichte darauf packen muss. Mit EOG bin ich mir nicht so sicher. Ich glaube, diese Blinzelgeschichte, das könnte da interessant sein an der Stelle. Also wann immer der Benutzer blinzelt. Ja, danke. Ich wollte dich fragen, ob du da darüber nachgedacht hast, ob ich von der Frontal Cortex aus dem Präfrontal Cortex zu Tracking aufzunehmen? Ja, ich habe mit EOG es rumgespielt. Ich hatte auch OpenWCI.org nicht.com. Ich habe mich gestern ein paar Talks interessiert, ich bin aber nicht reingekommen. Meine Erfahrung nach die EOG-Geschichten, da ist relativ viel Störsignal dabei. Andere Sachen funktionieren besser. Also eine Menge meiner Studenten kommen damit nicht so gut zurecht. Auch aufgrund dessen, wo die Elektroden platziert werden müssen. Ich interessiere mich sehr dafür. Ich verfolge das auch. EOG scheint etwas einfacher zu benutzen zu sein. Wir haben auch gesehen, dass zwei oder drei Kanäle vielleicht schon genug sein könnten, um etwas zu erkennen. Ich schaue mir das an, aber für mich scheint es etwas schwieriger zu sein, als einfach die Augenbewegung zu verfolgen. Danke.