 So, dann lass uns mal hören, was Adam Harvey sozusagen hat. Er ist ein Künstler, der in Berlin wohnt. Fangen wir mal in das Publikum. Wer von euch hat seine Kickstarter-Kampagne über, ja, oder zu RF-blockenden Mobilfunk, also Smartphone-Cases gesehen? Adam wird über Überwachung im Einzelhandel, Sprechne und Gegenmaßnahmen dazu. Okay, Applaus für Adam. Danke an alle, die hier sind. Das ist mein erster Kongress. Und im Titel dieser Präsentation, worum es mir geht, worüber ich eigentlich reden wollte, waren ungefähr 50 Firmen, die Überwachung im Einzelhandel betrieben haben und da halt verschiedene Methoden entwickelt haben. Und dann halt eben, was man dagegen tun kann. Was ich in der Vorbereitung dieser Präsentation gefunden habe, herausgefunden habe, ist, dass das wirklich ein permanenter Kampf ist. Es sind wirklich viele Firmen und es ist ein nicht endenwollender Kampf, um dieser Überwachung im Einzelhandel zu entkommen. Also, ich habe die Präsentation etwas abgeändert, um auf einen bestimmten Aspekt zu fokussieren. Es geht mir konkret um Fotografie und Computervision, also Computervisualistik. Und genauer gesagt, dort um Gesichtserkennung. Und für mich hat das alles angefangen, als ich angefangen habe, als Fotograf zu arbeiten, als ich nach New York gezogen bin, ungefähr vor 12 Jahren. Und da bin ich über ein paar Zitate von Susan Sonntag gestolpert. Und als ich eher ein Buch über Fotografie gelesen habe, hat es tatsächlich meine Perspektive verändert, über die Macht einer Kamera Situation aufzunehmen, Situationen festhalten zu besitzen, Menschen in Objekte zu verwandeln und das Narrativ über eine bestimmte Situation zu kontrollieren. Das wird zum Beispiel sehr deutlich, wenn man sich aggressives Paparazzi-Verhalten anschaut, zum Beispiel dieses Bild, wo Fotografen Britney Spears fast schon attackieren. Und es ist irgendwie interessant, wie sich diese Narrative über die Zeit entwickeln, wenn die Fotos dann ins Internet kommen, in Social Media sich verbreiten und so weiter. Jetzt geht es um Computervisualistik und da sollten wir uns die Geschichte anschauen. Es ist nicht komplett neues Thema, sondern in 1963 war der erste Fall, den ich so gefunden habe, in einem klassifizierten CIA-Memo, wo es zum ersten Mal um eine Gesichtserkennungsmaschine ging. Natürlich war damals die Technologie noch nicht so weit, um da robuste, akurate Erkennung zu liefern. Aber in den nächsten Jahrzehnten ist dann halt doch sehr viel passiert. Und vor allem 1969 haben dann drei japanische Forscher einen sehr starken Fortschritt erzielt, als sie die ersten menschlichen Gesichter mit Computervisualistik erkannt haben. Die Köpfe von Menschen sehen irgendwie so ein bisschen aus wie Brokkoli, Brokkoli-Köpfe, aber es war halt das erste Mal, dass ein Computer irgendwie verstehen konnte, wie Menschen aussehen oder was Menschen sind. Durch die 70er und 80er war dann die Computervisualistik nicht so von Fortschritt gesegnet, aber in den 1990ern gab es dann dieses Projekt Ferret, was dann natürlich vom Militär gesponsert wurde, genauer gesagt vom US-Verteidigungsministerium. Und es war halt eine Machbarkeitsstudie, inwiefern Gesichtserkennung eine Rolle spielen könnte im Bereich der Rechtsdurchsetzung, also Polizei und Kriminalämter etc. Das hat dann quasi angestoßen, was ein Thema das Paul nennt, die Logistik von Gesichtserkennung. 2001 kam dann ein besonderer Algorithmus aus, nämlich der Algor Jones Algorithmus. Und dieser Algorithmus war besonders, weil er sehr effizient war und eben genug ausreichend akkurat war und man quasi es sich in dessen Toleranz haben leisten konnte, den einzusetzen. Man konnte ihn zum Beispiel auch in eingebettete Systeme tun bei ziemlich geringen Kosten und das war sehr durchbrechend. Und damit hat sich halt Computervisualistik oder Gesichtserkennung dann deutlich verbreitet. Das hat tatsächlich, also wir haben quasi jetzt nicht mehr den Bedarf eines riesengroßen Computers, sondern wir können diese ganzen Algorithmen auf kleinen eingebetteten Systemen ausführen. Und das involviert natürlich zahlreiche Probleme hinsichtlich Privatsphäre. Das heißt, Computersysteme, ja, dadurch das Gesichtserkennung nicht mehr viel kostet, dadurch das es nicht mehr viel kostet und dadurch das OpenCV und andere Gesichtserkennungsalgorithmen sich halt immer weiter verbreitet haben, ist dann halt ebenso 2008, 2009 aufgetaucht, dass, ja, Fotografie halt eben auch diese Technologie nutzt. Als man zum Beispiel Kameras fast ohne einen Menschen überhaupt beteiligt nutzt. Genauso, so bist du so ein Sonntag, der übergesprochen hat, dass man Personen in die Kamera festtäuschen kann. Das wird die Geschichte narrativ der Zukunft sein, dass das die Computer machen werden. In 2010 habe ich auf einem Projekt gearbeitet. Da ging es darum, unsere Erscheinung zu modden, damit man diesen Algorithmus stören kann. Das Projekt heißt CIVIDASL. Und es geht um Verwunsbarkeiten oder um Angriffsmöglichkeiten im Fast Detection Profil und wie man sie, also mit dem Make-up von die Haare auf bestimmten Stellen hintun, kann man das effektiv, wenn man da jetzt einen Test laufen lässt, links, kann man zuschauen. Also wir verlangtsamen das jetzt mal, wie Fast Detection funktioniert. Du siehst, wie sie das links abliest, wie im Buch. Und die Ergebnisse sind recht akkurat links, bis zum Ende. Und rechts ist er total verwirrt und kommt auf zero Confidence Ergebnisse. Und links ist der Confidence Score, also die Zuverlässigkeit sehr hoch. Wenn man sich das anschaut, also wenn das ist die Fehlerkarte, wo man die Algorithmen stören kann, du kannst dann auch zurückgehen und verfolgen, wo die Computeraugen zugeschauen haben. Ein Vorstand haben wir zwei Tage in der University of West Virginia, hat eine Studie darüber über CIVIDASL und wie effektiv es war, was er herausgefunden hat, war, es war nicht immer 100% effektiv, aber das ist, glaube ich, auch nicht für notwendig für Grammophage. Das wird auch oft falsch verstanden. Also das ist nicht der Unsichtbarkeitsmantel vom Harry Potter. Es reduziert die Möglichkeit, identifiziert zu werden, oder nicht? Also 100% erreichen wird man nie können, aber das ist, darauf denkt ihr, falsche Grammophage nach. Die Ergebnisse dieser Analyse zeigen dann, dass das effektivste Muster bei der ganzen Sache war. Wenn man das Nasenbein abdeckt, dass das die größte Misserkennungsrate verursacht. So, wenn wir das jetzt vergleichen mit der Dazzeltahnung aus dem Ersten Weltkrieg, da wurde dann tatsächlich darüber debattiert, ob das überhaupt effektiv war. Es gibt einen Historiker, der sagt, dass es tatsächlich effektiv war. Und man könnte jetzt sagen, er sagt, dass es zu ca. 50% effektiv war. Man könnte jetzt sagen, dass es tatsächlich nicht so effektiv ist, weil dann immer noch einer von zwei Torpedos das Schiff kaputt machen könnte. Aber auf der anderen Seite geht das Schiff dann vielleicht erst beim zweiten Torpedo kaputt. Das Ganze wurde dann auch in Fernsehsern aufgegriffen, z.B. in der Fernsehsendung Elementary, die das dann irgendwie auch in ihrem eigenen Weg interpretiert haben, was manchmal ganz gut funktioniert hat, oder was gut umgesetzt wurde, manchmal etwas interessant umgesetzt wurde. Und ich bin im Großen und Ganzen dann doch sehr froh, dass Leute damit zumindest experimentieren und dass sie damit irgendwie rumspielen. Nach diesem Projekt, das war in 2010, habe ich dann in 2013 mit einer anderen Seite von Grafischer Überwachung beschäftigt, nämlich Thermalüberwachung, also Temperaturbasiert. Die Technik hierfür ist deutlich günstiger geworden. Heute kostet das nur noch ca. 200 Euro, um sich da eine anständige Kamera zu kaufen. Und dadurch, dass der Preis halt eben so runtergetrieben wurde, hat sich halt unsere Nutzungsweise von dieser Technik verändert und es wird halt immer zugänglicher für den Konsumermarkt. So, hier haben wir jetzt nochmal so eine Art Unsichtbarkeitsumhang, ähnlich wie aus Harry Potter. Es ist ein islamisches Kleid, eine Burka, die mit Silber beschichtet wurde und die dann eben eine Antidronenburka ist. Also daneben kann man das auch als Ganzkörper Burka nehmen in den erzeithalterte Überwachung. Man macht einen Unterschied zwischen Mann und Drohne, im Gegensatz zu Unterschied zum Mann und Gott. Das ist ein Test für euch. Ihr seht es hier ganz klar. Da ist eine fünfte Person, die diese Burka trägt und die sieht man nicht. Man sieht das vielleicht nicht so gut, aber ich werde jetzt das an die Ermehrung spielen und dann werde ich es sehen. Ohne Bewegung sieht man das gar nicht. Aber ihr seht es, die Antidronenburka ist so gut. Ja, jetzt die Füsse seht ihr, die werdet ihr nicht von der Burka. Also es wird nicht erkannt. Der kommt im Winter aus einem Laden raus mit hohen Temperaturen unterschieden. Also die Person, die da rauskommt, glüht vor Infrarot. Diese Projekte habe ich, ich habe mich erst spielisch diesen Projekten genähert, aber die berührendheitlich ist eine paar wichtige Punkte von National Security. Ich kann nicht vorher sagen, wer mich bedrohen wird. Und nachdem wir diese Projekte veröffentlicht haben und das Air Force Channel Council in Pentagon hat sich dafür interessiert und eine drei Buchstabenagency hat uns gebeten, eine interne Präsentation des Projektes zu machen. Ich weiß nie sehen, ich nehme mal an, da wird man mich nicht weiter informieren. In diesem Bereich arbeiten noch andere. Wir haben einen Kommentar gebeten. Es wundert mich dann immer, wie weit die Linie getrieben werden kann in dieser Art von Kunst. Aber ich denke, wir sollten einfach noch einen Schritt weitergehen. Wir haben da so eine Ausstellung gemacht, den Privatsphäre Geschenkladen, wo wir eben versucht haben, den weiterzuentwickeln. Und die Idee dahinter ist, dass man eben die Idee von, dass man sich gegen Retail, also Einzelhandelüberwachung wehrt, eben durch Kommerz irgendwie zu verbreiten und unter die Leute zu bringen. Also, ich habe diesen Talk, wollte ich eigentlich ursprünglich überall diese Themen machen. Und ich habe einige schöne Vorträge hier gesehen, auf die ich verweisen wollte, damit ihr euch noch weiter mit diesem Thema Gesichtsüberwachung beschäftigen könnt. Ein Talk über Ultraschallüberwachung, da wollte ich vielleicht noch Sachen hinzufügen. Man kann jetzt mittlerweile mit WLAN Bewegungen erkennen durch die Wi-Fi-Signale. Und es ist tatsächlich ziemlich einfach, das zu blockieren mit einem 10-Dollar-ESP, mit dem man einen Jammer erstellen kann, mit dem man einfach sehr viel Mois im WLAN-Spektrum generiert und so eben seinen Spuren verwischt. Ein weiteres Teil ist ein Indoor-Atlas, der eben geopagnetische Informationen benutzt, um ungefähr eine 2 Meter genaue Auflösung in einem Indoor-Einzelhandel-Laden herzustellen. Es gibt auch eine Gegenmaßnahme dazu, es ist so magnetisches Schildmaterial, dass man halt aus dem Telefon aufbringen kann und das ändert halt das geomagnetische Profil des Telefons ausreichend, um eben diese Überwachung unmöglich zu machen. Also das heißt, worum es im Prinzip geht, ist irgendwie den Schaden zu minimieren, bezüglich der Privatsphäre. Wir spielen diesen Film im Original ab, würde ich sagen. Ich glaube, das ist eine gute Metapher, um halt eben über Technologie zu denken, also dass wir uns entwickeln sollen wie Vögel. Das Problem ist, dass es leider nicht so ganz der Realität entspricht. Z.B. hat das basierend auf einer 2013 Studie herausgefunden über die sogenannten Clipschweiben. Und diese Studie ist etwas kurz, ja nicht besonders weitsichtig, schaut sich nur an die Barske an und schaut sich da an, wo die Vögel halt in der Nähe von Verkehr gelebt haben, wenn er näher in der Brücke und hier raus dann eine Extrapolation der Daten zu machen. Da glaube ich tatsächlich, dass das wieder eine Metapher dafür ist. Nämlich dafür, dass wir Statistiken überinterpretieren, um Hype zu generieren. Und ja, das ist eben missführend und das ist halt auch wieder eine Metapher von dieser ganzen Sache. Und jetzt kommen wir tatsächlich eher zum Computervisualistik Teil von der ganzen Sache, um das Ganze mal irgendwie in ein gewissen Maßstab zu setzen, wie viel Information von einem sehr kleinen bisschen visuellen Informationen extrahiert werden kann, nämlich genau einem Pixel. Das hier ist das eines der populärsten oder das populärste Bild in der Welt, und ja, man kann es gar nicht sehen, weil es eigentlich transparent ist, und der einzige Sinn von diesem Bild ist Daten zu sammeln. Ja, denn diese Art von Bild lebt über das ganze Ökosystem von Werbern und Werbeagenturen und Werbeagenturen. Und ja, es ist halt so ein bisschen eine Hülle gewonnen dafür, Daten zu sammeln. Wenn wir halt diesen Pixel dann auch ausfüllen können, können wir 256 verschiedene Werte haben, wenn wir es jetzt nur in Graustufen betrachten, und diese Zahl wächst sehr schnell, je größer wir halt das Bild machen, nämlich quadratisch. Das heißt, in einem 2x2 Bild haben wir 4 Millionen Kombinationen, und dann wird das ganz schnell ganz viel mehr größere Zahlen. Das heißt, schon ab 7 bis 6, ja, schon bei einem Bild von 7x6 Pixel haben wir schon die Möglichkeit, zu 95% okaye Gesichtserkennung oder genaue Gesichtserkennung durchzuführen. Und ja, dieser Datensatz bestand da nur aus weißen Männern, aber ja, wenn dann halt eben das Datacet noch ein bisschen größer wird. Wenn man es zu 14x14 auf Pixel hat und 12x16, dann kann ich einen Encoder bauen, dann kann ich sogar Szenen erkennen, da geht es weit über Gesichtserkennung hinaus, da kann ich mein nachhernalles Netzwerk darauf trainieren, Bewegungsabläufe zu speichen und 640x480 Runterscaling und die Knowledge oder das Wissen darüber, den Werkzeugkasten bei 16x12, gibt viel Information und ganz wenig Trigger. Das ist 1240x400 sehr groß. Die nächsten vier Bilder sind die optionelle Aktivierung von CCTV-Überwachungsalgorithmen. Also wenn man den Algorithmus sucht, um das perfekte Gesicht zu beschreiben, dann wäre das der passende Algorithmus. Also mit einer sehr, sehr großen Wahrscheinlichkeit der richtigen Auserkennung. Jetzt gehen wir mal auf 100x100, was können wir mit 100x100 Pixel machen? Ich, mir geht die Zeit lauft ja davon, sehe ich daraus. 100x100 ist ein 2,5% eines Instagram-Fotos. Also wir haben schon gesehen, bei einem Pixel kriegen wir relativ viele Informationen rein. Da können wir schon bei 97% Wahrscheinlichkeit der richtigen Erkennung von, ich kann einen ganzen Haufen reduktiven Texte nehmen zum Algorithmus, einen Markup-Chain machen und das kann ich mit 2x6 Pixel schon einbeten. Es ist nicht eine Redaktion, es ist eigentlich nur eine Reduzierung, aber es ist alles, was du brauchst, damit du weißt, was du wissen willst. Jeden Tag werden ungefähr 370 Millionen Bilder auf Facebook hochgeladen. Was passiert mit all diesen Bildern? Es gibt hier eine Menge Gesichter drinnen. Jedes Gesicht, das hier aufgeladen wird, auf Instagram oder Facebook, wird analysiert und wird die Information herausgezogen, nicht nur aus dem Gesicht, sondern auch aus der Metadaten, die zu einem Bild gehören. Ich führ' einmal ganz schnell vorbei, die über welche Unternehmen das machen und was sie damit machen mit diesem Daten. Ich werde auf die Widerlichsten mich konzentrieren. Facebook ist eine Vergleichung mit Standard-Gesichter, aus der wie ein Bingo-Player aus, wie ein Tourist, ein Poker-Spieler. Bist du schlau? Und die finden, klassifizieren dich einfach nur nach deinem Gesicht. Irgendwie soll dein Gesicht mit deinem DNA entstand und dein Gesicht kann beschreiben, was du kannst, ist ein Zitat. Das klingt irgendwie ziemlich verrückt. Ja, irgendwie klingt so ein bisschen nach eugenik. Das heißt, dass man quasi die Möglichkeiten und Fähigkeiten einer Person allein von ihrer physikalischen Erscheinung abhängig macht. Ja, was ist denn zum Beispiel mit Leuten, die gar nicht in der Soldatenmarkt drin sind? Oder, ja, eine andere Forschungsgruppe beschäftigt sich damit, Kriminalität vorherzusagen, indem man zum Beispiel die Kurwung der Lippen sich anschaut, innere, also der Augenabstand und so weiter. Und das scheint wohl auch, weil ziemlich aussagekräftige oder interessante Korrelationen zu verursachen. Also, wenn wir jetzt nur, also, ja, also Wissenschaftler haben sich halt eben diese 100 mal 100 Bilder angeguckt und dann geschaut, wie man die dann für Marketing nutzen kann. Das heißt, wir haben hier eine Klassizierung, wie vertrauenswürdig man ist, wie sozial man ist oder wie hat man es. Und all das erinnert mich ein bisschen an Francis Golden über Eugenik. Also, wer, wer wäre also der tatsächliche Kriminelle in diesem Kontext? Das wären dann eben die Leute, die diese Ideen weiter verbreiten. Und es gibt tatsächlich viele interessante Sachen, die man da so herausziehen kann, die man auch da zu nutzen kann, um eben das System auszutricksen. Wenn man zum Beispiel einen breiter Mund hat, wird man vielleicht gewählt als Anführer. Wenn man vielleicht einen schmaleren Mund hat, dann wird man wohl besser für eine NGO sein als für eine große Firma. Man kann auf die Beziehungen zwischen diesen 100 mal 100 Pixel-Bildern gucken, um halt eben die Beziehungen zwischen den verschiedenen Personen zu extrahieren. Man kann auch den Puls extrahieren, wenn man ein Video hat, indem man den Grünkanal verstärkt und dann daraus eben den Puls ableitet. Oh, ich habe auch Zeit, diese lustige Geschichte zu erzählen. Jetpack ist eine Firma, die jedes öffentliche Pixel auf Instagram analysiert und die verkaufen dann diese Technologie an Google. Instagram gehört natürlich Facebook. Super natürlich, wenn man Facebook-Sachen an Google verkauft. Und ja, die haben halt auch wieder Informationen aus dem Gesichtsbereich genutzt und daraus dann eine Art Führer erstellt. Das ist ein hipster Schnurrbalt, wo man Frauen treffen kann. Irgendwas mit Lippenstift. Und ja, außerdem kann man auch wirtschaftliches Verhalten aus hervorhersagen. Man kann tatsächlich viele Sachen besser vorhersagen als Menschen, ungefähr 20 Prozent besser. Und ja, das machen wir jetzt etwas kürzer. Aber das wäre so ein Beispiel, wie es aussehen würde, wenn wir quasi viele Algorithmen auf ein Bild anwenden, um es zu verbessern. Ein anderes Unternehmen, Kairis Emotion, nehmen die Attribute, die ich vorher erwähnt habe und assoziieren sie, holen Attribute heraus, klassifiziert und machen daraus Datenbanken. Was machen wir mit diesen Informationen? Und das sind 2,5 Prozent eines Instagram-Fotos. So wie ich das früher schon erwähnt habe, werden sie gebraucht. Man könnte sich das System beginnen zu geben. Man könnte sich Camouflage tarnen. Man könnte das modifizieren. Das könnte natürlich mit der Computerüberwachung zusammenspielen. Dieses Schnellprojekt nennen wir Hyperface. Und wir versuchen, diese Elemente zu nehmen, also von traditionellen Klassifizieren oder mit Info-Aufnahmen, also Hitzeaufnahmen und die Profile erstellen. Und dann nehmen wir diese Informationen und dann machen wir eigentlich einen Overload. Wir oversaturieren de facto Informationen um den Computer, den Algorithmus, der Gesichterkennung abzulenken. Das schaut sehr viele Gesichter. Das ist einfach Computer-Informationsüberlagung. Kann ich die Gesichter kennen? Dann kriegt er hier ungefähr 1200 oder mögliche Kombinationen und das deaktiviert ihn. Das kann man noch ein bisschen verbessern. Das kann man noch ein bisschen aufpixeln. Und dann kann man es nachher in einem Netzwerk etwas Ähnliches machen. Dann kann man das nehmen und kombinieren. Textile Patterns machen, also Stoffoberflächen. Dann kann man das Environment um einen herum modifizieren, was man selber trägt, was der Nächste trägt, was man gemeinsamstlich trägt. Das ist Kombination mit heißem Labs in New York City, wird das gerade aufgelegt. Nadespekulativer Afrofeminismus. I'm sorry, ich kann nichts dafür. Dieses Projekt soll im Jänner erscheinen. Ich hätte gern aufgehört mit dieser Slide. Das ist der Richard Rees. Das ist ungefähr 100 Jahre her in New York. In diesem Foto trägt jeder einen Hut. Heute trägt er niemanden Hut. In weiteren 100 Jahren wird sich das wieder so total verändern. Lass uns hoffen, dass wir dann so ausschauen, dass wir unsere Privatsphäre damit optimieren und uns schützen vor den Bösen. Danke schön.