 quand vous êtes en voyage quelque part vous avez bien tout mis dans votre valise pour y aller et quand vous partez c'est un petit peu dur de tout remettre dans la valise et balasser pareil. Donc parlons de notre speaker aujourd'hui Adam Harvey habite à Berlin et habité à New York City, qui ici a vu la campagne sur les coques de téléphone qui bloquent les fréquences radio. Quelqu'un ? Non. Adam va nous parler de surveillance et de contre-surveillance au supermarché les 50 technologies les plus voulues et les moins voulues pour la surveillance et la contre-surveillance respectivement au supermarché. Merci tout le monde d'être venu ici c'est mon premier CCC et dans le titre de cette présentation je voulais parler à la base je voulais parler de 60 entreprises qui font de la surveillance dans le supermarché et en faisant ça j'ai trouvé 50 façons de déjouer cette surveillance c'est-à-dire de la contre-surveillance en supermarché. Ce que j'ai réalisé en faisant cette présentation c'est que c'est un travail sans fin. Il y a des milliers d'entreprises et c'est une bataille sans fin pour rester à jour avec toutes les méthodes, toutes les tactiques de surveillance et pour changer vos habitudes pour pouvoir s'ajuster et conserver sa vie privée quand on fait ses courses. Alors du coup j'ai changé un petit peu la présentation pour mettre l'accent sur un aspect et j'ai réduit ça à la photographie et la vision par intelligence artificielle et même dans cette notion de vision par intelligence artificielle j'ai réduit ça à juste l'analyse des visages. Alors pour moi ça a commencé quand je travaillais en tant que photographe j'étais à New York c'était il y a à peu près 12 ans et c'était mon métier j'étais photographe professionnel et j'ai vu des citations de Seine Santag et j'ai lu un livre qui a vraiment influencé ma perspective sur le pouvoir la capacité qu'a une caméra de capturer et de posséder et de transformer les gens en objets qu'on peut posséder et sur lesquels au final au final desquels on peut contrôler l'histoire. Je pense que c'est très clair quand on regarde le comportement des paparazzi, leur comportement agressif, c'est ces photographes qui sont presque attaqués les célébrités mais je pense que ce qui est moins clair c'est comment est ce que cette histoire se développe au fur et à mesure que les photos sont postées sur l'internet, sur les réseaux sociaux etc. Et pour parler de cette vision par nature je voudrais introduire un petit peu l'histoire de la vision par nature, ce n'est pas complètement nouveau. En 1963 c'est la première instance que j'ai rencontré sur le sujet d'un des documents récemment déclassifié de la cv. C'était une proposition pour une vision simplifiée, pour une reconnaissance faciale simplifiée d'une machine de reconnaissance faciale. Finalement en 1963 la technologie n'était pas vraiment où elle avait besoin d'aide pour rendre le service de manière robuste et précise. Mais pendant les décennies suivantes et en particulier en 1969, trois chercheurs japonais ont beaucoup progressé et ont été capables de détecter les premiers visages humains avec une vision par nature. Donc j'aime penser que ces premiers visages, les vraies corrections de visages humains, qui sont un peu comme des têtes de brocoli, reviennent un petit peu aux premières peintures dans les cavernes, les premières fois qu'un ordinateur a été capable de comprendre de manière très primitive ce que c'était que d'avoir l'air d'un être humain. Dans les années 70 et 80 la vision par informatique a fait des gains modérés. Et dans les années 90 ce programme appelait Ferret, qui était financé évidemment par les militaires et l'Épartement de la Défense. Et c'est une étude de faisabilité pour voir si la reconnaissance faciale pouvait avoir un rôle significatif dans l'application de la loi et dans les défectifications des combattants ennemis à distance. Alors ceci a mis en route ce que Paul Vivio appelle la logistique de la perception militaire. Et en 2001 un algorithme qui a beaucoup changé les choses d'apparu, l'algorithme de Veola Jones, cet algorithme était unique parce qu'il était très efficace et offrait une précision suffisante pour gérer l'intolérance et faire une analyse un petit peu coude et bénéficier des problèmes qui pouvaient donc permettre de mettre de la reconnaissance faciale dans du matériel embarqué à court. Ce que ça a mis en place c'est l'implicité de la détection des visages dans plein d'appareils différents et en 2001 ça a vraiment changé le modèle où on peut mettre de la vision informatique. On n'avait plus besoin d'un magnétaire géant, on avait juste besoin d'un petit ordinateur léger embarqué. Bien sûr ça a créé beaucoup de problèmes pour la deprivée. Est-ce que maintenant vous avez des ordinateurs qui peuvent reconnaître la vie, la vôtre visage qui peuvent extraire ces données là, qui commencent à faire des analyses faciales et ça ne coûte pas très cher, ça demande du matériel peu cher. Alors OpenCV et la détection de visage ont commencé à se propager dans une sculpture. Ce qui est apparu vers 2008, c'était une véritable poussée vers de la photographie computationnelle qui utilise des appareils photos presque sans interaction humaine pour reconnaître des gens, pour extraire des connaissances à leur sujet. De la même façon que Suzanne Santag parle d'utiliser un appareil photo pour extraire la connaissance et posséder les gens en tant qu'objet. Maintenant c'est très clair que vers 2005-2010 que c'est quelque chose qui va se passer, que l'histoire va se donner par ça et que ce sont les ordinateurs qui vont écrire cette histoire. Donc en 2010 j'ai travaillé sur un projet qui avait pour but de moduler son apparence pour produire un score de confidence dans la reconnaissance faciale qui s'est modifié. Le projet s'appelait CVDASAV et l'idée c'était de jouer sur la vulnérabilité, de profiter de l'élection faciale et d'exploiter ceci avec des cheveux et du maquillage. Donc en y jouant sur les parties de visage qu'on maquille on peut réduire la confidence qu'a l'algorithme en votre reconnaissance faciale. Voilà ce qui se passe quand on fait un test sur les images et c'est vraiment un cas sous-titre. Vous pouvez voir de manière très lente, ralentie, comment ça fonctionne et c'est vraiment lire une image de gauche à droite comme on le voit. Vous pouvez voir le résultat de l'algorithme à gauche qui a une haute confidence sur votre visage et si on accélère et qu'on va jusqu'à la fin, on va voir que zéro confidence pour le score sur ou un peut-être un rectangle mal placé comparé à très haute confidence, le score de haute confidence qu'on a à gauche. Une autre façon de regarder ça, c'est d'utiliser ce qu'on appelle une carte de science. C'est un peu comme une carte de chaleur pour voir où l'algorithme de vision, là où il a regardé ce qu'il a trouvé intéressant, ce qu'il n'a pas compris et donc on peut retourner voir où les yeux de l'ordinateur ont regardé l'image. Récemment, des chercheurs, Votek Fridge, à l'université de BN de l'Ouest, a fait une étude sur ces védasols pour déterminer s'il était efficace ou non. Ce qu'il a découvert, ce n'est pas efficace 100% du temps, ce qu'une d'ailleurs je ne pense pas devrait être la demande sur du camouflage, ça n'a pas besoin d'être à 100%. C'est souvent mal compris comme la câble d'invisibilité dans Harry Potter. En fait, c'est plutôt une façon d'optimiser la façon dont on apparaît au monde extérieur et de réduire la visibilité, les déplacements dans le spectre étoignétique, même un court moment pour évider et pour échapper l'observation. Alors si c'était 100%, bien sûr, ce serait très bien, mais je ne pense pas que ça devrait être un but pour un système de camouflage. Le résultat de cette analyse montre que le motif le plus efficace, c'était quand on couvrait la zone autour du nez. Quand on avait ce genre de camouflage, on avait à peu près 69% de réduction de détection. Si on compare ça à ce qu'on appelait le camouflage d'Azel, donc le camouflage d'embrouille de la première guerre mondiale, la question était si ça s'était vraiment efficace ou pas. Roy Burnett, qui est un historien du camouflage, a dit que l'Azel a été évalué et qu'il avait à peu près 50% d'efficacité. Comme je l'ai dit, 50% c'est pas très bien comme camouflage, mais si on arrive à éviter une torpille sur 20 qui aurait fait exploser le bateau, c'est déjà pas mal. Alors depuis que j'ai travaillé sur ce projet, c'est un peu pris, c'est propre aux ailes. Ça c'était sur une mission télé qui s'appelait Elementary. Ils ont pris les idées de ce que j'avais posté en ligne, ils ont réinterprété ça à leur propre façon, ce qui des fois marchait bien et des fois marchait de façon très intéressante. Mais je suis heureux de voir que globalement les gens font des expériences avec cette idée, cette nouvelle approche et que ça donne des résultats. Alors suite à ce projet qui était en 2013, on a pris conscience d'un nouveau type de surveillance, la surveillance thermale. Alors ça c'est pas quelque chose qui s'applique beaucoup au monde du commerce au détail, au supermarché pour le moment. Parce que bon, c'est quelque chose qui coûte quelques centaines de dollars, qui coûtait des milliers de dollars, mais maintenant coûtent des centaines. La différence de prix fait que maintenant c'est quelque chose qui se rapproche beaucoup des consommateurs. Là vous pouvez voir cette tentative, ça ressemble beaucoup plus quand même à la capte d'invisibilité d'arrippoteurs. C'est une capte qui est recouverte de plaquettes d'argent. Donc ça peut être porté comme un hijab et ça c'est un moyen d'éviter les drones. L'idée de la burqa c'est que c'est une façon aussi de reinterpréter une robe, un symbole religieux, mais que c'est une façon d'éviter les drones. On n'est plus là pour faire de la séparation entre l'humain et Dieu, mais une séparation entre l'humain et les armes, les drones. Alors vous pouvez voir ici, donc ça c'est une vue de test, comme si on jouait au jeu photo hunt. Si il y a des gens, on les voit très clairement à cause de leur signature thermale, mais ici il y a une cinquième personne qui porte cette burqa anti-drones. Alors peut-être qu'elle est dure à voir à cause du videoprojecteur, mais ça va devenir plus clair quand il y aura du mouvement. Mais sans aucun mouvement on peut voir que la visibilité est proche de zéro quand on porte cette burqa anti-drones. Donc c'est très clair. Bon là on peut voir les jambes, bien sûr ça s'est fait exprès. Mais si vous avez quelqu'un qui sort d'une boutique ici, et d'ailleurs c'est en hiver, donc il y a quand même une différence de température, vous pouvez voir cette personne là qui brille complètement. Alors ces projets, on essaye quand même d'avoir une approche un petit peu ludique, mais ça touche quand même, ça s'approche quand même de problèmes très sérieux, les problèmes de liberté, les problèmes de surveillance de masse. Et ce que je peux pas prédire c'est qui est-ce qui va trouver ces projets menaçants ou intéressants. Après que j'ai publié le premier projet, une personne qui trouvait ça intéressant c'était l'Air Force, l'armée de l'air américaine, qui a fait un tweet dessus. Et l'autre c'est plutôt amusant, c'était une demande pour une publication interne uniquement par une agence gouvernementale, une séjour sa 3 lettres, et qui demandait la permission. Alors moi j'aurais jamais su s'il y avait publié. Alors quand on travaille dans ce domaine, on se pose la question de comment est-ce que les gens perçoivent ces projets. Il y a eu une demande de commentaire à la NSA qui a refusé de dire quoi que ce soit à l'essu. Et ça, ça m'a fait demander où est la limite dans ce genre de travail, ou jusqu'où on peut aller, et est-ce que je suis déjà allé trop loin. Alors je pense qu'il faut aller le plus loin possible. Donc on a repris cette idée de ces vêtements, et puis on a fait une boutique qu'on a appelée la boutique cadeau de la vie privée, donc on essaye de pousser ces idées. C'est une façon d'utiliser cette boutique pour normaliser ce type de commerce. Il y avait une présentatrice qui a donné une présentation ici qui disait que la culture populaire c'était un facteur de normalisation, et je pense que moi d'avoir cette boutique ici, c'était une façon aussi d'avoir un effet normalisateur sur quelque chose, parce qu'il y a quand même en même temps des discours qui sont absolument terrifiants sur les questions de sécurité nationale. Alors il y a eu d'autres présentations qui sont très bien, et je voudrais vous pointer des doigts à ces présentations pour que vous les regardiez, et ça me permettra de parler au-delà de simplement ce sujet-là. Donc ça c'était un talk sur la surveillance globalisée, ça c'est un autre talk sur la surveillance dans des écosystèmes anonymes comme Tor. Parce qu'on est dans un monde maintenant où on peut détecter les émotions avec du wifi, avec des réseaux sans fil. Alors ça c'est plutôt facile à bloquer, vous achetez un brouilleur pour 10 dollars, c'est un petit appareil, vous pouvez le transformer en brouilleur, et ça ça permettra de brouiller les systèmes de détection de mouvements et d'émotions. Et un autre élément c'est la surveillance humanitaire qui utilise la signature gaussienne de votre téléphone pour avoir une idée de vous-être à 2 mètres près à l'intérieur d'un environnement commercial. Ça aussi c'est facile à bloquer avec des aimants en plaques, qui vont se mettre sur votre coque de protection de métal. On peut modifier la signature gaussienne, c'est magnétique du téléphone. Donc ça sur les techniques sont assez faciles à contourner. Sinon je veux parler donc, c'est la vision de l'ordinateur. Comment est-ce qu'on peut moduler notre apparence pour en tout temps minimiser le dégâts sur les privés ? Alors je suis tombé sur. Quand on faisait une heure on est inspiré partout, mais qu'est-ce qu'on a de mieux que de s'inspirer des oiseaux qui changent tout le temps ? Ils ont des ailes plus rond maintenant, c'est quelque chose qu'on essaie de faire sur les voitures aussi. Je trouve ça que c'était une métaphore attalassante pour répécher la technologie. Nous aussi on a besoin d'évoluer comme les oiseaux. Alors le problème c'est que ce n'est pas vraiment vrai. Lockheed Martin, basé en se basant sur une étude de 2013 sur les zé rondelles de Valais, ça va un petit peu dans le mauvais sens pour une gentille. Elle est un peu miope cette étude. Elle ne regarde que le Nebraska déjà et les oiseaux vivent proches de deux ans de trafic avec un pont. Alors pour extrapoler de ces données là, c'est la métaphore là en fait. C'est justement une métaphore sur l'interprétation des statistiques pour créer beaucoup de hype et de vendre des technologies qui ne nous donnent pas le vrai coût qu'elles ont envers la société. Je pense que la métaphore est vraiment là en fait. Et j'arrive enfin à la partie vision par ordinateur. Pour parler un petit peu d'échelle, pour mettre l'échelle en place, combien de données on peut avoir, un tout petit peu d'informations visuelles. On va commencer par un pixel par un pixel transparent. Et ça c'est l'image la plus populaire du monde en termes de nombre de fois que ça a été déchargé, affiché. Alors bien sûr on ne peut pas le voir parce que c'est transparent. Et le seul but de cette image c'est de collecter des informations à propos de vous. Donc ce pixel on le trouve sur Google.com et aussi sur tout l'Internet. Il prend 43 octets, c'est une image très petite. Et ça peut être une bonne métaphore sur ce que sont les images aujourd'hui. Les images ont devenu une façon de collecter des données pour le début de surveillance. Donc si on ajoute de la couleur, on a 256 valeurs possibles, pardon on aurait blanc. Gris, on a 256. Ça augmente très rapidement. Si on augmente la taille de l'image, si on augmente ça à deux pixels par deux pixels, on a 4 milliards de possibilités. Si on a 4 par 4 pixels, là on a 3,4 x 10 puissance 36. Si on arrive à 7 par 6 et là on a assez d'informations pour reconnaître un visage. 7 par 6 pixels de niveau de gris, c'est suffisant pour faire 95% de reconnaissance faciale dans le set de données d'AT&T. Alors ce data set, c'est que des hommes blancs, ce n'est pas une bassinée très très grande. Mais bon, même avec des informations comme 4 par 4 piquettes, on a quand même... Même quand on est à 14 par 14 pixels, quand on est à 12 par 16, on peut créer un encodeur qui va faire de la reconnaissance de scène et d'activité. Donc ce qu'on fait dans ce cas-là, c'est qu'on est en train d'un raisonneur renal dessus et au lieu d'interpréter une image, une image si grande, on la réduit et on prend les données, la connaissance qu'on a 12 par 16 pour les analyser. Donc beaucoup, beaucoup d'informations dans un espace d'image très réduit. Si on prend un 20 par 20, on a 256 puissance 400. Donc un espace dimensionnel très important. Et les quatre prochaines images sont les images d'activation optimales de OpenCV. Donc si on demandait à l'algorithme de décrire le visage parfait pour lui, voici les visages le plus parfait que la Goathe pourrait demander. Ça l'active de manière maximale avec une confidence, avec une confidence très élevée. Les différents profils sont appelés des arbres alternatifs à des trees. Alors si on passe en 100%, qu'est-ce qu'on peut faire à 100 pixels par 100 pixels ? Je sais que je vais pas avoir le temps de finir. 100% c'est 2,5% d'une image Instagram. Quand on a pu le voir, montant d'un pixel, même un pixel, il y a beaucoup d'informations déjà. On a 100%, on peut séparer avec une 100%, en 209, avec du temps du roman. On peut séparer à 97% quand on réduit chaque caractère à un pixel. Ce que ça veut dire, c'est qu'on peut prendre beaucoup de textes qui a été censuré, lui passer à travers un algorithme, à une chaine Markov, et on peut savoir que des textes ne sont pas vraiment censurés, c'était juste de la réduction, et parfois il y a assez d'informations pour vous dire ce que vous avez envie de savoir. Tous les jours, il y a environ 370 000 de photos envoyées sur Facebook, sur la famille Facebook, Instagram et Facebook. Qu'est-ce qu'il y arrive à toutes ces images qui contiennent beaucoup de visages ? Beaucoup de ces visages font plus de 100 pixels. Chaque visage qui est uploadé sur Instagram ou Facebook est analysé et possédé, et la connaissance est extraite, pas seulement du visage, mais également de toutes les métadonnées qu'il y a autour. J'ai donc fait un sondage assez rapide des entreprises de ce qu'elles font avec ces données. Alors je vais essayer d'une des les plus importantes facepshon qui regardent comment voir à quoi ressemble votre visage pour eux, donc si vous avez une tête de théoriste de poker, de genre de poker, c'est quelqu'un d'académie qui a un cuit assez élevé, et savent tout ça en regardant votre visage. L'idée c'est que votre visage serait d'une façon reliée à votre ADN, et votre très physique décrirait qui vous êtes, vos performances en tant qu'humains. Ça a l'air assez dingue, comme le génisme de mon face. Dédire les gens par rapport à leur très visuel, en très physique, mais ce n'est pas les seuls, mais peut-être donc à IQ et Traverti, à ce d'autres choses qui peuvent dire à propos de vous pour savoir si vous soyez quelqu'un qui pourrait bien promouvoir une marque. Un autre groupe de recherche veut prédire la criminalité basée sur la courbature des lèvres, la distance des yeux, l'angle des blouches, ce qu'ils ont trouvé, et que c'est que le visage de visage de visage criminel et non-criminel ont des variations qui sont distinctes. Encore une fois, beaucoup d'autres chercheurs essayent de voir comment prendre ces images de 100% qui sont très petites, la donner les binocles dedans, et les transformer en des idées qui pourraient être utilisées pour le marketing. La connaissance pour l'utiliser pour le marketing. Voici une longue liste, une longue liste de choses que l'on peut vous faire confiance si vous êtes sociable, si vous êtes typique, si vous êtes étrange, et ce que tout ceci me rappelle heureusement, c'est Francis Galton et le génisme, et qui sont les vrais criminels dans ces cas-là, qui sont en fait les gens qui perpétuent et qui appliquent cette idée, et pas les gens qu'on observe, mais les gens qui sont les observateurs. Alors il y a des choses intéressantes qu'on peut apprendre là-dedans. Par exemple, si on apprend la façon dont on vous regarde, vous pouvez aussi essayer de vous déjouer du système en modifiant des petites choses. Par exemple, si vous avez une bouche plus grande, il y a plus de chances qu'on vous choisisse comme chef, par exemple comme PDG de l'entreprise. Par contre, si vous avez une bouche plus étroite, il y a plus de chances que vous travaillez pour une ONG. Vous pouvez simplement regarder la relation entre ces régions de 100% qui permettent de déterminer les personnes plus importantes dans une image. Vous pouvez trouver le rythme cardiaque de quelqu'un sur une vidéo, en regardant notamment le canal vert, et toujours sur des images de 100%. Et il faut que je raconte cette histoire. Jetpack, c'est une entreprise qui analyse chaque pixel qui est postée sur Instagram de la façon publique. Ils ont vendu leur technologie à Google. Instagram, bien sûr, appartient à Facebook. Donc c'est une façon de vendre les données de Facebook à Google. Et ce qu'ils font, c'est juste qu'ils prennent les informations des régions qui contiennent des visages et ils écrivent des guides. Par exemple, c'est quels sont les bons endroits pour aller où il y a des moustaches de hipster ? Où sont les photos de gens avec du maquillage, du rouge à lèvres ? Et ça, c'est fait à partir de photos qui sont implodées sur Instagram. Et au-delà de ça, on peut essayer de prédire le comportement économique juste à partir d'une photo. Vous pouvez prédire les capacités des gens à prendre des décisions, au moins 20% mieux en ayant cet analyse des photos. Donc voilà rapidement un exemple de ce que ça ferait de passer plusieurs algorithmes sur des images de selfies. Donc ça retient plus d'informations que juste à la tête. Vous avez le visage, mais vous avez aussi toutes les métadonnées et toutes les relations autour de ça. Voilà, une autre entreprise. Il y en a plusieurs. Cairo, Emotion, Clarify, Effectiva. Tout ça, c'est des bons endroits qui travaillent dans ce domaine-là. Ils utilisent certains des attributs dont j'ai parlé et aussi cette liste d'environ 78 attributs et les attributs sur le visage et 47 choses qu'on peut inférer à partir des attributs. Alors qu'est-ce qu'on peut faire à partir de cette information qui est contenue dans seulement 2,5% d'une photo Instagram ? Donc ce que je regardais dans mes projets plutôt, ça me fait me dire qu'il y a une opportunité de changer nos visages et une opportunité d'avoir du camouflage et de changer notre rapport à ces choses. Une opportunité aussi de modifier les choses autour de nous, les choses qu'on trouve autour de nous et de façon à interférer avec la vision par ordinateur. Donc mon nouveau projet s'appelle Hyperface Hypervisage et le but ici est d'affaire le plus d'activation possible des algorithmes, soit avec des activations classiques, comme par exemple si l'image qu'on a vu sur OpenCV, voilà par exemple une heat map des zones les plus importantes sur un visage, en prenant cette information et en donnant exactement à un algorithme ce qu'il veut on peut le surcharger. On peut remplir un endroit complètement de dizaines de centaines de visages de façon à complètement saturer l'algorithme pour sa détection. Donc ça c'est un prototype, un des premiers prototypes qu'on a eu. Alors cette image peut-être un petit peu peur mais l'idée ici c'est d'avoir le plus possible d'activation en superposant des visages et quand vous donnez ça à un algorithme de vision par ordinateur, il détecte jusqu'à 1200 visages possibles, donc des visages avec un score de confiance suffisamment élevé. Voilà notre image qui cherche à avoir un petit peu un style de camouflage et vous pouvez faire quelque chose de similaire avec des réseaux de neurones. Vous pouvez activer le neurone qui détecte les visages dans la zone neurone en prenant ces images et en les combinant. Par exemple des motifs sur du textile, ça ça pourrait être utilisé pour modifier l'environnement autour de vous ou à côté de vous, que vous le portiez à côté de vous, que vous le portiez sur vous. Ce projet c'est une collaboration avec Hyperlabs à New York City. Pour leur nouveau travail, l'afrophémisme neuro-spectulatif. Donc on va malheureusement devoir s'arrêter là. Je vais terminer sur cette diapositive qui m'a été printée par mon ami Richard Ries, qui montre une scène d'il y a 100 ans à New York. Attends, regardez cette photo, tout le monde porte un chapeau. Si vous regardez dans ces pièces, vous perte un peu de chapeau. Dans 100 ans, on aura une transformation similaire dans la mode, dans la façon dont la chanson se présente et à quoi ça ressemblera. On peut espérer que ça ressemblera à quelque chose qui va de se présenter d'une manière où on optimise notre vie privée et qu'on le primise. Optimiser par rapport au réglage de la surveillance de masse. Je m'arrêterai. Merci, merci tout le monde.