 Je suis content de vous annoncer le prochain speaker. J'étais censé dire quelque chose de ce qu'il fait, mais je peux seulement dire que c'est quelqu'un de nous. Charles Stross, mesdames et messieurs. Je suis content de redécir. Je vais commencer par... je voulais dire que je suis désolé de ne pas pouvoir parler allemande, donc c'est pour ça que c'est en anglais. Je suis Charles Stross, et c'est mon job de... J'écris des livres, et j'écris de la sensation sur le futur. J'écris de la sensation sur le futur sur ce qui est vraiment impossible et très difficile dans les temps actuels. Et maintenant je veux dire... L'homme est à peu près 300 000 ans d'âge. Donc au début 200 000 ans d'histoire, maintenant 300 000 avec les décorations. Et pour la majorité du temps, c'était vraiment facile de dire le futur. La majorité du temps, 50 ans dans le futur, était plus ou moins comme 50 ans dans le passé. Pour 99 % des personnes, le futur était invariant. Et il y a quelque chose qui a changé. Le futur change tellement rapide jusqu'aujourd'hui que le futur est tellement rapide qu'on a un changement qu'on ne peut vraiment plus le voir. T'as dit que la science et des ornateurs n'est plus à partir, selon les ornateurs mais plutôt comme aussi l'astronomie comme construire des télescopes. Le futur est de plus en plus étrange. Quand je parle avec du futur, si je prends 90 % des prochaines 10 années, aujourd'hui les voitures sont construites pour tenir dans les prochaines 10 années. Les voitures que vous voyez maintenant vont être autour 20 des prochaines 10 années. Les bâtiments sont construits pour tenir 30, 40 années. Tout ce que vous avez aujourd'hui va être présent dans le futur. 80 % du futur sont déjà ici. Après, 90 % il y a déjà 9 % du futur qui peut être facilement décrit. Avec morse law on peut détruire le futur, on peut être un peu créatif et on n'est pas vraiment faux. Si moi je vous le dis, avec mon chapeau du futur, en 2026, le 4G ne va plus être au courant, 5G va être au courant et 5G va être pas cher. C'est plus facile de prédire que les nazis vont prendre au revoir. Il y a vraiment pour les 1 % donc il y a toujours 1 % qui est vraiment l'idée des 1 % qui est quelque chose qui est totalement pas prédictible. Donc qui aurait pensé 20 ans que la droite prenne aujourd'hui autant de pouvoir. Donc 80 % du futur est déjà ici, 9 % peuvent être prévus et 1 % est plus ou moins allé à 3. Mais ça a changé, donc aujourd'hui 80 % du futur sont déjà ici, 15 % ne sont pas là encore mais peuvent être prédites et 5 % ne peuvent pas absolument être prévus. Avant que je continue, je vais prendre une ou deux minutes. Je veux parler de la singularité. Quelque vous pense que les livres soient singulétrés, pense que ça va bientôt arriver avec une technologie de singularité. Donc vous pensez que ça va arriver bientôt. Malheureusement, c'est pas ça qui va se passer. Je pense que le consumérisme, c'est une hérésie, un sens chrétien de la chose. Les gens qui sont maintenant ne peuvent pas s'échapper à ces défauts de la civilisation. Si vous connaissez la notion de cette paterne, la conception dans la programmation, vous savez que c'est une façon de simplifier la réflexion pour donner du... rendre le code meilleur. Et si on applique la même façon de penser à des processus narratifs, et qu'on cherche les endroits dans lesquels des idées chaussées efficatives se passent, eh bien on peut voir que dans le consumérisme, on a en fait, en quelque sorte, réinventé la chrétiennité. Si on regarde ce que font les transhumanistes aujourd'hui, ils suivent beaucoup la philosophie d'un philosophe russe, Nicolas-Ile Ritch, qui partait de l'idée, les équations sur le vole de carburant qu'il faut pour faire voler les fusées. D'autres concepts dans cette philosophie, comme le Basique de Rocco, si vous ne connaissez pas ça, désolé, je viens de vous condamner à l'enfer éternel. Avec des concepts comme ça, les philosophes réinventent la notion de péché originel et la notion même de péché tout court qui vous condamne en futur. Donc l'idée de la singularité, c'est quelque chose qui dit quand on regarde la singularité, on se dit que ça marche comme un canard, ça parle comme un canard, c'est probablement un canard, la singularité, c'est une religion. Quand on écoute les choses de la singularité, il y a des morceaux qui disent que c'est des choses qui vont se passer, peut-être, mais il n'y a rien de déterminant, c'est des indices, c'est pas des preuves. On peut inventer des IA de plus en plus puissantes, mais on est loin de faire des choses qui réfléchissent ou qui pensent comme un être humain. À la place qu'on a, c'est des outils qui s'optimisent eux-mêmes pour avoir une meilleure compréhension à chaque fois. Ce n'est rien d'avoir avec un être humain, c'est comme dire un Boeing 747, c'est comme un GOL. Les deux peuvent voler, mais les Boeing 747 ne pompent pas d'eux et ne chient pas sur les voitures. Penser à la singularité comme ça, c'est un moyen de simplifier ce qui est espèce dans le futur, mais je vais essayer de présenter pour vous un meilleur modèle. Donc, comme mon ami Scottish aime dire, l'arme secrète de la science-fiction est l'histoire. L'histoire, c'est un documentur comment les gens ont fait quelque chose dans le passé. Le temps, quelque chose qui disparaît. Nous prenons l'histoire comme un placard plein d'idées sans le temps pour écrire nos sciences-fiction. Donc on peut prendre beaucoup de thèmes et les recycler pour les idées actuelles. Mais l'histoire est utile pour beaucoup plus de choses que l'écrire de la fiction. Nos mémoires personnelles ne sont pas vraiment très longues. J'ai 53 ans et je ne m'en rappelle plus vraiment des années 70 ou des années 60. Donc j'avais 16 ans et je ne m'en rappelle plus vraiment. Mon père est mort à 93 ans et vraiment, lui, il se rappelle les années 30. Il ne se rappelle pas vraiment de la grande dépression mais il peut un peu comparer avec la situation financière des années 2017. Nous sommes vraiment obssés par le changement et donc nous sommes obssés par réessayer les choses et refondre les mêmes erreurs, ce qui se répète tous les 70 ou 100 ans. Donc il faut vraiment de meilleurs tours. L'histoire nous donne une idée de ce qui s'est mal passé dans le passé. Nous devons regarder là-dedans pour voir les répétitifs et les erreurs qu'on a fait souvent. Donc là, on peut regarder vraiment dans le passé et c'est un exemple aussi qu'on peut prendre dans la création d'intelligence artificielle. Donc c'est quelque chose qu'on peut vraiment regarder l'idée des interventions artificielles qu'on voit aujourd'hui et regarder ce qu'il y avait dans le passé. Laissez-moi citer Wikipédia un petit moment. A la fin du 18e siècle, Stephen Kay a été traité sur les lois des entreprises en Angleterre et ça définissait les entreprises comme une collection d'individus unis en un corps avec une dénomination spéciale qui est investie par un acte de loi et qui agit de bien des façons comme un 5 individus. Les privilèges et les immunités d'un individu, ça a des droits politiques assez étendus d'ailleurs et c'est reconnu par diverses institutions. Surtout sa lutte pour son propre succès et sa propre subsistance. Et est-ce que ça, ça ne sonnerait pas un petit peu pour vous comme un logiciel. En 1944, une loi est passée qui disait que n'importe quelle personne qui vous laisse entrer comme une entreprise devait payer une taxe. Et ça, ça permettait de limiter l'accès aux études d'entreprises des personnes. Ces lois ont été étendues pour limiter la responsabilité des actionnaires d'entreprises pour donner à ce qu'on a maintenant qui est la doctrine de la personnalité des entreprises. Alors beaucoup de choses sont passées entre le XVIe et le XIXe siècle. J'ai évité de parler des changements qui sont passés dans le monde agricole qui permettaient de produire beaucoup plus et qui ont apporté une croissance économique chuteantesque puisque bien sûr il n'y avait plus de famine, la médecine l'a permis d'amolir, les épidémies, etc. Torlage du commerce par voie maritime et je n'ai pas parlé non plus de toutes ces guerres à base de poudre noire. J'ai évité de parler également de la traite des esclaves et de toutes les horreurs racistes qui sont produites là-dedans. Je n'ai pas parlé non plus de la montée du féminisme et de l'hypération des femmes qui a changé profondément la société. J'ai même pas parlé de ce qu'on appelle le siècle des Lumières et de tous ces changements philosophiques qui ont apporté aussi beaucoup au monde moderne. Mais je parle ici d'un phénomène scientifique qu'on peut comprendre. Ce qu'on peut dire, c'est que les compagnies, les entreprises, sont comme des gens. Ils ont des buts, ils agissent pour ces buts, ils ont un cycle de vie naturelle. Il y a pas si longtemps, on savait que l'entreprise avait une durée vie de 60 ans. Maintenant, on est plus à 20 ans. C'est un phénomène de prédation. Les entreprises sont des cannibales, elles se mangent les unes des autres. Ce sont aussi des prédateurs et il y a des grosses entreprises qui vont chasser des petites entreprises. Aujourd'hui, ce qu'on peut voir, c'est que ces entreprises s'automatisent plus en plus. Les humains au sein de ces entreprises ne sont gardés qu'aussi longtemps que nécessaire. Et tant dès qu'ils deviennent moins efficaces qu'un morceau logiciel, ou qu'un autre être humain, ils sont remplacés. C'est comme si les organes, comme les organes d'un autre corps, ou plutôt les cils d'un autre corps qui sont interchangeables. Une cellule du foie peut être remplacée par une autre cellule du foie. On pourra penser que les entreprises existent pour servir les artirais ou les désirs de leurs présidents ou de leurs dirigeants. Mais non, même les présidents et les dirigeants peuvent être remplacés quand l'entreprise décide qu'elle n'en a plus besoin. Enfin, ce qu'on peut voir, c'est que l'environnement qu'on a dans la société aujourd'hui, ça a été conçu pour faciliter la vie des entreprises et pas des humains. Même les structures politiques et structures sociétées s'inspirent de plus en plus de ce qu'on trouve dans les entreprises et pas ce qu'on trouve dans la vie des êtres humains eux-mêmes. Donc, maintenant, Elon Musk, vous avez connait tout, est vraiment obsessé par cette intelligence artificielle. Donc, il veut un paperclip optimiser. C'est un software qui fonctionne comme un cerveau dans un box. Donc, c'est une artificielle, une intelligence artificielle qui est un simple but. Il peut s'améliorer lui-même. Il a un simple but. Il veut convertir tous les métaux dans l'univers, dans des clips au papier. Mais je pense que Elon Musk ne fait pas assez attention. Si vous regardez ces propres entreprises, Tesla n'est pas un optimiseur de paperclip, mais un optimiste de batterie. SpaceX maximise le matériel qui peut apporter en espace. Sur la city, il maximise le photoretaïque. Donc, il a beaucoup d'intelligence artificielle. Elles qui sont vraiment lentes, mais sont optimisées pour un simple but. Donc, si on est Elon Musk, ce n'est pas un problème, puisqu'on va passer ça au traitement Mars. Mais je parle beaucoup de Musk parce que c'est millionnaire actuellement de tech. Donc, il fait beaucoup de dérangements techniques et il a beaucoup d'idées. Si c'était quelques années en goût, peut-être une année dans le passé, je parlerais de Steve Jobs ou je parlerais de quelqu'un d'autre, ici, encore, dans le passé. Le problème avec les entreprises est que même, indépendant de leurs idées et ce qu'ils font, ils ont tous une implicite optimisation pour un but et c'est de faire l'argent. Si ils ne font pas assez d'argent, ils vont disparaître. Donc, généralement, ils veulent... ils travaillent sur leurs buts passifs en travaillant sur un but qui est plus visible. Donc, ils veulent gagner beaucoup d'argent en faisant un produit, en fait. Même la culture fabriquée des outils s'est devenue une culture classique de faire le plus possible d'argent. Les entreprises attachent à tout ce qu'elles font en espétation politique. Les gouvernements réchaissent à ça en créant des technologies de contrôle. Et on peut voir parfois des entreprises et des gouvernements qui sont dans des duels d'ordre non pas juridique mais législatif. Par exemple, si on regarde les voitures, on ne peut pas avoir un transport de masse en voiture si on n'a pas des stations de service et des pipelines pour distribuer les sens. Donc, ça, c'est des choses qui devaient être construites. Et très rapidement, on en arrive à des conséquences qui sont une armée gigantesque qui envahit l'Irak et des armes de destruction massives en Arabie sautite. Les effets de ces politiques, c'est qu'on se retrouve avec des banlieues à l'infini extrêmement peu denses parce que c'est ça qui justifie le besoin de la voiture. C'est pourtant une solution qui, à l'échelle de l'humanité, est bien moins efficace que d'avoir des bus ou des trames. Les voitures individuelles sont beaucoup moins efficaces. C'est là qu'on peut voir que les entreprises vont dépenser de l'argent pour l'oblier contre le bien commun. Pourquoi est-ce qu'on a besoin de choses comme ça ? Par exemple, si on regarde dans les années 60, l'administration du rail au Royaume-Uni décommissionnait énormément de lignes. Et ça, c'était au profit des fabriquants de voitures. Ça, c'est quelque chose qui a été orchestré par le Premier ministre, Marpaul, qui était simplement politiciens. Et il a fait sa fortune personnelle. Ça n'a rien à voir avec le fait qu'il a acheté énormément d'actions dans des entreprises automobiles. Pas du tout de conflits de terrain. On peut voir que toutes entreprises, les entreprises qui fabriquent des voitures, de façon isolée ne peuvent pas être considérées directement comme un de ces utilisateurs de paperclip. Il faut voir également les entreprises qui font de l'essence, les entreprises qui distribuent l'essence. Tout cet écosystème d'entreprises et de secteurs d'activité qui sacrifie chaque année des millions de personnes. C'est le prix qu'on paye pour ça. C'est quelque chose de continu qui a des conséquences qu'on peut comparer à la Première Guerre mondiale. Et la seule but de cette chose, c'est de vendre des voitures. Alors, bien sûr, les voitures, c'est pas uniquement du danger. Les voitures sont régulées pour la sécurité de leurs occupants. Elles sont rapides, elles consomment peu, elles polluent beaucoup moins. On peut remercier le gouvernement d'avoir poussé dans cette direction. Si on regarde, il n'y a pas si longtemps, dans les années 70, il n'y avait pas de derbag. Dans les années 50, il n'y avait même pas de ceinture de sécurité. Même un peu avant ça, il n'y avait même pas forcément de frein sur les quatre voitures. Survivre à un crash, c'était quelque chose qu'on pouvait avoir uniquement par chance, si on était éjectés de la voiture et qu'on en sortait sans se casser la nuque. Les gouvernements ont mis en place ces régulations pour... Donc, la première fête de régulation était vraiment que des entités capturées et les industries dont elles ont control. Avec la FCC, Abji Paiwai a juste décidé de remover la neutralité du net. Et ils ont travaillé ensemble avec la Société Journal Console, avec Verizon en fait. Donc, ils ont recommencé Belle en fait à s'éreformer en tant que Verizon. Pourquoi est-ce que quelqu'un qui a intérêt dans un réseau qui est transparent, pourquoi est-ce qu'on devrait le réguler après ? Vraiment, si on veut réguler une technologie complète, il faut avoir les personnes qui comprennent cette technologie. Et généralement, ces personnes-là sont insiders en fait. Donc, vraiment, Abji Paiwai est vraiment très clair comment Verizon est contrôlé et il veut changer quelque chose, mais ce n'est pas vraiment dans l'intérêt public. Donc, généralement, ces personnes-là, les personnes qui ont une idée technique, ils parlent ensemble avec les régulateurs pour vraiment faire plus de profit en créant des barrières. Et un autre problème est les délais de régulation. Le problème que la technologie avance plus vite que les régulations qui les concernent. La directive européenne concernant le cookies sur les cookies, c'était important dans les années 90, mais il a pris jusqu'en 2011 pour être appliqué. Donc, les fingerprint et les tracking sont quelque chose qui était vraiment déjà très commun à l'époque. Et il a pris beaucoup de temps pour arriver à ce moment pour que les législations arrivent à ce point-là. Si vous regardez Uber, la communauté européenne, la Cour des Covenetons a dit que c'était un taxi et pas un noignable. Donc, le problème, c'est que Uber est présent sur la planète entière. Et il y a beaucoup de milliers d'entreprises. Et donc, le problème, c'est qu'un conducteur de taxi doit attendre beaucoup de temps. Si il doit attendre 8 ans pour quelque chose qui régule son business, c'est quelque chose qui peut devenir très difficile. Alors, pour récapituler, premièrement, on a des entreprises qui veulent optimiser le nombre de paperclips qui produisent. Deuxièmement, on a des mécanismes pour donner le plus de pouvoir possible à ces entreprises pour qu'elle puisse produire le plus possible de paperclips. Enfin, on n'est pas dans la vision naïve du paperclip Maximizer. Ces entreprises ont plusieurs agendas, c'est pas simplement de fabriquer plus. Leur but, c'est de faire le plus de profit et de s'étendre dans le plus de dimensions possible pour faire encore plus de profit. Alors, maintenant, j'ai une longue liste de choses à dire sur comment tout ça s'est passé, comment est-ce qu'on arrivait là. J'ai pour moi l'impression que j'ai, c'est que tous ces changements politiques qui y a eu, c'est le résultat de la capture en 1917 et après 1917 par ces grandes associations artificielles qui étaient des entreprises. Partout où je regarde, je vois des gens qui protestent contre le pouvoir en place. On peut voir ça par exemple avec l'élection de Donald Trump, c'est un exemple de ça. Les partis politiques dominants sont contrôlés par des gens qui ont créé le système qu'on a aujourd'hui et un système qui a été créé sur des décennies. Nous vivons dans un monde qui a été mis en place, qui a été construit pour les besoins de ces intelligences artificielles que sont les entreprises. Nous sommes ici au CCC, alors on s'intéresse plus aux ordinateurs et à la technologie de la communication qu'à tous ces conneries historiques. Mais, comme je le disais, pourquoi est-ce qu'on étudie l'histoire ? L'histoire, c'est quelque chose de bien parce que ça nous permet d'éviter des choses qui se sont déjà passées, d'éviter de refaire des erreurs qu'on a déjà faites. Et si on regarde ces intelligences artificielles lentes que sont entreprises dans l'histoire, qu'est-ce qu'on peut apprendre sur les intelligences artificielles rapides qu'on a aujourd'hui ? Déjà, les intelligences artificielles qu'on a aujourd'hui sont enrobées, sont construites au sein d'une erreur fondamentale qui a été faite en 1999, qui a changé les processus démocratiques et qui nous empêche maintenant de comprendre le monde autodono. Cette erreur, c'était la décision de financer la construction d'un World Wide Web, du Web, via la pub comme moteur financier, au lieu de faire une structure publique financée par les impôts. Si on regarde le Web en 1994, il y avait extrêmement peu de publicité. 1995, c'est l'année où le Web est arrivé chez les consommateurs dans le monde anglophone. Et personne n'avait la moindre idée de comment on allait payer pour ce truc. Et quelques personnes à cette époque ont eu l'idée de monétiser le Web pour la première fois. L'idée naïve à l'époque, c'était que le coût d'établir une connexion de CCP, on ne pouvait pas rendre ça payant directement. L'idée était de faire payer les gens de façon indirecte en mettant les pubs et quand les gens cliquent sur ces pubs, ils achètent quelque chose d'argent et reversé, aussi de conduits sur lesquels ils étaient. Malheureusement, l'industrie de la pub sur Internet, c'est une de ces IA, corporatiste très lente, dont je parlais déjà. L'idée, le temps n'est que maintenant on a toutes les paires dieux du monde qui regardent l'Internet. En fait, il était inévitable que ces boîtes de pubs se mettent à vendre des pubs pour changer les idées des gens. Le problème qu'on sait entreprise ici, c'est qu'une entreprise de pubs ne peut pas faire apparaître plus de gens qui peuvent regarder leurs pubs. Si je regarde, je n'ai tant que pour regarder certaines pubs chaque semaine. Et la plupart de ces pubs ne sont pas spécialement intéressantes pour moi, et du coup je les ignore. Donc pour faire le plus de profits à partir de notre temps de cerveau, la seule solution était de cibler les pubs le mieux possible à chaque père dieu qui va pouvoir les regarder. En d'autres termes, l'industrie de la pub optimise non pas des paperclips, mais optimise l'attention que vous portez à leur pub. Est-ce qu'il faut que je parte sur une tangente et que je parle de ce monstre horrible à Facebook pour... Oui, bon quelqu'un a dit oui, on se l'a parlé. Alors Facebook est à peu près autant un moteur de recherche que Google ou Camasone. Facebook a construit une ambiance de technologie pour retrouver les gens que vous n'avez pas parlé depuis 20 ans. Ils savent probablement cette personne avec qui vous n'avez pas parlé depuis 20 ans, où ils habitent, quelle couleur de chaussures ils ont, et pourquoi vous ne les parlez plus depuis 20 ans. Même si vous n'avez pas de compte sur Facebook, Facebook a un compte pour vous. Leur graphe social a vos connexions. Leurs graphe social sait qui sont vos amis et sait sur quelle photo vous êtes. Ils savent énormément de choses sur vous et ils vendent accès à ces informations même si vous n'utilisez pas Facebook. Au point où on en est, il n'y a presque pas de raison de ne pas utiliser Facebook. On est vraiment dans le côté toute résistance est inutile à la Sartrec. Facebook essaie de nous envoyer des pubs, Twitter aussi, Google aussi. Pour cela, la meilleure façon c'est de rendre le contenu qu'il vous montre plus attrayant. Et par attrayant, je veux pas dire plaisant. En tant qu'humain, on a un réflexe tout à fait naturel de preter attention aux horreurs qu'on peut voir. Et les algorithmes de Facebook et autres prennent tout à fait sa en compte. Vous réagirez probablement très fort si on vous montre une vidéo de quelqu'un en train d'être pendu en Irak ou sur un discours complètement outrancier de Trump aux États-Unis. Et donc ces algorithmes vont vous en montrer le plus possible, puisque après tout, si vous y prenez attention, c'est ça que vous voulez voir. Je vais revenir sur ces différences entre les IA informatiques et les IA corporatistes. Les IA informatiques ont besoin de données pour s'entraîner. Il y a quelques années, je suis tombé sur une webcam qui a été développée par quelques milliards d'air de la Silicon Valley et ils avaient des problèmes pour régler la balance des couleurs sur des visages qui avaient une peau foncée. C'est un exemple tout à fait robant de mauvaises données d'entraînement de ces IA corporatistes. Ils n'avaient pas assez de gens à la peau noire là-bas et du coup, ils ont fait un produit qui ne marchait pas sur ces gens. Si on regarde les premiers essais de Microsoft pour faire une IA de conversation, cet IA s'appelait Tay, cet IA survécu quelques heures, quelques jours seulement avant que des trolls de Fortune et cetera commencent à entraîner cet IA quitté sur Twitter toute la journée en lui donnant propos nazis, en lui apprenant les choses les plus horribles. Imaginez si dès la naissance on vous branchait sur Twitter et dès la naissance des quelques mois dans votre croissance, Fortune décidait de jouer avec votre cerveau. Aujourd'hui, si quelqu'un vient vous voir et vous dit vous tient des propos racistes et propos sexistes, vous allez vous en plein de vous aller rejeter ça, vous allez peut-être même les frapper. Mais ça c'est possible de le faire à votre chéri. Est-ce que c'est possible de le faire quand vous êtes une IA qui est une corporation ? Les IA corporatistes rendent les changements sociaux plus difficiles. Ces IA corporatistes ciblent les peurs et les craintes des individus pour leur profil. Présenter des choses effrayantes, présenter des choses qui vous faut réagir. C'est une façon de vous faire réagir et du coup d'avoir vos yeux qui regardent leur contenu. Qu'est-ce qu'on peut dire sur des algorithmes de deep learning qui ont été contaminés par des propos racistes dégueulasses qui étaient dans leur données d'entraînement et qui donnent des résultats qui ont complètement intégré ça mais on ne peut pas voir la source du problème. Je pense que ce n'est pas vraiment plaisant et vous allez dire que c'est vrai. J'écris de sci-fi, je fais des sci-fi et moi je vois les choses toujours positives mais ce n'est pas vraiment le cas. Beaucoup de technologies dans l'histoire sont très régulées. Si vous regardez l'impensé, vous regardez peut-être, et ce sont d'accord avec moi, que beaucoup, c'était bien de réguler beaucoup de technologies si on regarde au gaz qui est à clénaire ou les armes nucléaires. Mais ce n'est peut-être pas vraiment des armes mais on a aussi enlever les gaz réfrigérants et d'autres choses qui ont détruit d'autres environnements comme aussi on a enlever le plomb dans le gazoil parce que ça a tué des gens. Les technologies comme le gazonaire ou le plomb dans le gazoil, c'était quelque chose des années 30 et ça a été promové par des entreprises dans les années 30 et c'est quelque chose qui était totalement normal dans les années 40 et je pense que dans le 20e siècle, il est dangereux de prendre des nouvelles technologies comme ça parce que les stratégies existantes sont vraiment très lentes et on pose un problème pour ça. Laissez-moi vous donner quatre exemples de nouvelles AI qui allons entourer notre société et qui sont pires que les lentes AI que vous avez vu déjà. Nous devons prendre contrôle avant qu'elles prennent contrôle de nous. Je vais vous donner une liste de dangereuses AI qui vont venir dans le futur et vous devez penser à ce que vous allez faire prochainement et nous devons penser à ce qu'on fait. Le premier problème c'est le hack politique à travers la propaganda dans les médias sociaux. C'est quelque chose vraiment des années 30. Cambridge Analytica a montré que avec de l'IA, de l'AI dans les réseaux sociaux comme Facebook et Twitter on pouvait voir les affichations politiques des électeurs. On peut même voir les personnes qui sont vulnérables à la propagande et cela on peut leur diriger vraiment des idées, des publicités pour changer leurs idées. On peut développer un produit qui fait qu'on peut être à travers des médias sociaux vendre des idées comme des armes politiques et donc il y a beaucoup de choses. On le voit dans les élections présidentielles de l'USA, le referendum du UK au départ de la U. C'était vraiment une attaque du cyber à travers les médias sociaux qui étaient utilisés comme une arme. On en est à un point où les politiciens anticipent maintenant ces attaques de propagande sociale et savent qu'il va y avoir des emails qui vont être liqués et ce genre de choses et ils en sont au point de créer des faux emails pour que ces emails soient liqués plutôt que les vrais. J'essaie de ne pas prendre d'être un côté ou de l'autre, j'ai mes propres opinions politiques. Mais si on est dans un monde où les entreprises de réseaux sociaux ne font rien pour freiner ces actes de propagande on va être dans un monde où les élections c'est tout simplement la question de qui peut acheter le plus de troll. Et ce ne sera pas simplement des milliardaires comme les frères Koch ou reverseurs aux États-Unis qui donnent les élections à la personne qui leur fera les meilleures réduction d'impôts. Il y a d'autres choses, par exemple l'armée russe a une doctrine de la cyber guerre extrêmement développée qui dit qu'il faut utiliser des faux comptes sur les réseaux sociaux pour influencer les gens en plus d'attaquer les infrastructures. Tôt ou tard cette utilisation des armées de propagande deviendra complètement globale et le tissu social dans lequel on existe sera complètement détruit. A propos je déteste le préfix cyber devant les mots, ça dit vraiment que la personne qui parle n'a aucune idée de ce dont quoi il parle. Alors, depuis les années 90 le mot cyber guerre c'est un mot qui a pris de l'ampleur et maintenant on est bloqué avec ce mot, bon il est nul mais voilà on vit avec. Bon je retourne à mon propos. La deuxième chose à laquelle on doit penser en termes de régulation ou de contrôle c'est un autre type de contenu sociaux créé par du deep learning. C'est vraiment de la vidéo créée par des agents officiels. Ça fait des années qu'on sait faire des fausses images mais créer de la fausse vidéo ou du fausson c'est un niveau au-dessus. Alors heureusement c'est très coûteux ressource de créer de la fausse vidéo. Et bien plus maintenant, on a vu la première génération de vidéo pornographique assistée par des IA dans lesquelles les visages des stars sont remplacés par ceux d'autres personnes utilisant les logiciels. Alors évidemment le porno c'est la première chose qu'on a fait avec des nouvelles technologies c'est ce qu'on fait toujours, la règle 34 de l'internet s'applique toujours. Alors d'autres choses qu'on a en même temps. WaveNet c'est un système pour créer de la voix humaine qui sonne de façon réaliste et qu'on peut entraîner sur la voix de n'importe qui d'autre. On peut faire parler quelqu'un d'autre avec leur voix, avec un texte qu'on choisit. Alors actuellement c'est des choses qui demandent quand même d'être très technique, qui demandent des processeurs assez puissants mais dans moins de 10 ans c'est quelque chose qui sera partout que n'importe qui pourra utiliser sur leur ordinateur à la maison. N'importe qui pourra créer une vidéo de quelqu'un faisant quelque chose qu'ils ont décidé quelque chose que cette personne ne voudrait pas être vu en train de faire. On pourrait le faire avec des vidéos de Steve Bannon qui fait des choses horribles mais non c'est pas ça qui va se passer. On a déjà vu cette année des chaînes YouTube assez bizarres qui essaient de faire de l'argent à partir des marques de chocs pour enfants en récupérant le contenu de ces chocs pour enfants et en ajoutant leurs propres mots-clés, leurs propres pubs dedans. Ces canaux viennent d'autres optimisateurs de paperclé. C'est une façon de faire le plus d'argent possible de prendre des vidéos populaires, de rajouter vos pubs dedans et de les re-uploader. Si vous ajoutez à ça la possibilité d'un réseau de neurones qui peut assérer le personnage A dans la vidéo B pour maximiser le nombre de clics sur cette vidéo les choses vont venir très très bizarres plus bizarres quand ces outils-là vont être utilisés dans des buts politiques. On a tendance en tant qu'humain à prendre en compte ce qu'on voit et ce qu'on entend beaucoup moins si on le voit nous-mêmes on y croit beaucoup plus que si c'est des personnes sur Internet qui nous le disent et on est déjà très vulnérable à tout ce qui va être fausse d'information. Si on se dit qu'on fait confiance que à nos amis on pourrait se baser sur du chiffrement pour faire confiance uniquement à ce qu'il arrive et qu'il chiffrait par l'exprim de nos amis mais vous savez à quel point les gens sont mauvais pour utiliser la créto ça ne marchera pas du tout. Une chose qu'on a vu c'est que ces pubs, ces vidéos qu'on nous apporte c'est quelque chose d'addictif. Alors on est dans une société où voilà il y a du tabac, il y a de l'alcool, il y a de l'héroïne on peut reconnaître les choses addictives mais est-ce qu'on peut vraiment? Regardons par exemple les jeux de l'entreprise Zingya le but de ces jeux c'est de vous donner des récompenses à court terme pour générer un engagement émotionnel qui vous faut revenir sur ce jeu c'est tout aussi bien que des vidéos pour faire venir vos pères dieux sur leur pub. L'addiction au téléphone mobile c'est quelque chose d'aussi effectif pour rapporter de l'argent que ces vidéos dont je parlais Je parle beaucoup de deep learning ici On a des neurologues, des neurologistes qui peuvent analyser ce qui se passe quand on regarde ces choses addictives et qui peuvent les rendre encore plus addictives dopamine labs c'est une start-up qui fournit des outils au développeur d'applications mobiles pour rendre leurs applications encore plus addictives et pour limiter l'envie des individus de continuer à faire quelque chose d'adjectif de continuer à faire quelque chose qui n'est pas désirable Donc vraiment, si on parle d'un AI vrai on peut optimiser ces attracteurs on peut travailler et intensifier cela et ça résulte un abus un peu plus ou moins d'addictions qui sont utilisées dans ces logiciels mais les sciences ont été créées plus ou moins plus tard les sociopathes vont plus ou moins essayer à un moment d'utiliser, voire jusqu'en parler donc laissez-moi vous donner un scénario Ami a pris beaucoup de travail d'utiliser la recognition faciale dans les phoniques on peut pas vraiment le contourner et même avec un simple masque ou une faute en bas donc ça donne un map volumétrique du visage et fait attention que les yeux sont vraiment au bon endroit donc ça scanne aussi même les os et ça fait des checks continués donc chaque fois qu'on scanne le visage pour ouvrir le téléphone ça regarde le visage qu'on a changé et crée une structure qui est vraiment courante donc l'idée c'est de rendre compliqué pour un téléphone pour quelqu'un qui a voulu un téléphone d'utiliser mais si le téléphone peut voir aussi les expressions faciles il peut les utiliser aussi dans l'usage d'applications vraiment on peut le téléphone et tout courant des émotions quand on regarde le téléphone on peut vraiment voir ce qu'on aime bien regarder sur le screen, on peut voir les apps qui créent des émotions et ça c'est quelque chose que Facebook et Twitter on peut utiliser pour optimiser les publicités ou même utiliser des pornes ou générer du porne avec une AI pour targetter des kink qu'on n'est vraiment pas conscients mais qui sont révélés par nos émotions donc de toute façon l'application, le téléphone est conscients de notre système nerveux et ça va être utilisé pour créer des revenus donc finalement, j'aimerais parler de quelque chose qui est vraiment fou et ça va beaucoup plus loin que le deep learning et la propagande dans le savoir-être en 2011, une entreprise d'ogiciel russien a réussi à créer une app qui s'appelle Les Fils autour de moi Apple a enlevé le truc du store tout de suite mais l'application avec GPS a la position de la personne, l'utilisateur et après connecte à force square, à Facebook pour regarder des personnes qui peuvent être utilisées pour une relation avec une simple recherche donc des femmes qui sont singles à part Facebook ou des gens qui sont présents avec force square et après l'application montre la personne dans une carte et après on peut aller voir les directement donc aujourd'hui aujourd'hui ça a vraiment créé un changement dans la manière dont on utilise les apps de dating malheureusement, ça peut être encore pire et ça peut être utilisé pour des gens qui font des viols en série Est-ce que ton profil sur le sociémutéa montre ta ton affiliation politique ou logiste ? Non mais Cambridge Analytica a montré qu'avec 99,99% ils peuvent voir en scanant tes tweets et ton Facebook les choses que tu as like, ils peuvent en déduire ton affiliation et ils peuvent aussi te retrouver sur les cartes et on peut même commencer une app qui construit des flashmob on peut imaginer que toutes les personnes qui sont contre l'abortion ont une app et peuvent se connecter et chaque fois que quelqu'un on peut créer des flashmob autour d'une clinique d'abortion Vous êtes un homme, vous êtes gay et il y a des gens qui sont contre les gays qui ont un gaydar 100% fiable pour détecter qui est gay et ça permet de diffuser votre position à des fous qui veulent vous casser la gueule pour ça Vous êtes au Pakistan il y a de la tension entre chrétiens et musulmans il y a des dizaines de possibilités des centaines et il y a quelqu'un qui travaille sur chacune d'entre elles il y a des gens quelque part qui sont en train de créer une app qui utilisera de la gamification pour vous encourager à être violent envers quelqu'un qui n'aime pas il y a des gens qui vont chercher à vous encourager à former des groupes violents pour aller attaquer des gens imaginer Pokemon Go ou Ingress mais à but politique imaginer que les gens jouent à un jeu tout à fait innocent et qu'à un moment donné ça buscule dans ce genre de choses violent les créateurs de cette app c'est pas un état qui cherche à détruire ses ennemis c'est juste un optimisateur qui fait ce qu'il fait normalement le papier et le métal c'est vous merci beaucoup c'était la traduction du talk de Charles Trost maintenant nous allons passer autant de questions je suis Christian avec moi et si vous avez du feedback vous pouvez nous contacter sur twitter on passe au question vous pouvez aussi nous écrire à Hello Arbaz à un moment si vous avez du feedback nous espérons que vous avez tout compris est-ce que vous pensez que c'est vraiment aussi horrible et dystopien que ce que vous décrivez parce que si on regarde l'internet il y a quand même des choses positives qu'est-ce que vous pensez de ça est-ce qu'il y a un équilibre là dedans je pense que à peu près 3% des gens d'entre nous sont des psychopathe de sociopathes est-ce que ça serait pas génial si quelqu'un a fait une app qui identifie tous les psychopathe comme ça on pourrait juste les tuer on les a aujourd'hui mais le futur gris dystopien n'est pas inévitable mais il faut qu'on empêche tous ces choses négatives qui vont se passer pour ça il faut qu'on les anticipe et ce que j'essaie de faire dans cette présentation aujourd'hui c'est de dire aujourd'hui réveillez-vous voilà à quel point les choses peuvent devenir horribles ce que je disais sur le fait que le monde aujourd'hui est cassé comment est-ce qu'on peut réguler ces technologies de deep learning, voilà des questions qu'il faut répondre alors quand tu parles des entreprises en tant qu'AI est-ce que tu les vois dans des AI naturelles ou figuratives littéralement plutôt si tu es familier du paradoxe il a monté dans les années 70 qu'une art de chance artificielle est impossible une entreprise est plus ou moins une AI dans une box en entre des données et puis il y a des données qui sortent il n'y a pas vraiment une différence ce qui se passe à l'intérieur il n'y a pas trop de différence donc il faut vraiment être à un niveau très abstract pour les voir comme AI mais plus et plus de compagnie sont sur ce trend en fait ils ont beaucoup de caractère d'avoir cet AI merci pour cette présentation vous avez peut-être temps de parler de l'idée du manifeste du time well spent et de l'éthique dans le design pour éviter les dark patterns les façons de faire dans une app qui sont mauvaise néfaste pour l'être humain et je me demande si vous avez quelque chose à dire là-dessus si vous avez des choses à ajouter sur comment est-ce qu'on peut éviter ces choses-là alors je connais cette notion de dark patterns je sais qu'il y a des gens qui essaient de lutter contre je ne suis pas courant d'un manifeste contre ça moi j'ai 53 ans ça fait 15 ans que je ne programme plus j'ai tellement rouillé qu'il y a de la rouille sur ma rouille mais ce que je peux dire c'est que oui c'est une tendance qui m'inquiète beaucoup et que de l'activisme contre ça c'est un très bon début mais c'est comme ça qu'on commence à résoudre le problème les entreprises évaluent tout en termes de revenus parce que c'est ce qui les pousse à avancer les entreprises n'ont généralement pas de cadre moral dans le cas évolué nous en tant qu'être humain il nous faut un cadre moral même si c'est chose aussi simple que ne pas faire de mal à l'autre ou faire ton voisin comme tu voudrais qu'il fasse envers toi il faut qu'on parle au développeur et qu'on leur rappelle que ce sont des êtres humains et qu'il sache que l'humanité dans la technologie c'est le point de départ de tout salut alors et beaucoup de gens dans la publique ont les idées de juste quitter Facebook parce que ça a fait peur mais c'est quelque chose ça nous rend silencieux en fait parce que après l'élection je suis revenu sur Facebook parce que Donald Trump est sainement organisé sur Facebook et c'est pour ça que je suis revenu dessus parce que je ne peux pas seulement le quitter parce que si quelqu'un d'autre travaille dessus parce que social media est vraiment la seule bonne plateforme qu'on a pour exprimer nos idées vraiment moi je n'ai pas utilisé Facebook pour beaucoup d'idées donc on m'a beaucoup parlé de Facebook tout le monde m'a demandé si j'ai Facebook mais moi je dis j'ai un blog depuis 1983 mais j'ai besoin d'utiliser Facebook parce que aujourd'hui ne pas utiliser Facebook c'est comme ne pas utiliser d'emails on doit faire c'est d'avoir un contrôle sur Facebook comment les algorithmes montrent les contenus ce que j'ai dit avant les algorithmes ne sont pas aussi transparents que les humains et ça s'applique sur Twitter et Facebook parce qu'ils contrôlent les informations qui montrent en fait donc malheureusement on n'a plus de temps de répondre à toutes les autres questions merci beaucoup Charles Strauss pour ce talk