 Bienvenue tout le monde au camp 2019, c'est vraiment, vraiment excitant de vous présenter ces dernières conférences. Ce soir à Curie, la scène principale, on a Gillian aujourd'hui qui parle de la modération de contenu en ligne. Elle est la co-fondatrice d'une organisation sur la censure et directrice de l'EFF. Elle est écrivaine, actrice, activiste et si vous voulez écouter quelque chose de plus sympa, elle a écrit un livre sur les animaux qui font de l'espionnage. J'en suis déjà fatigué. Bonjour. Je ne peux pas vous voir très bien, c'est sympa parce que comme ça je n'aurai pas le track, mais c'est vraiment génial que vous soyez ici à 9h du soir. Ça veut dire que vous êtes soit mes amis, soit vous êtes vraiment très intéressés par ce sujet et dans les deux cas j'espère que je vais vraiment vous donner une histoire sympa. Alors je vais commencer par une histoire intéressante. Ce visage, ça vous est peut-être familier et si vous travaillez chez Facebook, ça devrait vous être familier. Je vous explique pourquoi dans un moment. Si vous savez qui c'est, allez-y dites-moi. Non. Alors ça c'est Hassan Asrallah, du S-Bola. Et le S-Bola, comme vous le savez, c'est une organisation basée au Liban, une organisation militaire. Certains pourraient dire que c'est une organisation terroriste comme par exemple le gouvernement américain qui l'appelle comme ça. Et voilà ici le drapeau que vous voyez par-dessus son visage. C'est probablement quelque chose en quoi il ne croit pas vraiment qui est le drapeau de la pride, de la marge d'affierté. Et donc la raison pour laquelle je vous ai de photo ici, c'est une histoire intéressante. Un de mes amis qui est journaliste d'Osémyra Arabini a posté ça comme un espèce de commentaire ironique sur le fait que quelqu'un qui était plutôt de gauche en particulier dans son cercle de amis pouvait avoir une forme de dissonance cognitive dans son support de certaines personnes, comme par exemple de certains groupes comme le S-Bola. Et en même temps, supporter certains droits comme par exemple les droits LGBT. Et ça c'est pas l'extrême partie intéressante. Ce qui est intéressant c'est qu'à cause de ce poste qu'il a fait sur Facebook, son compte a été suspendu par Facebook pendant un certain temps et ce poste a été supprimé. Et donc je comprends et vous comprenez aussi que ces entreprises ne veulent pas supporter l'extrémisme sur leur plateforme. Mais ce qui est intéressant c'est que dans ce cas-là c'était pas du support ce qui l'apportait par ce poste. C'était une forme d'ironie. C'était peut-être même une forme de dénigrement de ce groupe. Donc une forme de contre-manifestation. Mais bon, Facebook a quand même, pour des raisons auxquelles je vais venir dans une minute, supprimer ce poste. Il y a un petit peu d'écho sur la table, sur la scène est-ce qu'on pourrait limiter ça. Super merci. Donc Facebook tout comme beaucoup d'autres plateformes a ses propres règles. Dans ce cas ici on a les règles de Facebook sur ce qu'ils appellent les individus dangereux et les organisations dangereuses. Donc ça parle à la fois des organisations théoristes, extréministes comme par exemple celles que les États-Unis ou les l'Union européenne mettent sur des listes de groupes terroristes. Ça sert aussi à couvrir des groupes comme des organisations nazies, aux organisations de la suprématie des blancs ou même des groupes comme par exemple des gongs, des gongs de rue ou des groupes violents d'une autre nature. Et donc vous pouvez voir ça et par respect pour les traducteurs je vais en lire qu'une petite partie afin de limiter et d'éviter les violences dans le monde physique. Nous ne permettons pas aux organisations et aux individus qui soutiennent une mission violente de s'exprimer sur Facebook et ça inclut les choses qui sont listées ici. Et nous supprimons également le contenu qui supporte ou fait l'apologie des groupes ou des personnes qui sont impliquées dans ces activités. Et ensuite il y a une passage qui part spécifiquement du terrorisme. Et donc sur cet autre slide on peut voir des leaders, des gens qui sont à la tête d'organisation qu'on peut voir dans les journaux et des gens qui dont parlent peut-être sur Facebook, Twitter etc. Et voici ce dont ça ressemble pour les gens qui font la modération eux-mêmes. Donc ça c'est un slide qui a été publié dans The Guardian, le journal The Guardian. Et ça faisait partie des choses qui étaient montrées aux gens qui sont en charge de prendre les décisions de modération sur ces plateformes. Ça c'est des choses que eux voient. Donc ça ça leur montre des symboles et des leaders. Et quand ces symboles ou ces leaders sont mis sur ces plateformes et qu'il n'y a pas un commentaire autour qui explique que ce n'est pas juste pour faire l'apologie, on considère que ça fait l'apologie de ces personnes et il y a une remarque avec qui est qu'il faut supprimer cette publication. Donc si on se rappelle de ce qu'il y avait il y a quelques slides avec le visage du leader du S-Bola avec le drapeau de la Pride dessus, on peut considérer qu'il n'y avait pas de contexte et que donc ça devrait être supprimé d'après les règles qui sont mises dans ce slide. Alors moi je ne suis pas tout à fait d'accord. Connaissant le contexte, je suis capable de comprendre qu'avec à cause de ce drapeau il y a un contexte qui est apporté. Mais le modérateur lui qui est quelqu'un qui est peut-être basé aux Philippines ou à Dublain ou au Texas on ne sait pas, n'a pas forcément la connaissance politique, sociale ou même technique pour comprendre ce contexte. Et donc en voyant ça, ils comprennent peut-être pas forcément ce que ça signifie. Et donc ils suivent les instructions qui étaient par exemple dans ce slide et ils suppriment le poste. Et donc sur un autre de slide on voit ici quand quelque chose est posté pour condamner quelque chose. Si vous postez quelque chose, vous êtes en train de condamner une organisation violente. Les instructions pour les modérateurs sont différentes aujourd'hui d'ignorer le poste et de ne pas le supprimer. Donc vous voyez ce qu'on a maintenant. Mais je vais parler un petit peu dans d'autres exemples un peu plus tard de comment les gens peuvent être affectés par ça. Mais avant qu'on fasse ça, je vais parler un petit peu de l'histoire derrière tout ça. À la base il y a dans les jours bien plus tôt des réseaux sociaux. Le terrorisme n'était pas explicitement bannis de ces plateformes. On parle quand même de quelque chose qui s'est passé après l'an septembre. On parle de 2008-2009. Et à cette époque-là, dans les termes et conditions de ces plateformes, il n'y avait pas le mot terrorisme. Ça n'apparaissait nulle part. Et si on regarde à cette époque-là, très peu de politiciens avaient l'air inquiets de l'existence du contenu lié à Al Qaeda sur les réseaux sociaux. Donc ça c'est un des groupes, il y a des groupes qui sont plus controversés, où tout le monde n'est pas forcément d'accord sur ce que c'est groupe terroriste ou pas. Mais Al Qaeda, en Occident, tout le monde n'est quand même plus d'accord pour dire que ça devrait pas être sur les plateformes. Et pourtant à l'époque, les politiciens n'étaient pas très inquiets dessus. Et à l'époque, ça c'est une anecdote intéressante, le CEO de Google, Eric Schmidt, a défendu le droit de poster du contenu non violent en disant que c'était de la liberté d'expression. Pour être plus précis, il a reçu une lettre du sénateur Lieberman aux États-Unis, qui est fait partie de ceux des politiciens qui ont mis beaucoup de pression sur les entreprises aux États-Unis pour limiter ce genre de contenu. Et donc Lieberman a trouvé du contenu sur YouTube, du contenu d'Al Qaeda, du contenu qui était même graphiquement violent, explicite, mais aussi du contenu qui était simplement des conférences, des sermons, des choses comme ça. Et donc il a écrit à l'équipe du YouTube, qui a reçu une lettre, et répondu, et ça c'est la réponse publique qui est toujours disponible en ligne, et qui dit, alors on respecte et on comprend les points de vue du sénateur Lieberman, mais YouTube supporte la liberté d'expression et veut que chacun ait le droit d'exprimer son point de vue. Il ne le dise pas explicitement, mais ça veut dire, y compris Al Qaeda. Nous pensons que YouTube est une plateforme plus riche et plus intéressante si les gens peuvent exprimer des points de vue différents et plutôt que d'avoir des vidéos dès qu'ils sont toutes d'accord. Et ça c'est un débat qui est sain. Donc on peut en parler après la présentation ici, mais je trouve ça très intéressant de se dire aujourd'hui, de regarder une lettre d'il y a dix ans, dans laquelle le CEO d'une très grosse entreprise de réseaux sociaux défendait la présence du contenu théoriste sur sa plateforme. Et quelques années après, en 2012, vous vous rappelez peut-être de cette citation de Tony Wang, qui a priori n'avait pas le droit de dire ça, mais il était quand même directeur général de Twitter, et il disait qu'il souhaitait rester neutre sur le contenu de leur plateforme, puisqu'il se considérait comme étant l'aile de la liberté d'expression du parti de la liberté d'expression. Donc jusqu'à ce point-là, Twitter n'avait jamais supprimé quoi que ce soit sur requête d'un gouvernement étranger. Ça a changé peu de temps après et ils sont mis à supprimer d'autres types de contenus par la suite. Mais à cette époque-là, ils étaient encore sur l'argument qu'ils faisaient régulièrement, que le contenu théoriste était sous le couvert de la liberté d'expression. Donc maintenant il y a à peu près toutes les plateformes majeures ont une forme de ban sur le contenu théoriste au extrémiste. Et c'est pas forcément exprimé toujours de la même façon, mais soit dans leur termes et conditions, soit dans leur blog, ils parlent de théorisme ou d'extrémiste. Et on a aussi l'Union européenne, l'Allemagne, la France, le Royaume-Uni, etc. qui ont mis en place des lois avec des punitions pour les entreprises qui ne supprimaient pas ce contenu. Et les entreprises ont aussi été mises sous pression par le gouvernement américain pour supprimer ce genre de contenu. Alors je pense que tout le monde est au courant de ce qui se passe exactement, mais juste au cas où, la façon dont le contenu est régulé aux États-Unis, il y a des lois dessus qui disent que les entreprises n'ont pas de responsabilité sur le contenu que les utilisateurs postent. Mais si ils décident de les modérer ou de le supprimer, ils les laissent faire. Donc ce qui veut dire que si la boîte n'est pas au courant, c'est bon. Mais en même temps, ça veut dire que si Twitter par exemple décide qu'il n'aimait pas les chats, il peut décider d'enlever tout ce qui est sur les chats et la loi serait ok sur ça. En même temps, vous connaissez le premier ramenement aux États-Unis qui parle de la liberté d'expression. Mais du coup, vu qu'il y a ces deux lois qui sont un peu le courant de l'autre, ce que l'a fait le gouvernement jusque-là, c'est que le gouvernement juste appelle discrètement les boîtes et demande à ce que certaines choses soient supprimées. Donc un exemple par exemple, c'était en 2012, la première fois que j'ai vu que ça se passait, même si la boîte ne dira jamais que ça s'est passé, c'était une vidéo qui s'appelait l'innocence des musulmans et donc, je sais pas si vous vous rappelez mais moi, je me rappelle. Donc cette vidéo, c'était quelqu'un qui était chrétien et égyptien qui habitait aux États-Unis et qui se moquait de l'islam. Et en fait, cette vidéo était vraiment mauvaise, très moche qualité, très, très offensive dans tous les niveaux. Et le gouvernement des États-Unis a demandé à YouTube d'enlever la vidéo et donc à cette époque-là, sur YouTube, les gens de YouTube ont dit non, on ne va pas l'enlever parce que c'était leur état d'esprit. Et puis ensuite, la branche exécutive a rappelé YouTube après ça et a dit bon, tu ne veux pas l'enlever alors si, et si on l'enlevait juste en Égypte et en Libye. Donc YouTube s'en est occupé et ils ont décidé de le faire parce qu'ils ne voulaient pas qu'il y ait eu plus de terrorisme. Donc à l'époque, c'était un peu différent donc ils se feraient très attention mais au final, c'est le gouvernement américain qui a demandé à une entreprise d'enlever du contenu dans notre pays parce qu'ils ne peuvent pas le faire même, ce n'est pas leur gouvernement. Mais de nos jours, c'est quelque chose qu'on voit qui arrive très, très souvent. Le gouvernement des États-Unis ou le gouvernement européen qui prend les décisions eux-mêmes pour décider ce que le reste du monde peut voir ou ne pas voir. Donc ma question préférée, c'est qui est un terroriste ? Alors je n'aime pas dire ça mais bon voilà. Au final, on dit toujours quelqu'un qui est un terroriste pour quelqu'un, c'est un ami pour quelqu'un d'autre. Je ne veux pas être la personne qui dit qui est la bonne personne, qui est la mauvaise personne. Mais au final, ces entreprises prennent ces décisions-là pour d'autres pays. Donc comme on dit aux États-Unis, il y a des listes qui sont politiques. Donc il y a eu des cas où ils créent des listes et ils mettent personne dessus. Puis au final, ils enlèvent de la liste après coup. Ça, ça arrive plein de fois à MIK, je ne sais pas ce que c'est, qui a enlevé une personne qui était en Irak. Alors au final, ces décisions qui sont prises par ces entreprises, ces décisions, elles peuvent être, elles peuvent être soient politiques ou juste, elles peuvent être faites parce que les gens ne savent pas du tout ce que c'est le groupe et donc ils prennent la décision sans savoir. Donc on va prendre la définition de terrorisme. Alors c'est l'utilisation de violences contre la loi ou d'intimidation contre les citoyens. Donc on pense que même si un état peut avoir un monopole sur la violence, un état peut toujours être un acteur terroriste. Alors aux États-Unis, cette diffusion n'est pas forcément acceptée, mais ça reste vrai. De plus, quand on parle d'une utilisation illégale de la violence et de l'intimidation, la façon dont les gouvernements et les entreprises en parlent, ils disent que c'est un groupe qui manifeste contre un état. Alors Facebook a une définition un petit peu plus large que ça. Ça parle des groupes qui se battent l'un contre l'autre dans la rue. Mais il y a quand même beaucoup plus d'efforts qui est mis en matière de s'opposer à des groupes qui combattent un état. Donc on sait qu'il n'y a pas de standard international sur lequel tout le monde est d'accord pour définir ce qui est du terrorisme ou de l'extrémisme. On sait que les États-Unis et l'Union européenne et d'autres gouvernements utilisent des listes qui servent à désigner des acteurs terroristes domestiques ou étrangers. Il y a des différences en cellistes. Par exemple, l'Union européenne ne liste pas certains groupes que les États-Unis listent comme terroristes et peut-être l'inversé de la Russie, j'ai pas vérifié. Mais voilà, ces listes changent tout le temps. Et ces listes sont limités. Il y a une motivation politique derrière. Et on peut remarquer qu'il y a toujours un nombre impressionnant de groupes musulmans dedans, dispropercinés par rapport à des groupes d'autres origines. Donc il y a ces rapports où Twitter est super content d'avoir enlevé tous ces comptes terroristes. Cela a commencé il y a certaines années, suite à des pressions du gouvernement États-Unis. On a enlevé tels et tels nombres de comptes dans certains temps. Donc là, ça vient d'avril 2018 et ça dit que Twitter avait enlevé 1,2 million de comptes de terroristes entre 2015 et 2018. Et puis de l'autre côté, on a cette interview de janvier 2019 où Jack Dorset prenait le côté de contre effacer des comptes de Twitter américain, suprémaciste, parce que ce même argument que Eric Schmidt avait pris il y a dix ans, un débat de bonne santé. Donc ça dépend vraiment de l'origine d'un groupe indépendant de la violence ou non. Tout le monde connaît le procédé, comment est-ce qu'on tag un contenu. Donc vous voyez quelque chose sur une plateforme. Vous regardez sur votre feed. Peut-être c'est quelqu'un qui est à poil, ce qui n'est pas permis. Peut-être que c'est de l'arrassement, peut-être que c'est du terrorisme. Et vous êtes incité par l'entreprise de rapporter le contenu. Si c'est de l'harcèlement, les règles sont différentes. Mais quand on parle d'autres choses que du harcèlement, les entreprises ont des raisons d'agir d'une façon ou d'une autre en fonction des groupes, par exemple des groupes qui vont être beaucoup plus visibles que d'autres. Ça, c'est vrai pour toutes les catégories, en particulier pour le terrorisme, c'est un problème majeur. C'est un autre exemple, ça, c'est sur YouTube, les catégories pour lesquelles on peut signaler du contenu sur YouTube. Ça peut être du contenu sexuel, du contenu violent ou repoussant ou du contenu, par exemple, qui fait l'apologie du terrorisme. Il n'y a rien sur le fait de recruter pour le terrorisme ou sur la violence graphique. On dit juste que ça fait l'apologie du terrorisme. Et ça, c'est fait pour envoyer insignalement à un modérateur humain. En général, je vais parler d'automation un peu après. Mais en tout cas, historiquement, c'est quelque chose qui est envoyé à un humain, un modérateur humain, qui doit juger ce contenu, faire une décision rapide sur est-ce que c'est acceptable ou est-ce que ça ne l'est pas. Donc, ça, c'est une image de The Cleaners. Je ne sais pas si vous avez vu le film, excellent film, je vous le recommande. C'est fait par deux réalisateurs allemands et c'est sorti de l'année dernière. Et ça parle spécifiquement des modérateurs de contenus qui travaillent au Philippine, souvent dans des conditions assez difficiles. Et ça montre des plusieurs entretiens avec ces gens-là. Et ça montre l'horreur quels ces gens sont exposés dans leur travail au quotidien, les décisions rapides qu'ils doivent faire et le fait que ces modérateurs amènent aussi leur propre moral dans cette décision qu'ils font. Donc, ce contenu, il est signalé par vous, par moi. Ça va à ces modérateurs qui font, qui prennent une décision rapide pour dire est-ce que ça doit rester sur la plateforme ou être supprimé, ignoré ou supprimé. Et une fois que cette décision est faite, non seulement le contenu est supprimé, mais aussi il y a une forme de punition qui peut être appliquée à la personne qui a publié ça. Ça peut être banni pour 12 heures, 24 heures, parfois 30 jours ou parfois de façon permanente si vous violiez certaines règles. Mais en plus de cette modération automatique, de plus en plus de modération est faite à base de signalement automatique. Donc, ça, c'est quand une plateforme utilise des outils propriétaires de façon à détecter du contenu potentiellement violent, qui potentiellement contrevient aux règles pour que ça soit vérifié par un humain. Alors, je vais clarifier, c'est pas l'algorithme qui supprime, qui décide de supprimer le contenu et on n'en est peut-être pas encore pas loin, mais ce n'est pas encore le cas. Cet algorithme doit catégoriser le contenu et signaler du contenu, le mettre dans une queue à une liste de choses à vérifier et l'humain pour ensuite juger la chose. Et ça, souvent, c'est quelque chose qui est fait avant même que l'utilisateur puisse voir le contenu. Imaginez que vous mettez en ligne du contenu, il y a un drapeau autoriste au fond. Vous prenez une photo de cette manifestation. Il est probable, puisqu'il y a cette image qui peut être facilement reconnue par le logiciel, que cette image ne soit jamais montrée à quiconque. Le système automatique va identifier le drapeau en arrière-plan. Ça va être mis dans cette liste de choses à vérifier par un humain et ça sera supprimé et vous serez peut-être punis pour ça. Voilà un exemple de ça qui vient du rapport de transparence de YouTube et ça montre les vidéos qui ont été signalées et lesquelles ont été supprimées avec ou sans vue. Je ne sais pas si vous pouvez le voir sur l'écran, c'est un peu petit, mais c'est dit qu'environ 75 % en rouge ici des vidéos ont été supprimées avant que quiconque les ait vus. Et en bleu, c'est les vidéos qui ont été supprimées par le système automatique après qu'un utilisateur les ait vus. Donc ça, c'est dans leur rapport de transparence le plus récent. Et ça montre, c'est spécifiquement à propos des signalements automatiques toutes catégories confondues. Donc un des problèmes, c'est que quand un algorithme fait des erreurs, ça peut être difficile de comprendre pourquoi. On ne sait pas exactement comment ces outils marchent et on ne sait pas quel biais les humains ont pu intégrer à ces systèmes quand ils ont programmé. Donc, par exemple, quand on revient à cet exemple de Hasan Asrallah, du S-Bola, on sait que les humains qui modèrent ce contenu ont une liste de visages qui sont bannis de cette plateforme. Donc ils voient tous ces gens qui font du théorisme, que ce soit du S-Bola, du Hamas, Al-Qaeda, etc. Et ils voient toutes ces images et ils doivent vérifier de l'une à l'autre. Et un outil automatique peut faire ça de façon beaucoup plus rapide. Mais beaucoup des erreurs qui sont faites ne sont pas zéro aussi simples que ça. Qu'on soit d'accord avec cette trègle au pas, c'est comme une décision qui est facile parce que c'est basé sur une image qui est sur une liste ou une personne qui est sur une liste. Bien sûr, il faut que vous êtes d'accord avec la notion d'une blackliste comme ça. Est-ce que c'est mieux le son là ? Ouais. Mais si on regarde d'autres choses comme des vidéos, ça peut être une décision beaucoup plus difficile. Et maintenant qu'on sait que YouTube utilise des outils automatiques pour prendre décision. Désolé, il y a encore de l'écho. Testing. Try that one. OK. OK, ça a l'air mieux là. So when we're talking about videos, OK, when we're talking about videos, quand on parle de vidéo, ça peut être beaucoup plus difficile. Désolé. Témisme violent, c'est des gens du monde académique qui travaillent ensemble là-dessus et ces gens-là ont des outils et une base de données qui est partagée entre plusieurs bases de données. Mais il n'y a quand même eu aucune vérification. Il n'y a jamais eu aucune vérification par des ONG ou par des groupes qui s'occupent de droits digitaux. Donc c'est quelque chose qui n'est pas du tout transparent. Alors je vais parler de quelques stats à propos de l'automatisation avant de parler de la suite. YouTube a supprimé 2,3 millions de vidéos en 2018. 73 % de celles qui ont été supprimées pour des violations des termes de service, 60 % ont été supprimés suite à un signalement automatisé. Facebook a supprimé environ 15 millions de posts ou de pièces de contenu qui ont été considérées comme de la propagande terroriste et 89,5 % de ça a été supprimé avec l'aide de processus automatique. Et Twitter a supprimé 166 153 comptes liés à du contenu terroriste dans la même période de temps à peu près. Donc là où je veux en venir, c'est que ces mesures, elles ont un impact sur énormément de gens. Alors oui, ça réduit certainement le contenu terroriste qu'on peut voir en ligne ou en tout cas, certains types de contenu terroriste qui pourraient être vus par des individus. Et donc on peut faire l'argument que ça, c'est quelque chose de très bien que peut-être que les groupes terroristes pourront moins recruter les gens ou que les contenus horribles qu'on pouvait voir avant ne sont plus là. Mais il faut voir que ces mesures ont aussi un effet terrible sur des utilisateurs qui sont marginalisés. Donc voilà un exemple. Il y a un groupe dans le gouvernement des États-Unis sur la liste qui des terroristes. Alors je ne parle pas vraiment de qu'est-ce que les entreprises font avec cette liste. Mais ce qu'on sait en tout cas, c'est que Facebook, Twitter et YouTube, qui sont tous des entreprises américaines, utilisent cette liste et utilisent la définition du gouvernement du terrorisme. Donc c'est très arbitraire au final. La définition, ils auraient pu avoir leur propre liste ou ils auraient pu utiliser celle de l'Europe qui, je pense, est un peu mieux. Mais en tout cas, c'est une définition qui est très arbitraire. Donc il y a un groupe dans la liste du gouvernement qui est la Cheney Activist Group. Donc c'est un groupe politique. C'est ce groupe-là en particulier. Leur contenu a été supprimé parce que c'était du contenu terroriste. Parce qu'au final, c'était une décision qui était très difficile, que ce soit automatisé ou par un humain. C'était difficile à le faire rapidement. Donc au final, ça a été fait supprimer. Au final, Facebook a dit que c'était une erreur et que c'était normal avec tout le contenu qu'ils ont, que c'était une erreur. Mais au final, Facebook ne donne pas de nombre de sur quoi est supprime. Même si ça fait 8 ans qu'on demande, on n'a toujours pas de nombre. Donc au final, on ne sait pas ce qui est supprime ou pas et combien il supprime. Donc la raison pour laquelle ils ne veulent pas donner cette information, c'est qu'ils disent que ce n'est pas très utile comme information. Un autre exemple qu'on a, c'est une jeune femme en Angleterre qui avait un lien avec le YPG en Turquie et au Kurdistan. Donc si vous savez, c'est le YPG. C'est un groupe qui est dans la liste du gouvernement des États-Unis de terroristes. J'ai pas l'image parce que j'ai pas les droits de la mettre. Mais il y a une image qu'elle avait mis sur Facebook qui était un mural qui supportait un organisme. Mais au final, son contenu a été supprimé et elle a été bannie parce que c'était sur un contenu terroriste. Et au final, elle pense que c'est le gouvernement qui est directement et allait en Turquie pour supprimer ça, et que ce n'était pas automatique. C'est intéressant parce qu'au final, on sait que ces pays, la Turquie et d'autres gouvernements, font des centaines de milliers, on va dire des milliers de demandes tous les ans, de différents types de contenus qu'ils veulent que les entreprises suppriment. Et donc ils font ça de plusieurs façons. La plupart des gouvernements vont envoyer une lettre. Alors souvent, ça va être le ministère qui va l'envoyer au gouvernement. Sinon, ils demandent un ordre. De toute façon, il y a plein d'autres gouvernements qui vont souvent, les gouvernements vont envoyer des listes très, très, très longs. Et au final, c'est les entreprises elles-mêmes qui vont devoir s'en occuper. Donc la Turquie, les emirs arabes et tous ces pays, qu'est-ce qu'ils font en général, c'est qu'ils vont prendre ces longs listes. Et donc en général, c'est du contenu violent, extrémiste. Puis ensuite, ils vont rajouter de discrètement, vu qu'elles sont très longs, des journalistes ou juste des gens qu'ils ne veulent pas avoir dedans. Et on voit ça très souvent arriver et on voit que les entreprises vont, sans faire exprès, suivre ces préférences. Donc les archives syriens, on s'en est occupé d'archiver beaucoup de contenus sur YouTube, de choses qui se passent en Syrie, qui pourraient être utilisées pour des vérifications dans le futur pour des tribunaux. Donc une personne des archives a dit qu'ils s'occupaient de les collectionner, les archiver pour pouvoir les utiliser. Et un jour, ils se sont rendu compte que toutes les vidéos qu'ils regardaient ont été supprimées. Donc personnellement, moi, j'ai travaillé avec des gens de l'archive de Syrie et donc j'avais un peu plus à la fin. Mais en fait, ce qu'on a fait, c'est qu'on a documenté quelques uns de ces exemples dans un document qu'on a fait ensemble. Et donc c'était pour démontrer aux entreprises qu'au final, les gouvernements avec qui ils travaillaient sur l'antiterrorisme avaient différentes façons d'avoir d'un impact sur les décisions de supprimer ces contenus pour de bon. Donc c'est intéressant parce qu'au final, il y a dix ans, c'était complètement différent l'état d'esprit que les entreprises avaient et les décisions qu'ils prenaient. Donc on voyait, par exemple, que YouTube était d'accord avec la violence graphique. Et alors, bon, si on parle pas bien sûr des Egyptes et de l'Egypte et de tous ces cas dont on a parlé, qui ont fait des guerres au final. Mais au final, après ça seulement, YouTube a commencé à voulu supprimer des choses. Et c'est vraiment quand en 2014, il y a un journaliste qui a été qui on lui a coupé la tête sur YouTube. Et c'est là où vraiment ils sont rendus compte qu'il fallait qu'ils fassent quelque chose et qu'ils ont commencé à enlever ce contenu. Mais avant ça, en fait, ils avaient dit en public qu'il s'était rendu compte qu'il y avait que c'était important pour eux que ça, ça reste le fait qu'on coupe la tête d'un journaliste. Il fallait que ça reste dessus et ils l'ont dit en public. Et ils n'ont pas vraiment expliqué le impact que ça avait sur les gens, mais juste que c'était important d'avoir pour le débat. Et donc dans ce cas en particulier, donc le cas des archives de Syrie, c'est pas vraiment une question d'identité. C'est pas vraiment une question d'image qui est violente ou même elle n'était pas violente du tout. C'était plutôt juste des vidéos qui documentaient des choses très importantes sur l'histoire du pays qui ont vraiment été supprimés sans même aller regarder. Et au final, je vais vous dire une petite histoire. Je ne sais pas si je devrais, mais j'ai interviewé des gens pour un document que j'ai écrit. Donc j'ai interviewé quelqu'un qui fait de la modération de contenu. Et ils m'ont parlé de ça et ils m'ont dit le nombre de contenus qu'ils reçoivent qui viennent de Syrie ou d'autres pays. Et en fait, on leur disait de supprimer et de rien faire avec. Et ils m'ont dit qu'ils pensaient tous les jours au final parce que c'est les seuls personnes qui ont vu les vidéos à part ceux qui les ont téléchargés sur Internet. C'est vraiment, il n'y a que eux qui les voient. Et ils trouvent ça dommage que ce soit même pas archivé, que ce soit pas gardé pour l'histoire, pour que ce soit gardé par les gouvernements, pour le futur, pour savoir ce qui se passe. Mais au final, les entreprises veulent juste que ça se supprime et que ça n'existe pas pour eux et que ce soit vraiment supprimé de l'histoire. Donc au final, moi, je vais partir avec un point important, c'est qu'au final, les modérateurs de ce contenu vont des biais. Je ne veux pas dire que les réseaux sociaux sont bien ou sont mauvais, mais plutôt que je veux insister sur le fait que beaucoup de gens différents l'utilisent de façon différente. Peut-être que pour moi, j'utilise juste pour mes amis et ma famille ou juste pour un peu de politique avec les gens autour de moi et je peux m'en passer des réseaux sociaux pour ça. Mais au final, il y a plein de gens pour qui c'est... Au final, il y a beaucoup de gens pour qui c'est hyper important que ça reste là et ça a une valeur et pour moi, c'est pour ça que je ne veux pas que ça soit supprimé et c'est pour ça que c'est important de le garder. Alors évidemment, les humains et les modérateurs automatiques font des erreurs. Mais du coup, je pense que c'est important qu'on publie plus de nombre de ce qui est supprimé et pourquoi. Que ce soit un peu plus public. Je voudrais au moins savoir pourquoi est-ce que ça a été supprimé et qu'est-ce qui a été supprimé. Je pense que c'est important. Et au final, je pense que les gouvernements essayent beaucoup de faire le silence sur certains extrémistes et je pense qu'il faudrait qu'on en parle plus. Donc l'Allemagne, par exemple, fait partie de ces gouvernements qui essayent de pousser les entreprises de supprimer ce contenu. Et l'Allemagne, il est vraiment fait partie de ce problème maintenant. Et ils essayent maintenant de privatiser ces décisions qui sont prises. Et en fait, c'est même plus dans le pays que c'est fait. C'est vraiment, c'est ailleurs. C'est d'autres entreprises qui s'occupent de tout ça. Et ces entreprises font des décisions super rapidement et elles n'ont pas forcément les qualifications pour prendre ces décisions. Donc il y a aussi le Christchurch Call qui était un attaque qui a tué beaucoup de gens au Nouvelle-des-Hélande. C'était un attaque sur deux mosquées et le gouvernement a agi super rapidement. Quelques jours après l'attaque, ils ont... Il y a eu deux attaques. Donc le gouvernement a supprimé plusieurs sites. Ils ont essayé très rapidement de supprimer les vidéos. Donc dans ce cas-là, c'était assez facile de prendre la diffusion parce que c'était une personne de quelqu'un qui l'a filmé et c'était pour le but de montrer plus le terrorisme en ligne et de lui donner plus d'audience. Donc c'est vrai que moi, personnellement, je trouve que c'est facile comme décision à prendre et voilà. Mais il ne faut pas se dire que c'est toujours le cas et qu'elles vont toujours être faciles ces décisions. Donc en conclusion, je voudrais dire que très souvent, trop souvent, les entreprises essayent au moins prétendent d'essayer d'avoir une certaine transparence et d'éduquer sur le contenu acceptable. Mais trop souvent, ces mesures qu'ils prennent, qui sont des mesures très larges, ont tendance à avoir des exemptions pour du compte terroriste. Et ça le met un peu de côté. Par exemple, Twitter a des règles sur quand est-ce qu'elle supprime des choses et pourquoi. Et Jack Darcy va dans les médias et parler publiquement de sa décision de supprimer le compte d'Alex Jones, qui est un théoricien du complot et propagandiste américain connu. Et ils vont peut-être en même temps supprimer le compte avec les 5 millions de personnes en les appelant tous des théoristes. Et ces gens ne sont pas importants parce qu'ils sont dans un pays bien loin. Donc, qu'est-ce qu'on peut faire? Alors, d'abord, ce que je disais, avoir des mesures qui servent à créer de la transparence et à un processus judiciaire équitable et que ces mesures soient appliquées à tous les utilisateurs et pas juste aux utilisateurs qui nous plaisent ou pas. Il faut aussi qu'on s'assure que les gouvernements, plutôt qu'ils se tournent vers la censure comme une solution rapide, si ces gouvernements veulent réellement réduire l'extrémisme, il faut qu'ils regardent d'abord à l'économie, à l'éducation, à des solutions qui respectent les droits de l'homme et pas juste à se tourner vers l'Internet pour retrouver ça. Dattec ne nous sauvera pas là-dessus. Et enfin, on a besoin de beaucoup plus de recherche. Je suis très fier du papier que j'ai publié et j'arrête pas d'en parler, surtout qu'il y a un de mes co-auteurs qui est assis ici. Mais on a besoin de beaucoup plus de recherche comme ça pour comprendre comment est-ce que les utilisateurs mis en marge, comment est-ce que la contre-communication peut être affectée en ligne par ces mesures de censure. Donc je voudrais remercier les archives siriennes, mes collègues de l'IFF et Diya Kavali, qui a été une de mes témoins. Donc j'ai plus beaucoup de temps ici, mais si vous me parlez et boire du whisky, ce serait génial. Et je ne veux pas que vous empêchez de venir boire du whisky avec moi. Merci beaucoup, Julien. Merci beaucoup, Julien. On a cinq minutes pour des questions. Et je vois déjà une lumière par là, donc on a des questions. Bien sûr, vous pouvez poser vos questions au signal Angel sur le chat et aussi vous bougez vers les micros pour poser votre question. Je vais me mettre assis sur la scène pour vous voir quand vous me posez votre question. Merci pour cette présentation. Ma question est très suffite, probablement. Comment est-ce qu'on sait que la censure est vraiment, fonctionne vraiment ? Comment est-ce que vous pouvez mesurer que toutes ces mesures sont ont un effet ou est-ce que c'est juste du temps gâché ? Je pense pas qu'on puisse vraiment faire ça. Je trouve que c'est difficile de parler de censure de ces jours, surtout quand on parle de trucs vraiment en merdique de notre CST, de terrorisme ou de ce que... Moi, je parle vraiment de ce que j'appelle terrorisme, ce qui se passe avec les suprémacistes aux États-Unis en ce moment. Donc c'est difficile pour moi de dire qu'il ne faut pas censurer, alors que pour vraiment longtemps, ça a été ma position. Et je dirais moi aussi que les compagnies ne devraient pas être part de la censure sans expert. Mais on ne peut pas vraiment le mesurer. Et je suis sûr que la censure ne serait jamais la mesure finale. C'est quelque chose qu'on fait quand on n'arrive pas ou qu'on n'a pas envie de trouver des vraies solutions à un problème. Merci. Je veux dire, on est tous d'accord pour censurer. Et j'utilise le mot censure pour trucs je pense qu'il devrait être censuré comme l'abus sexuel d'enfants. Cela limite les dégâts sur les enfants. Et voilà, il faut qu'on trouve d'autres mesures pour réduire la vue des enfants. Mais si on arrive à ces choses-là, c'est vraiment contre-productif, même si c'est vraiment du terrorisme ou de l'extrémisme. Il y a des citations de certains chefs de police en Somalie en 2012. Ça, c'est un de mes exemples préférés. Quand Al-Shabaab devenait vraiment problématique pour le gouvernement somalien et la police. Un des chefs de la police là-bas et en Kenya disait que c'était vraiment important de leur suivre sur Twitter parce qu'ils savaient où ils étaient et ce qu'ils étaient en train de faire. Ce qui donne un absurde, mais si Twitter efface ce contenu, ils ne peuvent pas vraiment savoir où se trouve Al-Shabaab. En plus, ils n'ont pas d'autre moyen de les surveiller. Je ne suis pas pour la surveillance, mais voilà, Twitter leur donnait une opportunité. Donc si on est d'accord avec n'importe quelle forme de censure, on doit être très judicieux sur la façon dont c'est dont elle est employée. Si vous êtes en train d'enlever du contenu de l'état islamique, je ne vais pas être entre vous et la censure, mais d'autres groupes qui vont... Je pense que c'est une autre histoire. Il faut faire une distinction des cas. Il faut qu'on fasse attention. Une autre question, et puis on va s'arrêter après. Alors, j'ai l'impression qu'il y a deux cas très distincts qui sont de la communication qui peut vraiment amener à faire des actions violentes ou il peut y avoir des cas où c'est vraiment juste garder d'un historique de ce qui se passe et documenter ce qui s'est passé dans le passé. Dans le deuxième cas, je me demande, est-ce que pourquoi ces gens utilisent Facebook ou YouTube pour qu'on a moyen d'archiver ces choses qui se passent ? Et la censure dans ces cas-là aurait plus de sens quand il y a vraiment une action qui est faite après ça. En fait, je veux dire, ils n'utilisent pas ça vraiment parce qu'ils ont envie d'archiver des choses. J'espère que je ne vais pas tomber, mais... Alors, c'est plutôt les gens en Syrie qui prennent des vidéos et qui documentent leurs vidéos en les postant sur YouTube. Et le groupe qui fait l'archive les récupère de YouTube. Et c'est pour ça qu'on trouve les preuves qui ont eu des crimes de guerre. Et c'est eux qui font l'archive, ce n'est pas les gens eux-mêmes. Donc je ne sais pas pourquoi est-ce que les Syriens eux-mêmes vont utiliser YouTube. Moi, je dirais, c'est juste parce que c'est facile pour eux, c'est centralisé, c'est facile à chercher. La même chose pour Facebook, la même chose pour Twitter. Je pense que c'est juste que je ne veux pas les dénigrer ou quoi, mais c'est juste que si tu n'as pas vraiment un très bon Internet et que tu n'as pas le meilleur téléphone, parce que c'est un pays en guerre, au final, c'est juste la façon la plus facile de charger du contenu sur Internet. Il pourrait mettre sur media ou un CCC, donc ça pourrait peut-être ça. Peut-être que vous pourriez utiliser ça pour du contenu pour les droits humains, mais n'essayez pas de faire ça, ça a été fait et ça n'a pas marché. Les gouvernements l'ont attaqué directement. Donc je suis vraiment désolée pour les problèmes de micro. Non, c'est super, je ne vois pas vraiment ce qu'il y a ici, mais le monde qui est ici parce que c'est un peu sombre, mais merci beaucoup à tout le monde.