 Bonjour, on a aujourd'hui donc le talk, technologie pour ou contre une souverainité numérique. Donc trois personnes qui vont proposer ce talk. Donc le professeur Fox Grasberg et Rudiger Weiss de la Orchule Barrow House pour... Ah pardon, donc pour la l'école supérieure de technique Berlin et le professeur Stefan Lux. Donc merci d'applaudir nos invités. Ok, merci pour cette introduction. Donc c'est un travail commun entre moi, Stefan Lux et Fox Grasberg. Donc technologie pour ou contre une souverainité digitale, c'est peut-être un titre étrange. Mais c'est en fait le titre d'une étude du ministère fédéral de la justice et de la protection des consommateurs. Et ils ont demandé d'avoir cette étude. Et nous aimerons ensemble aujourd'hui analyser cette étude. On a un power point conséquent donc ça va être assez complexe. Il y a beaucoup d'informations qui sont étalées dans le temps. Il y a quelques éléments qui sont tellement importants qu'on doit vraiment discuter de manière plus profonde. Il y a un moment par exemple. On va parler de la sécurité des choses liées à l'Internet. Donc on va parler de ce qui s'est passé dans les deux, trois dernières années. Et quelle est l'état des choses par rapport à la sécurité sur Internet qui est devenu plus complexe que par avant. Et plus dangereuse. Et ça va peut-être pas plaire à tout le monde. Et comment est-ce qu'on va fonctionner de manière sociale avec ces choses là ? Comment se définissent les choses et comment elles se développent ? On peut donc proposer des technologies qui ont une réflexion par rapport à l'impact social mais ce n'est en général pas très drôle. Ce qui concerne l'Internet des choses, nous pensons que c'est un désastre. Bruce Schneier disait que c'est la fin de la joie et le jeu. Et en fait le monde se rend compte que les ordinateurs sont à, c'est possible, de les hacker. Et il y a des cauchemars de sécurité partout. Et par exemple si nous avons une thermostat intelligent, c'est possible que des gens avec des intentions malsans peuvent utiliser l'Internet pour se connecter et le contourner. Et nous pensons qu'en fait il y a un grand trou dans le marché, nous demandons qu'il y a des updates de sécurité pour toute la vie d'une ménagée ou une application. Et que les producteurs des choses électroménagées liées à l'Internet seront, que la loi leur impose qu'ils distribuent des updates de sécurité activement et pour toute la vie et toute l'espérance de vie d'une article qu'ils vendent. Et par exemple si votre frigo méchant fait partie d'une attaque selon la loi actuelle, c'est en US par exemple, l'État est obligé de répondre à un tel événement comme une attaque sur la sécurité nationale. Donc c'est un point sur lequel nous demandons qu'on réfléchit profondément. Nous demandons une certification indépendante comme le tuf en Allemagne qui vérifie que tout qui est vendu sur le marché de Internet of Things, que ça arrive à un déceuil minimal. Nous avons besoin d'une définition de l'espérance de vie du électroménager. Deuxièmement, Nous avons besoin d'un petit prix de ce genre de component, ça coûte 3-4 euros par exemple pour avoir un thermostat intelligent. Nous demandons que le code de base soit publié pour que c'est possible qu'il y ait des 3e parties qui peuvent fournir des solutions pour la sécurité. Donc si par exemple l'entreprise qui produit une component ne le fait pas leur même, qu'il a au moins publié le code en opente source pour que d'autres personnes peuvent le faire. Et en plus nous demandons aussi que c'est important de mettre le source code chez des parties indépendantes qui le gardent en main. Ça ne veut pas dire qu'ils sont opentes source tout de suite mais que une sorte de notaire le garde en main pour justement le cas que le producteur arrête à être sur place pour fournir des updates de sécurité. Et si par exemple cet administratif judiciaire, agent judiciaire, fiduciaire, c'est obligé de publier le source code en cas où. Donc on va venir à la discussion à ce qui va nous intéresser. Donc je vous ai promis que Microsoft n'aie pas l'intention d'une sécurité feature bypass vulnerability. Donc on va parler d'un protocole de sécurité. Donc seulement quelqu'un qui veut avoir un accès au système. Donc seulement quelqu'un qui aura un accès physique à la machine pourrait donc désactiver ce secure boot. Donc pendant un moment c'est quelque chose qui a été mis sur blacklist, sur liste noir, mais c'est quelque chose qui est connu maintenant. C'est donc quelque chose qui, même pour des hackers, est complètement étrange, quelque chose de plus banal. C'est des infrastructures du monde drastique qui... Donc ce que nous avons besoin c'est des différentes ancres de confiance dans le système. Sur le niveau gouvernemental, avoir une agence qui s'occupe du réseau national fédéral. Désiemment une loi qui met en place les conditions minimales pour des signatures. Et nous constatons une énorme besoin pour ces gens de régulation. Par exemple Microsoft aura besoin de doubler la taille de leur centre de calcul dans l'Ouest de l'Allemagne juste pour soutenir les exigences que nous avons auprès des producteurs de logiciels et de hardware. Dans le secteur hors du état, il y avait aussi de messéna. Passons à la cryptographie, comment on peut partager la confiance dans le réseau. Et par exemple, la cryptographie a plusieurs parties ou a plusieurs... C'est mathématiquement prouvable que c'est secure. Entre autres, nous connaissons trois différents protocoles, le secret sharing, le zero knowledge protocol et autre. On vient à une sorte de cuise. Eric Schmidt a donc dégagé les choses digitales de la conférence en 2011. Il a écrit. Qu'est-ce que vous avez une idée ? Qu'est-ce qui construit les technologies ? Je n'ai pas d'accord avec ça. Je pense qu'il y a quelque chose de très bien développé, et ce n'est pas possible. Je me suis rendu un peu en train de faire des choses, même si je n'ai pas d'accord avec l'autre côté. On va parler d'une reconnaissance de faciès, de visage. C'est quelque chose qui fait relativement peur. Par exemple, en Angleterre, il y a un grand festival. On peut partir de films, trouver des visages et savoir où ils sont. Il y a un projet artistique russe qui permettait de reconnaître les personnes à partir de le visage. Ils ont réussi à analyser les travailleurs du sexe pour aller désanonymiser leur identité. Ils ont bien sûr collecté des informations. C'est une chose où on s'y situe et on comprend pourquoi Google est un peu dangereux. Quand on commence à s'informer sur son droit à la privatisation, on s'aperçoit très vite où sont les intérêts de films comme Google. Il y a des travailleurs du sexe qui, pour des raisons X sur Y, sont... ...sont traînés en justice. Cette déposition est très claire. Quand on veut protéger des gens, on doit reconnaître que les banques de données sont toujours des choses qui peuvent être perdues. C'est pour cette raison qu'on doit dire aux hackers que quand on veut protéger des données, on ne doit pas les toucher. On ne doit pas les répertorier. C'était important pour nous de parler de cette liste rose liée à des travailleurs du sexe. On parle de gens réels et vivants. Des consultations obligées sont à un autre endroit où des personnes sont obligées de donner des données personnelles. Quand on veut protéger les gens, c'est aussi un endroit où on peut essayer de structurer la loi. Par exemple, l'obligation de montrer son sac à d'identité, on pourrait très bien produire plus de pseudonyme, de ne pas mettre de photos sur Facebook. Il y a suffisamment d'autres personnes qui vont mettre des photos de nous-mêmes. Et nous devons voir comment nous devons continuer. Nous avons une autre conseil. Les données personnelles dans les bases de données statiques. Il y a un concept important dans ce domaine qui s'appelle confiance différentielle. Ça vient de 2006, un employé de Microsoft. C'est mathématiquement la meilleure méthode pour mesurer la manque de confiance et analyser des données personnelles qui sont anonymées. Le point clé ici, c'est qu'ils utilisent des données personnelles et dans des grandes bases de données, ils devraient contrôler l'accès et la confiance dans ces données avec cette méthode. A la fin, nous venons à la cryptographie qui soutient la protection des données. Il y a un concept qui s'appelle la attestation anonyme qui est composée de deux parties, les signatures aveugles et le protocole zero knowledge. Donc un système peut avoir des aspects de sécurité sans divulger sa propre identité. Des signatures aveugles, ça date déjà 35 ans. Ça permet à un utilisateur de cryptos. Et ici, encore une fois, il y a de la sécurité mathématique. Si c'est un document ou un document, il n'est pas possible de reconnaître le bobbin qui a créé la signature. Avec un document, c'est possible de le renchiffrer et de le faire de manière des effectifs. On parle de notre système sur lequel il travaillait avec un étudiant en master. C'est d'intégrer les signatures aveugles, donc les Blinsignature, dans les systèmes de type openPGP. Protocole de cryptographie. Comme je l'ai dit, j'ai une position critique par rapport aux signatures elliptiques. Le protocole de connaissance zero, ce qu'on peut dire, c'est qu'il a oublié quelque chose. 82, 83, il a oublié de préciser les dates de ces technologies. 82 pour la Blinsignature et 83 pour le protocole de connaissance zero. Ce sont des technologies qui n'ont pas de sources libres. On parle d'un exemple, Direct Anonymous Attestation, la tétation directe anonyme. Il y a, par rapport à ça, des travaux de Microsoft qui sont relativement intéressants. On pourrait, à partir des mathématiques, protéger des utilisateurs. C'est quelque chose qui est utilisé là comme connaissance mathématique. Ça reste accessible, ça reste réaccessible. Donc encore deux choses. Je suis un grand fan de function H, et je pense à une conférence de DTB. Est-ce que vous avez compris là, ce sont des signatures qui seraient collectées ? C'est fascinant, que contre de l'informatique quantique. Donc que les... Les lessons de la domaine Bitcoin, c'est utiliser des fonctions de H. Cacher votre clé publique, et il faut dire aussi une bonne hacke de Bitcoin. C'est que les gens sont très bons en cryptographie. Donc, par exemple, utiliser deux hash en séquence, ça marche très très bien. C'est un peu style russe dans l'astronavigation, mais en fait ça marche, et ça me plaît. Même si c'est un peu plus lente que d'autres solutions, c'est très sécurisé. A la fin, je veux vous parler en fait de plusieurs projets open source, qui sont rélevants, pertinents pour le système, dont True Crypt et Veracrypt, c'est la chiffration des données en masse. Open SSH, c'est la sécurité de communication. Open SSL bien sûr, c'est le transport de données secures. Aussi GNU PrivacyGuard, c'est la sécurité des applications, et finalement le projet Tor, qui permet vous de être une internet anonyme. Donc, je vous conseille de regarder ces concepts et ces projets. Finalement, comment se défendre contre les malsins. C'est une entretien que Edward Snowden a donné le journal Anglais Guardian en 2014. C'est la cryptographie marche. Ceci n'est pas une art noire, c'est une protection de base, et c'est la défense contre les arts noirs dans le monde digital. Il faut le implémenter et en plus il faut le rechercher activement. Et comme j'ai dit avant, nos politiciens ne sont pas capables de nous protéger, mais c'est à nous de le faire. Et comme ça, nous ne serons pas des moutons sacrificiels, mais nous serons des internautes et des citoyens digitales qui peuvent se autoprotéger. Donc, encore une fois, je vous supplie, implementez la cryptographie et faites des recherches. Parlez avec vos cryptographies. Il y a des protocoles cryptographiques qui peuvent vous aider. Et ça me touche très grandement si vous utilisez ces protocoles de cryptographie. Merci beaucoup. Non, non, non, non, non, non. Voilà, on n'a plus de 20 minutes en plus. Disons qu'après ReallyAto, c'est certainement beaucoup de questions. En janvier à Berlin, je vais proposer la conférence que je voulais vous proposer aujourd'hui, que je ne vais pas faire, puisqu'on va plutôt écouter vos questions par rapport à la conférence de Rudiga. Donc Rudiga dit qu'on a suffisamment de temps, c'est pas vrai. Donc on n'a pas à faire 20 minutes de questions, il nous reste 30 minutes. Voilà, donc il décide, on ne sait pas tellement ce qui va se passer. Je crois que Falca, voilà, c'est parti. Ténématique tarif. Voilà, je ne vais pas vous donner des idées comment vous pouvez rencontrer quelqu'un dans les parties ce soir. Voilà, où est-ce que nous sommes ? Nous allons commencer ici. Les risques. Donc, voilà. Donc, on va parler des prognoses, de progdose et donc la base de cela. Donc Carl Valentin, donc un comique, un physicien, un écrivain. Donc les prognoses qui utilisent des données passées sont plus facile à faire. C'est pas vraiment réel. Et quand on connaît les... Un modèle de prognose qui se construit à partir des données qui, avant que les choses se passent, ce n'est pas du tout quelque chose de trivial. Des données de masse, il y a différents facteurs qui les collectionnent, l'âge, l'âge, le genre, etc. Donc on a un modèle de données. On valide ce modèle. Et ensuite, on passe des données historiques et quand les prévisions peuvent avoir donné un résultat dans le passé, on le compare avec ce qui se passe aujourd'hui et on peut l'utiliser pour des processus plus actuels. Donc à travers ce modèle de données, on a la probabilité d'un risque score. Et donc, si on met toutes ces données à travers la machine de scoring, on arrive à un score de risque. Et là, on peut regarder une carte de scoring. Donc il y a des différents types de comptes bancaires, comptes courants, comptes d'épargne, etc. Et aussi, différentes facteurs comme l'historique de paiement, si par exemple on n'a pas payé une crédit ou on était en retard, ça déduit des points. Donc tout ça nous mène à des applications de scoring. C'est pour faire les décisions autour de données des prêts, des assurances, toutes finissons de transactions, B2B, B2B, C2C, médecine, météorologie, etc. Par exemple, aussi le risque de ne pas payer ces taxes, donc les autorités de scooring, infrastructure, fiscales utilisent ça. Et ce qui fait très peur, une nouvelle évolution en Chine, c'est le scoring système social, c'est SemiCredit, qui est en train de se mettre en place. Donc d'où vient, c'est quoi l'histoire du provenance ? Donc déjà la 19e siècle, on avait certaines méthodes pour le faire. Et aussi des différentes assurances parmi le 20e siècle ont développé des méthodes de scoring pour évoluer leur business. Et bien sûr, on peut utiliser comme des sources de données des téléphones mobiles, des ménagers liés à l'Internet, des médias sociaux, même des black box. C'est des sous-schlèges pour altes, d'autres types de voitures, avec des risques, et d'autres voitures qui sont utilisées dans les États-Unis. D'ailleurs, la étude montre que moins de personnes ont changé. Puis les années 60, les choses ont changé, puisque les personnes n'avaient pas d'outils et de communications personnelles. Maintenant, il y a des sensors, en plus, et par ailleurs, à travers les médias sociaux, se transitent davantage d'informations. Parce que nous le pouvons, toutes ces informations peuvent être utilisées pour le scoring. Dans les années 80, il y avait des mouvements en masse. Maintenant, il y a des mouvements de masse pour la privatisation des données. Alors que dans les années 80, c'était le contraire, on était plutôt pour l'ouverture de l'espace public. Ici, un exemple concret pour une assurance. C'est pour les jeunes conducteurs, pour les personnes qui n'ont pas vraiment encore de l'assurance et qui n'ont pas de crédit. Donc ici, ils peuvent montrer qu'ils sont prudents et qu'ils peuvent avoir une réduction. Ici, on voit les mouvements de données. Octo-telematique conduit ce système pour plus de 60 assurances à travers différents pays avec différents alias. Il y a une black box qui a été construite pour ça. Et tout cela, comme on peut le voir, collecte les données, différentes données qui sont générées par la voiture, les freins, la vitesse. La possibilité par ailleurs de trouver une voiture qui aurait été évolée. Autre exemple, Vitality, c'est un programme de generale et c'est un autre système d'assurance. Vous pourrez vous laisser traquer et vous recevrez quelque chose de récompense. Les feedbacks ne seront pas seulement reçus par l'assurance mais aussi par les personnes qui se laissent traquer. On peut, par exemple, décider d'avoir un objectif santé et de se laisser traquer. Traquer son comportement. Ce n'est pas seulement le comportement mais aussi possible de le faire par rapport aux impôts. L'assurance directe de la SPA-CAS c'est un programme qui date de 2015 mais ils ont décidé, ils ont rendu compte que les coûts c'étaient en gros 100€ par client. C'était compliqué, mais tant que ça a fonctionné une autre mode, c'est utiliser les Post Facebook pour gagner un prix d'assurance. Le 1er K-Code serait une assurance pour une génération numérique. Pour avoir une assurance il faudrait donner un accès administrateur à son profil Facebook qui s'occupe d'un texte linguistique. Les Posts pourraient rechercher si cette personne est organisée. Est-ce qu'on arrive à rencontrer des amis à l'avance ou seulement à l'heure suivante? Les données de caractère seraient proposées pour réduire les risques. En novembre il y a un projet national fédéral admiral a eu l'accès au données bien que ce soit quelque chose qui a été fait par Facebook par avance. Donc admiral utilise maintenant un Short Survey mais toujours le Facebook login. Voilà pour... ... La proposition des produits qui dépend des données privées arrive toujours avec une dialogue basée sur une objectivité ce qui veut dire que les algorithmes n'ont pas de préjudgement et qu'un procès qui utilise cette méthode il est fondé scientifiquement et été créé avec le soutien des académiques scientifiques éminents. Par contre, ça permet une discrimination très facilement par exemple, etnicité qu'aucasien versus américain-africain ça vient, on peut discriminer avec une... avec une... avec une précision de 95% et pareil avec le genre avec les préférences sexuelles ou les vues politiques par exemple, démocrates versus républicains. Passons au concept de ce qu'il y a à faire. Par exemple, c'est dit que le scoring est utilisé pour protéger les consommateurs de sans d'été négligeamment donc ça devrait mener à des prix plus basses pour... globalement, parce que ça protège les entreprises contre le non-payment des demandes et ça il y a aussi l'argument que ça évite que eux qui prennent peu de risques donnent des subventions à des gens qui prennent beaucoup de risques. En plus que des jeunes clients sont une historique de crédit et d'autres groupes qui normalement du mal à trouver une empreinte sont traités d'une façon égale. Donc la prochaine une autre principe fondamentale de la protection des données c'est qu'il y a une économie de données qui sont enregistrées. Bien sûr le scoring se lance à nature créer une tension entre les demandes d'information pour la prognoz sur l'un côté et sur la protection des données sur l'autre. Le plus que les informations sont disponibles le mieux sera la prognoz, bien sûr mais le plus aussi il y a une invasion de la sphère privée et tout ça c'était constaté en 2014 par une groupe de scientifiques qui ont le magazine Focus. La solution pour cette économie de données cette rhétorique de la protection devrait être emplacée par une claire principe de limite de ce qui est enregistré. Donc il faut négocier des limites, des frontières par exemple la policie de plateforme de Facebook que les données obtenues par Facebook pour faire des décisions de éligibilité sur à pouvoir rejeter une application ne sera pas faite. Donc on parle des applications pour combien de demandées en intérêt sur leur empreinte. Opt-in c'est souvent nommé comme un principe de base, par exemple les cookies donc on peut marquer, on peut accepter ou non les coquets et on a vraiment gagné quelque chose. Opt-in c'est obligatoire mais ça ne suffit pas il faut dire qu'il y a environ 30% de personnes qui peuvent pourtant donner des données contre l'acceptance de donner ces données personnelles comme Differential Privacy donc Rudiker a parlé juste avant. Donc le fait d'être là de manière numérique donc certifié à travers des positionnements autonomes et libres parleront donc du Web of Trust donc des fausses données ou des données partielles sont toujours un problème le CCC a toujours demandé une lettre de données on a le droit on demande avoir le droit à faire des corrections et transformer ces renseignements c'est pas seulement la sorte de données mais aussi la nature des données qui sont concernées et donc les algorithmes pour donner l'impression d'être transparent mais sont souvent quelque chose de complètement non transparent et à partir de là peut donner lieu à des erreurs donc les algorithmes devraient pouvoir devenir transparents mais il y a des positionnements politiques donc il n'y a pas que de grosses firmes comme Google ou Facebook doivent donner libre le fonctionnement de leurs algorithmes on parle de la choufa on dit par exemple non c'est pas possible on va pas donner nos algorithmes de manière libre dans un premier temps la concurrence pourrait utiliser les algorithmes de manière libre dans un premier temps la concurrence pourrait utiliser et nous copier et ça pourrait permettre les manipulations donc la transparence la transparence pourrait laisser penser à une manipulation possible donc il propose une solution ce qui est une audite derrière la scène qui est indépendant et secure avec beaucoup de NDA des contrats de non partagements de informations mais ça va être très difficile de le mettre en place avant on parlait de négocier des frontières et le cours européen l'a fait en mars 2011 donc on s'est interdit de différencer l'offre des assurances selon le genre les préférants sexuels donc c'est possible c'est peut-être raisonnable de le faire mais c'est interdit parce que je trouve très faire donc nous voyons que c'est possible de mettre des limites de négocier, de le faire et avoir des juges qui les définissent donc il faut avoir aussi le droit de de ne pas être d'accord avec des décisions doutables et avoir des cours d'appel qui peuvent traiter cette genre de sujet donc une autre solution que je propose c'est que les données sont utilisées justement local par celui qui les collectez et juste est transféré dans la forme agrigée qui est nécessaire pour déterminer un certain score donc par exemple Vitality, l'assurance de le produit de Generali fait la pub aussi avec des rabats sur des produits liés comme par exemple des articles de sport donc dans son 10 datenschutzpunk il s'agit de l'exemple du BSI qui a 10 dimensions d'analyse de comportement digital donc par exemple ça parle de la consommation d'électricité et mesurer toutes les 15 minutes par le fournisseur d'électricité par contre il y a un peu d'électricité par contre la transmission de ces données à des partenaires devraient se faire juste de mode agrégué à des mois ou la consommation annuelle donc qui décide le problème c'est qu'il doit décider les gens eux-mêmes des algorithmes qui apprennent eux-mêmes les réseaux neuronal ou d'autres méthodes de machine learning et le problème avec le dernier c'est qu'on ne peut pas déterminer comment une certaine décision était prise passons à la différenciation de prix donc le problème c'est qu'en fait une différenciation des prix ça mène à une fin de la solidarité et donc une certaine tracking du comportement volontaire si ça devient la norme ça va mener à d'autres cas de risques donc en fait c'est une équation économique assez facile il y aura d'autres tarifs qui devraient monter le problème c'est que les pauvres vont payer plus c'est aussi dans le scoring c'est un aspect systématique parce que la pauvreté c'est d'être lié statistiquement au risque donc cette corrélation c'est discriminatoire parce que ça persiste la pauvreté des gens dernier slide dernier proposition ça doit être possible c'est possible de choisir ces tarifs librement même par des gens qui ne sont pas traqués ou qui ne sont pas partis d'un système de scoring et en plus le salaire indépendant en allemand merci à vous pour votre écoute nous faisons maintenant 6 minutes de questions et de réponses vous connaissez le jeu mettez-vous devant pour poser des questions interfaits, de l'interface microphone numéro 2 merci beaucoup pour votre présentation beaucoup d'impétuces intéressants qu'on ne ne rencontre pas souvent c'est un bancherre c'est un portrait il y a des agro cryptographiques géniales donc concernant la première partie il y a des agro cryptographiques géniales donc si on dit qu'une plateforme est toxique est-ce qu'on peut s'orienter auprès des russes est-ce qu'on peut s'orienter auprès des russes est-ce qu'on peut s'orienter auprès des russes est-ce qu'on peut s'orienter auprès des russes ce n'est pas une question on a encore 5 minutes il y a une pause ok je ne vois pas d'un moment une position de solution c'est c'est c'est c'est c'est comment garder des données anonymes merci pour votre question merci pour votre question c'est vrai que ça ça saute aux yeux que cette réflexion a tendance à se dégrader je ne veux pas vraiment commencer une polémique ou bien dire quelque chose de drôle mais les hommes d'État ou bien des gens de l'administration diront toujours nous pouvons faire confiance aux américains mais je suis intéressé comment les choses vont évoluer mais on sait que les producteurs de hardware ont un accès aux données et que il n'y a pas d'acclérations les computer-industrières ont essayé de combattre mais c'est il y a cet impératif de trouver des logiciels qui permettent de rebouter le système et c'est pour nous les hackers c'est super il y a ce super terme de open source qui est toujours aussi étonnant et j'irai plutôt dans cette direction je n'ai pas non plus de solution pour cette anonymisation et nous savons que c'est relativement simple j'aimerais bien en tant que sociologue avoir beaucoup de données et ne pas les utiliser pour ne pas en avoir une utilisation qui soit non légitime donc il y a des positions dans cette direction il y a entre temps donc des recherches dans cette direction mais ce n'est pas ce n'est pour l'instant ce ne sont pas des solutions durables la sphère privée est quelque chose de mesurable et nous proposerons des chiffres Y en tant que solution