 Alors c'est un petit peu les deux, c'est-à-dire que par exemple c'est le sujet de l'intelligence artificielle que j'avais abordé comme ça un peu comme un violon dingre au tout début des années 70, donc il y a 50 ans quand je faisais ma thèse à Beurkley, en mathématiques j'assistais à un séminaire d'un philosophe qui s'appelait Hubert Dreyfus et qui faisait déjà une critique philosophique de l'intelligence artificielle et on n'était pas non plus tout à fait au début, les débuts de l'intelligence artificielle, c'est au milieu des années 50 avec un long passé philosophique et logique antérieur qui remonte au 19e siècle au moins. Donc en un sens nous aboutissons, nous constatons aujourd'hui en un sens nous sommes à une étape en quelque sorte qui est la énième étape dans un long processus de découverte à la fois scientifique, conceptuelle et technologique. Cette évolution a été marquée par une suite de mini révolutions, donc la première est celle de Alain Thuring qui en 1950 dit mais après tous ces ordinateurs qu'on a construit pendant la guerre et juste après la guerre pour faire des calculs pourrait au fond être des manipulateurs d'informations, d'informations porteuses de pensée et par conséquent un ordinateur peut finalement devenir une machine à pensée, a thinking machine. Ça a été une espèce de coup de tonnerre dans le paysage un petit peu classique et immobile de la réflexion rationnelle sur la pensée. Ensuite il y a eu des progrès de l'intelligence artificielle dite symbolique qui consistait essentiellement à essayer d'automatiser des processus de raisonnement et puis il y a eu une autre révolution qui en fait en quelque sorte était en gestation mais qui n'est au fond apparu qu'au milieu des années 80 qu'on a appelé à l'époque le connexionnisme ou l'approche réseau et puis deuxième révolution c'est quand cette approche réseau a montré après beaucoup de difficultés sa supériorité éminente sur les méthodes anciennes et ça c'est vers le milieu des c'est vers 2012 et puis encore une révolution, une nouvelle idée, une nouvelle architecture en 2017 qu'on appelle le transformer qui a conduit donc à l'explosion actuelle qu'on appelle l'IAG néerative et les grands modèles de langage dont charge gpt et le modèle en quelque sorte grand public. Ah oui, le faux ça fait un moment qu'il fallait mais tout le monde s'est saisi effectivement de ce problème donc on peut dire que à peu près toutes les gouvernements les grandes institutions européennes américaines etc. sont persuadés qu'il faut réguler l'intelligence artificielle c'est du fait de ça de son efficacité qui jusqu'à présent était très limité et qui depuis quelques années est devenu au contraire redoutable. Les tout derniers modèles c'est modèle de langage plus la puissance computationnelle plus le fait que l'industrie s'organise de plus en plus en mode l'ego. C'est-à-dire que maintenant jusqu'à récemment il va l'être un spécialiste intelligence artificielle pour monter un algorithme. Maintenant c'est pas nécessaire d'être un spécialiste on trouve les éléments en quelque sorte sur les étagères ça s'appelle des API et ce sont des briques en quelque sorte avec lesquels un presque n'importe qui il ne faut pas exagérer il faut quand même avoir une équipe d'informaticien mais presque n'importe qui peut construire un outil d'intelligence artificielle extrêmement performant et comme tout outil performant ça peut être mis à profit pour des fins tout à fait dangereuses, toxiques et malhonnêtes. Alors parfois c'est simplement l'imprudence et d'autrefois c'est les intentions de les intentions de nuire et donc la régulation est quelque chose absolument indispensable et je pense que les pouvoirs publics en ont pris conscience. Les grandes industries aussi, les grandes les grandes plateformes Google, OpenAI etc sont persuadés aussi qu'il faut réguler mais de la part des grandes entreprises donc des bas femmes il y a aussi une sorte d'ambiguïté qui consiste à dire un jeu un petit peu subtil qui consiste à dire il faut réguler mais pas trop laisser nous notre liberté et dans la mesure où on a l'air comme on dirait fait preuve de bonne volonté sur ce point alors on espère que les pouvoirs publics n'iront pas trop loin dans les efforts de régulation puisque la régulation pourrait porter atteinte à l'innovation. Alors l'idée du GIEC de l'IA, je dois dire que je l'ai eu à longtemps je crois que le président Macron l'a eu à peu près au même moment mais on ne discutait pas de ça et elle a été à nouveau mise en avant au sommet de Londres qui vient de se faire sous l'autorité de pas de Londres d'ailleurs mais de Bletchley Park sous l'autorité du premier ministre britannique donc l'idée d'un GIEC paraît relativement bonne c'est-à-dire c'est une entité qui est quand même centrée sur les scientifiques sur les chercheurs plutôt que sur les législateurs et les juristes mais bien sûr ce GIEC aurait une position un petit peu particulière parce que la question du climat et la question d'intelligence artificielle sont à beaucoup d'égard assez différent mais l'idée me paraît bonne