 Est-ce que vous m'entendez oui bon alors en effet j'espère que je vais remonter un peu le moral parce que y'a peut-être des des raisons de d'espérer Avec avec envidia et on va voir pourquoi alors je me présente je suis en charge de la relation redat au sein d'envidia pour l'europe j'expliquerai à la fin de la présentation aussi pourquoi il y a cette synergie ce partenariat entre redat et envidia mais tout d'abord une rapide présentation d'envidia on est méconnu je sais pas qui dans la salle savait qu'on était un petit peu à la la raison de la renaissance de l'IA si vous le viez la main pour me dire mais honnêtement voilà donc en fait on est quand même la raison de la renaissance de l'IA depuis 2012 aujourd'hui en fait envidia en envidia a été fondée en 93 par Jensen Wang qui est toujours à la tête de l'entreprise en 2018 on était 13 000 employés en 2020 on était 20 000 employés aujourd'hui on est 25 000 employés tout ça pour dire qu'il y a une raison à la croissance de cette entreprise c'est parce qu'on amène des solutions qui sont réellement demandées par les marchés et apporte l'innovation aujourd'hui 3 millions de développeurs utilisent nos solutions on est présent chez des dizaines de milliers de clients et de très grandes entreprises à peu près toutes les grandes entreprises et notamment mentionnant on a parlé des cloud provider tous les hyper scaleurs utilisent très largement massivement nos technologies depuis maintenant presque dix ans on a aussi 10 000 start-up qui constamment développent des applications innovantes et je dirais que de même que les architectures x86 ont succédé au mainframe et à cette époque on donnait naissance un nouveau type d'application et une variété d'applications en masse rappelez-vous dans les années 2000 même avant les années 90 ces nouvelles applications aujourd'hui le calcul accéléré et l'IA et l'intelligence artificielle sont en train de donner naissance à une nouvelle génération d'applications on va venir juste après et à noter aussi que la stratégie d'NVIDIA est loin d'être focalisé sur le matériel c'est tout l'opposé jensen wang est très focalisé sur le développement applicatif sur le fait d'avoir une plateforme applicative qui va justement servir ses développeurs et ses start-up notamment je ne sais pas qui connaît CUDA bon un petit peu plus mais donc CUDA c'est la plateforme qui existe depuis depuis 20 ans qui n'a cessé d'évoluer mais qui est toujours resté la même pour l'ensemble des cartes NVIDIA et qui est la base du développement calcul accéléré alors NVIDIA au départ aussi c'était le graphisme la GPU c'est Graphics Processing Unit donc depuis qu'on a inventé la GPU en 93 on a commencé par le graphisme 30 ans d'expérience et la toute la toute dernière innovation dans le graphisme c'était il y a trois ans avec RTX le real-time ray tracing c'est quoi c'est en fait le calcul des rayons lumineux en temps réel qui vont reconstituer une image donc en fait quand on simule une image vous ne pouvez pas faire la distinction d'une photo réaliste parce que en fait on a recalculé tous les rayons mais habituellement ça demandait des jours de calcul et ça demandait aussi des des data centers par exemple Hollywood enfin tous les fabricants de films utilisés le ray tracing mais en offline aujourd'hui le font en temps réel et donc le graphisme aujourd'hui est aussi utile pour les architectes les designers les fabricants les équipementiers les fabricants automobiles aériens et c'est aussi utile pour la visualisation scientifique aujourd'hui l'objectif de ma présentation c'est de montrer qu'en via on est à la source d'innovation qui vont aider la planète et la visualisation scientifique est très importante que je vais le montrer dans les slides suivantes et aujourd'hui Nvidia c'est la c'est l'entreprise de l'IA parce que une fois que la GPU est apparue en 93 on a commencé à se rendre compte que la GPU était utilisable aussi pour des calculs scientifiques pour des algorithmes traditionnels et on parlait alors de gp gpu general propose graphics processing unit en fait on n'utilisait plus la GPU pour faire du graphisme mais pour faire des calculs parallèles qui vont très bien à tout un tas de calculs scientifiques il y a beaucoup de calculs scientifiques qui s'appuient sur des matrices d'ailleurs les transposés de matrice etc et donc la GPU a commencé à faire son essor son essor dans la science mais en 2012 ça a été le point de la flexion parce qu'en 2012 il y a un chercheur de stanford qui a décidé qui a eu la petite idée de dire tiens je vais je vais participer cette année au concours c'était le concours annuel du computing visionne par machine donc en fait on demande à des ingénieurs des chercheurs de programmer des machines pour être capable de reconnaître des images c'est un concours qui a lieu annuellement et là cette fois-ci en 2012 ce chercheur s'est dit c'était Alex Kribschevski il s'est dit tiens je vais utiliser du deep learning et je vais le faire tourner sur une GPU et bien ça a été le changement parce que il a gagné au la main ce concours et de loin l'auto de reconnaissance était bien supérieur à tous les autres l'année suivante tout le monde a utilisé cette technologie et aujourd'hui ce qui permet d'envisager qu'un véhicule autonome ça je reconnaitre la route les signalitiques les piétons les autres véhicules environnement environnant c'est tout basé sur du deep learning et de la reconnaissance visuelle deep learning avec des taux de reconnaissance supérieure à l'homme mais je parle du véhicule autonome et je pourrais parler de la radiologie aussi la reconnaissance la détection d'un cancer sur une radio la machine le détectera avant l'homme et en gros nvidia aujourd'hui apporte la puissance de calcul qui va permettre les nouveaux grands projets scientifiques j'en ai j'en ai j'en j'en montre quelques uns là mais un exemple la nasa est en train de faire des simulations pour l'atterrissage d'une navette sur mars mais cette fois ci avec des humains et bien il faut simuler cet atterrissage enfin vous avez deux solutions soit vous envoyer la navette et puis vous attendez de voir ce qui se passe enfin il vous espère et vos calculs sont bons soit vous simulez à l'avance et vous allez faire plusieurs essais cette simulation en fait aujourd'hui elle est rendue possible par des calculs accélérés avec nvidia en fait il faut savoir je crois qu'il faut qu'on il faut arriver à décélérer au bout de au bout d'un voyage de dix mois il faut décélérer une navette qui va à 19 mille kilomètres heure à zéro en l'espace de six minutes c'est quand même relativement challenging avec les problématiques atmosphérique etc etc et bien ça demanderait ça demande des des jours de calculs mais aujourd'hui avec nvidia on réduit ça à des heures voire des minutes un autre exemple le prix Nobel eric betzig il a celui qui a inventé le le light sheet microscopie en fait c'est la microscopie à feuilles de lumière ce principe ce procédé permet de de voir en microscopie des phénomènes biologiques encore vivants c'est à dire que c'est pas un procédé qui est invasif ou qui va d'habitude on est obligé de tuer la cellule pour pouvoir la voir là avec ce procédé là la cellule est encore vivante et on peut observer le mouvement fin le le comportement vivant des cellules sauf que pour faire cette visualisation là on est à trois terabytes de données par heure donc habituellement ça demandait des jours de traitement offline pour être capable de visualiser et analyser ces données aujourd'hui c'est en temps réel donc là en temps réel on a été capable de déceler des des comportements cellulaires à l'échelle microscopique un autre exemple là le séquençage génétique on est de plus en plus nombreux à utiliser le séquençage génétique c'est utile dans énormément de domaines bien sûr médicaux mais avant le séquençage génétique rappelez vous déjà dans les années 90 on expliquait qu'il fallait un siècle pour faire un séquençage aujourd'hui on est arrivé à l'ordre de jour mais là une équipe de stade ford de l'équipe de médecine de stade ford a a breaké un record puisqu'ils ont réussi à faire un séquençage humain en cinq heures et deux minutes alors je suis pas suffisamment spécialiste pour vous dire si c'est on dirait qu'il y en a une spécialisant voilà donc cinq heures et deux minutes ça semble être quand même redoutable mais surtout qu'est ce que ça permet de faire parce que l'objectif c'est pas de se faire plaisir ça permet dans la même journée de faire une prise de sang analyser le gène d'une personne détecter le problème de ses défauts génétiques de cette personne pour diagnostiquer sa maladie et ça a été le cas avec une personne qui était atteint d'une maladie orpheline mais et par exemple je sais qu'en france il y a des instituts qui travaillent sur les maladies infantiles à la naissance et il faut très vite être capable de faire des analyses de séquençage donc là encore cette accélération du calcul a des impacts immédiats sur sur notre sur notre santé dernier exemple les pharmacies et les groupes pharmaceutiques passent des années voire des dizaines d'années avant de mettre un nouvelle molecule molecule au point là encore on réduit drastiquement les temps de recherche de ces nouvelles molécules grâce à la simulation la simulation accélérée mais aussi couplée avec l'intelligence artificielle et donc au lieu de passer dix ans à mettre au point une molécule pour une nouvelle maladie peut-être qu'on va le faire en deux ans d'ailleurs ça a été utilisé bien sûr pour le covid l'IA a été massivement utilisé pour les études sur le covid alors maintenant que c'est quoi la magie derrière tout ça on a une solution alors la slide peut paraître d'abord un petit peu difficile à voir et deuxièmement complexe mais en gros le bas de la slide c'est le matériel alors en matériel aujourd'hui on a tout on a le processeur on vient d'introduire un processeur armes on a la gpu on a aussi la dpu parce qu'on a fait l'acquisition de melanox c'est l'accélération sur le réseau mais vous voyez que cette couche hardware matériel ce n'est qu'un tiers de tout le tout l'écosystème en fait l'iceberg la partie cachée de l'iceberg c'est le software et dans le software vous voyez tout un tas de technologies sous-jacentes qui sont alors ce qui est intéressant c'est qu'on voit que c'est assemblé un peu à la façon d'un système neuronal c'est à dire qu'il y a des composants qui peuvent servir à plusieurs autres composants et les trois composants principaux de plateforme c'est h pc donc là c'est les les accélérations d'algorithmes traditionnelles deuxièmement lia là c'est l'accélération de lia et troisièmement j'en parlerai un peu plus après au univers c'est la création de jumeaux numériques donc la visualisation et le rendering de jumeaux numériques et avec ces trois piliers au dessus vous voyez une panoplie de software development kit donc là je m'adresse au développeur tous ces logiciels sont gratuits free of charge open source pour certains et avec ces logiciels vous allez pour un cas être capable par exemple avec clara de faire justement du séquençage génomique ou de l'analyse radiologique avec metropolis vous allez faire des applications intelligentes vidéo analytics qui vont permettre par exemple de faire de la reconnaissance de piéton de vérifier la sécurité dans un dans une pièce enfin donc on n'a pas le temps d'énumérer mais vous avez une panoplie de software development kit qui sont disponibles qui vous rendent la fille plus facile parce que encore une fois on rend des composants abstrait qui vont vous vous permettre d'utiliser des technologies sous-jacentes hyper complexes et il faut on parlait tout à l'heure donc des data center aujourd'hui un data center un peu changé sa physionomie un data center désormais n'est plus isolé mais bien sûr connecté au cloud et connecté à l'edge parce que beaucoup de choses vont se passer à l'edge d'ailleurs on travaille aussi beaucoup avec redat sur ce sujet parce que là aussi il y a de fortes énergies l'IA est partout à l'edge et on a besoin aussi des vitesses de transmission des données extrêmes les aillots sont devenus le goulot d'étranglement parce qu'en fait ce qui coûte le plus cher en énergie c'est le processus et surtout le déplacement des données aujourd'hui la problématique de tous les constructeurs chip c'est de minimiser le mouvement des données parce que ce mouvement coûte de l'électricité et de la latence maintenant vous voyez qu'un data center aujourd'hui va être capable de gérer du jumeau numérique donc avec des problématiques de visualisation va être capable de faire de l'IA couplé avec du HPC on va en parler juste après être capable de faire de la simulation traditionnelle c'est ce qu'on font tous les supercalculateurs depuis vingt ans ils simulent des équations physiques pour essayer de prédire des comportements mais on entend parler du quantum computing particulièrement en France cocorico sachez quoi Nvidia aujourd'hui permet d'accélérer les les émulateurs quantiques parce que les émulateurs quantiques une machine quantique n'existe pas réellement aujourd'hui il y a des prototypes mais qui sont pas utilisables à des fins et donc par exemple atos avec qui on a en partenariat à des gpu pour faire un émulateur quantique et puis toutes les applications dans le hatch alors en quoi on est de la planète ce que c'est un peu le sujet quand même bah en fait en l'espace de ces temps globalement sur juste les aspects équations physiques enfin simulation physique on a amélioré de par 16 fois la puissance de calcul je vous montrerai après la loi de mours on est bien au-dessus de la loi de mours c'est à dire que en 7 ans sur des applications de moléculaires de computing fleet dynamique tout un tas d'applications vraiment standard chez dans les supercalculateurs la moyenne c'est 16 en moyenne ensuite il existe un nouveau classement dans les tops 500 alors déjà aujourd'hui les machines invidia font partie des tops 500 supercalculateurs ça c'est classement traditionnel de des plus grands des plus performants calculateur au monde mais désormais il existe un nouveau classement c'est le top 500 green et 23 machines des premières 25 machines du top 500 utilisent de la gpu et c'est normal parce que l'efficacité de la gpu est bien supérieur à une architecture x86 du moment qui est bien sûr qu'elle est utilisée pour les les processus qui vont en tirer profils et et bien d'avoir d'avoir ces machines qui qui développe qui décuple la puissance tout en restant accessible d'un point de vue énergétique parce que on pourrait peut-être avoir de la puissance multiplié par 16x avec une architecture traditionnelle mais le data center serait multiplié par 100 ou 1000 en termes de superficie donc ça serait inimaginable en termes de puissance électrique donc aujourd'hui on arrive à atteindre des puissances de calcul réaliste décuplé avec des puissances de énergétiques réalistes pourquoi bah pour être capable de faire des calculs qui vont vraiment faire avancer la science et c'est pour ça que le prix Nobel en physique en 2021 utilisait nos machines c'est pour ça que Nvidia est cité quatre fois dans les Gordon Bells qui sont des concours scientifiques mondiaux on est surtout les gros sujets scientifiques et je reviens sur ces courbes là tout donc tout à l'heure Christophe tu parlais de la loi de moure la loi de moure est en train de s'affaisser enfin en train d'atteindre la courbe est en train d'atteindre une asymptote c'est à dire qu'on commence à manquer de place alors peut-être qu'il y a des nouvelles technologies qui vont venir pour continuer à redonner à reboucher ça mais en fait le 2x par an de puissance commence à devenir faux par contre si vous regardez les courbes après la courbe d'accélération gpu en tant que tel est déjà bien supérieur à la courbe de la loi de moure mais ensuite ce qu'il faut voir c'est que la gpu rend possible l'IA parce que en fait l'IA c'est quoi c'est du calcul matriciel c'est des transposés de matrice du calcul matriciel c'est pour ça que avant la gpu on pouvait pas faire de deep learning et aujourd'hui on peut en faire mais la gpu non seulement accélère beaucoup de processus traditionnel mais permet l'IA et l'IA accélère lui-même les processus scientifiques c'est à dire qu'aujourd'hui il y a de plus en plus de calculs scientifiques qui s'appuient sur des équations traditionnelles physiques mais qui vont utiliser l'IA pour aller beaucoup plus vite et quand je dis beaucoup plus vite c'est des facteurs de 100.000 10.000 donc quand on vous couplait l'accélération en elle-même le fait qu'elle permet l'IA le fait que l'IA va être couplée avec le HPC le high performance computing et qu'en plus on est sur des data centers qui peuvent se quitter parce qu'on a aussi maintenant l'accélération réseau on est sur des millionne x de facteurs de d'accroissement de la puissance et ces facteurs de d'accroissement de la puissance ça permet à des astrophysiciens de détecter les ondes gravitationnelles récemment ça permet de de de trouver des nouvelles molécules pharmaceutiques beaucoup plus rapidement ça permet on va le voir après cet exemple de de de vérifier que de grosses machines vont vont ne vont pas avoir d'interruption de service parce qu'on saura modéliser les problèmes à l'avance mais par exemple si vous moi j'ai beaucoup d'espoir dans par exemple la fusion nucléaire la fusion nucléaire d'abord cocoricoules et les françaises quand même très bien placé c'est itaire à akadarache c'est le le réacteur de fusion alors bien sûr les chinois ont aussi le réacteur de fusion les anglais mais enfin itaire c'est c'est des milliards d'investissement le jour où on met la fusion nucléaire au point on a une énergie à peu près gratuite schématise sans déchets et sans risque nucléaire donc moi je suis juste étonné qu'on parle à longueur de journée des voitures électriques mais on parle pas de itaire qui est à akadarache et qui est suivi et alors maintenant la fusion la fusion nucléaire le gros problème c'est quoi la fusion nucléaire c'est de faire rentrer en on va dire en ébullition à plasma mais ce et ce plasma il va chauffer à des températures ben un peu comme le soleil c'est pour ça que en fait on reproduit la réaction du soleil mais ce plasma a chauffé à ses températures va dégrader son environnement si jamais il n'est pas contenu par des par des ondes magnétiques et tout le problème c'est que construire un réacteur de fusion nucléaire ça coûte des milliards ça prend des années voire des dizaines d'années si à la première réaction vous faites péter le truc c'est un peu dommage donc qu'est ce qui se passe on fait de la simulation et la simulation elle doit être le plus précis possible la plus fidèle possible mais c'est cette simulation qui permet aujourd'hui de dire ça y est je vais pouvoir lancer une réaction là pendant 10 secondes ou 5 secondes et ça va fonctionner sans sans détruire mon réacteur un autre une autre chose qui est en train de se passer l'IA c'est simple c'est vous donnez énormément de données à manger à une machine et la machine comme un enfant vous lui faites passer des images des images des images et puis la machine au bout d'un et puis vous lui dites ça c'est un chien ça c'est un chat ça c'est un chien puis au bout d'un moment la machine elle a ses neurones qui se mettent à niveau et elle va être capable de reconnaître un chat d'un chien mais même si le chien il y a un peu d'ombre même si le chat est de de profils etc etc maintenant toutes les activités toutes les tous les phénomènes physiques sont régie par des équations une grande partie de ces équations sont des équations différentielles partielles à plusieurs degrés qui sont à peu près impossible à résoudre en mathématiquement qui sont impossibles à résoudre mathématiquement mais qu'on arrive à résoudre qu'on arrive à approximer avec des calculs des calculs informatiques mais ça prend énormément de temps et bien on a trouvé des nouveaux modèles neuronaux les pins physiques informe neural network et les fno fourriers neural opérateurs et même on les a associés enfin je vous passe les détails mais ces nouveaux modèles neuronaux et ça date de deux trois ans ça ces nouveaux modèles neuronaux permettent sur la base de données donc par exemple si on veut résoudre les équations d'un phénomène physique on va lui donner les données qui sont attachées à ce phénomène physique et l'IA va résoudre les équations elle va résoudre les équations dans un temps qui n'a rien à voir avec ce qu'on faisait avant c'est à dire c'est mille dix mille fois plus rapide c'est presque on va dire tant réel et ça je vais vous passer une vidéo après ça permet dans l'IA il y a deux phases il y a la phase d'entraînement donc j'apprends à la machine à comprendre un certain mécanisme puis après on appelle la phase d'inférence la phase d'inférence c'est une fois que la machine a appris on lui donne un cas de figure et on lui demande de faire son travail par exemple une fois qu'on lui a appris à différencier un chat d'un chien on lui montre la photo d'un chat il doit normalement nous dire que c'est un chat et pas un chien ça c'est la partie inférence donc l'inférence c'est la prédiction c'est le résultat la fourniture des résultats la prédiction des résultats et grâce à ces modèles neuronaux pour l'approximation des équations différentielle on est désormais capable d'inférer énormément de phénomènes physiques dans des temps qui n'ont plus rien à voir avec ce qu'on faisait avant et je vais vous passer un exemple juste après voilà une petite vidéo j'espère que je vais vérifier si le son marche bon alors ça c'est l'effet des mots parce que le son ne passe pas je pense normalement on est hdmi l'audio passe sur le même non pardon il est l'amour alors excusez-moi c'est de ma faute Total worldwide wind energy capacity currently exceeds 750 gigawatts and it's growing faster than ever with an additional 650 gigawatts to be added in the next five years for companies like Siemens, Gamesa renewable energy optimizing the configuration of each new wind farm is critical for getting the most out of their investment and reducing costs for consumers when designing a wind farm it's critical to place each turbine so as to minimize the effects the turbines have on each other due to the wake that they create accurately modeling the wake requires high resolution high fidelity simulation data that is specific to that wind farm such as the geographic location and the terrain the gold standard for generating this data is the large eddy simulation shown here but to run just one iteration for a single turbine can take 40 days on a 100 core CPU and with so many iterations needed to develop an accurate model for a specific site using CPUs is impractical using invidia modulus and invidia omniverse Siemens Gamesa has been able to reduce that 40 days to just 15 minutes approximately 4,000 times faster this is accomplished by running the model at a lower resolution and then with a physics ML model trained using modulus to enhance or super resolve the data and the results are functionally equivalent to having run the model at full resolution let's take a look at the same data presented in a way that clearly highlights the coarseness of the low resolution simulation here they look like pixelated blobs in the super resolved flow field you can see the finer vortex structures now that we have the simulation data we can build an accurate wake model je l'arrête là pour faire attention au temps mais l'idée c'était de montrer quoi c'est que avec ces nouveaux systèmes neuronaux on arrive à aller beaucoup plus vite dans l'approximation des équations différentielles qui régissent ces phénomènes physiques avec on commence à parler du jumeau néer mémorique parce que vous avez vu il y a l'aspect visualisation et résolution qui est importante plus la résolution est importante plus est précise la prédiction physique et ça sert à quoi dans ce cas là avec Siemens ça sert à mieux positionner les éoliennes sur une mer par exemple et pour optimiser la création de puissance énergétique et là encore on n'a pas besoin de construire les éoliennes on le simule avant de faire quoi que ce soit donc bien sûr des frais bien moins que d'avoir construit ces éoliennes et de se dire ah bah zut en fait elles sont pas bien positionnées et en fait on capture que 30% de l'énergie le digital twin le jumeau numérique c'est quoi ? c'est virtualiser un environnement physique avec une représentation la plus fidèle possible sur deux aspects l'aspect physique quand je dis physique c'est les interactions physiques c'est vous laissez tomber une balle elle rebondit en fonction du matériau utilisé vous faites rentrer en collision de deux objets ils vont réagir en fonction de leur masse de leur angle etc c'est ça c'est toutes les interactions physiques et la deuxième chose c'est la fidélité visuelle le rendu visuel photo réalistique pourquoi ? parce que par exemple l'IA apprend par exemple dans le computing vision on apprend avec les images plus précise sont vos images et fidèle plus l'apprentissage sera correct donc c'est ça le jumeau numérique et c'est une boucle c'est à dire qu'on crée un jumeau d'un environnement physique dans lequel on va commencer à réfléchir à des conditions, faire apprendre des processus IA et une fois qu'ils auront fait ça dans le virtuel on les ramène dans le physique et même après on reprend de ce qui se passe dans le physique pour réinjecter dans le virtuel et un jumeau numérique parfait et en synchronisation avec son environnement physique et ça ouvre des portes mais inconcevables je vais passer sur cette slide deux exemples ici à gauche Siemens a construit une centrale qui permet de récupérer la chaleur résiduelle d'autres machines de gaz etc pour créer des vapeurs et donc derrière je suppose créer l'électricité donc en fait c'est une machine pour créer d'énergie plus grine sauf que cette machine est hyper complexe en termes de computing de calcul de gestion des fluides et les vapeurs sont très corrosives et donc en fait il faut constamment surveiller toutes les canalisations pour éviter la corrosion et pour éviter des interruptions de services et ces interruptions de services peuvent coûter jusqu'à des milliards avec l'IA on a modélisé cette machine on a modélisé les comportements des fluides dans cette machine les comportements de température de corrosion pour être capable de déterminer en fonction des niveaux d'utilisation de la machine les risques de corrosion et de perte de production de l'autre côté on est en train de faire et j'ai une vidéo là dessus on est en train de faire un jumeau numérique de la Terre ce jumeau numérique de la Terre c'est pour faire quoi ? c'est pour étudier ce qui va se passer dans le climat et aussi pour parler à nos politiques parce qu'il n'y a rien de mieux que d'avoir quand même une représentation fidèle d'un environnement pour dire à des gens qui ne sont pas techniques voilà aujourd'hui ce qu'on est et voilà vers quoi on peut aller avec différents types de scénarios parce qu'on est capable c'est virtuel on est capable de gérer des scénarios et des milliers de scénarios donc je vais passer sur cette slide alors le jumeau numérique il fait intervenir tout un tas de technologies et NVIDIA est finalement au centre de ces technologies parce qu'il y a les technologies de graphisme il y a les technologies d'IA et il y a les technologies de calculs pur et tout ça on l'a regroupé dans une plateforme qu'on appelle Omniverse qui permet donc aujourd'hui de créer ces jumeaux numériques donc il faut bien voir que si on revient par exemple sur les problématiques de la planète aujourd'hui on est en train de voir des tempêtes de plus en plus sérieuses des inondations des incendies de plus en plus nombreuses enfin bon en ce moment c'est pas la joie mais il faut savoir que je vais vous montrer la vidéo après il faut savoir que la Terre est constituée de ce qu'on appelle de rivière atmosphérique je ne connaissais pas ça avant mais en fait ce sont des fleuves de vapeur mais un fleuve de vapeur représente plus que l'Amazon et ces fleuves de vapeur notamment on est en train d'étudier autour des US viennent s'accrocher sur les continents et vont créer justement ces effets atmosphériques et c'est la simulation de ces rivières atmosphériques qu'on est en train d'étudier et qui vont aider à comprendre mieux et à prédire mieux des comportements climatologiques mais là encore si on n'était pas avec des technologies comme les nôtres oui vous pourriez le faire mais peut-être à l'échelle de l'année ou de la décennie ou même du siècle en fonction des calculs il faut bien voir aussi que la précision est redoutable en termes de demande de calcul parce que dans les années 90 on était pour la climatologie à une échelle d'environ 300 km c'est-à-dire qu'on était capable de gérer des cubes de 300 km et de comprendre leur comportement dans les années 2000 on est monté, on est descendu à une résolution de 50 km et rien que de passer de 300 à 50 km je crois que ça a été 10 000 fois de plus de calcul et là on est en train de vouloir se projeter à l'échelle du km avec à l'échelle du km on sera capable de comprendre les phénomènes de convection à l'échelle de 100 m on sera capable de comprendre les phénomènes dans un aura-gan et à l'échelle du mètre on sera capable de comprendre ce qui se passe dans un nuage stratosphérique cette précision c'est pas pour s'amuser c'est parce que en comprenant ces phénomènes au niveau le plus granulaire possible on est capable de prédire des comportements climatologiques de manière bien plus précise et beaucoup plus en avance mais tout ça c'est redoutable à chaque fois c'est exponentiel en termes de demande de calcul une autre vidéo mais en explorant et en travaillant avec ces données peut être un challenge les technologies comme l'OMNIVERSE PARAVUE CONNECTOR permettent les scientifiques à interactuellement analyser le temps et les données climates et les 3D pour combiner l'information de plusieurs sources et à explorer les scénarios cela nous prendra plus près d'un plan d'interactive digital de la Terre let's look at two examples en august 2019, Hurricane Dorian developed into a massive Category 5 hurricane causing over 5 billion dollars in damage in the Bahamas and the southeastern U.S. with sustained winds of 185 miles per hour Viewing high resolution simulations like these integrated forecasting system simulations in Omniverse allows scientists to analyze the behavior of storms such as this in detail, interactively and in full 3D this not only aids in understanding the physics of weather systems but also allows inaccuracies in models to be identified and refined with the Omniverse PARAVUE CONNECTOR visualization modalities of PARAVUE like streamlines become available within Omniverse and can leverage the RTX renderer or be fused with data from other sources these sources can be static or computed on demand such as mapping service, surrogate model or an AI-informed physical model here we show AI based image segmentation of satellite data which was used to detect flooded areas and to classify land use before and after Dorian hit the network performing the segmentation can run as a service and be triggered on demand once we have interactive access to all this earth science data a next step is to voilà donc je m'arrête là sur cette vidéo mais encore une fois c'est la simulation la visualisation et l'approche IA sur ces phénomènes physiques à des niveaux toujours à des résolutions toujours plus petites enfin plus importante ça dépend comment on le prend qui va faire qu'on va avoir des prédictions toujours plus fidèles une dernière vidéo là cette fois-ci c'est le réacteur de fusion pour je parlais un petit star dans un bâtiment magnétique construit une twin digitale qui représente toutes les components de réacteur le plasma et les systèmes de maintenance contrôlés c'est un challenge massive qui peut bénéficier de l'AI et de la computing de GPU le réacteur physique s'involte de nombreux experts d'un nombre de domaines avec beaucoup de parts de mouvement c'est important de garder la science, l'engineering et les experts de design et leur data in-sync à tous les temps avec Omniverse, les équipes peuvent connecter les 3D-designes, l'engineering et les tools de simulation pour qu'elles puissent collaborer sur une seule source de vérité la simulation de le plasma fusion est aussi un challenge grand les scientifiques ont développé l'extension Omniverse pour ingéniez des données de deux programmes de simulation le Monte Carlo Neutronix code GN4 une remarque aussi, vous avez entendu un moment donné l'intérêt de faire collaborer différents types de profils sur un environnement virtuel là il y a des ingénieurs il y a des mécaniciens il y a des scientifiques il y a sûrement des data scientists et tous ces gens-là peuvent collaborer sur une maquette on a l'exemple dans le marché automobile en travail avec BMW BMW est en train de construire une usine du futur pour l'instant ce n'est que du Bit and Bytes ce ne sont que des 1 et des 0 tout est virtuel mais un niveau de précision qui fait qu'on peut comprendre si une personne va se faire mal au dos en portant une certaine pièce sur l'équivalent de l'exemple c'est-à-dire qu'une personne va se faire mal au dos sur l'équivalent de 3 ou 4 terrains de football de l'usine là c'est pareil maintenant tous les nouveaux supercalculateurs celui-ci est en Suisse à CSC il n'existe pas encore mais il a été acheté avec le nouveau CPU Arm et GPU d'NVIDIA de dernière génération il va être dédié notamment tout ce qui est climat science des matériaux et étude du climat une remarque aussi que je n'ai pas faite, j'aurais pu aussi vous montrer les générations de GPU les un après les autres mais d'une GPU à une autre on est généralement sur des 10X 20X d'accélération de performance donc on est bien plus que la loi de mours ou d'un processeur à l'autre on est à 1.5, 1.6, 2X donc chaque fois qu'on sort une nouvelle GPU à consommation électrique identique et même si on fait le ratio puissance calcul sur puissance énergie il est bien sûr très favorable donc tous ces nouveaux supercalculateurs sont moins énergivores que les anciens comparer la puissance qu'ils délivrent et d'ailleurs aujourd'hui ce supercalculateur fait partie maintenant des exaflops vous savez qu'il y a eu la mode des pétaflops mais on accède aux exaflops alors je vous raconte pas le nombre de 0x en termes de puissance mais en fait on est à 1 gigaflop par watt ce qui est encore réaliste Nvidia est en train de construire Rf2 c'est un datacenter dédié à l'étude du climat un datacenter bien sûr entièrement basé sur nos technologies maintenant à vous développeurs qu'est ce que ça signifie tout à l'heure je vous montrais notre portfolio c'est tout un tas de software development kits c'est tout un tas de software gratuit d'accès open source et l'IA je pense un ingrédient indispensable dans les développements applicatifs de demain et là on le voit sur la partie scientifique on n'a pas parlé de toutes les autres applications mais sur la partie scientifique l'IA est là aussi l'IA c'est quand même un mode de développement qui est différent de ce qu'on faisait avant c'est beaucoup d'expérimentations ça demande beaucoup d'élasticité de l'infrastructure, beaucoup d'agilité et tout à l'heure je vous disais pourquoi Nvidia plus redate parce qu'en fait Kubernetes entreprise c'est vraiment l'outil qu'il nous faut à nous Nvidia tous nos composants sont containerisés tous nos composants peuvent être dans le cloud ou en premise et être utilisé de la même façon et ce cycle de développement applicatif c'est une boucle sans fin qui part du data center peut passer dans le cloud, arrive sur des serveurs de proximité ou même sur de l'embarquer et ça repart en arrière parce que c'est un processus d'entraînement sans fin, à chaque fois qu'un modèle est déployé il continue d'apprendre il est renvoyé derrière pour être optimisé et et Kubernetes et crucial on a développé un GPU opérateur qui fait que quand vous êtes sur OpenShift gérer des GPU c'est transparent ça c'est l'écosystème donc si j'avais une chose à vous demander de vous souvenir c'est que c'est du logiciel Nvidia c'est du logiciel et c'est du logiciel parce que faire de l'IA c'est plusieurs phases bien distinctes et chaque phase a besoin d'une idéologie et d'outils pour l'optimisation juste en apparté je vous disais que les modèles ne cessent de s'améliorer mais vous voyez la ligne bleue enfin le premier modèle dont on parlait en 2012 c'est AlexNet donc Alex Kryksevski qui a fait sa première reconnaissance visuelle par machine avec deep learning l'échelle est logarithmique bien sûr et AlexNet c'était donc un modèle de visual computing des modèles weft to veck to mais vous voyez une deuxième tendance qui est la ligne verte parce qu'il y a une deuxième tendance fondamentale dans l'IA c'est tout ce qui est natural language processing parce que l'IA commence à nous comprendre je vais pas vous faire peur et vous voyez la courbe de complexité de ces modèles donc ça va demander des calculs plus puissants mais derrière ça va rendre des services par exemple un médecin un radiologue un cancerologue il voit un patient, il a un cas un peu étrange mais qu'est ce qu'il fait il va consulter toutes les archives ou il va consulter sur internet les archives d'autres hôpitaux etc ça demande un temps phénoménal demain il va s'adresser à INIA qui va aller consulter toutes les archives même celles qui sont pas structurées et qui va en sortir le résumé on va faire un topo c'est un petit peu futuriste mais on y arrive parce que la voiture qui se conduit tout seul ça on y est déjà maintenant pour vous mettre le pied à l'étrier on a des environnements gratuits d'accès pour vous, pour vos clients où vous allez pouvoir voir des labs qui sont écrits étape par étape pour vous apprendre par exemple si il y a des gens de l'IT c'est pour vous apprendre à déployer à gérer des GPU au dessus d'openshift des labs qui vont vous apprendre à faire de la vision de la reconnaissance visuelle jusqu'à l'inférence et en vous guidant étape par étape pour juste vous montrer qu'il n'y a pas besoin de connaître les sous-jacents mathématiques il faut appliquer des recettes appliquer, utiliser des outils tout à l'heure on disait qu'on est en train de réutiliser des objets dans tous les sens et les librairies on est là dedans on vous a abstrait la complexité de l'IA on a aussi un programme pour les développeurs parce que c'est les start-up c'est les développeurs qui sont en train d'écrire les applications de demain et on les soutient parce que si ces applications sont successeful, on sera successeful et je pense que Redat on partage le même ADN de ce côté là et enfin on a aussi Deep Learning Institute que je vous engage aussi à consulter certains cours déjà sont gratuits d'autres sont à 30$ ou 90$ et puis même il y a des programmes par exemple pour tout ce qui est académique mais c'est une Bible d'information qu'on a commencé à constituer il y a plus de 5 ans avec des cours en ligne pour faire du machine learning du deep learning pour faire de la radiologie appliquer à différents domaines et avec du self-contain vous rentrez généralement dans des environnements qui sont hébergés sur le cloud vous avez une GPU à louer et j'ai fini merci beaucoup vu que c'est le dernier talk on a un petit peu de marge je vérifie s'il y a des questions j'ai Aurélie qui me dit que c'est super intéressant j'ai d'autres marques non mais c'est vrai c'est super intéressant est-ce qu'il y a des questions ici dans le public ouais je t'emmène le micro j'ai entendu dire que le calcul quantique est aussi une solution d'économiser est-ce que vous utilisez par hasard comme je disais tout à l'heure aujourd'hui on utilise les GPU pour émuler des machines quantiques aujourd'hui il n'y a pas encore de machines quantiques que vous puissiez utiliser pour faire des développements donc on vous met des émulateurs et la GPU permet d'émuler ça quantique c'est une promesse qui est merveilleuse mais ça reste encore ça reste encore une promesse c'est-à-dire que vous avez autant de défenseurs du quantique que de détracteurs avec l'IA maintenant je perds un peu les mots que de détracteurs du quantique donc c'est superbe que la France investisse là-dedans c'est superbe qu'on ait des scientifiques pointus dans ce domaine maintenant aujourd'hui tout ce que je vous ai montré là c'est pas de la science fiction c'est aujourd'hui c'est pas du what power comme on dirait est-ce qu'il y a d'autres questions non ? ok alors je vais vous demander tous de rester ici et d'applaudir encore une fois Romual