 Vous voyez que si vous ne venez pas à la recherche, c'est la recherche qui vient à vous. Nombre d'entre vous sont déjà venus nous visiter dans nos laboratoires à rushlicone pour être précis dans la banlieue de Zurich, le laboratoire de recherche d'IBM qui est le plus proche de là où nous trouvons aujourd'hui. Mais pourquoi la recherche vient vers vous ? C'est pas juste un slogan que j'ai utilisé ici sur cette page. Le monde est notre laboratoire. Pourquoi ? Parce que la taille des défis que nous devons attaquer aujourd'hui requiert une collaboration intense, pas uniquement nous chercheurs au fonds de nos laboratoires, mais en partenariat avec nos clients, avec nos partenaires d'affaires, avec le monde académique, avec les écosystèmes de développeurs, quel qu'ils soient. Je vais utiliser les 20 minutes que j'ai à disposition pour vous donner une petite ouverture sur le type d'activité qui nous occupe actuellement, et comment en fait elles vont dans cette direction de collaboration partenariat de plus en plus intense au-delà des frontières physiques de nos beaux laboratoires, en l'occurrence celui de rushlicone à Zurich. Ah, ça tombe bien. Il est là. Zurich, c'est l'un des 12 laboratoires à travers le monde. Ce qui est intéressant à retenir de ce que vous voyez ici, c'est que les 3000 chercheurs que nous regroupons sont maintenant répartis dans l'hémisphère nord et l'hémisphère sud pour une très bonne raison, et c'est relativement récent. On ne peut pas prétendre avoir tous les meilleurs cerveaux. Ils sont distribués à travers le monde. On veut être proches de ces cerveaux. On ouvre des laboratoires dans tous les continents, mais aussi parce que les problématiques qu'on rencontre ailleurs que ici sont tellement différentes qu'on doit être présents là où elles ont lieu pour pouvoir apporter les meilleures réponses et donc faire la recherche la plus pertinente possible. Je vous montre deux aspects qui parlent de la qualité et de la quantité de recherche que nous accouplissons chaque année. La qualité, on la retrouve à travers la reconnaissance, que ce soit à différents prix que nous avons obtenu à travers les années. La quantité, on la retrouve par une indication telle que celle-ci, le nombre de brevets déposés aux États-Unis chaque année par notre compagnie. Évidemment, pas uniquement par des chercheurs, mais plus globalement par toutes nos équipes de recherche et de développement. Et vous voyez ici les noms des différentes compagnies qui nous suivent d'assez loin. Nous avons quand même encore une large marge de manœuvre par rapport à notre concurrence. D'où cela vient-il ? Eh bien de la diversité des disciplines que nous regroupons à travers nos laboratoires. Historiquement, vous connaissez IBM comme une compagnie fournissant de l'infrastructure, du cloud, du service. Peut-être ne vous doutiez-vous pas que nous avons aussi parmi nos chercheurs des spécialistes en sciences du comportement ? Pourquoi ? Évidemment parce qu'aujourd'hui, l'intelligence artificielle pose des défis tellement important que nous devons faire en sorte qu'elle soit acceptée et donc comprendre comment nos clients, vos clients vont se comporter vis-à-vis de cette nouvelle technologie. Je ne peux pas résister de vous montrer cette photo. Beaucoup d'entre vous l'ont sûrement déjà vu de moi ou de certains de mes collègues parce qu'elle montre un exemple fantastique de réunions de disciplines différentes pour créer un produit qui mêle science et matériaux, théorie du signal et codage, nanomechanique, robotique. Pour aller écrire sur une bande magnétique flexible qui s'étire dans tous les sens à une vitesse phénoménale sur des pistes qui font quelques nanomètres de large, vos données et les conserver pratiquement à perpétuité au meilleur coup possible. J'en parlais à l'instant avec un des invités. Le stockage sur bande, c'est une des activités importantes dans mon département à Zurich et en train de vivre une renaissance, pas plus tard que la semaine dernière, un gros fournisseur de cloud chinois a décidé de mettre en place, en partant de rien, un exabyte de stockage sur bande. 180 lecteurs de type LTO pour ceux qui connaissent la technologie un peu plus en détail, qui vont être déployés d'ici la fin de l'année et ce n'est que le début. Ça vous montre que la bande, en tout cas c'est mon point de vue, est le meilleur allié, mais pas le seul, de l'intelligence artificielle. Pourquoi? Parce qu'elle permet de conserver notre mémoire, de conserver les informations qu'on utilise pour aller entraîner ces systèmes, pour aller en tirer le meilleur business insight. Et plus vous avez d'informations à disposition, que vous pouvez conserver au meilleur coup possible, plus les business insight que vous serez capables d'en tirer, vont être meilleurs que les autres. Je ne vais pas m'étendre là-dessus, mais cette page, c'est la page qui convainque tous les fournisseurs de cloud actuel dans le monde, s'ils n'ont pas encore basculé sur cette technologie de le faire rapidement. Ça montre, et je suis désolé, on peut en parler plus tard, que l'accroissement de la densité de stockage sur bande, comparé à celui qu'on trouve sur les disques durs, est en train d'être écartelé, la bande croit à une vitesse phénoménale, alors que le stockage sur disques ne le fait plus, et donc ça se reflète dans les coûts de stockage sur ces différents types de technologies. On estime qu'aujourd'hui, le TCO, le coût total d'acquisition et d'utilisation de la bande est 5 à 10 fois meilleur que celui du disque, mais ça, c'est seulement aujourd'hui. La tendance montre que ce différentiel va encore augmenter dans les années à venir. Je saute du stockage pour vous parler quelque chose de très différent, mais que vous connaissez très bien, le calcul dans les architectures classiques que je qualifie ici de Fund Neumann, donc ceux qui ne sont peut-être pas au courant, mais c'est simplement pour dire qu'une partie de votre infrastructure se charge d'effectuer des calculs et l'autre partie se charge de stocker les informations. Et quand vous effectuez une opération, il faut bouger ces informations vers le processeur et retour avec les résultats des opérations. Nous avons besoin d'améliorer l'efficacité de ces architectures classiques parce que peut-être, vous n'y avez pas encore pensé, mais qui est-ce qui imagine, qui imaginez-vous être la différence de consommation d'énergie pour aller déplacer quelques petites quantités d'informations de données pour aller effectuer une opération d'addition sur un processeur. La quantité d'énergie utilisée pour déplacer c'est quelques bytes et la quantité d'énergie utilisée par le processeur pour effectuer l'opération d'addition. Vous imaginez que c'est quoi la différence, d'ordre de grandeur, 10 fois, 100 fois, 1000 fois, 1000 fois plus d'énergie pour déplacer ces valeurs sur lesquelles on effectue une opération. Ça nous dit une chose simple. C'est que la distance qui se transforme en délais doit être diminuée pour éviter de gaspiller d'énergie à bouger des informations. C'est pour ça qu'on a déjà développé dans l'industrie et chez IBM en particulier des nouvelles architectures qui commencent à ramener les informations au plus près de l'endroit où elles vont être utilisées pour le calcul pour aller traiter ce problème de 1000 fois de consommation d'énergie. Mais ça c'est l'architecture classique. Nous sommes tous ici la preuve vivante qu'on peut faire beaucoup mieux. Qu'on peut dépenser beaucoup moins d'énergie et être au moins aussi efficace. Et ça on le retrouve dans quelque chose de très différent qu'on a commencé à expérimenter avec il y a maintenant 3 ans en arrière ce qu'on appelait True North on avait réussi à revenir 1 million de neurones répartis dans 4000 heures sur le processeur que vous voyez là-bas pour aller effectuer des opérations qui ne sont plus cadencées par l'horloge d'un processeur qui nous permettent de diminuer significativement la quantité d'énergie utilisée parce que quand vous n'avez rien à faire vous dépensez pas d'énergie. Il n'y a pas une horloge qui vous dit il faut continuer à faire fonctionner le système on peut s'arrêter jusqu'à ce que de nouveau il y ait quelque chose sur lequel on doit travailler. C'est en 2014 entre temps on a continué à évoluer pour s'inspirer davantage du quoi du fonctionnement de notre cerveau. On s'est rendu compte que dans de nombreux cas l'implémentation de réseaux artificiels ne nécessite pas nécessairement une précision de 16 ou 32 bits ce que nous réalisons avec nos processeurs classiques on peut très bien réaliser la tâche avec une précision de 8 voire moins de 2 bits donc utiliser ce qu'on appelle le calcul approximatif nous permettent de de nouveau réduire la quantité d'énergie pour accomplir la tâche avec satisfaction. Le troisième point que vous voyez ici à droite c'est quelque chose qu'on réalise dans mes laboratoires dans certaines de mes équipes aujourd'hui et ça va au delà de ce qu'on a réalisé jusqu'à présent on s'inspire vraiment maintenant du fait que notre cerveau ne distingue pas la mémoire les informations du programme, des procédures sur lesquelles elle s'applique tout est imbriqué les uns avec les autres d'autre part notre fonctionnement est totalement analogique avec les erreurs qu'on peut y retrouver mais au final notre cerveau fonctionne relativement bien en général nous avons trouvé les moyens d'aller imiter encore davantage de s'inspirer encore davantage du fonctionnement de notre cerveau de sa structure du fait que les neurones peuvent être assimilés à ce qu'on appelle des mêmes restors et finalement de la dynamique de fonctionnement du cerveau qui fonctionne par impulsion qui s'accumule et qui au bout d'un certain temps provoque une impulsion qui va sur le neurone supplémentaire toutes ces inspirations permettent d'aller résoudre les problèmes qui aujourd'hui sont très gourmands en consommation d'énergie d'une façon fondamentalement nouvelle et je vous donne quelques exemples que nous avons réalisés d'abord pour vous montrer que cette mémoire computationnelle donc ce fait qu'on rassemble le calcul et la mémoire dans la même entité c'est vraiment un changement majeur dans les architectures de nos systèmes qui va se greffer comme un accélérateur de type GPU sur nos architectures traditionnelles donc rien ne remplace entièrement ce que nous connaissons aujourd'hui tout se rajoute ce qui pose d'autres questions de complexification d'hétérogénité de système et donc de l'automatisation que nous devons mettre en place en utilisant aussi l'intelligence artificielle pour optimiser cette architecture qui devient spécialisée et hétérogène cette mémoire computationnelle qui nous permet de réaliser pas toutes mais certaines opérations en place dans la mémoire elle-même ça c'est peut-être la page qui est la plus technique de toute ma présentation mais vous allez voir assez rapidement si vous êtes ingénieur si vous avez su des cours d'électricité un jour ou un autre que c'est tellement simple le concept derrière ces mémoires computationnelles c'est simple que franchement on se demande pourquoi on ne l'a pas exploité plus tôt à gauche vous voyez une opération de multiplication d'un vecteur par une matrice jusque là j'espère que tout le monde le suit à droite vous voyez son implémentation analogique avec un circuit que vous pourriez réaliser dans votre petit laboratoire ou à chaque nœud nous avons placé une mémoire computationnelle en l'occurrence c'est un champignon de matériaux chalcogénides c'est une résistance à mémoire que nous pouvons faire varier en fonction des opérations qui y sont effectuées cette multiplication vecteur matrice se retrouve partout que ce soit dans l'entraînement d'un réseau de neurones dans l'inférence d'un réseau de neurones que ce soit dans la compression d'image on retrouve ce type d'opération pratiquement partout si nous sommes en mesure de l'accélérer ça va avoir de répercussions vraiment vastes imaginez que vous mettez à chacun des nœuds de ce petit circuit les valeurs des résistances proportionnelles aux coefficients de la matrice ensuite vous appliquez un voltage en entrée de ce petit circuit qui correspond proportionnellement aux valeurs du vecteur W vous allez lire en sortie de ce circuit les valeurs I1, I2, I3 le résultat de la multiplication de ce vecteur à cette matrice c'est les lois de Ohm et les lois de Kirchhoff et qui réalisent cette opération en temps instantané il n'y a pas de cycle d'opération de chargement d'information, de calcul et ensuite de production du résultat cette opération s'est faite en place pratiquement instantanément ou est-ce qu'on l'utilise alors nous avons déjà effectivement démontré pratiquement les avantages de ce type de mémoire neuromorphique ou computationnel vous voyez deux exemples d'image une qui a été reconstruite une image compressée qui a été reconstruite à l'aide d'autres circuits analogiques et l'autre c'est l'image originale probablement que le dernier rang ne voit pas la différence entre les deux images ça montre que cette image et son traitement à travers cette mémoire computationnelle satisfait absolument ou largement aux besoins qu'on aurait si on faisait de la vidéo surveillance elles sont équivalentes on a dépensé suffisamment d'énergie pour reconstruire cette image pour le cas d'usage et si on avait fait la même opération en utilisant une architecture digitale standard à plémenter dans un FPGA ici on aurait consommé 50 fois plus 50 fois plus d'énergie pour le réaliser à peu près à la même vitesse ça s'arrête pas là 50 fois c'est déjà un sacré ordre de grandeur l'autre exemple que j'aimerais vous présenter ici sans entrer dans les détails c'est le suivant corrélation temporelle de flux imagine que vous avez un million de flux que vous deviez trouver lesquels sont corrélés avec les autres des points qui ont l'air d'apparaître au hasard et chaque fois qu'un point s'allume donc il y a 1000 fois 1000 points donc 1 million de points sur cette image chaque fois qu'un point s'allume la petite tâche noire c'est qu'il y a un événement qui est arrivé dans ce flux maintenant trouvez lesquels ces 1 million de flux sont corrélés bonne chance en utilisant notre petit circuit de mémoire computationnel analogique on a réalisé cette opération ici en rouge les flux qui sont effectivement corrélés mais ça ne suffit pas je vais vous démontrer que réaliser ce calcul qui demande beaucoup d'opérations de multiplication de matrices et de vecteurs dans une architecture standard on a utilisé paro 8 parce que c'est à l'époque ce qu'il y avait de plus récent on pourrait le refaire aujourd'hui avec le paro 9 ça ne changerait pas énormément parce qu'on parle d'ordre de grandeur ici on a réalisé la même opération sur un système largement optimisé avec des GPU power 8 et compagnie et on a montré que notre système de mémoire computationnel pouvait le faire 200 fois plus rapidement 200, je parle plus de 50, je parle de 200 fois comment est-ce que vous avez entendu la dernière fois que quelqu'un vous parle d'une accélération de 2 ordres de grandeur ça ne s'arrête pas là le quantique devient une réalité dans nos laboratoires mais aussi dans le cloud le quantique est possible depuis maintenant un certain temps chez IBM et pour résoudre des problèmes qui jusqu'à présent étaient au-delà de nos espérances vu la complexité l'explosion combinatoriale qu'on y rencontre que ce soit en chimie, en intelligence artificielle ou même dans le secteur bancaire sans entrer dans les détails le service que nous avons mis à disposition sur le cloud a déjà permis à plus de 100 000 utilisateurs d'effectuer à travers le monde plus de 6 millions d'expériences quantiques pour aller se familiariser avec cette nouvelle technologie qui est tellement différente que je ne vais même pas essayer d'entrer dans les détails pour vous l'expliquer mais les bit quantiques se comportent tellement différemment de ce qu'on a l'habitude de voir que ça nécessite un certain temps jusqu'à ce qu'on soit en mesure de prétendre à utiliser cette technologie le plus efficacement possible mais pour vous aider pour faire en sorte que l'écosystème se développe autour de cette nouvelle technologie nous avons mis en place plusieurs programmes l'un d'entre eux qui est disponible en code ouvert s'appelle Qiskit où nous avons déjà des exemples concrets d'implémentation d'algorithmes sur une base quantique qui résolve des problèmes que ce soit lié à la finance ou d'autres d'une façon excessivement accélérée donc c'est plus du rêve le quantique ça se profile et de plus en plus de nos clients s'intéresse à l'exploiter ou du moins à apprendre comment en tirer parti je termine donc ma présentation et c'est le message que je transmet chaque fois que j'ai la chance d'accueillir des nouveaux employés azuriques nous sommes à l'aube d'une décennie qui va être parmi les plus passionnantes que nous aurons vécu en tout cas personnellement ça fait 25 ans bientôt que je suis chez IBM j'estime que les 10 ans à venir avec le neuromorphique avec la combinaison du big data et de l'intelligence artificielle avec le quantique qui sera une réalité physique d'ici là va apporter tellement de disruption on en parlait en introduction que c'est à nous ici ensemble de comprendre comment on va en tirer parti le mieux possible et le mettre à profit pour vos problèmes donc venez chez nous venez dans la recherche travaillons ensemble à trouver des solutions merci merci Robert moi j'ai juste une petite question qui me tarodre quand est-ce qu'on va pouvoir écolter les fruits de ces belles innovations alors le neuromorphique je suis de la recherche donc je peux m'exprimer et vous ne pouvez pas ensuite aller chez un de mes collègues d'une business unit et lui dire il a dit que c'était disponible le temps non je suis de la recherche ça n'engage que moi et mes activités et mes chercheurs nous aurons des accélérateurs neuromorphiques à disposition nous avons déjà des prototypes qui fonctionnent dans nos laboratoires le quantique c'est une autre histoire par contre comme j'ai des équipes qui s'occupent de sécurité et d'encryption nous travaillons déjà à développer les algorithmes qui vont être résistants aux futurs ordinateurs quantiques et nous devons estimer d'ici quand ces ordinateurs seront disponibles pour ceux qui aimeraient attaquer les données que nous stockons aujourd'hui c'est notre estimation qui est peut-être un peu agressive mais c'est d'ici 8 ans d'ici 8 ans d'accord ok je vous demande un tonnerre d'applaudissement pour le docteur Robert Asse merci, merci infiniment je vais prendre la zapette