 bonjour à tous j'espère que vous allez super bien je suis content de vous retrouver pour une heure ensemble sur le best-of du Radat Summit c'était la semaine dernière qu'est-ce qui s'est passé on va en parler et pour ça j'ai plusieurs invités qui sont avec moi donc je vais d'abord demander à Laurent de me rejoindre salut Laurent Hello Sébastien bonjour tout le monde on a aussi Cyril salut Cyril par contre Cyril t'es mute et faut que tu te le moutes salut jafar salut jafar ça va bien salut bonjour oui très bien bonjour à tous c'est bienvenue sur ça stream bah ouais et alors je veux même pas regarder combien de personnes il y a les gens alors encore une fois c'est un stream interactif on a le chat qui est là donc n'hésitez pas à dire bonjour je vois qu'il n'y a pas de Val, il y a Ludovic, il y a Jason salut donc n'hésitez pas à dire à 27 voilà et voilà ça y est ça arrive ah il y a Julien cool il y a 1v4 713 bonjour tu es un humain bon super cool tout fonctionne bien parfait je reviens sur ici donc l'idée de ce stream c'est on est une heure ensemble on va prendre un peu les annonces qu'il y a eu la semaine dernière et en discuter entre nous n'hésitez pas à poser vos questions mettre votre feedback sur le chat on va récupérer vos questions et c'est tout avant qu'on commence rapidement si vous pouvez vous présenter rapidement mais vraiment en 10 secondes vas-y Cyril qu'on vas-y qu'on vas-y Cyril ouais excuse moi j'ai j'ai un petit instant d'inattention c'est juste juste je te demandais te présenter brièvement ah ouais c'est le plus j'ai moi je travaille chez le product manager chez orange en charge de solution et de plateforme devops ok super jaffar alors aujourd'hui jaffar fraibier je travaille en tant que technicole marketing manager chez redacte spécialisé sur oponjif et auparavant j'étais architecte j'ai eu la chance de travailler notamment avec Cyril sur ces projets de conféeration ok super écoutez on va commencer direct avant ça on va j'aimerais bien qu'on discute au travers de ces grandes annonces enfin c'est oui c'est des grandes annonces au travers de ces annonces qui a eu quels sont les grosses tendances qu'on pourrait en tirer est-ce qu'il y a un thème général qui se dégage l'orange je crois que tu avais une idée là-dessus que tu pourrais bien vous partager bien sûr je peux partager ça avec vous pas de soucis donc effectivement ça a été deux jours la semaine dernière riche on annonce et on peut dire que globalement en fait on a gravité autour de trop un grand sujet en fait le le premier c'est voilà la grande tendance c'est vraiment la thématique open hybrid et multi cloud d'accord comme l'a dit notre CEO Paul Cormier maintenant chaque DSI devient un cloud opérateur d'accord parce que effectivement le le besoin d'avoir des clusters d'opérer ça sur plusieurs data centers on premise bénéficier aussi du cloud public pour du débordement pour certains types de workload c'est vraiment une réalité forte et effectivement chacun se doit de considérer ça dans sa stratégie donc effectivement bah nos nos nos offres elle s'adapte voilà pour justement faciliter cette transition la deuxième tendance la deuxième thématique c'est qu'effectivement les DSI et tous les gens effectivement de la DSI au sens large ont en face de la des choix technologique à faire mais pas seulement il y a aussi en fait une façon de consommer l'it qui qui devient différente et effectivement on se pose de plus en plus la question de est ce que cette technologie je l'opère moi-même ou est ce que c'est pas mon coeur de métier et je veux me différencier je veux accélérer sur d'autres choses et donc je prends plutôt une option service manager et je confie à d'autres effectivement le fait de gérer pour moi et donc ça c'est aussi une deuxième une deuxième grosse tendance et on va voir que ben effectivement on a certaines annonces qui sont directement en ligne avec ça ok la troisième grande tendance c'était tout ce qui était en latif en fait à la hage au hedge computing voilà au parler des nouveaux types de workload qui sont drivé par la data au fait d'avoir besoin aussi de justement gérer cette data prendre des décisions sur cette data de façon décentralisée pas forcément tout rapatrier en central pour prendre des décisions mais être aussi là au plus proche avoir la capacité de déployer des applications au plus proche de cette data et de l'en droit où on doit prendre les décisions donc vraiment là aussi une grande thématique toute cette partie edge et l'impact que ça a et à la fois sur les infrastructures et sur les architectures applicatives et on va notamment parler de tout ça de tout ce qui est streaming de données tout à l'heure tout à fait quelqu'un qui veut ajouter quelque chose à cette c'est beau ce beau résumé qu'on a fait Laurent alors on en reparlera un petit peu aussi mais il y a des annonces qui sont arrivées aussi à l'occasion du cube con et non pas du semis donc notamment hier je développerai un peu plus ce sujet là notamment au sujet de l'annonce d'offensives pipeline et de githops donc on en reparlera un peu plus tard parce qu'on est en semaine cube con c'est très chargé la semaine prochaine c'est la conférence d'ibm je m'appelle plus son nom blue quelque chose sûrement et j'en profite d'ailleurs pour rappeler que demain on aura un stream sur l'équivalent de ce qu'on fait mais pour des annonces tu connes donc ça s'appelle l'offensives coefficient break il vous enverra le lien alors pour résumer un peu juste les annonces je vais partager juste deux secondes mon écran j'ai un slide qui résume un peu les annonces et après du coup on pourra rentrer petit à petit dans chacune des annonces du fou je dois partager mon écran donc là on va être en mode inception mode inception j'adore toujours ce mode et je vais rapidement juste mettre ce slide en gros donc on se devrait apparaître maintenant voilà donc les trois thématiques que l'aurant annoncé donc toute cette partie hybrid cloud et aussi le l'edge et nous honnêtement aujourd'hui on va plutôt se concentrer sur la partie à droite ici sur les services manager on va traiter les études aussi mais parce que ça touche un peu plus les développeurs aussi ok donc je d'ailleurs dans le chat dit si vous êtes dev si vous êtes développe si vous êtes manager racontez nous un peu qui vous êtes c'est toujours bien à savoir du coup voilà je on ne va pas vous embêter des slides c'est vraiment pas le style de cette table ronde c'est juste pour vous montrer en une image un peu quoi on va parler alors je sors de là j'arrête je reviens ici là vous voyez derrière les studios comment ça se passe j'enlève les studios ok donc on va commencer avec des annonces et je regarde mon petit parce que je suis quand même un petit agenda qui est là et la première annonce dont on va parler c'est à toi enfin l'orange affaire tout le monde en fait c'est pour parler d'open shift plateforme plus ouais exactement je commence c'est un petit peu en continuité effectivement sur sur la stratégie sur la thématique open hybrid multiclab donc vraiment une nouvelle une nouvelle offre une offre une nouvelle annonce c'est effectivement open shift plateforme plus donc il y a effectivement la distribution cubernets open shift container plateforme que vous connaissez sûrement et effectivement on se rend compte que la réalité bah dans les organisations c'est justement de déployer de plus en plus de clusters parce que il y a cette réalité du multiclab voilà on peut citer cette petite state voilà il y a 80% des gens qui utilisent déjà du cloud public en fait disent qu'ils utilisent plus de 2 providers de cloud public donc deux ou trois providers de cloud public dont c'est vraiment une réalité et donc il y a ce besoin de déployer des clusters sur différents providers de déployer des clusters pour aussi différentes équipes parce qu'en fait il y a des équipes qui ont énormément gagné en maturité qui sont maintenant complètement autonomes sur tout ce qui est le management du cluster la difficulté c'est pas forcément de déployer la première fois c'est cluster la difficulté c'est de maintenir tout ça en condition opérationnelle d'être sûr que toutes nos configurations elles sont alignées qui n'est pas des des divergences qui se créent au fil du temps qu'on puisse facilement remédier à ces divergences voilà donc c'est c'est pour ça qu'on a introduit il y a quelques temps une offre qui est advance cluster management pour open shift qui va vous permettre justement de manager différents clusters et puis de gérer ces configurations cette audite de configuration et ce déploiement aussi d'applications en mode multicluster donc ça c'était déjà une chose qu'on avait auparavant et en fait on a complété la la picture ces derniers mois avec une nouvelle offre qui s'appelle advance cluster security qui est issu en fait du rachat de stack rocks qui offre en fait la des fonctionnalités avancées en fait de gestion de la sécurité de la conformité de la gestion et l'inspection aussi du trafic réseau de tout ce qui se passe dans mon cluster voilà et puis on avait aussi précédemment dans le giron redat en fait cette offre de conteneurs registries qui s'appelle quai dont le le service sas quai.io vous connaissez peut-être vous s'utilisez peut-être pour vos vos images de conteneurs publics ou voilà sur votre petit site project et donc maintenant tout ça quai advance cluster security et advance cluster management en fait s'est regroupé dans un seul bundle qui s'appelle OpenShift platform plus et qui va vous permettre justement d'aborder hyper sereinement cette transition vers le multicluster et puis tous les challenges associés donc vraiment voilà je dis parler la configuration de la sécurité ce genre de challenge. Avant qu'on entend déjà faire là-dessus, Thierry, tu as une réaction à chaud sur cette annonce d'OpenShift plus ? Oui ben nous on avait suivi avec intérêt l'arrivée de redat advance cluster management on commençait à être confronté justement à des problématiques de déploiement et gestion de plusieurs clusters voilà on a pu tester dans le groupe orange cette solution voilà pour l'instant on n'a pas je l'ai complètement arrêté de solution et de choix mais c'est vrai qu'on est confronté à cette problématique on est aussi confronté aux problématiques tout ce qui tourne autour de la sécurité on a étudié certains produits à quoi sécurité et d'autres et du coup là aussi on a suivi avec intérêt le rachat de stackrocks et maintenant l'émergence de ce nouveau produit je pense que ça fait vraiment du sens dans les grandes entreprises bon ça fait ça fait plaisir d'entendre ça à la part d'un commentaire très rapide c'est vrai que auparavant on s'appuie sur des partenaires pour tout ce qui concernait la partie sécurité donc notamment la visualisation des trafics réseau ce genre de choses là suite à l'intégration d'accesse dans le portefeuille rédate donc l'intérêt c'est qu'on pourra avoir des interactions beaucoup plus fortes entre justement la core plateforme et et ce produit là donc c'est pour moi une excellente nouvelle et je suis aussi très content de la rapidité avec laquelle on a pu intégrer ça dans dans le portefeuille rédate sachant qu'auparavant c'était une solution tierce pas complètement un peu de source donc c'est plutôt une bonne nouvelle ok exactement alors le multicluster effectivement les premiers challenges qui viennent toujours à l'esprit c'est celui de gestion de configuration de sécurité de maintien en condition opérationnelle mais faut pas oublier aussi que derrière cette problématique multicluster il ya une énorme opportunité en fait de aussi changer l'architecture de nos applications pour qu'elles deviennent justement nativement multicloud multicluster pour avoir pour apporter le maximum de résilience alors ça c'est effectivement des grosses problématiques d'architecture mais ça entraîne aussi des gros challenges d'un point de vue justement au délivrer et comment on va adapter nos nos pipeline et notre méthodologie voilà ci cd githops pour réaliser le la livraison de ces ces applications dans ce contexte multicluster et là je pense que j'affaire t'as quelques annonces aussi à partager autour de cette de cette thématique là non tout à fait merci Laurent donc effectivement hier on a fait l'annonce de la ce qu'on appelle la général availability de deux solutions pour open shift qui sont donc open shift pipeline et open shift githops donc pour ceux qui connaissent le projet upstream tec-ton donc redact et contributeur au projet tec-ton et le productif alors productivé c'est une francisation un petit peu accidentel mais donc on le fournit sous forme de solution supporté donc à travers un opérateur qui est donc disponible dans l'opérateur il était disponible depuis quelque temps sous forme de technologie prévue mais désormais on est passé en ga donc ça veut dire que vous pouvez l'utiliser de manière supportée en production ce que ça apporte c'est qu'on va pouvoir s'appuyer sur pubernet s donc et donc open shift comme étant votre plateforme de ci cd sans pour autant avoir besoin d'installer des solutions complémentaires comme on le faisait auparavant soit avec des solutions comme gentins githlab qui installe non seulement la solution mais aussi des agents qui vont tourner etc donc ce ce projet ou cette solution là étant open shift avec des concepts liés au continuous delivery donc des notions de pipeline des notions de tâches qui vont toutes ou tout s'exécuter sous forme de conteneurs et donc on bénéficie à 100% des fonctionnalités apportées par pubernet s en termes de scalabilité en termes de facilité à délivrer de nouvelles versions typiquement par exemple si on parle de la solution comme gentins un des problèmes c'est la notion de compatibilité de plugin certains projets vont avoir besoin d'une version plus récente d'autres vont être contrats parce qu'il y a une incompatibilité entre plugin et donc on se retrouve dans soit une situation où tout le monde va s'aligner sur les versions les plus communes donc minimal où on va commencer à instancer des versions pour chacun des projets et donc là l'intérêt c'est que comme tout va être conteneurisé si vous avez besoin de nouvelles fonctionnalités vous avez besoin d'une nouvelle version d'une cli ou ce genre de choses il suffit de créer des nouvelles images de conteneurs de package et ça de leur capsuler sous forme de tâches et donc on va pouvoir les mettre à disposition pour les pipeline etc donc c'est vraiment extrêmement intéressant d'avoir cette notion de pipeline pubernet test pubernets native donc ça c'est pour la partie open chief pipeline la deuxième partie c'est open chief githops et donc là encore on s'appuie sur un projet communautaire qui est argo cd donc argo est un des produits phare pour ou projet phare pour pouvoir faire du githops alors petit rappel qu'est ce que le githops c'est l'effet de pouvoir définir toutes vos ressources as code dans un référentiel un ou plusieurs référentiels githes l'idée étant que on ne va pas les déployer des choses à la mano ou à travers des pipeline sur nos environnements cibles parce que plus on va se quitter plus ça va être compliqué de gérer justement cette notion de synchronisation entre un état désiré et la réalité du terrain et donc l'approche githops consiste à dire je déclare tout sous forme de fichiers de configuration de fichiers yamel ou ce genre de choses dans mon référentiel githes et je vais demander à ma solution de spruter l'état de ce référentiel et de s'assurer que tout est déployé comme je le souhaite dans mes environnements cibles donc ça peut nous permettre justement de faire du multicluster de manière un peu plus simple et ça peut prévenir aussi ce qu'on appelle du drift c'est à dire quelqu'un à modifier accidentellement quelque chose sur un cluster la solution va spruter l'état actuel l'état réel elle va spruter l'état désiré et elle va faire ce qu'on appelle la rémédiation automatique pour s'assurer que ce soit dans l'état désiré et donc là encore redacte dans la pure tradition redacte et acteur majeur de l'état et contribue au projet argo cd donc on fait partie du board on backporte même certaines fonctionnalités qu'on avait dans certains produits dans l'upstream et donc c'est bénéfique à la fois pour nos clients qui vont l'utiliser dans open-shift githops mais aussi pour la communauté argo au sens large ok et donc voilà ouais c'est rile peut-être un petit mot là-dessus parce que chez que vous vous intéressez partie githops aussi pipeline je sais que vous avez déjà beaucoup investi dans peut-être d'autres solutions mais que c'est quand même quelque chose que vous gardez à l'oeil du fait que ce soit vraiment intégré que ça se repose sur des briques clonétiques en fin des briques que on va dire à un petit nous comme je pense comme beaucoup de personnes on est historiquement de grands utilisateurs de de genkins intégration continue et puis cette dernière année je pense sous l'impulsion pas mal des développeurs on a évolué de genkins vers une solution githlab avec un module intégration continue et déploiement continue que ça peut le githlab si il y a donc on a pas mal investi sur cette technologie pour construire des des templates réutilisables pour permettre à nos projets aux applications d'instancier des chaînes de ci ici dit de manière de manière simple et rapide pour les aider à démarrer dans cette évolution vers le déploiement continue mais ensuite à mesure que on a vu l'émergence d'application avec des architectures micro-service sur déployé sur des environnements Kubernetes voilà on a constaté qu'il y avait quand même une grande complexité à gérer l'ensemble de ses pipeline pour tous ces micro-service et à garder une synchronisation entre nos repository guide et nos environnements de dev, de staging, de production donc oui on est très intéressé par cette trilise et je pense que la CC solution là vont grandement nous aider à nous améliorer et à résoudre un certain nombre de problèmes qu'on rencontre alors juste merci Cyril pour le partage et effectivement un point dont j'ai oublié de parler c'est un petit peu la manière dont ces deux approches sans chevêtre et donc effectivement prenons votre exemple vous avez déjà une solution existante pour faire de l'intégration continue la difficulté ou la rupture elle se passe au moment où à la fin de notre pipeline on a déployé une application sur plusieurs clusters sauf qu'on a plus cette boucle de retour pour comme tu as dit faire une réconciliation si jamais il y a des modifications et donc la pratique ou la la bonne pratique on commence à voir émerger c'est de se dire on fait notre pipeline d'intégration continue et à la fin de ce pipeline on va faire appel à l'approche à une solution github qui va elle se charger de faire le dépamment sur les environnements cibles de manière à ce que on est justement cette notion de continue enfin de de rafraîchissement continue et de synchronisation entre ceux qui existent réellement et ce qu'on souhaitait déployer donc donc d'accord c'est effectivement sur cette partie là qu'on commence à avoir beaucoup de beaucoup de complexité des difficultés à gérer tout ça sachant sur les parties amont sur la partie plus ci aïe là on a globalement une bonne maturité avec les outils githlab ci aïe qu'on utilise donc je suis complètement d'accord avec toi j'enfois et du coup pour appuyer en avait une remarque aussi de julien qui disait le problème c'est la multiplicité la multiplicité des outils disponibles et les choix d'entreprise donc alors je vois qu'elle a déjà été répondue par le rendant le chat super j'avais préparé la bannière et tout mais je veux quand même la mettre peut-être pour ceux qui auraient pas le chat d'ouvert parce que c'est possible et une petite remarque supplémentaire c'est sur sur cette question justement de la multiplicité des outils oui ça fait toujours peur un petit peu de justement regarder un nouvel outil démarrer un nouvel outil parce qu'on a ses habitudes forcément et moi ce que j'aime bien avec tecton et avec open shift pipeline c'est que justement en fait il y a déjà il existe déjà dans les communautés à hub qui va vous permettre d'accéder en fait à tout un ensemble de tâches préexistantes pour juste qui concentre déjà les best practices en fait sur l'utilisation tecton et ce qui est vachement intéressant c'est que ce hub enfin en tout cas les tâches que vous aurez sélectionné dans ce hub vous allez pouvoir en fait les les répatrier dans votre open shift pour qu'elle vienne en fait enrichir votre catalogue interne de tâches réutilisables et ça quelque part ça rejoint la remarque de Cyril qui disait c'est hyper important chaque fois qu'on fait du pipeline d'essayer de cadrer quand même tout ça d'avoir un certain nombre de templates et en fait avec justement tecton avec open shift pipeline on va pouvoir facilement faire ça en s'appuyant sur le hub alors je vais mettre justement dans le chat le petit lien vers le vers le hub alors petite point complémentaire mais non sans importance on a parlé de standard ce qu'il faut vraiment garder à l'esprit c'est que cette notion de enfin ce projet tecton il est né dans ce qu'on appelle la continuous delivery foundation donc la cdf qui est une organisation dans l'objectif premier et justement de standardiser la notion non enfin les différents concepts dont on a besoin pour faire du continuous delivery et de standardiser aussi les différents outils autour d'un socle commun donc quand on regarde les membres de la cdf ben on a Jenkins on a Jenkins X on a Red Hat on a WeWorks il semble aussi et donc l'idée c'est que les éditeurs vont progressivement salier sur ces notions de standard donc Kubernetes permet d'étendre ces API et ces ressources à travers des mécanismes qu'on appelle les custom ressources definition et donc on va avoir une notion de pipeline une notion de tâches qui deviennent des standards et hier lors du topstone donc il y a eu une annonce par la présidente de la de la cdf qui disait qu'ils étaient en train de travailler justement sur la standardisation des événements qui sont gérés par ces outils de continuous delivery donc de manière à ce que là la première étape c'est standardiser autour des concepts autour de la manière dont on va pouvoir les instantier la deuxième étape c'est de standardiser autour des événements donc par exemple ou pour le request il faut que ça devine quelque chose qu'on puisse décrire de manière standardisée de manière à pouvoir réagir de manière uniforme chacun sa propre manière d'intémenter avec un certain nombre d'aider qui sont disponibles à un endroit et pas d'autres etc et donc voilà on avance justement vers cette standardisation on aura bien évidemment de nombreux produits mais qui tourneront sur un socle commun et ce socle commun c'est que Bernet est plus ses extensions tel que tecton ou d'autres initiatives qui pourraient arriver par la suite ouais ouais j'oublie ce que j'allais réagir ce que t'avais dit oui sur les événements la standardisation ça me fait c'est ce sera basé sur les cloud event elle n'a pas donné plus de détails mais c'est plus vraiment c'est plus la standardisation de la structure par exemple ce que ça va être comme pay-load vraiment standardiser par exemple entre Git et GitLab il va y avoir une une pool request enfin même au niveau de la normalisation des noms et ensuite chaque éditeur implementera ses standards selon ce qu'il veut comme là par exemple les plugins de gestion de réseau ils sont conformes à une notion de CNI donc container networking interface et chaque fournisseur de solutions de réseau va impiémenter ce standard là dans sa propre solution ok on va un petit peu avancer je crois que les j'ai mis les questions là mais je crois que vous avez déjà répondu il y a aussi une deuxième question sur un retour d'expérience de Jenkins je crois que tu as copié le lien déjà non vers le alors il existe un guide de migration donc la question c'était est ce que vous avez des choses qui peuvent assister des clients Jenkins à faire une transition en douceur vers d'air off en suite patlines et tecton donc redact a effectivement écrit un guide de je dirais pas de migration mais d'adoption pour le passage de Jenkins à tecton j'essaye de retrouver le lien pendant qu'on parle des annonces et je le partagerai sur super sur le chat d'accord parce qu'on va un petit peu annoncer dans les avancées dans les annonces parce qu'on est il est 28 ça va on est enfin je n'ai aucune idée du timing mais je pense que ça va te sens on est là c'est bien qu'on est la discussion et merci au chat qui est très actif on est nombreux on est on est quasiment 70 et oui ça discute dans le chat j'adore ça c'est vraiment ça la raison c'est une comme je dis souvent ce que j'adore dans ce nouveau monde remote un peu bon c'est dommage qu'on se retrouve pas en vrai ça ça viendrait un moment mais c'est le chat le chat ça rajoute tellement une nouvelle dimension que ce soit des tolls coups des tables rondes parce que les gens peuvent discuter entre eux vous imaginez bien que ça dans les vrais cons les gens ils vont pas commencer à discuter entre eux sinon ça va rendre fou le speaker mais mais là du coup c'est possible et j'adore ça rajoute vraiment une nouvelle dimension donc s'il faut tirer un point positif enfin il ya deux points positifs d'une n'importe qui peut rejoindre maintenant ce type de table ronde pas n'importe qui pouvez aller à des conférences et d'eux qui a l'interaction du chat c'était juste une petite appartée mais on va enchaîner sur la deuxième annonce des services manager qui ont été annoncés la semaine dernière ok donc il y en a plusieurs il y en a trois le premier c'est moi qui voulait vous en parler en fait je vais vous montrer ok ce que c'est et puis les autres ce sera l'orant et jafar ok mais moi je vous parlais de kafa manager ok donc kafa c'est c'est c'est chaud bouillant tout le monde veut faire du kafa tout le monde veut faire de l even driven architecture déployer son cluster kafa c'est pas la chose la plus facile ok encore si on est sur des cubes on a des super opérateurs sous la communauté stream z il y a aussi un produit redact pour ça facilite la chose mais la marche est quand même assez haute et surtout on doit continuer à manager son cluster kafa donc ce que redact a annoncé la semaine dernière la semaine dernière c'est kafa managed stream ou je dis même pas le bon nom mais vous allez le voir votre cluster kafa manager vous cliquez sur un bouton ça crée votre cluster kafa vous crée votre topic c'est irrépour vous ok et vous savez quoi je vais vous le montrer j'ai juste ma petite bannière elle est où ma bannière hop j'avais une petite bannière prête alors là je vous ai mis cloud redact.com the place to be pourquoi the place to be parce que et là au monde hop parce que si vous allez sur ce site ok ce site cloud redact.com c'est ce site là va devenir de plus en plus important pour redact ici on va concentrer tous nos services manager mais aussi toute la gestion de vos clusters ok et vous pouvez y accéder vous pouvez vous connecter tout simplement avec votre compte redact developers je vous rappelle bien si vous êtes client avec votre compte client mais si vous êtes de la communauté vous allez sur développeur.redact.com vous pouvez créer un compte et vous pouvez y accéder ici ok et là donc là je suis pas sur un cluster je suis vraiment sur la page d'accueil de cloud redact.com et je streams for Apache kafa et là j'ai mis des instances kafa j'en ai pas pour l'instant et ce que je vais pouvoir faire et encore une fois j'ai aucun cluster open street qui tourne c'est dire bah je veux créer une instance kafa donc je vais cliquer là et je veux dire bah je vais l'appeler best of submit mon instance et là j'ai choisi mon provider bon pour l'instant c'est Amazon ma zone pour l'instant il n'y a qu'une zone on est on est encore en beta et je crée mon instance ok et c'est tout ce que je fais et en fait il va me créer mon cluster auquel j'aurais accès creation pending donc hier j'ai testé ça m'a pris ça prend entre deux et trois minutes parce que quand même il doit provisionner le cluster etc et pendant qu'il provisionne voilà il est en train de créer mon plugin mon cluster pardon j'ai mes ressources ici donc pour savoir comment démarrer un petit peu on peut dire bah écoute guide moi ok et on a une aide qui va s'ouvrir ici ok et cette aide là elle va rester ici donc si je suis le tutoriel ok là il me dit ben fait cette étape cette étape commence le tour et je peux tout suivre ok et facilement je vais pouvoir créer mon cluster mon topique ok et si je retourne dans mes ressources je m'aime des exemples bah comment connecter mon application coircus par exemple avec avec mon topique kafa que je viens de créer c'est tout expliqué on a l'intégration côté côté open shift la vue développeur ok on peut connecter notre cluster à notre application et ça apparaîtra ça apparaîtra de façon vraiment visuelle dans notre cluster open shift côté tooling aussi si on a visual studio code on a des super extensions qui vont vous faciliter la vie pour manager gérer vos topiques connecter vos applications ok donc c'est en bêta inscrivez vous normalement il ya et un nombre de clusters limités donc je vous conseille d'essayer de vous inscrire voir s'il y a encore des clusters des dispos mais bon c'est une offre qui va s'agrandir et pendant que j'ai parlé j'espère que j'ai assez parlé est-ce que mon cluster s'est créé juste non il s'est pas créé ou le quick start oui je peux quitter le quick start bon on peut revenir tout à l'heure je verrai quand je ferai ma deuxième démon verra si le cluster a été créé mais donc ça c'est du manager vous avez plus vous souciez de où tourne votre cluster ça pourrait être réparti sur plusieurs régions différentes sur sur plusieurs cloud providers différents c'est une grosse annonce qu'en fait on se... et c'est une première pour nous aussi soyons honnêtes pour un date de se lancer dans les services manager de ce type donc on compte sur vous pour vous amuser avec nous faire des retours nous faire des applications de ouf voilà c'est tout pour la petite démo si je voulais juste vous montrer cette interface là et vous trouverez plein d'infos bien sûr d'ailleurs si vous avez un compte ah bah ça y est regardez mon instance est prête juste vous montrez ça mon instance est prête et ce que je peux faire je peux créer mon topic ok j'ai créé mon topic mon topic mon topic voilà maintenant j'ai un topic le nombre de partitions je veux trois partitions ok la rétention est ce que je veux une rétention d'une semaine c'est le défaut je crois dans en Kafka et la taille oh bah je dirais tous les defaults hop finish et hop j'ai mon topic qui a été créé il est prêt à consommer des messages à produire des messages sur ce topic donc voilà vous voyez comme c'est facile de s'amuser avec Kafka vous n'avez plus d'excuse je reviens à mon stream yard je coupe mon partage et on va enchaîner sur et j'aime assumir la deuxième le deuxième parti des services manager c'est bah l'orange ça restera tout à contour c'est sur le manage api l'api manager est ce que tu peux nous en dire un peu plus oui exactement alors on va être sur le le même principe et en tout cas le même point d'entrée c'est à dire cloud dot red dot com quand on l'a vu rapidement tout à l'heure quand tu as montré ton écran mais non ça ne t'inquiète pas j'essaie juste le menu on va pas faire de des mots mais effectivement le principe est est à peu près le même c'est à dire que vous avez à voir la possibilité bah de voilà de déployer en mode service manager tout ce qui va vous permettre de mettre en place bah une gestion vos api donc ça ça veut dire effectivement le le backend d'api management où vous allez pouvoir déclarer vos api et puis configurer tout ce qui est portail de développeur aussi voilà où vous voudrez justement enrôler des nouveaux développeurs et puis diffuser la documentation sur les api que vous rendez disponible et puis vous allez aussi pouvoir provisioner très facilement tout ce qui est des des gateway d'api management donc hyper simple quelques clics ça répond vraiment aussi à ce besoin enfin qu'on rencontre chez nos clients de dire bah ok il y a un existant de service à payser ou de de nouvelles api qui est en primaire ce qui est dans le data center existant un peu un peu legacy mais il y a aussi le besoin de développer de déployer des nouvelles api voilà sur sur le cloud pour les ouvrir à des partenaires pour les pour réaliser aussi l'intégration avec des projectiles en mode ça c'est avec des sex force avec voilà tout ce type de projectiles et donc effectivement ce besoin du coup de dire ma gateway d'api management et puis le backend de gestion de ces gateway il faut aussi que j'aille le mettre en fait sur le cloud ça a plus de sens en tout cas d'aller le mettre sur le cloud au plus près des api que j'ai à protéger plutôt que de le garder chez moi et donc via cette cette offre là vous allez avoir la possibilité de voilà de dire j'ai mes clusters qui sont sur a double vs sur gcp aujourd'hui c'est on a commencé par cd là bientôt il y aura aussi la possibilité de faire sur sur azure et vous pouvez simplement voilà provisioner en tant qu'à donne toute cette partie api management qui se configure automatiquement qui vous configure aussi tout ce qui est idp identitie provider ce qui est souvent en fait le nerf de la guerre quand on fait de la paye management c'est effectivement se dire ben j'ai des api pour l'interne j'ai des api pour l'externe ces différents identitie provider comment je configure ça c'est souvent un petit peu compliqué donc là toute cette partie là est aussi grandement automatisé et puis le lien est fait entre voilà l'idp utilisé pour les gateway celui utilisé pour le portail de développeur celui utilisé pour les le backend d'administration qu'on va réserver plutôt justement au développeur interne tout est pas cage et rendu hyper simple d'utilisation au travers de cette offre là super merci moi ouais et il y a eu quelques questions mais je vois que jafar et tout le monde vous faites un bon boulot vous répondez aux questions c'est cool j'ai pas besoin de l'un vis-à-vis pas au troisième service managé avant tout sur kavka managé api managé siril une réaction à chaud des choses qu'on regarde aussi alors sur kavka managé nous on est peut-être un peu moins consommateur de services public log managé même si on utilise pour l'instant nous ce qu'on travaille c'est sur la partie l'utilisation d'opérateurs kavka pour l'instant est sur stream z oui le stream z kavka opérateur qui marche pas trop mal et voilà on avance avec les projets dans la fourniture d'une brique pour l'instant qui n'est pas au service mais sous forme d'opérateur qui va déjà les les aider à leur faciliter la création et l'usage de secluster et puis après on va voir comment on va avancer les dessous et sur la partie api gateway alors là aussi je voyais que c'était plutôt pour du service managé mais là aussi on a un gros historique sur la partie api gateway on a eu des solutions de type type apiji mais voilà on a pas mal de plate-formes d'api gateway et on est dans une phase de restructuration cette partie là donc on regarde des solutions comme cong et la manière dont on peut intégrer aussi ces solutions avec kubernetes et avec les les applications qui veulent exposer leurs appels pourquoi c'est tout ça c'est effectivement des sujets assez chauds ok merci Cyril alors effectivement juste parce que la question est déposée sur le chat aussi donc il y a vraiment effectivement ces deux approches c'est à dire ça va se dire je veux des services complètement managé et je suis dans une approche d'ouverture sur les cloud publiques etc et à ce moment là je peux tout laisser gérer par des éditeurs tiers mais l'autre approche c'est de se dire je veux quelque chose qui soit à mi-chemin entre entre ça et quelque chose que je gère à 100% de mon côté et donc les apports les opérateurs apportent justement cette flexibilité dans le sens où ils vont avoir cette intelligence sur la manière donc pour pouvoir installer, upgrader, gérer au quotidien ces solutions et donner ce côté à des services puisqu'il suffit de créer des objets des instances de ce qu'on appelle des CRD custom resource definition dans OpenShift ou dans Kubernetes et l'opérateur va se charger de toute la mécanique pour pouvoir instantier par exemple des topics Kafka ou même un cluster Kafka etc donc merci Cyril d'avoir parlé de ça aussi parce que du coup je vais te permettre de répondre aux commentaires dans le chat et tu peux enchaîner parce que ça va être à toi encore ok et bien effectivement il y a eu deux annonces importantes aussi dans la continuité donc un service manager qui s'appelle OpenShift Data Science donc pour ceux qui ont suivi un petit peu l'activité de Red Hat donc on avait un projet d'incubation qui s'appelle OpenDataHub.io qui existe depuis plus de deux ans il me semble on avait des expérimentations à grande échelle notamment avec l'université d'une massarche etc où il m'avait des milliers de chercheurs qui travaillaient justement sur utiliser cette plateforme là pour pouvoir améliorer leur workflow de machine learning et d'intelligence artificielle et donc aujourd'hui on est arrivés à un niveau de maturité et de satisfaction de ce qu'on peut proposer comme étant une solution supportée par Red Hat donc sous forme de service manager et donc c'est finalement encore une fois j'utilise encore la productisation de ce projet upstream qui était OpenDataHub donc concrètement en quoi ça consiste c'est utiliser OpenShift comme étant une plateforme de AI et de machine learning donc à différents asters. Alors ça va tourner dans un premier temps chez les cloud providers et donc l'idée par exemple c'est vous avez besoin de faire du computing très intensif en termes de ressources et donc on va pouvoir utiliser des GPU par exemple on va pouvoir utiliser des machines sur des GPU chez le cloud provider. Vous avez des data scientists qui vont vouloir créer des algorithmes utiliser des choses comme Jupyter notebooks avec des frameworks tel que TensorFlow, PyTorch etc et donc traditionnellement il fallait que le data scientist se débrouille pour pouvoir assembler toutes ces briques. Là avec OpenShift Data Science, c'est un service manager vous avez une interface dans laquelle vous avez à voir une marketplace ou un catalogue de service et vous allez dire tiens je voudrais instancer des Jupyter notebooks et donc là typiquement on va apporter des choses de petite enterprise par exemple la notion de multi-tenancy on va offrir un Jupyter Hub mais qui va vous permettre de gérer l'ASTE multi-tenant avec les Asterole based access d'OpenShift etc et donc c'est finalement vraiment offrir toute une palette de solutions dédiées aux machine learning et aux data science et donc juste pour vous donner une idée il y a un landscape qui ressemble à celui de la CNCF alors je vais le propos de coller dans le chat. Donc OpenData Hub de dataiOS la landscape et donc l'intérêt c'est qu'on a à la fois des solutions qui sont complètement open source que vous allez pouvoir utiliser, déployer sur la plateforme mais aussi des partenaires tiers qui feront Nice leur solution qui feront partie de cette solution OpenShift Data Science donc certains services seront managés par Red Hat et d'autres seront managés par nos partenaires. Donc voilà pour la partie OpenShift Data Science donc on a déjà pas mal de clients qui l'utilisent, qui l'ont utilisée même à l'état d'incubateur et donc l'idée c'est de faciliter encore plus l'adoption en fournissant sous forme de services manager. Est-ce que j'enchaîne directement sur l'autre point ? Sauf si il y a quelqu'un qui veut réagir sur Data Science, vous faites de l'Ai de Data Science j'imagine que c'est orange mais enfin oui on en fait on en fait on a des solutions autour de juge, historiquement les technologies autour de Adoop, PortoNwork mais voilà d'ailleurs il y a pas mal de changements dans l'industrie avec Lodera mais qui est aussi, enfin Adoop je crois à commencer à être délaissé pour profiter d'autres solutions comme Spark. Donc récemment on investit dans les solutions comme Jupytero, Notebook et aussi des choses autour de Kubeflow. Voilà mais c'est pas des choses en premise, il y a de la sensibilité quand on travaille sur la data, problématique de sécurité qui font que ça va en plus compliqué l'utilisation de cloud public sur ce type de cas d'usage, j'imagine. Alors c'est une très bonne transition Cyril pour un autre point qu'on voulait mentionner et justement bah quand on va faire de la Data Science c'est voilà on a des données confidentielles, on a des données qui sont extrêmement volumineux et on ne veut pas s'amuser à transférer des pétats de données vers le cloud provider puisque on va payer peut-être à chaque Mega ou Giga qui transitent et donc l'idée c'est justement de pouvoir fournir des clusters au plus près soit de la donnée, soit des applications et donc dans ce but Red Hat a énormément investi dans ce qu'on appelle l'Edge donc le fait de pouvoir déployer des clusters OpenShift dans la living on the edge. Pour différents cas d'usage par exemple, pour la Data Science, pour typiquement des choses comme des usines connectées où il va vouloir avoir des plateformes containerisées mais sans pour autant avoir tout le temps d'assinteur disponible avec des contraintes de ressources, de gestion en mode déconnecté etc et donc il y a eu pas mal d'annonces ou d'avancée technologique dont OpenShift a bénéficié pour pouvoir y arriver, il y a des choses comme de manière quitte bête le fait de pouvoir minimiser les ressources donc on a la notion de compact cluster qui sont un minimum de trois nœuds qui vont servir à la fois de master et de node et donc ça permet de déployer de manière plus simple des clusters. On travaille aussi sur quelque chose qui s'appelle le single node cluster, plus si ça a été annoncé mais en tout cas c'est quelque chose qui va arriver assez rapidement donc le single node cluster c'est vraiment pour aller sur des cas d'usage encore plus extrême où il vous suffit d'avoir une seule machine et vous aurez votre cluster disponible sachant qu'il y a aussi une autre avancée technologique c'est la notion de remote worker donc on a travaillé sur des contraintes de latence, sur des contraintes justement de communication, par exemple on sait tout ce que ETCD n'aime pas avoir de la latence entre les différentes instances etc et donc on a travaillé sur ces choses là pour pouvoir être plus faute au lait route quand on a des latences un peu plus élevées que l'échelle des millisecondes et donc là on a la possibilité d'avoir d'éthopologie où on a un cluster open shift centrale donc avec des masters des workers puis sur l'edge des workers remote donc on n'aura que les nodes qui nous permettront de faire tourner nos workloads au plus proche de notre data center local ou de notre entité edge etc donc voilà tout ça ce sont des annonces qui participent au fait de pouvoir avoir d'éthopologie plus adaptées à ces contraintes et on va notamment probablement avoir une annonce avec autour de telco donc le monde par exemple de la 5G avec l'adoption du radio access network donc le RAM avec OpenShift donc on a travaillé avec certains clients pour pouvoir avoir des des réseaux 5G déployés sur l'edge avec OpenShift donc notamment avec la virtualisation des fonctions réseaux ce qu'on appelle les NFV donc voilà ça fait partie aussi des cas d'usage majeur qu'on va retrouver pour de l'OpenShift ad edge voilà pour ma part j'ai fini alors j'ai posté ou j'ai essayé de poster voilà donc un lien sur la partie OpenShift Data Science oui ça j'ai les copies dans le privé le chat privé moi j'ai plus le copier dans le chat public voilà on essaye de ma il y a toute ma famille qui m'appelle mais ça va hop je ne sais pas que 51 ouais ça avance vite ouais living on the edge j'imagine ouais que c'est un aspect qui vous intéresse aussi c'est rile chez orange toute la partie edge non oui oui la partie edge la partie compact cluster on est pas mal challenge même sur nos infrastructures sur des problématiques d'optimisation des coûts on travaille sur ce qu'on appelle le FinOps pour optimiser le coût de ces tous ces clusters qu'on a ce temps ci de développement de puits de production voilà ces annonces sa partie compact cluster le signal cluster c'est des choses intéressantes et effectivement sur la partie edge sur la partie edge aussi alors on a plusieurs types de topologie que nous parlons de edge soit effectivement des réinstations de clusters complets dans différentes infrastructures différentes filiales du groupe mais aussi l'émergence de besoin de pouvoir déployer simplement des worker nodes sur des zones un petit peu remote tout en conservant le coeur du cluster sur un data center ou des data center au centraux c'est aussi des use cases on voit de plus en plus dans notre contexte et du coup il y a Fabrice dans le chat qui nous demande ce qu'il y a un rapport entre single note cluster et open shift code dit containers j'imagine qui qui mentionne c rc alors alors donc j'ai déjà essayé de répondre mais c'est pas tout à fait donc c'est la même idée donc l'idée c'est d'avoir des services qui tournent sur une seule machine sauf que dans le cas de code ready donc c'est à la fois destiné donc dans un premier temps destiné au développeur donc c'est quelque chose qui va tourner dans une machine virtuelle qu'on va bootstrapper sur le laptop du développeur par exemple c'est pas vraiment destiné à un usage de production pour faire tourner des workloads et ce genre de choses l'open shift single note cluster c'est plutôt vraiment destiné à avoir un serveur bon qui doit être certes dimensionné selon les besoins de ce qu'on voudra faire tourner dessus mais c'est vraiment pour faire tourner des workloads c'est considéré comme un open shift complet mais avec une architecture qui a été optimisé pour minimiser la consommation des ressources et on va déployer pour de vrai et donc et donc qui va participer à cette notion d'aide pour ne pas la nécessité d'avoir plusieurs machines quand l'idée c'est par exemple que vous avez un restaurant qui veut faire tourner des applications conteneurisées il peut installer ça sur un signal note cluster par exemple et imaginons qu'on soit qu'on parle d'une chaîne de restaurants avec des centaines de d'entités à travers les pays ou même le monde on peut avoir des économies d'échelle assez importantes du fait de minimiser les ressources nécessaires il reste 6 minutes et avant de conclure parce que là c'est bon on est passé sur le gros des annonces on a bien discuté je voulais vous montrer une dernière annonce qui n'a pas été forcément annoncée à la keynote mais une petite feature qui va plaire je pense aux développeurs ok java notamment et ça va donner l'occasion de faire des petits démos vous savez que j'adore faire des démons et on a plus trop de temps mais c'est pas grave deux minutes me suffisent normalement pour vous la montrer ok d'abord je vous montre ma superbe je mets la superbe bannière ok et je vous partage mon écran alors OpenShift tout à fait là il est là mon OpenShift là j'ai mon OpenShift et je suis dans la vue développeur donc si les gens connaissent un peu OpenShift vous connaissez cette vue c'est fait pour les gens comme moi qui veulent juste déployer leur workload on peut par exemple pointer directement vers un repo guide ça vous connaissez c'est quelque chose qu'on avait hop il reconnaît que c'est du java là je peux le déployer comme un service connectif je peux rajouter les pipeline vous avez vu avant il y avait petit preview on a plus ça ok et là on a même une visualization de notre preview et ça ça c'est super cool mais il y a quelque chose de nouveau regardez un peu ici il y a quelque chose qui s'appelle upload jar file ok upload jar file qu'est ce que c'est exactement ce que vous imaginez imaginez j'ai mon j'ai fait ma petite appli en spring boot ou en quarkus plutôt en quarkus j'en ai fait un uber jar je l'ai là regardez ça c'est un jar qui est sur ma machine ici best of submit je le prends et je le drop j'en fais un service connectif si je veux on va rester en service en déploiement normal j'appuie sur create et là c'est comme qu'on upload une vidéo sur youtube voilà on va voir si les maugots sont de mon côté mais normalement c'est de vrai aller normalement là il va me dire voilà jar file is uploading donc là il upload mon mon fichier jar ok on va regarder sur la topologie qu'est ce qu'il se passe ici bah tout simplement c'est on garde les logs ça va mettre un peu de temps parce que là il est en train d'oploader comme j'ai une connexion pas terrible de upload bah ça prend du temps mais ça y est il a reçu mon jar ok là ce qui va pouvoir faire c'est bah me créer une image de conteneur de mon jar une fois qu'il a l'image de conteneur il va la pousser dans la registrie interne d'open shift de mon cluster il va créer un déploiement le déployer comme un pod et je vais pouvoir tester mon application donc là encore c'est la notion de self service de facilité elle attache pour le développeur s'il a un cluster d'intégration un serveur de test de dev ok il va et qu'il n'a pas forcément des connaissances de ce que c'est un conteneur ou même un fichier il a mal lui lui il a son jar et il voudrait vite fait le tester bah regardez ça se passe là si je vais dans ma topologie topologie et alors celle si je dis pas de bêtises il me semble que si tu fais un dragon drop depuis ton jar donc qui est sur le desktop directement sur la topologie vu ça marche aussi je sais pas si ça c'est ça que j'ai vu dans la je l'ai vu dans la nuit son nom on peut essayer mais je sais parce que voilà je sais pas prendre ton jar un dragon drop sur la topologie voici je sais pas si il va aimer que je copie le même genre non le placera juste regarde si l'interface oui c'est l'interface il est où mon finder ah oui oui j'ai vu pendant la quina je n'arrivais pas à retrouver mais c'est encore plus simple que ça je le drop directement la topologie ça semble ouais ouais merci merci alors alors la prochaine étape on va essayer sur les motion gestures donc directement avec la caméra alors je vais voir mon hop là j'ai déployé mon jar qui ne fonctionne pas pourquoi est-ce qu'il est prêt un contenu ça y est ça y est il est là il est là tac-tac-tac je fais slash test off test off hop ah yes c'est un petit appli que j'ai fait la meilleure appli du monde que j'ai fait ce matin je le copie ici là vous pouvez accéder mais ça c'est le jar que j'ai dragon drop et que j'aurais pu faire directement la topologie du coup voilà c'est juste ça je voulais montrer il reste une minute je vais revenir sur le stream yard couper mon partage des grands voilà donc c'est passé super vite mais je pense que c'est bon signe quand ça passe vite moi j'ai rien de dire pour conclure juste que c'était très bien ainsi jeudi venait jeudi à mon show c'est en anglais ça s'appelle le definition show ça dit 8 heures si vous avez raté la démo de la semaine dernière qui fait toujours des démodes ouf des jeux de ouf je vais essayer de déployer à nouveau et jeudi on pourra tous jouer ensemble donc c'est une bataille navale avec de l'intelligence artificielle et tout génial donc je vous mettrai le lien suivez moi sur twitter ou ça va être reputé par pas mal de monde demain demain matin le redhat open shift café c'est ça j'ai bien dit le tout à fait de youtube sur twitch de vous êtes de partout c'est ça alors je posterai le lien je sais plus du coup comment faire parce que j'ai pas de poste prêt pour pour ça nos usernames avec nos comptes twitter donc sué nous c'est ça on posera des impôts le rang dernier mot pas forcément dernier mot mais c'était très bien c'est pas si vite et super beaucoup d'interaction sur le sur le chat ouais c'est ce qu'est ce que j'ai c'est comment espérer tous et si rile un dernier mot pour conclure en ouais mais c'était super sympa comme d'app, plein d'annonces intéressantes et donc voilà maintenant à nous de travailler super merci encore d'avoir accepté l'invitation et merci à vous tous à d'être venus aussi nombreux ça sera 10 points replays bien sûr sur la chaîne redhat developers d'ailleurs merci à redhat developers de nous avoir prêté leur chaîne pour diviser ce live et bah écoutez on se retrouve bientôt si vous êtes inscrits au deep dive quarfist vous me retrouvez dans 59 minutes je fais un deep dive quarfist sinon pour le reste demain matin le open shift café et je dis le definition show je vous souhaite tous une excellente journée bon appétit et à bientôt ciao merci à bientôt