 Bonjour tout le monde, bienvenue à la meeting d'infrastructure de GeneKins. Aujourd'hui, c'est le 17 octobre 2023. Sur la table virtuelle, j'ai moi-même Daman du Portal, Hervé Le Maure, Stéphane Merle, Bruno Verrarten et Kevin Martins. Bonjour tout le monde, on commence avec l'annoncement. Tout à l'heure, l'annoncement est 3, 4, 8. Non, 4, 2, 8, est-ce que c'est correct ? Est-ce que l'annoncement est oublié ? L'annoncement, les packages et l'image du docker. Je n'ai pas vérifié pour le change log, Kevin. Où est-ce que tu es ? Ou est-ce que tu vois quelque chose ou que tu n'en sais pas ? Je n'ai pas réalisé que Marc est en train de travailler aujourd'hui. Je vais l'émerger et l'émerger à l'endemain ou après, dès que l'annoncement est terminé. Donc, c'est un peu long. C'est cool. Merci. Change log, ok. Sur l'annoncement, le VPN-VM a été fait pour la 4e fois en moins de 10 jours. Je n'ai pas eu le temps d'ajouter pour la 4e fois aujourd'hui. Je n'ai pas eu le temps d'émerger un problème, mais pas de problème. La prochaine milestone, juste pour le post mortem. Il a commencé à résoudre l'issue Azure, comme chaque fois que cela s'occupe. Mais je n'ai pas eu l'opportunité d'émerger la size VM pour être comme ça. Le but était d'avoir 2 vCPUs, plutôt qu'une seule. Et cela a été appliqué avec l'autofix en Terraforme, donc pour éviter la Terraforme d'émerger la size VM une deuxième fois. Nous n'avons pas besoin de ça. Donc maintenant, nous allons voir ce que le problème est. Des éléments différents ici. Je vais essayer d'émerger le résultat de l'analyse. Mais nous allons voir si 2 vCPUs suffisent. Parce que c'était la plus petite machine virtuelle que nous pouvons trouver. Cela pourrait être un candidat pour une machine RM, dans le futur. Parce que la coste est de $7 à $30 par mois. Avec cet augmentation. Ce n'est pas beaucoup. Mais oui, c'est un candidat pour une machine RM64. Cela pourrait requérir un peu d'adjustement. Ce n'est pas facile. Parce que ça dépend de l'amount de NICs disponibles pour les machines virtuelles. Mais ça pourrait être OK. Oui, dans Bruno Closet. Pour une machine Annemper. Une machine Annemper. Ce n'est pas beaucoup, mais je l'ai mis dans l'annoncement. Parce que c'est nouveau et ce n'est pas réveillé. Donc juste d'être sûr que c'est réveillé quelque part. Vous avez un autre annoncement, les gens? OK. C'est un calendrier. Je crois que nous allons avoir une semaine prochaine. Comme le nom s'implique. Dès la semaine prochaine. Sorry, je m'adore. Même si ce n'est pas drôle. Nous avons un LTS demain. Je ne me souviens pas de quel numéro c'est. Laissez-moi vérifier. Jean-Kin Sayo a eu un increment sur les dernières légètes. Il sera... 414.3. Vous êtes le meilleur. Merci. Dès la semaine prochaine. Donc, s'il n'y a pas d'infrastructure demain, durant l'élément de l'élément de l'élément de l'élément de LTS. Le monde fécur de l'élément de l'élément de l'élément de l'élément de l'élément de l'élément de l'élément de l'Elément de LTS. Il n'y a pas de plan. Il y a un vision de sécurité qui sera un jour, après toutes les élémentes, sur le dédouement de service de l'attaché de l'HTTP-2. C'était fixé sur le JT-1 ou 2 semaines auparavant. Et maintenant, c'est fixé sur le Weekly et il sera sur le TMS. La structure de Jenkins infrastructure n'est pas à risque parce qu'on a un server Apache orangé sur le service public qui pourrait être subject à DDoS. Et la configuration que nous avons sur ces blocs n'est pas à risque de l'utiliser. Je n'ai pas écrit ceci ici parce que l'adviserie sera postérieure. Mais oui. Tu as des questions sur ceci ? Non, ok. Le prochain événement de majorité. Devops World unfossé. Laissez-moi checker la semaine dernière. Je ne me souviens pas d'une prochaine événement de majorité de Devops World. C'est le 5 décembre de London. Oh, je ne sais pas. Il y a peut-être un de ces deux. Et je n'ai pas de date. Ok. Laissez-moi checker la semaine dernière. Et je pense qu'il y a peut-être une communauté de Jenkins ou peut-être quelque chose dans Santa Clara demain ou aujourd'hui. Oui, demain et aujourd'hui, Santa Clara sera de Devops World. Et il y aura une communauté de Jenkins qui va m'occuper de quelque chose. Oh, c'est bien. La communauté. Elle a été organisée par Alyssa. Cool. C'est pour ça que KK pourrait être là. Non de les 5 de nous seraient là. Mais je crois qu'il y a plus de Quai et que KK pourrait être là. Oui. Et le 4 décembre de Matt Brossel. Oui. C'est le 4 février. J'ai entendu que Jean-Marc a trouvé un endroit pour s'occuper de quelque chose dans la communauté. C'est pour voir si ça va fonctionner. Je pense que ce matin. Donc, on peut faire quelque chose à la même temps que pour les autres. On va voir. Cool. Oui, c'est tout. On va commencer avec le travail. Est-ce que c'est bon pour vous? Allez-y. Le travail qu'on a pu s'occuper. Jenkins a une création de création avec l'utilisateur. Ils ont un problème. En ce cas, c'était marqué sur l'app comme un spam en由 d'une petite bouche. Initialement, que la protection de spam a été fabriquée pour une personne avec la bouche qui a déjà ouvert une session avec différents accounts. Donc, si on essaie de essayer des accounts sur la même web browser, c'est close parce que c'est quelqu'un automatique en utilisant la JavaScript ou la cross scripting. Nous commençons à considérer que nous avons rendu un appui en utilisant la session sticky parce qu'il n'y a pas de session shared entre toutes les réplicats, c'est avoir un impact sur celui-là. Vous avez un cookie et vous êtes envoyé à la seconde machine à cause d'un problème sticky et cela résulte de la seconde réplication. Je ne sais pas que c'est cookie et que c'est un potentiel de spam et de bloquer la création de l'account. Je ne suis pas sûr de ce qu'il sera dans la prochaine étape. On pourrait essayer pour quelques jours de shrink-down pour une réplique. On n'a pas besoin de HA, ce n'est pas pour les demandes de réquestes, et même pour les systèmes qui sont très disponibles, cela peut être pour les restortes. Alors, nous allons essayer des éléments. Mais pour maintenant, quand vous voyez un account, vous pouvez créer l'account en LTB. La prochaine étape est que un spammer a envoyé des mauvais messages sur GERA. Cela a été traité. Donc, merci pour la personne qui a pris soin de celui-là. La prochaine étape, le plugin backend est en LTB. C'est quelque chose qui s'est passé deux semaines auparavant. Je suis sûr que mon timeline est bien, parce que mon cerveau est... Oui, c'était deux semaines auparavant. Je l'ai oublié la dernière semaine. Nous avons eu un outage sur le plugin backend. Oui, c'était de deux semaines auparavant. Moi, je n'ai pas eu de la maiden et je n'ai pas eu de la pure. Donc, je n'ai pas eu de la pure, mais je vais vous LOOK à la prochaine étape. Merci beaucoup! Le plugin backend, c'est un outage. C'est un outage non changement. Je n'ai pas mis mon code, mais j'ai le code. C'est du code. en aidant sur cette chose parce que nous devons fixer beaucoup de choses minores. Le moyen principal est que nous sommes restés à la Jdeka 8 pour construire cette web, mais comme pointée par Gevin, merci Gevin pour ça, nous devons pouvoir y avoir des recours du plugin de l'API. Cela requiert un peu de travail sur le port et le front, puisque Minek est la personne qui prend ça, il peut avoir besoin de l'aide. Le but est de voir ce qu'il y a à faire, il y a un problème avec les liens relativement aux ressources d'image qui peuvent cacher les screenshots du plugin de l'API. Mais le but sera d'avoir seulement un front-end parce qu'on génère le contenu. Le contenu est généré par l'API de la back-end, puis on a un set de ressources statiques passées au front-end web et nous pouvons avoir l'aide des portes de la back-end. Donc, il n'y a pas plus de Jdeka 8, plus de l'API et ça sera bien. C'est pourquoi j'ai proposé, si personne n'a pas un objectif, que nous n'avons pas d'effort de bumper la version de Jdeka 8. Jdeka 8 sera là pour encore longtemps, même plus que Jdeka 11. Donc, il n'y a pas d'urgence ici. Et oui, nous essayons d'occuper de notre effort d'y avoir des recours du service. Une question d'objectif. Ok, ça me lead à la seconde partie. Merci Bruno, Stéphane, pour prendre soin de cette back-end. C'était au M-Kill depuis juillet. Comme des milliers de mémories de Colonel Kill de la poudre. Pour une bonne raison, nous avons upgradé le Kubernetes pour utiliser Ubuntu 22.0 pour les machines à l'arrivée, qui servent d'une version C de la version 2, le mécanisme sur le Colonel Linux, qui prend soin de contrôler les ressources. C'est à dire que le Jdeka, qui était vraiment ancien à l'intérieur, c'était un Jdeka 8 depuis 18 mois, parce qu'il n'était pas construit depuis février, au moins. Donc, cette toute version Jdeka 8 n'était pas capable de lire la version de la version de contrôle aux formats. Donc, il a dit, oh, je ne sais pas, je ne vois aucun groupe de contrôles. On va dire directement à la machine Hardware, comment beaucoup de mémories j'ai. Et depuis que c'est une machine virtuelle, la machine Hardware était une grande machine de metal, qui a dit, oh, tu as 300 gigabytes de mémories. Donc, le site de plug-in, essaye d'utiliser 25% de ça. Bien sûr, c'était pour éviter le Kubernetes, et c'était au M-Kill. La solution était facile, upgradant la version de la version de la version de la version de la version de la version de la version de la version de la version Jdeka 8, qui a la feature v2-backport C-group, et ça fonctionne très bien. Donc, merci encore Bruno et Stéphane pour prendre soin de cette analyse, les updates, la paix sur ça. Qu'il y a-t-il d'autre pour ajouter sur cette version ? Non. Nous avons eu trois soucis qui ne l'ont pas planifié. Il y a eu une réquestée d'Adrien sur plug-in health core sur logs, mais il a trouvé l'issue lui-même. Donc, il a fermé l'issue. Merci, Adrien. Il y a quelqu'un qui a demandé d'ajouter des éléments sur le MENA SSH, l'API plug-in. Mark a fermé l'issue parce que le problème de l'outline est plus bas et plus complexe que juste d'ajouter un rythme ou un metadata. Je n'ai pas envie d'adverter sur la raison. Mark a donné un lien à un issue d'adresse à l'application, que vous pouvez vérifier. Ce n'est pas une bonne chose. Il s'agit de l'idée de plug-in, le nom de plug-in et le nom de repositorie. Je crois que Daniel a perdu beaucoup d'air sur ce sujet. Finalement, un utilisateur n'a jamais été blacklisted parce que le domaine de l'email était marqué par l'area de spam potentiel, ce qui est vrai. Il a été dédié automatiquement par l'account. C'est sur la liste et sur le source code. Je lui ai demandé si il avait un autre email ou qu'est-ce que c'était leur expectation et qu'il n'a pas été répondu. J'ai mis quelque chose dans le travail qui était capable de serrer et de compléter ? Non, ok. Donc, continuons le travail en progrès. Je prends les items sur la liste. Est-ce que c'est ok ? Ou vous voulez que je les ordre par priorité ? C'est une objectif. Je les prends sur la liste. Un utilisateur a ouvert un issue d'un des mirrores appartus par belnet.b qui est un provider belge qui nous sponsorise par nous donner un mirrore pour la download. Il semble qu'ils ont des issues network et leur compagnie n'est pas seule. 2 ou 3 personnes m'ont mentionné ce problème comme si leurs IP ranges étaient bloquées par l'accès de belnet FTP. Je ne suis pas vraiment sûr sur ce que le problème est, mais c'était une bonne opportunité de contacter la personne par belnet. Nous n'avons pas reçu l'answer et nous n'avons pas de contacts. Donc, je vais essayer d'escalier directement sur le mail mirrore parce que je crois qu'il y a un email sur un de mes pages. Je vais essayer aussi de vérifier avec mes collègues parce que je sais que 2 de eux travaillent pour la compagnie si nous pouvons avoir une explication. Je suis un peu confusé parce qu'il n'y a pas de preuves formales que le problème n'est pas sur le côté de l'utilisateur. Est-ce qu'ils ont une connectivité ou un outband sur le firewall ? C'est difficile de prouver qu'il n'y a que belnet. Donc, comme une mesure temporaire j'ai disablé le mirrore directement dans le mirrore. Et le but est qu'on recevra une réponse sur belnet et on peut prouver que ce n'est pas leur problème, ce n'est pas leur faute. Donc, on peut réévaluer le mirrore si on ne recevra pas une réponse sur belnet, ça veut dire qu'on n'a pas un administrateur qui peut nous aider. En ce cas, je vais réévaluer le mirrore et retirer le mirrore. Et si quelqu'un vient là, ils vont nous aider à trouver on ne peut pas avoir un mirrore qui n'a pas un administrateur. Si quelque chose s'occupe de ce mirrore on ne peut pas rembourser ce qu'ils font. C'est pourquoi nous avons besoin de contact. Ça serait la même ruelle que le Alibaba et Ezuni.GP, des mirrores que nous avons détendues parce qu'il n'y a pas d'answer. Qu'est-ce que je vais poser ? Je vais ajouter le nouveau milestone. Je vais prendre le contact si quelqu'un objectif ne veut pas le prendre. Oui, je suis désolé, allez-y. Cool. La prochaine tâche. Tragez le nouveau GDK21 qui a été élevé. Merci, Bruno, d'acheter le sujet. Je crois qu'il y a deux prises. L'une a été élevé et n'a pas travaillé. Et l'autre a été discuté. Donc, dans le progrès, nous devons continuer de fixer ces problèmes. L'issue principale sur l'un qui s'est faite est que, hey, folks, vous avez réveillé le manifesto. Mais vous n'avez pas réveillé le code qui fait la vie réelle et le CLI réveille. Je dois dire, hey, c'est la nouvelle version. Mais vous devez réveiller l'URL sur les scripts provisionnels sur Packer. Donc, l'URL. Depuis que vous étiez assez busy, j'ai pris le temps pour ajouter sur le pull request l'image de Packer la comparaison entre la erreur et l'URL correcte pour vous aider, pour que vous puissiez aller sur le mode accélérateur. Une idée de la pensée. Vous devez réveiller l'URL pour réveiller l'URL. Vous n'aurez pas à réveiller les scripts de Packer. Oui, mais ça fait que le script est très difficile à réveiller. Nous sommes protégés ici. Nous sommes protégés par le fait que le pull request automatique par l'update CLI est faillie. Et l'horreur est assez expliquée. C'est ce que j'ai choqué. Ça veut dire que nous avons des chevaux qui ont validé ou pas. Donc, ce n'est pas un problème. Nous ne breakons pas l'image. C'est juste un pull request faible. D'ailleurs, c'est une bonne idée si nous avons un simple script. Mais nous avons l'URL qui dépend de l'architecture. Nous avons trois différents URLs aujourd'hui. L'un pour Linux, l'autre pour Windows Intel. Il y a un fixe. Est-ce que ça fait un survey ? Est-ce que c'est une question ? Oui, oui. Et puis Poupet, Jenkins Infra. Je n'ai pas checké si nous avons eu le temps d'élever. Mais ça aurait été la même chose. Vous devez élever l'URL sur le manifestant Poupet. Et aussi pour la machine S390X. Oui, Stéphane. Nous avons besoin d'une exception pour le F390 parce que le GDCAD21 n'est pas disponible pour le F390X. Donc, nous devons établir l'available. Donc, nous devons s'assurer que le code n'est pas utilisé par la version commune de GDCAD21 sur le manifestant Poupet CLI. Donc, je crois que la partie CLI estOK sur le pull request parce que vous avez retiré le code de Renault. Donc, merci pour ça. Mais maintenant, pour pouvoir élever ce pull request de production, nous avons deux autres tasks. Nous devons toujours établir l'issue de la version S390X si nous avions élevé le template. Donc, s'il vous plait, ce serait plus compliqué que ce que j'ai fait initialement. Comme toujours. Et comme nous avons discuté pour plus tard, afin d'être sûrs que nous recevons une notification quand la version S390X est disponible, nous pouvons ajouter qu'après ce pull request est élevé et validé, une certaine et temporaire élevé de Poupet CLI et le pull request, c'est la même source. On vérifie la dernière version de GDK21 et la condition, au lieu d'établir un script ne pourrait qu'occuper d'une nouvelle URL. Parce que c'est l'idée que Hervé m'a mentionnée pour Packer Image. C'est la même idée. Mais pour l'update CLI, on vérifie GDK21 pour la version found par la source, seulement pour la package et en ce cas, nous recevons un pull request et puis, à ce moment, nous devrions retirer l'exception. Ok, pour tout le monde, un nouveau problème, essayant de créer un nouveau account de GDK21, je n'ai pas checké ceci, je crois que c'est encore... Stéphane, je pense que tu as commencé à checker ceci. Oh, c'est celui avec le cookie C'est le GDK21 Et le Log iPhone m'a dévoilé, parce que je me sens qu'il y a eu un changement de passeport avant de créer un nouveau account. Alors, comment nous pouvons créer un nouveau account si nous avons déjà un compte et nous avons demandé pour un souvenir de passeport. Je suis sorti avec ceci. Ok, alors, qu'est-ce que quelqu'un qui a taking this issue will have to do, because I don't see anyone assigned, so consider it's a team issue, unless someone assigned themselves and take care of the subject. We have to check, there is no account with that username and no account with that email. I believe that's what you checked. No, because I don't... we need to check because at one point I didn't have any access to that information. So let's... I'm taking notes inside the community of my computer so maybe with a new one but at that time, no. There are no accounts with this email and this username as first step. If there are no accounts easy path, you create it for them. We assume it's due to the QQ problem mentioned before and they will receive instruction by email. And then you can close the issue telling oh, check your email you will have the instructions. If there is an account, then you reset the password of the account and you say hey, check your email. Okay, good. Works for you? Third case, there is an account with another username but that email so they need to delete the account by themselves. They need to be able to provide a proof that they hold the email associated to this one. Yeah, so they just have to reset the password if they got the email they will receive the... Yeah, if they want us to delete the account they have to first reset the password and then they send you an email from that email you answer and they have to answer a third time. Hello, Marc? You need the free time process. Okay. Any question? Nope. Next topic is Packer. Stéphane, Mike, it's yours. What's the status on the cost part? I did validate... You did validate the people request and merged it with SDF and NPM, I think version that are no check by GOSS. The main change on that was that the cost checks are launched with the user Jenkins as the check we were doing in the sanity check right now. And I started another pull request which is draft now to put as much as possible test sanity check in the GOSS and splitting with command GOSS and the Linux GOSS and then we would have to add Windows GOSS. It's on its way. Yep. So is that okay for you to continue on migrating on Linux and I'm taking care of Windows and I'm taking care of Windows? Okay, good. Migrate more sanity checks on Linux to us. Stéphane Next. My main concern right now is to know which sanity check are common or specific to Linux because even the GDK is specific because the path is not the same between Windows and Linux. Move them to GOSS and then we will iterate on factorisation. Good. Start by moving everything on the shell script to GOSS and then we will update and share with Windows if needed. Any question? Nope. Okay. Next subject. Migrate Terraform state from AWS S3 to other buckets. So I prepared the code two weeks ago I was late on that goal is to stop using S3 buckets for storing our shared Terraform state the database that Terraform use for projects and use Azure buckets. We only have three projects on all the Terraform project we have we have AWS project itself which makes sense Digital Ocean and Fastly All the other projects Datadog Azure and the rack we used are using Azure bucket already so we have everything needed The last mile was for me I had to create an I am AWS account which has powerful permissions because I need to do everything on a single machine which have access to both AWS and Azure So that account is created on AWS It's restricted to only command line usage and it has a one week TTL in one week it won't be able to be used We will have still to delete it once the migration is finished The keys for that user are encrypted on my keys and access application on macOS So I don't have any clear text password here and it's only loaded on environment variable when I need it As soon as I close my terminal the password is not available So I try to compensate for the risk here because initially I propose to Stefan on their way to create this user as code to have auditability but the AWS project doesn't have enough permission to have a super user It's an egg and chicken problem again So that's why I created that manual temporary user And I've started migrating the states on fastly right now to finish today or tomorrow Any question on this one? I'm a user Okay Stefan, a word on speed up the Docker image library Yeah, there's nothing that can be shown but I started the test driving development and started to find out how I can describe by test what I aim to do but there is a lot of how you say that a lot of possibility of call and I'm struggling not to break everything right now Okay Do you think you will be able to walk on it? Do you want someone else to walk with you or to take over? No, for now I need to keep going by myself and then I will get back to you or have it to make sure that my tests are relevant and that they are answering correctly the questions Okay So conceptually I'm rephrasing So conceptually it's okay Andy, you are at writing tests that will demonstrate the concept and what we expect as a new behavior and once we have evaluated these tests It's not easy because default parameters are not default when we call them during a specific pipeline library because we call that pipeline by another short pipeline and we send another Okay, so that means we need to sync on this one you are trying to integrate tests instead of unit testing No, I want to understand the test that we are using right now Okay So we need to sync on this one just to help you understanding the current one so you can write new tests Is my understanding correct? Okay But I still need some time alone on that before because you will you will point me stuff and I will be No, no Okay Marc, can you understand what I mean? Anything to add on that topic? Okay Upgrade to Kubernetes 1.26 So we weren't sure who was in charge of this one last week I started to read changelog but I haven't done anything I believe neither Stefan or Harvey did Can you confirm? Yeah, I did nothing Okay Sorry, Harry Nothing too Okay I'm interested in taking the subject in hand this week Is there any objection on this? My proposal is that I'm going to prepare work for migrating Digital Ocean to 1.26 That's the most important one because that 1.25 will be deprecated and of month on Digital Ocean And once I've opened the pool requests I won't merge them immediately I will try to do a knowledge sharing session with at least one other team member Is that okay for everyone? I won't proceed until I have someone who reviewed that either with me or that feel like they could do it on their home theoretically That means I will search where you live and I will come come for you if no one helps me on that topic Scared base development Chandler to finish checking Any question? Preparing DO and knowledge sharing Next one So As part of that what I said I don't I need to stop walking alone on some task to share knowledge Same idea for two other major topics updates on the migration and the RM64 So just to confirm publicly and I ask Irvi and Stefan if they were okay to exchange their major task and do the knowledge sharing session Which will mean that Irvi and eventually Hayabit will start taking over on the RM64 migration That doesn't mean Stefan will stop working on it at all but the goal is to share the knowledge so not Stefan will have the whole team knowledge and that will be the same for update center So first of all is it still okay for you Stefan and Irvi to proceed at least for the next milestone and we do a post mortem of that next week I'm okay yes You need to use your thumb up a few more seconds before the image detection starts It's not working Okay Mark You need to see that Look at me I don't know why but yeah Anyway So Irvi takes the lead needs knowledge sharing with Stefan That's the idea Stefan Can you between all these balloons give us a heads up of what was done and what's the status on that task so we can get started Can you open the issue for me please because I'm not sure of the name of the last one I did Private English Yes that's the one So I migrate Yes and Rating The rating Yes they've been migrated All of them were not as easy as they should have been because they needed a few change the last one was the 404 Docker 404 image that was not RM 64 compliant but yes now those two are done and the list is shrinking Public are in RM 64 So we know that we can use an ingress controller Ingenix ingress controller with RM 64 Yes and now I think that by default we got three nodes in RM 64 so the the migration will be seeming less with three nodes it's easy Yep Absolutely that should be faster That mean now the next task for you Stéphane will be to prepare a list of the service that need to be migrated in the cluster I did I think it's up to date I think you're making me yeah it's on this see the comment 3619 you got the link if you get to the link you got the list Nice job Okay I think it's it's up to date Okay so you have to check one last time but I believe it's okay and which mean a survey you should be able to get there I let you folks have a knowledge sharing session that should last 30 minutes just to be sure every question and pointers are shared is that okay Yes we started for the update migration but I need way more information Okay and Stéphane I got three new elements on the RM 64 area First of all the VPN machine as we say at the beginning of the meeting it's the fourth time in 10 days that the VPN machine virtual machine start to be in a wrong state we had to restart it from the Azure console and it takes 10 to 20 minutes for reboot so we did the first short term changes earlier today we increased the size of the virtual machine from one CPU one gigabyte to I believe two CPU and four gigabyte that's just the next the next size we don't have an intermediate size there the proposal is if no one objects I would want to volunteer on migrating the VPN to RM 64 virtual machine Is there any objection It's not in the list so now I need to update my list Exactly but I can take care of that RM 64 the reason is that the cost of the RM 64 tiny instance is between the older tiny size and the big one that we use which is oversized it's two CPU one gigabyte which is way than enough and the performances are better and it's a generation version too so if there is no objection I volunteer for taking this no problem on this and we have two issues due to some services in that cluster running on RM 64 the first one is Matomo must stay on X A on Intel the reason is I don't know why and I'm waiting from an answer from the Microsoft support we cannot reach the managed MySQL instance from the RM 64 node yes that's weird we can reach PostgreSQL but we can't reach so there is something weird here I don't know I've asked them I've seen five of three of four or five persons four or five persons that had the same issue so we are not alone we are not completely crazy but that mean for now if we want to deploy Matomo then we need to we need to stay on Intel second one we have Falco crashing Falco agents crashing on the new on the latest Ubuntu 2204 kernels it's crash loop backing off and it's failing the logs indicates that it's trying to load a module at the kernel level to check for the processes for the security of the processes and that module is not working with the latest module most probably we need to upgrade Falco that was a long, long, long update waiting since months so yeah we will have to update it in order to stop the crash loop back or stop using Falco if we don't use it I believe we should keep using it so that's the current status I don't mind taking this one unless someone is interested in this so for the VPN VM I will send pull request and wait for someone to validate no need to pair on this one because I mean it's everything we have created this issue Stefan already worked sorry, Hervé already worked with the new VPN I believe Stefan has enough experience on the Puppet area and virtual machine so I don't believe we should pair on this however for Falco I will try to pair if it's okay and if no one is available I will just push forward on this one because it's tiny one any question? I don't remember why it was stopped and not upgraded Falco because we didn't add time to be sure the Falco upgrade doesn't break the wall cluster so that need time and a careful review of the contents I believe Hervé volunteer for this but I un prioritize the task myself so that's my fault so Hervé if you're okay we can pair on this one since you should switch to the RM64 yep cool any question on RM64? nope, okay next issue is Matomo GitHub repository etc so the goal is to bootstrap a Matomo instance to store the statistics and analytics of the Jenkins websites because since July we don't have statistics so August and September are lost one year ago Gavin Mogan mention that he has his own instance watching for on Jenkins.io he can share his already existing data so we can import it on our Matomo instance if we create one I run into a lot of trouble trying to bootstrap that instance looks like there is a lot of knowledge that need to be shared or learn by the SRE team right now the world subject is important but yeah I had so much issues with trying to start single Matomo instance and making production already because I mean following the quick start of Matomo is nice running it on production yep yes Hervé looks like you have your hand raised yeah no, you've been a little bit it doesn't you didn't like it so I'll take it if you want from your hand yes you wanted to yeah I was frustrated because that's a kind of application that say yeah it's easy just do this do this do this and when you see a real life production environment without the root user running the processes for instance that's a nightmare most probably because it has been built to run on a virtual machine maybe that could be the solution but yeah if you volunteer then that's a pleasure for me I will be there to help and review if you want review on the let's say the operational parts but yeah I need to use it on a virtual machine like it was expected to do that might increase the safety and the ability of the system that could be a solution I need I ask for help for someone taking it over on the operational parts but yeah I need help on the how to use that application properly ah I can write in ok RV volunteers to help for next steps RV you mentioned that there could be alternatives or we said oh we need to re-evaluate the choice of Matomo or not ok if we can stay with Matomo it's better as you said we able to re-integrate giving data without any more work so still the best option right now I think keep Matomo less google need to learn we can then import giving data there was also possible on the third one was I'll find it again if we have to evaluate alternatives ok my proposal already unless you see something wrong during the process is that we switch back from giving custom settings and we start with the bitnami let's say almost default mcharts with their unforced image because I understand that one of the numerous customization that gave indeed on his instance was to avoid persistence as much as possible it's the same pattern I understand as Jenkins when you want to have your own plugins installing Jenkins but a newcomer to the Jenkins docker image need first to learn how to use Jenkins that you need to skip the wizard which plugin they want before building their own custom image with their own plugin list my understanding is that we are in the same kind of pattern so my proposal is that we start without these old tuning we start adding plugins and then we will be able to shift to a new image once we will have gained the knowledge on this one does it make sense for you yes chart and then we'll see if we need to integrate that mean we might need to build our own custom mcharts built on top of bitnami which would add the custom resources that we can integrate through values but that's YAML in literal YAML so that's really really hard to manage a lot of ground work and stuff yep thanks any additional question or point on matomo no ok planning for support jdc version in Jenkins infrastructure mark i've started review of the GEP for that topic i propose that we move that issue oh no sorry there are two elements so we have to wait for the GEP to be merged before writing our own support roadmap to focus on the GEP goals um we also have JDK19 to delete everywhere so i thought JDK19 was already deleted at least i've seen build failures due to JDK19 not being there so i think we can proceed with JDK19 deletion because last week i had to quickly apply a change to stop testing JDK19 with the 2.414.3 LTS build so i think JDK19 is at least gone in some places i didn't do it everywhere ok so so it needs to be but Damian would you be ok if we went back to the GEP topic for just a minute yep i wanted to ask for insights there because i said something in the GEP before asking anybody else on the infra team about the idea so my thought was what the GEP says proposes that 2 months prior to a new java LTS the infra team will provide early access bits and one month after so this is the first controversial proposal right 2 months prior we provide early access so that testing can begin we did that with java 21 i felt like it worked quite well and so i thought maybe that's a good one but i wanted wanted a discussion here to see is that acceptable or no that's just un workable and then the other part of the proposal was 1 month after the end of life of a of a java release for jankins we remove it so what that means is in november so on december 1st of 2024 java 11 will be removed because october 31 java 11 is no longer supported 1 month later is end of november so we say december 1 that will break any plugins that are still building with java 11 but we can't keep delivering java 11 because security fixes are no longer available for it after that end of life so that was my thought but it does mean hey there will be some jobs just like in same story applies for java 8 in 2026 i believe is when java 8 end of life happens and i don't see how we would dare to continue delivering providing a jdk when 3 months later oracle will issue a new release that's not available to us because we're not paying for it and that new release may disclose security vulnerabilities that are now in the java we have installed absolutely table turn let's ask everyone and we'll speak last let's start with erve yeah my question is what happens to broke plugins what is the policy about them does it mean the end of this plugin or their depreciation no can't be updated it's out of subject of i don't know if it's outside this subject yeah so i'm gonna try to i like the question so i think what you're asking everybody is what about plugins that have not updated to stop using the dead java version right and i think the answer is the jenkins project continues to deliver that plugin and continues to allow that plugin to be used by others but if the maintainer chooses not to not to update it then that's not a lot different than the current condition we have where we have some plugins that don't have a jenkins file at all and so we don't test them on ci.jankins.io yet we are willing to deliver them because it's the responsibility the maintainer to decide how they test their plugin so for me i think the answer is we follow the same policy as always even if a plugins build is broken on the master branch we keep distributing it because it's it's still a viable plugin did that address your question avay or is there more to the question yeah anyway if there are more problems with them some will be deprecated one way or another i think so certainly plugins can be suspended from distribution if they have serious security vulnerabilities that are not resolved they can be deprecated because there's something something better for them or a different thing and those two are not prevented by this policy just this policy does not force us to use either suspension or deprecation yes okay good question very good so seems okay to me and some moments earlier okay if we can i would have if we can it's available yeah yeah it won't be the last time on the first time plugin maintenance will be warned about it so i think one moment after the end of life yeah thank you stephan your comments it was my question if the early available version is available more than two months before for us to prepare everything and then we release the pull request and it's up and running it is early access versions are usually available i think as much as six months before at least four months before and so because they're on a six month release cadence they start the work on access yeah at least four months before the release okay that mean we need a way to notifies us about the fact that there is an upcoming one but now that it's deterministic that mean that should only require the infrastructure team to add event on the calendar with the reminder one month after basically four months prior to September of odd numbered years so 2025 2027 2029 we set a reminder go looking to see that eclipse has provided or someone else has provided an early access JDK for our current platforms at that time okay Bruno what's your advice do you think it should be affordable for infrastructure work since you got some handgun on the date yeah but i'm not part of the infra team so i don't want to give you more work that what you can do but yeah i think mark is right about the date where we'll be able to have a look at the preview and you know how much i'm deep into the adoptive community so yes ah that sounds like a reasonable time frame to go to get something ready for the end users yep fine with me thank you Kevin you have one foot on the documentation and developers and plugins and one foot on the infra by being there every week so what's your advice on this do you think it's affordable from your point of view i mean so i'm not exactly certain what the infra team would need to do to take care of this sort of stuff but i i'm of the mindset that marks got really a point about the end of life and how we deal with that end of it more than anything else if it's broken if it's not getting supported then that needs to be addressed like immediately whether it's a month or two or like soon and later obviously better if it's broken but yeah yeah so i mean if it's not a burden at that point sure but i think it's you guys know the work way better than i do so it's what you think is acceptable thanks it still helps having a different point of view from outside because it helps on the usage so thanks for sharing that we agree that for us as the infra team we would have to prepare the pull request like two or three weeks before the date to set the new gdk and as soon as it's end of life we prepare the two or three pull request to remove the date and we just merge it at the good time that's what we need to do absolutely and then announce to the developers the mailing list that we will add or remove that's to answer the question of Kevin what we have to do that's the minimum we can do yeah i had last question was the time between two LTS version and I just read it's two years correct and that's a cadence they've committed to hold so we're relying on them to keep their commitment on a two year cadence excuse me I interrupted what you were saying it's okay it's what I wanted to know the frequency of this early access installation but it's not a lot so yeah on my side the answer is yes it's really easy to do as we demonstrated with gdk 21 even though we had help from Bruno and Stefan extensively on this one but yeah now we know the process can be done quite easily so for me both questions as a yes answer from the infra because everyone agree on this and because that's what I think I was worried about the deterministic part before but if we have a calendar event every two years, six months before that's okay for LTS I have a question though for the non LTS version I haven't checked yet the policy on Jenkins because we might want to start testing early on gdk 22 for instance once it will be released the policies I don't know I'm not sure if we should because with a six months prior version for LTS maybe non LTS is just a bit too much yeah oh go ahead Stefan I don't know if shillika 19 has been used and I'm not sure we can now how much it cost because if we had a non LTS and a non early available version and it's used as test and it's bringing the the bill higher how can we know how much and make the decision because if it cost us too much we cannot provide it especially if it's automatically in the test I think it's a good question that I'm intentionally not answering in that Jenkins enhancement proposal makes sense and you can all say that that's me being a chicken or being oh and now I'm maybe crossing a cultural boundary is the concept of being chicken applicable in French does that mean that you were fearful and unwilling to do the brave thing we say we say wait wait ok so in this case I'm being a wet hand and saying that I'm not willing to answer that question my thinking the reason we did Java 19 is at least for me because I was worried that Java 21 might have terrible surprises and they delighted us by showing it did not have terrible surprises we used Java 19 less actively using Java 20 I used it some internally myself so I don't think we need to put any commitment to do non LTS versions for any period of time which answer my question is that ok for everyone first partial answer is we won't provide non LTS GDK I would phrase it differently we would consider providing non LTS GDK based on the technical merits of the request that one is a good one that deserve a t-shirt or a sticker that's a diplomatic way of saying no that's a polite way of saying no not unless you persuade us that there's a real compelling reason because we shouldn't do it just because a checklist says to do it non LTS is not that important to us as far as I can tell so being a chicken is not a valid reason I guess no but being sensitive to cost is a reason of course and also what purpose that it serve that's the question I'm asking I don't say there is no purpose but if we don't have an answer to that question it's a point of providing thousands of things that are not used they're shiny I may be a magpie is that a compelling reason you have two hours does not commit to provide non LTS GDK is that okay for everyone unless there is a compelling reason the infrastructure won't commit to provide non LTS GDK unless there is a compelling reason LTS or infra will not provide non LTS GDK because there is no commit involved here we will not provide a non LTS GDK unless there is a compelling reason why and a compelling reason I think would be 50 plugins that want to test it not one not three makes sense what's your question Mark thank you excuse my stealing time to be sure that we addressed it but that also allows the infra team possibly to avoid reading the rather dry and specification like Jenkins enhancement proposal we just discussed the crucial part that hits the infra team there nice thanks is there any question the 2 plus 2 plus 2 version Jeep ok GDK 19 deletion we've chaired privately a few clean up steps on update CLIs because GDK 19 need to be removed it has been removed on the packer image we still have the infra acceptance test I believe it's checking for GDK 19 we have to remove it from the windows container agents for sure so these are the 2 major elements of the platform right Mark you mentioned you saw issue on some build failing on GDK 19 we are interested on knowing which one is it core or something else it's already fixed it was on core on the LTS line it's already fixed on the main branch it was only not fixed on the LTS line because we don't worry about LTS lines but about once a month I'm pleased to say that the agent acceptance test is agent available test is already fixed and not checking Java 19 ok it was annoying me over the weekend or sometime last week and I fixed it when I saw that the test was failing ok we checked for GDK 19 but I believe we focused on plugins only and forgot about the core so if you see other areas where GDK 19 could be we used on this date to share it with us and we got some pull request well and and the other is if we detect one we just submit a pull request to remove it right JDK 19 is same same thing we do with many other places Bruno and I are going through adding Java 21 testing to many plugins and it's just sweeping through doing it cool thanks for the collaboration here that's really useful any other question about GDK life cycle nope last topic the biggest and most important one but the last as usual RVE can you give us a heads up and then I'll write down the same because you need to share knowledge with Stefan and so Stefan can get started with your guidance for the next milestone so I've pursued my test so synchronize the Azure file share and the R2 Cloudflare bucket using removing similings and using a local folder to test the job I'm around one minute and an half question I need now to test I've run the test with Stefan earlier this afternoon the AirSync from the job to the update center virtual machine volume is taking around 20 seconds I think but looking at the current updates on the jobs they are taking around 3 minutes in total it shows them a little bit less a little bit more depending on the run so I have to check with Daniel if this job can run in a bit more time like 4 or 5 minutes and if it's a case we will be able to add the Azure file share and the R2 bucket synchronization to the current publish script for be able to test our own update center as with a real Jenkins instance while keeping the current virtual machine updated question a-t-il essayé de parallélisation de l'un ou de l'autre pour voir l'impact non par parallélisation je veux dire c'est la génération du script et puis il y a différentes méthodes vous pouvez utiliser le processus et l'instruction de la première let's say naïve test le but c'est d'avoir AirSync pour s'occuper en parallèle de l'agent et le script attend pour la fin avant de terminer et de vendre un code exit la première étape est de paralléliser la naïve chaque des commandes sont envoyées et puis vous utilisez le keyword de weight ce qui veut dire que votre script sera parallélisé et le weight avant de finir l'arrière de celui-ci est que c'est un code exit de chaque sub processus mais vous avez une idée de l'époque le but c'est d'avoir une estimation rôte ou est-ce encore en 3 minutes ? est-ce une minute et demi ? ce que je veux vérifier c'est l'impact sur le CPU parce que ces étapes sont évidentes sur le CPU et si on augmente l'agent de 4 2 à 4 CPUs pour diminuer le temps et bénéficier de la parallélisation c'est absolument ok parce que c'est des étapes critiques et d'augmenter les sizes de CPU n'est-ce pas important ? n'est-ce pas important ? on peut aussi faire attention à l'air sync et azcopie et tout ça pour utiliser plus de parallélisation ? le problème l'azcopie pour bénéficier de trop de frais comme ce que nous avons trouvé sur la documentation correctez-moi si je suis d'accord vous avez besoin d'un 5 à 10 ou 10 CPUs avant de bénéficier de la fraise il y a des options pour diminuer le temps de l'exécution comme la lauration c'est la lave ou quelque chose comme ça mais c'est pas plus long c'est pas plus long c'est l'AWS c'est 3 c'est plus tard si on ne peut pas le problème est le command exécuté avant de bénéficier ce qui ne peut pas produire le script exécuté avant de ne pas le faire mais le but c'est de parallèler les opérations parce que la faute de ça sera seulement un plus de CPUs 2 à 4 CPUs c'est absolument ok et ça a ouvert la porte pour plus de nodes comme nous avons connu le copier pour chaque node est-ce que vous avez pensé que d'un nouveau local WW2 a pris 20 secondes donc c'est moins de 3 minutes moins de 3 minutes 20 secondes nous avons pour chaque node ou n'importe quel de ces nodes doit être sous si on ne peut pas augmenter le temps total c'est un current que la machine n'est pas plus de 20 secondes donc c'est le temps que nous avons ok et vous pouvez avoir plusieurs nodes parce que vous devez avoir le cache tout doit être fait d'une machine oui donc vous devez faire le copier, le premier et la pensée de cette machine qui est la source de choses que nous voulons utiliser avec la nouvelle machine ok, c'est ce que vous appelez de nodes c'est parce que node est une keywords pour la machine où vous avez des agents et depuis que nous copierons une machine virtual une bouquette cloudflare et une storage Azure node ce n'est pas la meilleure ok, maintenant j'ai compris ce que vous avez dit c'est bon donc mon proposage est-ce qu'est-ce qu'on peut évaluer l'impact de l'impact de 2 TPUs en temps ce n'est pas parce que c'est plus slow que que ce soit Excelé par ajouter les TPUs trust me, sur ceci l'AWSS nous bénéficie de TPUs des gens ici disent que l'OM64 est plus puissant mais la building update center avec l'OM64 est pour plus tard je pense que ce sera plus vite pour les agents de dat La deuxième chose, c'est que si nous pouvons démontrer ce travail de paralysation et que nous ne pouvons pas nous concentrer sur la fréquence de 3 minutes, cela signifie que nous pouvons bénéficier des commandes parallèles de GNU. Nous n'avons que de l'utiliser et de faire un pré-requisition de la centrale d'updates comme GQ. Et c'est bien. RVA, vous m'avez dit que vous avez dit que la performance n'est pas très bonne par AirClone. Par contre, vous pouvez utiliser plusieurs remotes comme target, donc ça va nous aider. Oh, AirClone ne peut pas parallèler. J'ai essayé AirClone aussi, pour voir si ça pourrait être plus rapidement que AWS CLI, mais ce n'est pas... c'est deux ou trois fois plus tard. Mais nous avons gardé ça sur le côté, parce que nous voulions savoir si nous pouvons utiliser pour parallèler la application à plusieurs destinations de remotes, comme le file share d'Azure et le volume de vm. Parce que AirClone semble supporter toutes les technologies qu'on a, et ce n'est pas sûr pour le file share. Peut-être que j'ai trouvé le lien pour utiliser un neural avec un token SAS, donc je ne sais pas si... On doit essayer. Je ne suis vraiment pas sûr, mais ça ne coûte beaucoup d'essence. Oui, c'est important de vérifier, parce que ça signifie replacer AirSync et AWS Free et AZ Copy command. C'est-à-dire que l'airClone a une façon d'utiliser la source et la destination. Mais depuis que l'airClone est plus lent et que l'on peut en parallèler, on peut le demander pour parallèler. Et spécialement, selon les tests que nous avons fait et que c'est plus lent pour l'Azure Free Copy dans le contexte de Cloudflare, ça signifie que c'est mieux de parallèler avec des pièces pure. Qu'est-ce qu'il y a? Ok. Ça signifie que vous devez travailler avec des foils. Le but est d'être capable de tester une vie almost réelle, un centre de réveil en 3 minutes. Donc, n'oubliez pas de laisser Daniel et le reste savoir ce que vous faites. C'est ce que vous avez fait aujourd'hui. Merci pour le travail. C'est un bon set de résultats. Donc, on va continuer sur cette vidéo. Et je crois que la prochaine week on devrait avoir quelque chose à faire. Ok. La prochaine chose pour cette vidéo est que j'ai aussi quelque chose sur moi pour ce sujet. N-Chart Ingress pour le new mirror bits. Nous avons des problèmes sur l'Ingress quand on choisit l'HTTP versus mirror bits. Je dois fixer ça. Je ne comprends pas le problème. Nous avons le même Ingress que ce que nous avons pour Gettgen, Kinsayu, et encore, c'est pas working comme ce que nous voulons. Donc, je dois penser à ceci. Une fois que j'ai une meilleure compréhension de cette vidéo, je vais vérifier avec vous. Si vous avez le temps d'exprimer Stéphane et l'HRB sur cette vidéo, vous pouvez le vérifier aussi. Qu'est-ce qui se passe? Probablement, nous devons installer un instance local mirror bits sur K3S pour tester et briser. Si vous avez des idées, nous pouvons discuter après la rencontre. Je pense que je veux relier tout le monde. Oh, oui, Gettgen, Kinsayu. Déditer. Bonne pointe. C'est vrai que la prochaine nuit, c'est pourquoi nous n'avons pas ce système-là. Je pense que, Kevin, vous avez fait un complet passe sur la liste de la file, qui était potentiellement délétée. Oui. Parmi les commentaires, tout semble d'accord qu'il n'y a pas de file à l'arrivée. Donc, j'ai plané de créer un nouveau backup pour annoncer l'activation de cette option, cette option de délétation de l'offin web sur le site de Kinsayu. Pour le 1er jour, après l'LTS, sur la liste de l'activation, je vais annoncer tout le statut d'incident dans la chaine de JankenSafra et la chaine de JankenStock. Merci. Nous sommes 17, 18, 19. Quelles sont les objectifs sur le 3er jour? Le 3er jour, 19, pour cette opération? 1, 2, 3. Ok. Donc, nous allons ajouter la prochaine milestone et merci Kevin, merci d'avoir pris soin de cela et merci Binec, d'ailleurs. Ok. Vous avez d'autres objectifs? Non. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. Oui. sur mes habilisées comme un maître, pour s'occuper de ces choses, et pour les rapprochées. Peut-être ou peut-être pas. Je ne pense pas... Merci pour le lien. Je ne pense pas en tentant de... C'est-à-dire, est-ce que c'est ok pour vous, si vous essayez d'aller demain, à l'hôtel, basé sur vos disponibilités ? Je voudrais vous montrer comment to set up a local K-Free as Cluster. C'est une ligne commune en utilisant Docker. Et ensuite, trouver un moyen d'installer le site Jankin's IU website sur le site. Alors si vous pouvez essayer localement, c'est-à-dire que nous pouvons commencer à jouer avec les portes de rembourse ou de rembourse, ou juste d'éditer les ressources cubanétiques, pour que vous puissiez commencer à jouer avec la direction de l'aéroport et ce genre de choses. Je ne sais pas ce qui est le complexité de la direction de l'aéroport qu'on expecte, mais si la pattern de la direction de l'aéroport peut être facturée à moins de 10 directions, cela pourrait seulement être dans les règles ingressées et ensuite de retirer les portes ZH. Portes, c'est juste une valeur superficielle et naïve. Donc je crois que, pour avoir une troisième discussion, nous pouvons également vérifier l'architecture de l'aéroport qui n'a pas besoin pour le concept de l'aéroport cubanétaire. Et puis, basé sur la discussion, nous pouvons voir ce que nous pouvons faire sur votre site, sur notre site, sur le site. Je voudrais être impliqué dans cela, si vous ne vous inquiétez pas de la discussion jusqu'à la prochaine semaine, quand je suis disponible. Je serais déloué parce que la formation de la construction de la petite cluster serait une très utile pour moi. Et je pense que vous faites exactement l'assumement correct. Je pense que c'est une seule pattern de l'aéroport qui est que si l'URL commence avec slash ZH slash, réplace cela avec slash. Ok, ça pourrait être possible. Et donc, je suis heureux de voir que vous dites que ça peut être une très simple chose à impliquer. Finalement, j'aime ça. Mais je pense que, avec Kevin et moi, tous les gens de la documentation sont capables de dupliquer le set-up, le setup de l'aéroport cubanétaire et le test-drive. Qu'est-ce qui se passe quand nous avons retiré ça? C'est une chose très healthe plutôt qu'il soit ou je, en faisant une removal blinde et en espérant que ça ne se débrouille tout le monde. C'est bien pour moi. J'ai un proposement contre le coût. J'ai encore spenté 30 minutes avec Kevin parce que ça serait mon plaisir. Et pour vérifier si Kevin est ok avec ça, Kevin, vous allez faire ce que Mark a dit, je ne peux pas être là si vous êtes un test-drive. Mais oui, d'abord, nous avons détruit l'aéroport cubanétaire, tous les uns. Et ensuite, vous faites Mark détruire l'aéroport cubanétaire que nous avons rébuildé après l'aéroport cubanétaire. Ça fait le sens? Est-ce que c'est ok pour vous? Merci, merci. Mark n'a pas d'accès à l'aéroport cubanétaire. Donc, nous n'avons pas de problème. Je voulais demander si je pouvais porter mon popcorn, mais ce n'est pas possible. Puis on le record et on peut faire un talk qui sera nommé Dave Oups, de la même manière. Je suis sérieux sur si c'est ok pour votre plan et votre volonté, Kevin. Nous commençons les deux de nous. Donc, nous pouvons discuter avec l'exchange et ensuite, nous pouvons planir une session la semaine prochaine avec Mark, vous en dessous de ce temps. Je suis là si vous n'êtes pas sûrs ou quelque chose. Ce serait une discussion intéressante. Et ensuite, nous pouvons faire Mark apprendre ce qu'on discute et apprendre ensemble. Est-ce que c'est ok pour les deux de vous? Ça marche pour moi. Je l'aime. Cool. Fait attention, Kevin. Vous avez besoin de trois temps pour faire sure que vous comprenez et faites ce qu'il vous plaît. Je le sais très bien, Damien, maintenant. Et même mieux, vous avez trois fois à voir Damien ne détruire la cluster de production. Faire. Jean-Marc Messon va dire planter les cides ici. Mais, oui. Toutes les deux commencent à le savoir. Nous allons faire un involved Mark la semaine prochaine. Ok, cool. Je vais envoyer je vais prendre l'offline avec vous pour planter le schedule par la zone de temps. Mais, oui. On va ajouter à l'opinion de milestone. Merci beaucoup, Damien. J'apprécie beaucoup. Merci, Mark. Vous avez d'autres nouvelles sujets, les gens? Hop. Depuis un peu plus tard, je vais changer le voyage parce que je ne suis pas sûr qu'on a eu des nouvelles sujets. Si on a des nouvelles sujets, ils seront ajoutés à milestone, comme d'habitude. Et ensuite, je peux vous relier parce que c'était une très longue chose et j'étais tard. Donc, si quelqu'un objecte, nous pouvons voir la semaine prochaine pour la recording. Bye-bye, j'ai arrêté la recording si je peux trouver le droit.