 Ok, tout le monde, bienvenue à la meeting de la week-league de l'infrastructure de l'infrastructure de la chaine Kinz. Nous sommes le 29 de novembre 2022. Aujourd'hui, à la table, nous avons Damian du Portal, Hervé Le Meur, Mark White, qui semble très motivé de prendre des notes aujourd'hui. Stéphane Merle et Bruno Verrarten. Merci Marc d'avoir déjà appris les notes. Nous allons commencer avec l'annoncement de la week-league 2.380 de la chaine Kinz. La chaine Kinz est sortie, ou presque, à peu près de la guerre, les packages et les images d'Oka ont été construites. Les images d'Oka ont été construites 5 minutes auparavant, donc c'est vraiment une nouvelle. Merci Marc d'avoir écrit les notes. La chaine Kinz s'arrête, mais il y a des corrections. Kevin est en train d'y aller aujourd'hui, donc il faut attendre jusqu'à demain. D'autres informations sur cette week-league ? Non. Non, bien, beaucoup de changements dans la week-league, et ils sont notés dans la chaine Kinz. Ok. Merci d'avoir regardé la seconde question. Les steps d'utilisation de l'infamous plugin pipeline ont été installés avant la release de la week-league. Ça a commencé, sinon ça aurait été détruit, parce qu'on a perdu des usages de la clé à l'aide de ce pipeline quand on a essayé de les retirer il y a quelques semaines, donc ils sont en train d'y aller. Certaines personnes doivent essayer de retirer ces keywords. En général, nous n'avons pas besoin d'une pipeline pour lire les propriétés de Yammer sur le contrôleur, pour beaucoup de bonnes raisons, mais encore, nous n'avons pas besoin d'une release de la week-league. Donc, jusqu'à ce que ces changements soient terminés, réveillés, réveillés, c'est mieux de garder la plug-in et réveillé. Le risque est assez bas, parce que ce n'est pas l'instance publique. Et ça a été réveillé, donc ça devrait être ok. Mais on va continuer. Merci d'avoir regardé ça. Je n'ai pas un autre annoncement. Est-ce qu'il y a quelques? Non. Un award sur le calendare d'une prochaine week-league. Ce sera le 6 décembre 2022, la semaine prochaine, comme usual. Dès demain, nous avons un LTS. Donc, n'oubliez pas d'exprimer ou d'essayer tout sur l'infrastructure, ce qui pourrait être un impact éviocale, le processus de release, ou le signe CIO itself. Nous n'avons pas entendu d'une release de sécurité publique. Donc, ce n'est rien à dire. A la prochaine événement, nous avons FOSDEM et DEVOX INCOMING. Donc, si vous avez un project de Jenkins ou d'infrastructure, un sujet et vous voulez parler de ça, s'il vous plaît, s'il vous plaît, les questions sont ouvertes. Aucune question, donc? Ok, on va continuer. Le travail que nous avons fait cette semaine, qui a été completé, c'est un lot de Jenkins, reposant le nom de l'account, Tim et Alex ont des choses intéressantes aussi, donc on va parler du tout un peu plus tard sur les nouvelles soucis. C'est l'ECO de l'account Jenkins IO, un bon ECO, que c'est le problème du cours, car à chaque fois, il y a quelqu'un qui se lève de sa propre instance de Jenkins, et qui cherche sur Google sur comment reposer pour récover Jenkins Password. L'un des premiers résultats est nos accounts Jenkins AUS websites, qui commencent à être assez détenus. Donc, la plupart de ces problèmes, quand vous commencez à demander des questions, vous réalisez rapidement. C'est un URL de Jenkins privé. La table est un grand improvement. Nous pouvons... Absolument, c'est la même chose. Ah, c'est vrai. Est-ce qu'il y a un moyen que nous pouvons évoquer le profil de recherche ou la visibilité de recherche de l'account de récover sur www.jankins.io? Nous pouvons mettre un robot dans le pays pour montrer beaucoup de Google mais pour ne pas voir le site de la récover. Oui, c'est vrai. C'est le plus important. C'est encore mieux, plutôt que d'essayer d'évoquer quelque chose, nous allons évoquer quelque chose d'autre. Ce n'est rien, mais je pense que le site de jankins.io et le site de jankins.io sont très bons. Même si c'est trop tard, on peut faire quelque chose dans le community.jankins.io. Je veux dire, on peut avoir un template ou un boilerplate ou quelque chose d'autre. On ne peut pas l'answer pour que l'on comprenne et on paye l'answer. Non, ce n'est pas un compte sur www.jankins.io. Je vais faire quelque chose sur vous-même et je vais l'answer. Dans le site de jankins.io, vous pouvez faire une réponse dans votre propre compte. Et pour l'aide de l'ESC, je vois que j'ai envie d'adresser l'account pour automatiquement répondre à l'aide de l'ESC si l'enjeu contient l'account ou l'adresse de l'ESC. Ou quelque chose comme ça. Peut-être c'est un passeword. Oui, ici, c'est seulement la même message. J.A.D. serait un peu la même message pour tout le monde. Je ne suis pas sûr que nous pouvons either raise both commande ou quelque chose, mais en même temps, avoir le template rételé pour que l'on comprenne le pass serait un premier step. Parce que les bots n'ont pas beaucoup de problèmes parce qu'on a des gens qui sont localisés. Mais il n'y a pas d'autres. Oui. Et il n'y a pas d'autres qui ne sont même même pas correctement les questions. Toutes ces gens, on voit quand il y a un passeword, un passeword ou un numérique ou un type d'account ou un type d'account ou un passeword. Chaque de eux, c'est un troisième ou peut-être un autre de eux qui peut être automatiquement fermé avec un message indépendant. OK. Si tu sais comment faire ça, tu es volontaire de prendre l'action. Je n'ai pas d'idée de faire ça. Je ne sais pas où mettre cette réponse sur le plate-à-tout. Jean-Kin-Sainte-François a des livres si tu veux des privés. Jean-Kin-Sainte-François documentation si tu veux dans le public. Je ne suis pas sûr que tu as l'impression d'être interagé par... Je ne pense pas qu'il sera utilisé. Je ne pense pas qu'il soit interagé sur un plate-à-tout. Je ne sais pas d'autre qu'il serait possible d'y avoir des templates que l'on voit dans lesquels on peut interagir d'autres plate-à-tout. Je ne sais pas d'autre plate-à-tout. Je ne sais pas d'autre plate-à-tout. Je ne sais pas d'autre plate-à-tout. Il y a 4 personnes interagées avec un plate-à-tout. Les sont interagées sur certains plate-à-tout. Je ne pense pas d' kittensYes下面 en Dream Next A indemnowhat sa une Gun Of ge et on va faire ça mieux que moi. Je me prends pour mettre un message standard et communiquer à tout le monde sur le team. C'est un short terme que nous avons un message standard si ils veulent. Et puis, en parallèle, nous pouvons automater l'answer. C'est bon pour vous ? Oui. Alors, on va ajouter les deux de nous ici. Je vais apprécier les souhaits d'ouvrir le team sur le CEO. On va voir si nous avons besoin d'autres souhaits. Mais le but est d'avoir un endroit centralisé sur tout ce problème. Donc, nous avons les souhaits. Je me prends pour faire ça. Je ne vais pas le faire maintenant. Ce n'est pas la location. Donc, beaucoup de souhaits. Pour certains, nous avons... Pour un ? Oui, mais nous avons 1 ou 2 par week. Nous avons toujours 6 services. Je n'scave pas. Désormais, le chef, la géadetise, ce n'est pas le signe major Nowadays, il faut qu'on t'informe si strengthen les sou 바�urs. Il y a des valeurs et s'54 complices. Mais, bah, il y a un foyer Hello, OK. Nous avons prévu. parce que leur raconte est créée, c'est seulement l'answer qui s'est faite. Donc, vous cherchez leur compte sur l'email et vous cliquez sur le password, ils doivent recevoir l'email. La chose est qu'ils n'ont jamais l'answer, donc je ne sais pas. Nous pouvons vérifier la connexion. Nous avons un problème sur le download de Jenkins MSI, alors que le deuxième problème sur quelqu'un qui est situé en Indie qui est en fait redirecté à la Mirrore de Chine. Et le réseau est très lent de l'Indie à Chine, en spite de la proximité. Nous avons ce projet, depuis qu'on a des crédits de Digital Ocean pour créer une machine virtuelle qui acte comme un Mirrore. Maintenant, depuis qu'on a apparaît beaucoup sur le réseau Azure, il y a des banquets pour LV. Je ne suis pas sûr, Stéphane, si vous voulez essayer d'appuyer la machine virtuelle avec Terraform et d'appuyer le Mirrore, ce sera un Apache ou un GNX server, un AirSync, un Chrome, et ce sera un Hall. Oui, je peux essayer. Nous pouvons aussi regarder le Mirrore charte. Ça veut dire qu'il s'agit d'une cluster de Kubernetes en Bangalore, seulement pour un service ? Peut-être pas en déployant le charte, mais en regardant ce que l'on a configuré. C'est un charte avec des banquets qui servent les files et un AirSync Chrome Jobs comme un second code. C'est vraiment un web server qui servit le contenu de la directrice et un Chrome qui tourne tous les heures. C'est AirSync. Absolument, c'est le même. Le Mirrore charte a été créé par Olivier. Je l'ai retiré parce qu'il n'était pas utilisé n'importe où. Parce que vous avez besoin d'une cluster de Kubernetes dans la location où vous voulez, et la plupart du temps, notre cluster de Kubernetes n'est pas capable d'améliorer la banquette. Quand vous avez une machine virtuelle, vous pouvez mettre dans la région où vous voulez. C'était la raison initiale, et le reste est seulement un commande AirSync. Est-ce que vous pouvez essayer d'améliorer la banquette? Oui, oui. Je ne sais pas si... Je vais ajouter ceci à la nouvelle banquette. J'ai besoin d'un souci. Un souci pour le Mirrore de l'Indien. Et par le nombre d'utilisateurs de l'Indien, cette chose va avoir une demande de banquette. Qu'est-ce que la banquette des digitalisations? Qu'est-ce que vous faites pour le Mirrore? Qu'est-ce que vous faites ? Parce que lesitely,but lesysupp密P preliminary, c'est là qu'ils veulent tenter de citer. Donc, obviously, on ne s'beat, on me le dit parce que, aujourd'hui, le yoga, c'est pas lancable. Elle ne peut pas y мо�. Donc, ce sera certainement un utilisé épaisant, non? Nous pouvons leur dire si c'est correct. C'est bon. Si nous pouvons savoir ce genre de consommation de services. Oui, nous allons avoir une métrique pour l'adulte, pour avoir l'information sur la métrique aussi. Oui, et juste une note. Nous avons pris la banque d'Archives de Genkin Sayo, qui serait le mirrore de fallback, et c'était seulement un peu de bucks par mois, comme 80 bucks par mois à la Digital Ocean. La banque d'Archives est très chère. C'est AWS qui fait la banque d'Archives très expensives. La plupart du temps, le modèle est la suivante. AWS, vous avez jusqu'à 2 terabytes 403. Mais quand vous passez le threshold, vous payez très très expensif. Bien que la plupart des OVH, la Digital Ocean, ou, on dirait, un small cloud provider, le threshold est clairement moins, mais le prix, quand vous passez au threshold, est très cher. OVH est très proche de rien, et l'Archive aussi. Ça devrait être bien. Et si c'est trop cher, on peut toujours serrer le mirrore, ou demander à l'autre. Mais oui, l'HRV est correctement négocié avec la Digital Ocean, donc je suis sûr que ça va être vraiment bien. Merci. On parle de séparation de terraformes, de baccades et de repositories, AzureNet et Azure. Donc maintenant, nous avons deux repositories terraformes. C'est donc un issue de sécurité au niveau low-level. Dans le passé, la raison pour laquelle la terraforme pour Azure n'a pas été obtenue par Olivier et Tyler, c'est parce que aucun contribut, ou aucun issue de terraformes, et la plupart des temps, c'était des issues de terraformes, c'est le provider Azure. Donc, par exemple, searches XD c'est comme la même solution, ou comme la même solution donc c'est une mode régulière. Et nous allons improving la sécurité. Chaque compte va avoir deux comptes techniques pour interagir avec l'API Azure et chaque une va avoir sa propre set de permission pour être sûr que nous ne pouvons pas accéder à l'extrême bondage. Donc maintenant, nous continuons, nous mettons sur les networks Azure et les ressources est strictement liées aux networks qui ne devraient pas être managés sur les autres repositories, comme les zones DNS qui peuvent créer des records DNS sur l'application, mais la zone en soi-même doit être managée comme les networks. Et maintenant, Airways est marchant sur une nouvelle VPN pour les networks privés. Donc la machine virtual et ses ressources sont sur les networks Azure parce que c'est strictement nécessaire pour accéder aux networks privés. Donc merci pour ce travail. Pour ce travail, le travail continue avec d'autres issues qui sont sur l'opinion currently dans le milestone. Github Permission, quelqu'un n'a pas traité le DOC, mais Alex a aidé sur celui-là. Merci Alex. Marc, j'ai confirmé que la plugin Windows Slave n'est pas installée sans l'issue sur tous les contrôles et toujours présente après l'upgradation, les contrôles qui ont été installées. C'est bien. Mais peut-être que je l'ai entendu correctement. Tu as dit que c'est encore installé? Ininstallé. Il s'est gardé absent sur la liste de plugins. Merci. Merci beaucoup. Merci Damien. Nous avons enfin pu ouvrir des réquests pour les websites Stories. Le travail a été poursuivi à une autre location. C'est maintenant sous la site directory sur CI JenkinsIO. Il used à venir sous l'infra directory. Le pipeline est pareil pour les sites CI JenkinsIO et l'infra CI JenkinsIO et il déploie sur l'infra, comme d'habitude. Cet élément est parfait. Nous avons eu des réquests qui ont été réparé et qui sont maintenant déploisés. Thanks for the help of that one, Stefan, and also giving. Finally, last big one is the component al-qai. So thanks, Hervé, for taking care of that with giving. So we have web components on the official NPM Jenkins projects. Am I understanding correctly, Hervé? Nice achievement. Et la prochaine, c'est d'aller avec une équipe, avec Alex et Thorsten. Mais comme une équipe de Jenkins, nous avons pu... Vous avez fait tout le travail, mais j'ai mentionné le whole équipe. Nous avons maintenant un site officiel NPM, qui permet aux contributaires des développeurs de mettre en place un script de JavaScript ou un Node.js dans ce repository, qui est le point de défaut, comme Dockers-Urbis pour Dockers-Images. Hervé, j'ai une... Allez-y. Juste pour maintenant, Autocona a été installée dans tout le repository où nous devons construire l'app avec KitElection. On peut avoir, si il y a un projet de JavaScript, on peut avoir à mettre en place un NPM de build, un pipeline, ou quelque chose comme ça. Il y a au moins quelque chose de crédible, donc les gens pourraient accesser et les utiliser dans leur pipeline. C'est la même chose que les histoires ou d'autres pipelines, le déploiement avec le crédible qui arrive à un CI, par contribution, il pourrait encore avoir un CI. Peux-je vous demander d'écrire un livre rapide sur ça? Juste quelques notes, dire que nous avons un NPM maintenant, donc nous avons une documentation pour les gens qui vont prendre l'infrastructure dans le futur. OK. Donc, un livre rapide pour un NPM. Juste quelques notes, donc on ne va pas l'inquiéter. Mais merci, c'est un travail cool. J'espère que ça m'a aidé beaucoup. D'autres questions à poser sur votre compte, que je n'ai pas oublié. J'ai besoin de retourner sur les compagnons web. Il y a un pull request open pour utiliser les compagnons web sur Jenkins.io. Je pense que c'est OK et que ça ne se démerge pas. Je ne pense pas vraiment que ça se démerge. Je ne pense pas vraiment que ça se démerge. Je sais que Kevin a été en train de travailler depuis longtemps et que nous avons été attendus pour le repository NPM. Nous pouvons lui demander une question. Mais je pense que ça pourrait être inclus comme des questions de sécurité ou de ces compagnons quand Kevin a été en train de mettre en place notre week-end. Merci beaucoup. Nous allons maintenant travailler dans le progrès. Nous avons deux priorités de top-level. La première est une mission de CIOG Mark et High ont travaillé sur quelques éléments. J'ai fait des éléments plus avancés. Je ne suis pas vraiment content avec l'expérience avec ChiefRug. C'est vraiment difficile d'avoir quelque chose à travailler parce que chaque fois nous faisons un changement sur le repository. Nous avons des instances de service. Nous avons beaucoup de comportements. Nous devons appliquer la configuration et attendre au moins 24 heures pour que tout le monde soit en train de travailler et d'exprimer. C'est très difficile pour nous. J'ai beaucoup de contacts avec ChiefRug. Nous n'avons pas de progrès pour la documentation parce que la documentation n'a pas été choisi pour ces outils de utilisation. Et notre modèle de permission pourrait être une issue. T'as-tu essayé d'exprimer les instances locales? Peut-être tu ne veux pas aller de cette façon. Si tu me sens comme tu es... Je suis content. J'ai fait trop de choses pour que tout le monde soit en train d'exprimer le code. Tout est manuellement mené. C'est nightmare. C'est si difficile. Non. Honnêtement, c'est que l'enjard qu'ils donnent c'est l'un des les meilleurs que j'ai vu. C'est terrible. Et tu n'as pas envie d'exprimer l'artifactoire de Kubernetes. Le service fonctionne très bien. Il faut migrer à une autre plateforme. On n'a pas entendu de elles encore. Je ne suis pas sûr qu'ils puissent le faire en décembre. Ça pourrait être un moment de faire ça. Si ils ont la possibilité d'exprimer le code, il ne faut pas d'exprimer le code. Je ne pense pas que le team en charge va avoir la Christmas dans les holidays. Ça pourrait être très intéressant si ils sont disponibles pendant la Christmas. Parce qu'il n'y a pas de activités. Ça pourrait être un bon moment. La deuxième chose et je pense qu'on va vérifier l'artifactoire d'artifactoire d'exprimer. Nous avons déjà parlé de ça cette semaine. C'est quelque chose qui a généré l'artifactoire. Je pense que j'ai besoin de vérifier tout ce qu'il a fait l'année dernière. Mais il semble que le plan sera le suivant. Nous allons utiliser le code pour RepoGenkinsci.org. Je pense que je vais ajouter du Dume ingress pour faire le travail. La nouvelle certifique est générée avec Let's Encrypt pour les gens qui ont été certifiés. Comme Kosuke a fait l'année dernière. Il a encrypté ça avec GPG. Ils doivent être deux ou trois minutes d'outage pour appliquer la nouvelle certifique. Nous n'avons que 19 jours jusqu'à ce qu'une certifique s'expire. Cela devient plus urgent. Oui. C'est pourquoi j'ai besoin de générer ça. Pourquoi utiliser un certain manager? Parce que nous n'avons pas le web-server de RepoGenkinsci.org. Nous avons besoin de vérifier l'autor. Nous avons l'accès au DMS. Tout est installé sur un certain manager. Nous pouvons générer ça avec le DMS Challenge sur Let's Encrypt. Ça sera assez facile. Nous n'aurons pas besoin d'y aller ou d'y aller sur Kosuke. La prochaine c'est le travail en progrès, recréer des networks sur Azure. D'abord la private, et ensuite les publics. Il y a aussi des works que l'on overlap avec l'IP. Nous voulons soutenir l'IPv6, au moins pour l'utilisation externelle. Il y a un travail en progrès sur l'arrière. Comme nous l'avons dit, nous avons un code managé avec le work of Hervé. Hervé a pu recréer des nouveaux sets de networks privés sur l'IPv6 ou pas. Nous pouvons les changer sans recréer avec les nouveaux networks. Et un nouveau set d'IP. C'est créé de scratch. Nous serons capables de faire une migration avec l'IP. Et le plan sera la même pour les networks publics aussi. Régardant l'IPv6, c'est toujours compliqué de trouver la solution. Parce que dès qu'on y arrive sur Kubernetes, ce n'est pas compliqué, mais c'est difficile d'avoir l'IPv4 et l'IPv6 externellement. C'est difficile de trouver une application ou une ressource qui devrait pouvoir faire le gateway entre les deux. La chose est que, si nous disons qu'on doit avoir une route full IPv6, Kubernetes supporte l'AKS aussi. Mais en ce cas, nous devons changer les modes de networks utilisés dans les clusters de Kubernetes. Nous devons changer les modes comme deux portes de l'accent pour nous. Le premier ne supporte pas les notes de walk-on. Ce ne devrait pas être un problème parce que nous ne devons pas avoir l'IPv6 pour les clusters privés où nous avons les notes de Windows dans le futur. Mais la deuxième chose est que nous avons exposé un point de fin d'application de Kubernetes nommé Kubernetes. Nous n'avons pas poussé plus. Nous allons essayer ceci. La partie privée n'est pas complémentée par l'IPv6, parce que nous n'avons pas besoin de ça. Il est construit un VPN privé et une fois qu'on a le nouveau cluster privé, on va essayer d'avoir un public load balancer avec l'IPv6 et l'IPv4 si nous ne pouvons pas quitter l'IPv4. C'est l'état de current. Nous avons besoin d'adverter plus de documentation Azure sur cette partie, mais il y a beaucoup de documentation. Donc, walk-in progress. Maintenant, le statut de service fonctionne sur la machine vpn. 2 layers, 1 infrastructure as code, et puis des updates. Nous devrions donc avoir 2 vpns d'infrastructure access, release CI access, infrastructure tooling access, et l'IPv4 public nous permettra d'avoir accès au cluster public pour les gens comme Adrien, pour exemple. Ils pouvaient avoir un utilisateur restricteur de la sphère où ils pouvaient voir leurs applications, logs et avoir accès aux stats de reads. Donc, ils peuvent vérifier les applications sans risques pour le cluster itself. Nous pensons d'avoir une idée d'une zone trustée dans le futur. Donc, des éléments devraient être réveillés par cette zone trustée. Le but c'est de couper d'accès et de limiter l'application de l'application si un accès n'a pas accès à l'application de l'IPv4. Si nous avons des machines individuelles, le coût va diminuer grandement parce que, maintenant, la machine VPN est vraiment énorme. Pour plusieurs raisons, et nous ne pouvons pas changer ça, donc, depuis que nous ne pouvons pas le drinker, c'est mieux d'avoir un set de mineurs que l'admission de l'application sera clairement derrière. La prochaine étape, c'est d'obtenir les mêmes pipelines pour les deux projets. L'un de les projets est terminé ce matin. Merci, Stéphane, pour ce travail. Je pense que l'autre n'est pas terminé. Oui, je pense que c'est l'autre de vos côtés. Oui. C'est considéré comme un bon exercice pour Stéphane, d'améliorer les pipelines et de jouer avec nos configurations. On a pu en approcher les labels que nous avons offerts pour les développeurs de CI to Enkins. On a pu en approcher les labels qui font plus de sens, comme Linux-IMD64. Parce que Linux n'a pas de sens. Linux est une plateforme et un autre label. C'est compliqué, puisqu'on a offert différents CPUs, différents types de instances Linux, containers, tout. Donc, c'est un peu plus important d'avoir un label très spécialisé que la plupart des temps sont obstructés par le library pipeline ou les labels pipeline. Donc, mais si je veux que Linux puisse être une Linux disponible, comment j'ai continué à dire ça ? Pourquoi vous voulez avoir un label comme ça ? Parce que j'ai l'impression qu'il y a une variation intentionnelle par le test client sur ARM ou AMD64 ou System390, ou tout. J'ai l'impression que c'est parfois des défis pour moi. Mais j'ai l'impression que c'est pas la façon dont nous voulons aller. C'est pour moi qu'il y a un bénéfice d'utiliser une variante de Linux. Donc, en ce cas, vous pouvez mettre tous les articles sur pico1, fondamentale, ou sur Billoniche. Oui, mais c'est pourquoi j'ai mentionné fondamentale qui est exactement ce que j'ai fait. J'ai dans mon set-up d'intention que Linux signifie either CentOS or CentOS 7, Ubuntu 22, etc. Et cette variante m'a aidé. Mais ça ne peut pas aider d'autres. Je comprends si ça ne peut pas aider d'autres. J'ai l'impression que j'aime une variante spécifique mais ça semble que le plan n'est pas d'avoir cette variante automatiquement. Et beaucoup de gens ne pensent pas de ça et seraient surpris si ils en ont. J'ai supporté les choix. Le cas d'utilisation est intéressant parce que, comme vous l'avez dit, nous pouvons donner de nouvelles attributions pour les plugins ou les équivalences. Mais, pour dire, nous pouvons généralement sélectionner le cpu-architecture ou le cpu-flavor. Le cpu-flavor n'est pas une option ici parce que nous n'avons pas d'autres options. Nous pouvons dans le futur. Mais ça n'est clairement pas maintenant. Mais nous avons des différents cpu-flavours. Ça pourrait être un feature des functions de library qui disent que expliquement, comme maintenance, je veux changer. Donc, vous pouvez introduire le chaos sur vos builds. Mais ça doit être d'abord explicit, et second, pas de défaut. Parce que ça va bâtir beaucoup d'utilisateurs. Souvenez-vous de l'IRM et des plans de builds. Ce n'était pas bien pour la coste de l'infrastructure, mais ce n'était pas pas bien pour le debug surprise pour les maintenance plugins. Et c'est la main issue d'aujourd'hui. Donc, il y a des points que nous ne pouvons pas retirer. Quand nous disons que le Linux est un D64 avec Docker, encore encore, nous pouvons caduler ça sur un code ou un machine virtual sur EC2 ou Azure VM. C'est déjà un change de surprise. Donc, nous allons essayer de ne pas avoir plus. Mais nous ne pouvons pas retirer le work. Le work est pas le plus plus simple. C'est une première fois que le work est beaucoup plus bas, mais le work est un peu less utilisé. Mais maintenant, nous avons ajouté, mais de la suite, des labels qui ont un plus spécifique sensibilité. Et puis, ils peuvent être ajoutés d'un document en bas. Mais si nous regardons dans l'arrière de votre plug-in, vous devriez construire tous ces plug-ins, et avoir un faillite sur lesquels il n'y a qu'une. Parce que si vous voulez vraiment pouvoir avoir votre plug-in en fonction d'une sorte de Linux, vous devriez essayer à chaque fois d'une sorte de Linux. Mais il y a plus d'impôts. Parce que nous devrions construire 4, 5, 6 fois plus. Si vous pensez à une plug-in avec une solution random, ça veut dire qu'à chaque 8 ou 10 fois, vous trouverez un bug qui va probablement arriver à 8 fois plus tard. Il a changé, donc c'est très difficile d'appuyer tout. Je pense que les plus complexes plug-ins ont déjà multiplié l'architecture dans leur pipeline. C'est pourquoi je pense que c'est ça. C'est cost-effective, je l'avoue. C'est cost-effective, mais le prix n'a rien. Le prix n'a rien. L'ordre de la magnitude sera, quand on croise 10 axes pour la matrice, on peut penser à ce que c'est l'ordre de la magnitude, comparé au temps que l'on a perdu par la maintenance de plug-in, pour comprendre pourquoi la plug-in n'est pas fonctionnée par un utilisateur qui dit « Aie, j'ai le plug-in sur ma machine, et ensuite vous avez de l'information pour comprendre que c'est vraiment un CPU ou un cheat-it pour des choses spécifiques. » Et c'est pour ça que nous devrions faire des choses spécifiques. Nous devrions pouvoir mettre plus de spécifiques... Éventuellement, pour les Windows, ce serait un problème. Mais ici, nous avons la machine CPU-Z, qui est une machine. Nous ne payons plus pour faire plus de bails sur cette machine. C'est un agent permanente. C'est la première exotique. Les bails IRAM sont 20 à 30 % des bails AMD. Et c'est un test-issue, je ne suis pas sûr d'où c'est détecté. Mais maintenant, si vous construisiez l'un des bails Java, vous archivez et vous avez un set de tests smokers qui ont un test plus petit pour chaque plateforme. Vous avez un moyen plus efficace que de ne pas construire ou de construire. Et l'autre, tout le projet de major open source, on dit qu'on supporte cette plateforme. On doit faire des tests smokers sur cette plateforme. Sinon, ce n'est pas support. C'est le best random. Oui, et le random est vraiment poursuivu. Nous avons mis beaucoup de tests ici parce que nous ne voulons pas faire un test complet sur cette zone. Vous vouliez faire un test smokers et éventuellement des issues spécifiques. Pour nous comme infrastructures, nous avons mis la plateforme. Nous n'avons pas à dire qu'il faut construire plus ou moins. Maintenant, nous avons encore un sub-margin. C'est mieux d'en produire. Je ne dis pas que c'est urgent, mais c'est la direction. Maintenant, les issues que j'ai mentionnés sont que nous avons ajouté plus de labels spécifiques. Nous n'avons pas remis ou changé de façon d'utiliser les labels. Juste de faire que tout le monde ne s'arrête pas. Pas encore. Je pense que j'en supporte le déterminisme. Le déterminisme est beaucoup mieux pour les consumers. Le cas d'utilisation de la randomisation est assez exotique. Lorsque Stéphane commente, c'est assez exotique. Et c'est parfait pour nous que les gens comme Marc Waite qui a des plateformes spécifiques puissent trouver d'autres manières pour les tests. Les manières standardes vont être déterminisées. Mais le futur de la sélection de la randomisation, c'est que si vous avez un attribute de test de random et que vous avez une liste de labels, si vous avez les labels, ça devrait être le même. Il y a un besoin, des listes de liste de labels. Les agents de la redes sont déterminés. On peut les retirer. Parce que ce n'est pas utilisé par la test de réception. C'est le dernier mille, Stéphane. Vous devez décider la test de réception. Pour la salle de ressources, il y a deux groupes de ressources qui puissent plus de la monnaie. La première confluence Alors, Hervé, tu as confié que tu as retiré l'une des deux bases de base, hein ? Oui, j'ai terminé le backup de l'autre jour, j'ai dû retirer l'autre, et je me souviens aussi qu'il y a deux images d'occurrence de la machine netteuse, c'est un autre topic. Oui, je dois mettre ce backup à quelque part. Quand on s'envoie, on s'envoie environ 500 glides. Je peux ouvrir une pièce et mettre une pièce privée, mais je ne vois pas comment on s'envoie. Ce n'est pas un object storage, c'est ce que tu voulais utiliser la dernière fois qu'on a discuté, parce que de la taille, c'est intéressant de mettre un groupe de ressources, avec un bucket qui s'appelle l'infrastructure archive. Et ce que l'on met ici doit être un GPG encrypté. Ça vous ressemble bien ? Oui. Cela doit être 300 $ par mois, presque 3060 $ par année, et c'est unafood. Je vais vous remettre en informat un peu le cas pour cette première question. Je vais vous remettre en informat un peu le cas pour cette première question, alors je vous remercie. mais certains autres sont comme infrafunction, et nous ne sommes pas sûrs si ils étaient utilisés. Nous allons envoyer l'email avant d'éliter. La coste, il y a 100 euros par mois, donc il n'y a pas beaucoup. Nous continuons de travailler sur ça, mais ces deux devraient nous aider. Juste une petite question que j'ai évoquée, c'est un autre, c'est-à-dire qu'il s'est envoyé sur le CRT-CI qui a été évoqué par Daniel, et j'ai eu l'issue d'hier sur une machine personnelle avec l'agent de Datadog. Il s'est envoyé beaucoup d'eux qui n'avaient pas pu obtenir ce métier, des logs et des syslogs par l'agent de Datadog. Plus spécifiquement, ces deux étaient toujours liés aux overlays de VAR-LIB, donc l'un des laitiers, l'un des containers, ou plusieurs, et l'autre sur le VAR-Docker-Net-NS. Ce sont deux systèmes spécifiques qui peuvent être blacklisted par ce que l'agent de Datadog change. Il s'utilise de travailler différemment avec le V6 de l'agent de Datadog, mais depuis que l'agent de Datadog n'a pas été évoqué, il a généré beaucoup d'erreurs, clairement. Je pense que c'est clairement plus élevé que ça. Je ne suis pas sûr que l'initiel de l'agent de Datadog n'a pas été évoqué, mais il n'y a encore plus de messages avec les fixations que j'ai offertes. C'est donc maintenant que j'ai attendu pour une review pour quelqu'un et pour le déploiement. J'ai pris l'opportunité de prendre cet issue-down. Si quelqu'un est intéressé en paix et en mergeant dans cette paix de la knowledge de l'agent de Datadog, c'est bienvenu à l'agent de Datadog. Et la dernière, Java 19, Stéphane. La liste. J'ai pris 2 et 3. C'est bien. J'ai commencé la troisième, ce matin. Et maintenant, j'ai commencé parce que l'agent de l'agent de Jenkins n'a pas été préparé avec JDK 19. Donc je devrais travailler sur une repositorie avec Jenkins. Je sais. Je pensais qu'il y avait un plan mais je n'ai pas compris. Si vous regardez la Java 17, l'agent de Windows, c'est construit sur le top de la JDK 11. Parce que l'agent de l'agent de JDK que vous voulez, c'est celui qui va connecter et commencer l'agent de l'agent. Vous avez besoin de la même JDK que le contrôleur de l'agent de JDK. C'est ce que j'ai fait. C'est ce que j'ai fait. J'ai mis quelque chose d'autre, mais j'ai utilisé le même modèle. C'est un type que ce modèle va travailler. C'est ce qui veut dire que dans l'obligation d'une milestone, si les mines et les ions sont fixées, Stéphane, vous devrez annoncer sur la liste d'adversaires. Si quelqu'un veut essayer d'attendre les biais d'agent de l'agent de Jenkins avec JDK 19, il va pouvoir le faire. Je vais devoir donner l'agent d'un premier. Parce que maintenant, je fais l'image, mais il n'y a pas d'agent. Oui. Mais vous avez ajouté le tool JDK 19. Oui, je l'ai ajouté. Mais ça devrait être presque là. C'est un bon tour, presque là. Un autre élément que j'ai évoqué, on a eu un problème de Gira Eldap qui est un projet que nous avons sur l'infra qui génère beaucoup de choses de sécurité par rapport à la botte. Je ne suis pas sûr que les gens sont publics. Le nom ressemble à Gira Eldap sinker. Mais en fait, je n'ai aucune idée d'où est-ce qu'il fonctionne, ce qu'il fait et ce qu'il s'appelle, et si c'est encore utilisé. Marc, avez-vous des souvenirs de ce projet? Sorry, mais non. J'ai une mémoire d'alimentation. C'est-à-dire que quand nous avons hosté notre Gira server, nous avons dû faire quelque chose avec ça. Mais quand nous avons switché à la Fondation Linux, ça n'a pas été nécessaire. Oh, c'est bien. Je pense que c'était quelque chose qui nous a permis ou nous avons fait quand nous avons hosté notre Gira server, mais la hostation de notre Gira server a été très dur pour nous, parce que nous aimons mieux que la Fondation Linux. J'ai proposé deux choses. First, on consulte la seconde mémoire de Marc, qui est Daniel Beck. Et on cherche pour l'artefact, le groupe ID, et on a quelque chose qui dépend de ça et de l'infrastructure. Si c'est OK, si Daniel confirme ce que Marc a dit, et si on ne trouve pas une dépendance avec le groupe ID et l'artefact ID d'autres projects, je propose que nous archivons la représentation. Nous pouvons toujours en archiver et le changer. Et si le code n'a pas été changé depuis deux ou trois ans, je vais dire que je ne suis pas sûr que ce projet soit utilisé. Juste pour référer le groupe ID et l'artefact ID que vous avez proposé, ce n'est pas assez ce que vous voulez checker. Vous voulez checker, pas le parent, mais le... Oui, oui. Et c'est assez unique. C'est un nom relativement unique. Gira REST LDAP Sinkers. Artifact ID références. Oui. Je pense que Gira Checker Repositorie, c'est le même type de service non différent. C'était une fonction pour checker des demandes pour Jenkins plugin. Le dernier commis de l'après-midi 2017. Sorry. Je suis désolé. Je suis désolé. Gira Checker, si vous replacez le URL, Gira Checker, n'hésitez pas pour Gira Repositorie. OK. Donc, nous avons deux projets qui devraient être archivables. Une autre fonction pour checker des demandes. Nous sommes dans un domaine où on peut détruire des choses. D'accord, merci. OK. Je pense que c'est tout. Nous aurons besoin d'obtenir des problèmes pour les trois nouveaux topics. Vous avez d'autres topics que nous devons regarder pour la prochaine semaine? Vous avez mentionné l'expiration de l'une des certificats. Il y a deux autres certificats qui appendent l'expiration. Jenkins-ci.org s'expire dans 38 jours. Mais je pense que les deux seront auto-renusés. Et si nous nous appendons dans 28 jours et qu'ils n'ont pas été renusés, je vais parler de Tyler Croy parce qu'il a l'un qui processera le renouvel automatique. Certificat ou domaines? Oh, pardon. C'est correct, domaines. Merci. Vous avez mentionné ces dernières semaines, je pense que je vais juste vérifier si vous avez un alerte pour ça. Oui, c'est correct. Ce n'est pas les certificats, c'est les domaines. OK, cool. Mais un bon souvenir. OK. Est-ce qu'il y a quelque chose d'autre à ajouter? OK, donc je vais arrêter la recording. Donc, merci d'avoir regardé la recording et à la prochaine semaine.