 Il y a des ordinateurs dans les robots qui vont sur Mars par break the system. Donc sur les 50 dernières années, mais à Mars c'est très difficile. Sur Mars c'est compliqué, c'est spécialement pour des robots qui vont naviguer sur Mars. Donc comme il y a un robot qui est sur Mars et puis il y en a une partie qui utilisait le système maitric et l'autre partie qui utilisait le système impérial. Et ça s'est pas très bien passé visiblement. Le premier robot qui est sur Mars s'appelait Sojourner. Donc c'était en 1997, les robots Spirit et Opportunity ont atterri en 2004. Et c'est à peu près la taille d'un petit véhicule pour aller sur les terrains de golf. Spirit a été actif de 2004 à 2010 et Opportunity a continué à fonctionner pendant 14 ans jusqu'à cet été où les panneaux solaires ont été recouverts par une tempête et Opportunity s'est tendormi. Opportunity a voyagé sur une distance de 45.16 km, c'est-à-dire un peu plus qu'un marathon avant la fin de sa mission. Et c'est aussi la méthode d'atterrissage la plus amusante du monde. On peut voir ces airbags qui ont rebondi à travers le paysage martien. Aujourd'hui, je vais vous présenter le Mars Science Laboratory, le laboratoire scientifique de Mars qu'on appelle aussi Curiosity. Curiosity, c'est un véhicule complètement autonome et elle doit l'être puisque les signaux radio qui viennent de la Terre à Mars mettent entre 10 et 40 minutes en fonction de la position de la Terre et de Mars. Elle a une source électrique atomique, un MMRTG, donc elle est complètement indépendante des panneaux solaires. Et Curiosity peut rouler jusqu'à 100 mètres par heure. C'est pas une typo, c'est 100 mètres par heure. Un de ses instruments les plus cool, c'est ce super laser qui a peu zappé des pierres jusqu'à 70 mètres de distance. C'est aussi loin que l'autre bout de la salle ici. Et ça, ça permet de faire une allée chimique à distance. Ce rover a mis plus de 2274 sols sur Mars. Un sol, c'est un jour martien, ça met à peu près 24 heures et 14 minutes. Pendant ce temps, elle a conduit environ 20 km et elle continue d'avancer. Elle a excédé à son objectif de mission originale, énormément, de beaucoup. Donc, bonjour Curiosity. Curiosity a utilisé plusieurs configurations. La première configuration, c'était l'étape interplanétaire. Il s'agissait de faire de la correction de trajectoires pour assurer une arrivée parfaite sur Mars. Tandis que la configuration correspondait à la descente, à l'atterrissage. Il fallait avoir des boucliers pour la chaleur, on avait des fusées pour faire de la rôtre poussée. C'était complètement différent et on ne va pas en parler vraiment aujourd'hui. Et enfin, la configuration en tant que véhicule terrestre, terrestre martien. Dans cette configuration-là, il y a juste un seul ordinateur qui contrôle tout. Et on va regarder ça de très proche aujourd'hui. Bonjour, mon nom est Daniel. Je suis un développeur, programmeur. J'adore l'espace et j'ai appris énormément de choses à propos des logiciels qu'on peut faire tourner pour aller dans l'espace. Et sinon, je vis grâce à des applications qui permettent de respecter la vie privée. Et donc je vais avoir le point de vue de quelqu'un qui écrit du logiciel et fait un peu d'ardevoir. Et j'aimerais remercier le travail d'autres personnes que j'utilise ici. J'ai malheureusement pas eu le temps de les contacter. Et si jamais vous trouvez la moindre erreur dans ma présentation, c'est pas de leur faute. Ok, parlons du matériel, de la configuration matérielle de Curiosity. Ok, on a le BAE 750 créé par BAE Systems. C'est un processeur qui tourne à 200 MHz et qui est très utilisé dans l'espace. Sur Curiosity, il est seulement fréquencé à 133 MHz. Voici le processeur et sa carte mer. Si je me souviens bien, ça utilise la carte sur la droite très précisément. On a 256Khz de mémoire morte et 256Khz de mémoire vive et 2Ghz de stockage flash. Et bien sûr, tout est redondé. Donc il y a deux ordinateurs en fait et ils sont tous les deux complètement indépendants. Il y a quelques composants qui sont uniquement sur un des côtés des ordinateurs, par exemple les caméras de navigation. Alors bien sûr tout ce matériel est très renforcé contre les radiations, il faut des boucliers. Donc par exemple la shuttle utilise un processeur X86, la station spatiale internationale utilise également des 386. Et la raison pour laquelle on utilise des chips aussi vieux c'est parce que vous prémunir contre les radiations c'est très difficile. Donc quel type de logiciel peut-on faire tourner sur ces ordinateurs ? En fait on utilise VxWorks SET et c'est un système d'opération d'exploitation temps réel. Vous le trouverez dans différents véhicules spatiaux de la NASA mais également dans différents robots industriels ou même dans des imprimants de Toshiba. Et oui avant que vous posiez la question, oui ça peut faire tourner Java. Alors le logiciel qui tourne sur QZT a toute une histoire, c'est une code base qui a commencé dans les années 90 quand le JPL a écrit le code pour des prototypes de rover à l'époque. Et une partie de ça a été utilisée dans Sojourner et ensuite ça a été réécrit et modifié etc. Et ça a été utilisé dans les Mars Exploration Revers, Spirit Air Opportunity. Ensuite ça a été porté de C en C++ et refactorisé dans une architecture à base de composants pour Curiosity. Et oui on utilise C++. Alors pas C++ complet comme on l'utiliserait sur un desktop. Une chose qui manque c'est tout ce qui est des processus par exemple. The Xbox vous donne un concept de tâche mais les tâches sont pas aussi indépendantes que ce que vous pouvez penser comme un processus. Ils utilisent une partie de la mémoire mais c'est votre responsabilité en tant que développeur de s'assurer que diverses tâches qui partagent cette mémoire ne s'écrasent pas les unes les autres. On n'a pas non plus d'exception, on n'a pas de template, on n'a pas d'iostream, pas d'étages multiples. Et le seul surcharge d'opérateurs qui autorisez c'est sur New et Delete qui sont utilisés pour allouer et désallouer des objets. Et eux sont surchargés par des allocateurs de mémoire écrits par le JPL pour VxWorks. Donc ça c'est du lucel assez cool quand même parce que ça garantit que l'accès à ces poules de mémoire définie va marcher comme prévu. Et il y a même un comportement prévu si on fait des accès hors de la mémoire. Ça supporte plusieurs poules de mémoire dans des zones différentes de la mémoire. Ça permet de séparer vos pas-processus, vos tâches. Ça faut une idée diagnostique, il y a même un panneau d'affichage qui permet de montrer toutes les allocations et des allocations. Et on peut même afficher une carte de la RAM sur demande. Le rover peut même télécharger une carte de cette RAM si besoin. Ces allocateurs sont aussi utilisés pour le dévelement sur les machines UNIX de JPL, ce qui est très utile. Et il n'y a pas de garbage collection parce que ça serait beaucoup trop coûteux. A la place il faut faire très attention de ne pas avoir de fuite de mémoire. Et ça c'est généralement quelque chose qu'on vérifie avec des tests unitaires. Si j'ajoute un titre à ça, vous devriez être capable de regarder ce toll qui est très intéressant. Donc allez le voir. Une autre des philosophies derrière le logiciel d'avionique, le logiciel de vol, c'est que c'est une architecture à base de composants. Les fonctions sont groupées sous forme de composants et un composant expose une interface et identifie les interfaces dont il a besoin pour fonctionner. Ça veut dire qu'on peut remplacer n'importe lequel de ces composants tant que le remplacement expose la même interface. Ça veut dire aussi qu'on peut écrire son propre composant sans avoir à bricoler toutes les autres morceaux du système. Ça c'est très utile pour le développement mais aussi pour le test, pour l'extensibilité. Et vous allez aussi remarquer que les composants ici sont organisés sous forme de couches. À la couche la plus basse, on a des choses qui interagissent avec le matériel directement. Ça c'est activer, interrupteur, bouger quelque chose, générer des données pour les envoyer sur Terre. On a aussi ici tous les composants de redondance. Il y a pas mal de composants où c'est juste quelque chose qui est deux fois dans le rover. Quelque chose ne marche pas. On est capable ici de faire un failover sur un autre composant sans que les autres couches aient besoin d'avoir des détails sur qu'est-ce qui n'a pas marché. Il va y avoir une notification qui dit voilà ce qui s'est passé, j'utilise le backup. Mais les autres parties de l'UCL n'ont pas besoin de savoir pourquoi le backup a été utilisé et comment est-ce qu'on l'utilise. Au-dessus, on a des composants qui coordonnent ces fonctionnalités atomiques pour en faire des actions. Et enfin, au-dessus, on a des composants qui sont capables de regrouper ces actions sous forme d'activité, comme par exemple atterrir sur la surface. Ou prendre un échantillon de surface et l'analyser. Le module d'atterrissage sur la surface, à propos, n'est pas là parce qu'il a été supprimé juste après que le vaisseau soit posé sur la surface. La partie la plus complexe, le module le plus compliqué de tout ça, c'est le module navigation de surface, qui a été utilisé plus ou moins sous une forme différente sur spirite et opportunité. Sur Mars Explorer Revers, c'était environ 21% de la codebase. Sur Opportunity, c'est à peu près 10% uniquement pour ce module de navigation en surface. Tout ce qui va être trouvé le chemin et se déplacer, ce genre de choses. Il y a plus d'une centaine de modules au niveau source et chacun de ces modules a une équipe dédiée qui s'en occupe. Une autre philosophie importante, c'est la protection contre les erreurs. Les modules de mobilité ou de science ne devraient pas avoir à se soucier par exemple de la sûreté du vaisseau. A la place, l'infrastructure fournit une plateforme pour faire les mouvements et pour la science et ça, ça doit garder le système hors de ce qu'on appelle le safe mode. Les actions qui ne sont pas safe ne devraient pas être possibles. Quelque chose qui ne se passe pas comme prévu devrait être détecté et corrugé dans les couches les plus basses possibles. Enfin, on a beaucoup, beaucoup, beaucoup de tests. On a des tests unitaires, on a des analyses statiques et on a de la validation, de la vérification dans lesquelles on exécute le code sur divers environnements de tests, comme par exemple cette réplique exacte de Curiosity au sol. Et enfin, on a des tests en vol. Une fois que le logiciel est uploadé, les comportements vont être testés et vérifiés pendant la mission sur Mars. Donc ça, c'est vraiment cool. Le logiciel de vol de Curiosity peut être mis à jour à distance depuis la Terre. Donc les ingénieurs au sol peuvent modifier ce logiciel et introduire nouvelles fonctions et nouveaux comportements ou modifier le code d'atterrissage et le module de mobilité qui permet au vaisseau de bouger et de conduire. Il a été développé alors que le vaisseau était déjà en vol vers Mars. Il n'était même pas sur le vaisseau quand le vaisseau a été lancé. Il a été téléchargé une fois que le rover était déjà au sol. C'est un peu comme une console que vous avez pour Noël. Vous la déballez, vous la branchez et là vous ensuite, vous devez installer le logiciel et ça prend parfois un peu de temps dans le cadre d'opportunités de Curiosity une semaine. Comment le mécanisme de mise à jour du logiciel fonctionne ? Tout d'abord, il faut l'envoyer. Il faut l'envoyer dans la rame du rover. Si on a des erreurs, peut-être qu'il va reboot et il va charger de l'article version sans storage flash. Une fois qu'on a le nouveau logiciel, on va exécuter toute une série de tests pour vérifier que tout fonctionne bien. On va le boûter depuis la flash après une autre série de tests. On a l'un mot de l'ordinateur qui est mis à jour. Ensuite on répète le processus de l'autre côté sur l'autre ordinateur. Parce que bien sûr, on va avoir que l'autre ordinateur soit prêt au cas où on ait besoin de basculer de l'un à l'autre. Les journées du rover commencent environ à 9h du matin sur le temps de mars. Quand elle se réveille de sa fonctionnalité de rêve. Donc pour se réveiller, il y a des FPGA qui préparent différents systèmes de chauffage pour que l'ordinateur puisse fonctionner correctement. Donc au fur et à mesure de la journée, le rover va se conduire, va se déplacer, faire des expériences. Et donc à la fin d'après-midi, quand un des satellites passe, la journée se finit un peu pour le robot et on va de nouveau renvoyer à toutes les données collectées vers la Terre. Qu'ils ont utilisé un tas d'antennes et pouvaient parler à la Terre directement. Mais ce serait à une vitesse très, très, très lente comme les vieux modems qu'on avait avant la DSL. Alors qu'en passant par satellite, on peut monter jusqu'à, on peut aller beaucoup plus vite. Environ 62 MHz de données par jour. Et ensuite, elle va se coucher. Et le MRTG. Et produit à peu près 10 watts d'énergie. 110 watts d'énergie. Opportunité à besoin d'environ 75 watts quand elle est en sommeil et environ 110 watts quand elle est réveillée et après 105 watts quand elle conduit. Donc elle passe l'essentiel de son temps endormie pour recharger ses batteries et elle n'est réveillée qu'environ 6 heures par jour. Elle a de la chance. Alors maintenant, je voudrais parler de comment la conduite fonctionne. Les opérateurs du rover, les conducteurs du rover utilisent un système qui s'appelle RSVP. Le rover sequencing and visualization programme qui permet de planifier des trajectoires. Ça a été modifié et utilisé depuis pas mal d'années. Ça a été utilisé maintenant des missions avant, dans d'autres missions avant. Dans RSVP, les données sur le terrain que Curiosity envoie sont reconstruites en 3D et les opérateurs humains du rover peuvent se déplacer autour, faire des simulations locales d'activité comme par exemple vérifier est-ce que ça a du sens de faire ça dans tel ou tel contexte et ensuite peuvent envoyer des ordres au rover. Ces ordres pourraient, par exemple, navigation aveugle. Ça c'est le mode de conduite le plus simple, la navigation aveugle. On met le rover de direction donnée et on avance pendant 10 mètres à l'aveugle comme ça. Alors ça c'est dangereux et pas pratique parce qu'on peut uniquement conduire aussi loin que ce qu'on voit. Même plus on va loin, il y a des choses qu'on ne voit peut-être pas cacher par la perspective. Une fois qu'on est arrivés là-bas, il faut s'arrêter et attendre d'autres ordres venant de la Terre. Même si on fait ça, on peut peut-être rentrer dans des obstacles. Mais ce qu'il y a c'est que ça c'est du point de vue calcul, c'est beaucoup plus facile et beaucoup plus facile à prédire. Donc au début de la mission ça s'était beaucoup plus utilisé. Et on a aussi de l'odométrie visuelle. L'odométrie c'est de savoir à quelle distance vous vous trouvez, quelle distance vous avez parcourue, par exemple en comptant les tours de roue ou d'autres choses. Alors les odomètres dans les roues ne fonctionnent pas forcément puisque Curiosity n'est pas capable de détecter si les roues dérapent en temps réel. Et du coup si on roue dérapent on ne peut pas mesurer correctement. Donc ce qu'on fait à la place c'est qu'on utilise des caméras stéroscopiques et on prend des photos avant et après et ensuite on peut les comparer. Curiosity peut ensuite repérer des éléments du terrain qu'elle trouve intéressant. Par exemple ce rocher là est très intéressant et en regardant ce rocher sous plusieurs angles, Curiosity peut déterminer à quelle distance elle se trouve de son point de départ. Alors ça c'est fait sur le rover. Ce n'est pas quelque chose qu'on envoie sur la Terre pour faire la mesure et renvoyer après. C'est du calcul qui est fait localement et ça marche très très bien. Et ensuite on a Autonave. Dans ce cas là les opérateurs du rover mettent une cible, une destination et le rover essaie de trouver un moyen d'atteindre cette cible de façon complètement autonome en évitant des zones interdites ici en rouge qui ont été désignées par les contrôleurs au sol. Curiosity a des caméras stéroscopiques et prend des photos avec. Les éléments qu'on peut voir dans les pertes d'images sont corrélés et triangulés pour déterminer leur distance. Les informations de distance sont vérifiées pour s'assurer qu'elles sont correctes. Par exemple si une zone n'est pas claire ou si il y a des pixels qui ne sont que sur une seule image ou si il y a des éléments qui font partie du rover, ces parties-là seront ignorées. En utilisant ces images stéroscopiques, Curiosity peut ensuite générer un modèle géométrique de terrain qui est l'entour et peut résumer sous forme de cellules dans une grille qui représente le terrain. Elle peut ensuite assigner un poids à chacune de ces cellules en fonction de à quel point elles sont faciles à traverser et à quel point elle préférerait conduire à cet endroit-là. On prend en compte par exemple des pentes, la qualité du terrain, si le terrain est incliné dans le mauvais angle ou s'il y a des objets qui pourraient par exemple les rafler ou rentrer en collision avec des éléments. Une fois qu'elle a fait ça, elle va prévoir des trajectoires qui vont éviter ces zones indésirables et rester à distance. Ces fonctions de calculs sont utilisées à chaque étape de la navigation. Elle va ensuite générer un certain nombre de chemins sur la carte, évaluer pour chacun de ces chemins est-ce que ça c'est un chemin qui est sûr, est-ce que ça m'a approché de ma destination et ensuite choisir le chemin le plus sûr qui la rapproche de son but, conduire une petite distance en partant de son point de départ et ensuite réexécuter à nouveau cet algorithme jusqu'à ce que soit il n'y ait plus de chemin sûr qui reste, ou alors elle arrive à sa destination où on lui demande de s'arrêter. Pour trouver sa destination, Kirsty utilise une variante d'algorithmes ASTAR qui permet de trouver des parties du chemin entre les mises à jour de la carte. Ce qui est intéressant c'est que l'algorithme ASTAR est beaucoup plus rapide et que du coup il est plus efficace sur le rover. Autonave est toujours trop lent à utiliser en permanence mais maintenant que la mission avance, on utilise de plus en plus la conduite autonome parce que la NASA a appris à faire confiance à Autonave et aussi on a amélioré le logiciel en continu. Voilà Curiosity qui regarde à ses premières traces et là on peut voir qu'elle a surpris les ingénieurs parce qu'elle a évité un tout petit caillou qui était ici donc elle allait tout droit, ensuite il y avait ce tout petit caillou elle a dit oh là là ça c'est dangereux et elle a fait un écart pour l'éviter. Et vous avez vu cette image avant, ça c'est exactement cette conduite qui a été rejouée plus vite dans RSVP et là on peut même voir la tête qui bouge et les autres caméras qui prennent des photos alors elle ne bouge pas donc ça c'est l'odométrie visuelle et Autonave qui marche ensemble. Ok qu'est-ce qu'on a d'autres comme feature comme fonctionnalité ? On a le robot avec un bras en fait avec une caméra au bout et elle peut prendre des images de soi-même ou des roues, directement après l'atterrissage c'était utile par exemple pour être sûr que les roues soient en bon état. En utilisant ce bras elle peut également prendre de grands panoramas en utilisant, en assemblant sans plusieurs images Le résultat ressemble à quoi ça peut ressembler c'était son premier selfie si vous les rassemblez correctement vous pouvez ressembler à ça vous avez des images vraiment incroyables parfois ça demande un peu de retouche pour que tout soit bien propre laissez-moi vous raconter ce qui est arrivé sur Sol 200 à un moment le robot pouvait plus bouger et n'arrivait plus à transmettre d'image et à la place il était en train d'essayer de sauvegarder tous ces images pour les transmettre plus tard le robot a aussi redémarré plusieurs fois sans raison évidente et à la fin l'équipe de Gengheur a décidé de passer sur l'ordinateur de backup et de essayer de faire un rapport de dégâts et apparemment il y avait un problème avec la flash on ne savait pas trop ce que c'est mais en tout cas on a dû désactiver la moitié de la flash sur le premier ordinateur et depuis ça a l'air de fonctionner correctement mais on utilise maintenant principalement l'ordinateur B et en fait tout ça c'est beaucoup plus de travail que ce qu'on peut imaginer parce qu'il y a plusieurs caméras en particulier pour la navigation et elles sont directement connectées à chacune des cartes, chacune des ordinateurs donc passer de la partie A à l'ordinateur B va vous donner en fait une vision complètement différente du terrain aussi durant l'été martien on s'est rendu compte que ces caméras en fait modifient un peu à cause de la chaleur et avec les images tyroscopiques il a fallu écrire du code pour être capable de calculer cette déformation en fait de la structure du rover et ce déplacement des caméras qui fait que la vision est différente quand il fait chaud ensuite il a été célébré son premier anniversaire donc voilà Sam, c'est un instrument qui a un sort de filtre très précisément contrôlé et qui permet d'avoir des vibrations extrêmement précises et après son premier anniversaire il était programmé pour jouer cette vibration imaginez ce petit robot perdu dans ce désert complet et mars c'est grand, jouant une chanson pour son anniversaire ceci est arrivé qu'une fois parfois il y a des rumeurs qui circulent sur internet qui disent que ça s'est produit tous les ans maintenant on a fait ça qu'une seule fois c'était il y a à peu près 5 ans a priori après un peu de temps sur mars les ingénieurs ils se rendent compte qu'une des roues s'utilisait ou tournait plus vite donc elles sont faites d'aluminium et ce qui s'est passé c'est que la curiosité s'est retrouvée dans un milieu de terrain qui n'était pas vraiment très attendu donc oui les petits calues cette image quand le rover conduit par dessus normalement ils sont repoussés sur les côtés mais c'est pas tout ce qui est en train de s'est passé ici en fait et en réalité ça a fini par endommager les roues on voit ces trous dans les images du coup les ingénieurs de la GPL ont testé, ont mis en place des terrains de tests pour simuler toutes ces conditions et essayer de simuler ces erreurs, ces problèmes c'est trouvé le terrain le plus difficile pour le rover et il se trouve que si vous avez des cailloux avec très aiguisés et qui sont vraiment fixés dans le sol alors les roues à l'arrière vont pousser les roues à l'avant très fort à cause en effet de contrepoids et c'est ce qui conduit à ces trous dans les roues alors du coup on a changé le logiciel de navigation pour éviter ce problème où on essaie de repousser les cailloux vers le côté et maintenant on est de nouveau sur le retour sur un tuyau de terrain qui est plus du sable et qui est beaucoup plus mieux pour le robot aussi en septembre cette année donc seul de 1972 un autre problème avec l'ordinateur a été détecté donc Curiosity était parfaite santé mais elle ne pouvait plus accéder à certaines parties de sa mémoire et c'est de la mémoire qu'il est utilisé pour uploader des données alors ça c'est vraiment un problème mais au moins c'est pas un problème qui met en danger le rover vous avez vu par exemple qu'il n'a pas redémarré ici donc pour le moment le rover a été repassé sur l'ordinateur a et se content de faire juste de la science pendant que les ingénieurs en arrière-plan essayent de comprendre le problème et vous souvenez que le côté a est complètement surutilisé tant qu'ils n'utilisent pas cette partie de la flash qui a été activée alors qu'est-ce qu'il y a dans le futur pour Curiosity ? la mission principale de Curiosity était de 2012 à 2014 et en 2018 elle allait encore très bien ce qui est super cool mais il s'avère qu'il y a quelques mois pendant une conférence à Toulouse les ingénieurs de la NASA et de JPL ont dit qu'il restait peut-être au mieux 10 km dans les roues si les conditions restaient les mêmes on peut aussi s'attendre à ce que le MMRTG dure pendant encore maximum 10 ans donc si il se passe rien elle devrait continuer à fonctionner pendant encore un bon moment elle a déjà plus ou moins atteint son but voici mon chap qu'on appelle aussi Olympus Mons le point central du cratère de Galle qui à une époque était rempli d'eau et puisqu'il y a beaucoup de sédiments au fond de ce cratère il y a énormément de sciences intéressantes à faire ici et après avoir conduit pendant 20 km Curiosity est maintenant en bas au pied de la colline ou comme JPL l'appelle les fesses de Moncharp donc il y a plein de choses très intéressantes à regarder ici d'environ 2 ans on devrait voir l'arrivée de mars 2020 la soeur de Curiosity elle a le même châssis et le même corps le même logiciel dessus des roues un petit peu mises à jour et des instruments scientifiques complètement nouveaux elle sera aussi le premier rover à inclure un microphone afin qu'on puisse entendre le son de la surface de mars et peut-être si on écoute assez bien on pourra entendre un petit son une petite chanson d'anniversaire au loin j'en ai des larmes aux yeux ok on a un peu de temps pour les questions si vous êtes dans la salle vous pouvez utiliser les microphones si vous écoutez cette traduction en direct vous pouvez aller sur le service RSC Hackhint et poser vos questions sur le canal 35C3AllA et commençons par la première question on commence avec le microphone 2 merci pour votre talk 2 petites questions pourquoi est-ce que vous appelez le rover L ? pourquoi féminin ? est-ce que vous pouvez parler plus de la gestion d'erreurs ? est-ce qu'il y a plusieurs types d'erreurs dans le logiciel définis ? bonne question pourquoi est-ce qu'on dit L pour le robot ? et il s'avère que c'est ce que font le JPL et la NASA tous leurs rover sont appelés avec des pronoms féminins donc j'ai juste suivi cette habitude parce que ça semblait bien la deuxième question était sur la gestion des erreurs il y a tout un tas de choses qui sont discutées par Catherine Weiss qui est un des architectes logiciels en charge du logiciel il y a tout un système de détection d'erreurs et fait toujours de la même façon il y a 3 détails vert jaune et rouge vert si tout est nominal jaune si quelque chose s'est passé mais les couches basses du logiciel ont été capables de résoudre ça par exemple en contournant un problème ou en passant à une unité en backup ou quelque chose comme ça et ensuite il y a rouge rouge c'est quand le composant dit ok quelque chose au-dessus dans la chaîne doit régler ça donc de cette façon les erreurs peuvent être remontées à des niveaux plus élevés j'en ai plein de questions on a plus que ce qu'on pourrait répondre donc microphone numéro 5 merci Pérotalk comment est-ce que la reconnaissance d'image pour la recherche de chemin est-ce que ça compare à les images ok oui il y a 2 types de détecteurs de sensors alors c'est juste des images en spectrovisible il n'y a pas de leader je cherche un slide de backup là parce que j'ai des infos là-dessus que je peux vous montrer je trouve ça plus tard mais en gros c'est juste la reconnaissance d'image il y a un algorithme là-dedans qui s'appelle rockster qui peut reconnaître des cailloux dans le sol ce qu'on voit ici par exemple en regardant leurs contours et puisqu'on a des images stéréoscopiques on peut aussi calculer une carte en 3D du terrain numéro 4 s'il vous plaît donc j'ai entendu que certains composants sont contrôlés par de par je n'ai pas compris le robot par le système d'exposations du robot alors c'est peut-être vrai je ne n'ai pas entendu ce terme robot operating system donc on atteint les limites de mes connaissances apparemment quand quand le système de navigation automatique a été conçu j'imagine que c'était en 2005 en SESOLA aujourd'hui on commence à avoir des voitures sans pilotes conçues pour juste avec des caméras quel chemin la NASA est en train de prendre en ce qui concerne la navigation sans pilotes est-ce que ça va être différent de ce qu'on fait dans l'industrie aujourd'hui ? moi je ne travaille pas avec la NASA si vous voulez m'embaucher je suis là mais je ne travaille pas pour la NASA donc je ne peux pas parler pour eux mais moi ce que je pense c'est que ces deux scénarios très différents les voitures autonomes elles doivent utiliser toutes sortes de systèmes de détection qui sont spécifiques au route alors que le rover lui doit naviguer sur un terrain rocheux donc je peux imaginer que puisqu'il y a beaucoup de recherches qui se fait et que cette recherche est publique sûrement que la NASA va pouvoir prendre les meilleurs partis de cette recherche les intégrés et c'est des gens qui sont très intelligents bien sûr ok, une autre question est-ce qu'il y a une raison spécifique pour laquelle il n'y a pas de détecteur LIDAR ou ce genre de technologie pour faire des images en 3D et les faire plus facilement je ne connais pas la raison c'est peut-être parce que ce design là c'est quelque chose qu'il y a du début des années 2000 donc peut-être qu'à l'époque le LIDAR c'était pas suffisant je ne sais pas ce que je peux vous recommander par contre c'est cet excellent livre qui s'appelle How Curious He Does His Job par Emil Young-the-Viner de la société planitaire, la planitaire et la société et ça ça devrait répondre à votre question je pense mais je ne sais pas numéro 1 est-ce qu'il y a des à propos de la sécurité est-ce qu'il y a des mises à jour, est-ce qu'il y a de la crypto alors je sais qu'il y a des bits de parité et des haches c'est votre réponse ok vous avez dit que ça fonctionne 6 heures par jour je suis pas sûr combien d'heures sur Mars mais est-ce que c'est organisé pour fonctionner plusieurs fois par jour alors le robot fonctionne toujours dans sa propre time zone donc quand je dis 10 heures du matin je veux dire 10 heures du matin sur Mars donc quelques heures après que le soleil se soit levé un sol, un jour martien ça dure à peu près 24 heures et 14 et quelques minutes donc c'est assez proche d'un jour terrien mais il y a quand même un certain décalage entre les jours terriens et martiens donc ça se décale petit à petit donc pendant la première et même les deux premières années l'équipe du JPL qui contrôlait les rovers sur Mars travaillait en en 3-8 qui correspondait à des heures qui correspondaient aux heures martiennes et ils avaient du coup des heures de nuit de week-end etc depuis ils ont créé ce système où ils peuvent en fait travailler pendant les jours terriens et ça ça a fait qu'ils travaillent pendant environ 30 jours pendant lesquels le rover a des nouvelles updates et des ordres tous les jours et ensuite il y a juste quelques jours pendant lesquels le rover est juste là et n'a rien à faire parce que les gens doivent dormir et pendant ce temps là le rover va simplement uploader toutes les données qu'il a collectées puisque l'upload est lent ok deux questions de plus et puis on va faire qu'on arrête ok sur les deux incidents et le moment où ils ont dû changer l'ordinateur qu'on utilisait est-ce qu'on a trouvé du coup la cause est-ce que c'était des radiations est-ce que c'était avec la température alors non ils n'ont pas trouvé et c'est ça le problème il y a d'autres incidents dont j'ai pas parlé comme par exemple il y a une perceuse qui s'est cassée mais dans la plupart de ces cas on peut pas vraiment savoir ce qu'il se passait parce que pour faire ça on aurait besoin d'aller voir sur place et d'ouvrir le capot et de regarder à l'intérieur de voir les choses donc tout ce qu'ils savent c'est que le logiciel peut leur dire c'est qu'il y a un crash quand il essaye d'accéder à cet espace en mémoire donc arrête de le tenir comme ça, arrête d'accéder à cette mémoire et enfin dernière question donc c'est deux ordinateurs nommés A&B est-ce que c'est le même design ou différent ? ah ils suivent tous les deux c'est le même plus que j'ai parlé le B.A.E. 750 je serai au bar juste à l'extérieur ici le Overflow Bar si vous avez des questions vous pouvez venir me trouver là-bas et avec ça merci beaucoup ceci conclut donc cette présentation