 Ok, je vais essayer de m'habituer au micro, je suis pas habitué de faire des présentations. Dans le fond, j'aimerais savoir qui utilise Python pour faire du machine learning ou de la data science. Ok. Dans le fond, cette présentation-là est venue du fait qu'on essaie de recriter en ce moment des data scientists juniors. Puis en faisant passer des tests à des étudiants qui finissaient leur bac ou débutaient leur maîtrise, on s'est rendu compte qu'il y avait comme un gap entre ce que les gens connaissaient au niveau théorique et comment ils appliquaient leur code pour résoudre des problèmes de machine learning. Je me suis dit, on a déjà un test tout fait et je cherche des présentateurs à Montréal-Piton. Alors, c'est une bonne opportunité pour vous faire connaître notre compagnie. Nous, on est des petits nouveaux et plus on se spécialise dans le fond dans l'application de machine learning pour développer des solutions concrètes en l'entreprise. Ça fait qu'on ne fait pas de l'optimisation de gradient ou de la recherche avancée comme l'Elementaire ou le Mila, par exemple. Nous, on offre vraiment les algorithmes qui ont été développés et puis on les applique dans des solutions concrètes. Donc, par exemple, je veux automatiser ma détection de fraude. On va te faire un algorithme, on peut te faire un interface utilisateur. Je veux automatiser la pousse de mes légumes ou n'importe quoi. Ça peut être tous les domaines. Comme je l'ai juste de le dire, on travaille dans tout. Que ce soit en médical, il y a plusieurs de nos partenaires qui sont des médecins. Donc, on fait beaucoup de médicales, mais plus sur le diagnostic que l'image. Mais on est intéressé par l'image, comme tout bon data scientist. Donc, c'est ça. Mon objectif, si ce n'est pas de faire un show, il y a plusieurs des questions qui sont faciles. Ce que j'aimerais voir, c'est que, à la fin de la présentation, que vous me disiez sur les nombre de questions que je pense que j'en ai une dizaine, vous auriez tous les questions, ça aurait-tu frais dents faciles pour vous? Est-ce que c'est un jeu d'enfant ou il y a des questions que c'est des modules que vous n'utilisez pas, parce que peut-être que vous ne faites pas de machine learning. Ce n'est pas les mêmes modules qu'on utilise en machine learning, en développement web ou en d'autres choses. Puis, c'est sûr que mon objectif, c'est toujours de stimuler la communauté, à se diriger vers une application concrète du machine learning. Puis, il y a plein de choses, vraiment, de fun qui ne sont pas du texte ou pas de l'image qui peuvent être automatisés, et puis, c'est des beaux défis étoiles actuels. Moi, personnellement, je viens d'un parcours métu-diffinard, fait que je ne suis pas un programmeur. Je n'ai pas étudié en computer science. J'ai essayé de respecter la nomenclature, de faire un bon programmeur de moi et de respecter le PPU, mais ça se peut que, si vous voyez des choses qui ne sont pas correctes, j'apprends toujours, donc vous pouvez me le dire. Donc, ma première question est vraiment simple. Fais-moi un DataFrame. Un DataFrame, c'est juste une matrice indexée. Puis, la manière la plus facile de faire ça, ben, je ne sais pas si on voit bien. C'est comme ça. On fait un dictionnaire. Tu le mets dans une fonction de pandas, puis automatiquement, ça va te faire un DataFrame, puis ça prend... Il ne faut pas oublier les... Je n'ai pas dit, mais il y a 45 minutes pour faire le test, la personne qui pense l'entrevue. Fait que, tu sais, il faut que ça aille vite, puis tu trouves une manière, comme en tout bout de tes doigts, mais tu as le droit d'utiliser Google, si tu veux, pour faire la question. Mais, tu sais, c'est sûr que si tu utilises Google pour faire ça, puis tu me dis que tu es ton expert depuis ton CV, ben, je vais me poser des questions, tu sais. Puis, comme on voit sur 10 personnes, il y a 7 personnes sur 10 qui l'ont eue, puis il y en a 3 qui sont des éditions de Find Back en compétue science ou de maîtrise qui ne l'ont pas eue. Fait que ça, ça me fait un peu peur. Je vais dire, OK, c'est bon, mais on continue le test pareil, puis ils peuvent s'occuper des questions. Puis, tu sais, je suis là pour les accompagner. Après ça, c'est... Je voulais aborder un autre module qu'on utilise souvent, qui est Nompy, qui est un... Très utile pour faire des opérations matricielles, opérations mathématiques, très utilisées pour toutes les algorithmes de machine learning, parce que c'est plus rapide que, par exemple, un DataFrame. Donc, ça, c'est juste de me faire une maîtrise trop par trois, puis encore, c'est une ligne de code, c'est facile à faire. Après, ben, je vois dans quelque chose qui est vraiment très propre à priton, donc les dictionnaires. Donc, je veux que la personne me fasse 2 dictionnaires, puis les inbriques, un dans l'autre. Ce qui devrait être encore une chose qui devrait être maîtrisée par quelqu'un qui commence à coder, puis tombe dans un objectif de machine learning, en dans une semaine ou deux semaines, il devrait être capable de faire ça. Puis là, on voit que c'est très difficile. Les gens, ils ne sont pas habitués de manipuler des dictionnaires. Ils vont souvent aller directement vers un DataFrame, puis ils vont faire des pd.read.csv, puis ils vont avoir un csv qui est déjà tout prêt, puis ils ne vont pas passer par ça. C'est rare que les gens vont manipuler aussi des JSON, puis dès que tu commences à manipuler des JSON, ben, là, ça devient facile les dictionnaires, c'est la même chose. Mais ça, ça m'a quand même vraiment surpris que la difficulté que les gens avaient, puis ça, j'ai beaucoup travaillé avec ministageur de rendre à l'aise avec les dictionnaires, parce que ça peut sauver beaucoup de temps en étant à l'aise avec ça. Puis que les deux questions, la première, c'est ça, en imbriquer, puis après ça, c'est juste d'utiliser des fonctions à pandose pour faire des transformations rapides qui peuvent être utiles, tu sais. Puis c'est des joueurs de tennis, c'est pas les bons numéros, fait qu'il n'y a pas appelé pas, ça. Après, il y a des jeux de données, tant pis tant qu'on peut utiliser comme Boston, ou Iris, qui sont comme... pour se pratiquer, on peut aller sur Kaggle aussi, ou s'amuser autrement, mais... Là, je prends un jeu de données qui est le Boston, puis je fais juste passer à travers quelques étapes qu'on fait tout le temps, tout le temps, tout le temps, puis j'ai un data scientist qui fait de l'expération de données, il va tout le temps faire des opérations, de visualisation, il va regarder si c'est des nuls, il va regarder si les jeux de bannes sont balancés, il va regarder des choses qu'il va faire à chaque, chaque, chaque fois. Peu importe si c'est une classification, une régression, peu importe de problèmes. Donc la première chose que j'ai demande, c'est de me faire une... de montrer le top du data frame, puis de me voir que les types... Là, je pense que j'ai oublié de mettre les types, mais en tout cas d'E-Type, ça serait la fonction pour faire les types. Et puis après, je demande de montrer le nombre de valeurs nuls par colonne, de me dropper, de me laisser... Je peux pas dire en France, c'est de supprimer trois colonnes du data frame, et puis de me diviser chaque colonne par la moyenne de la colonne. Puis y'a plus qu'une bonne réponse pour faire cette opération-là, mais je donne une solution. Donc là, je load... En haut ça, je l'ai fait pour eux, j'ai chargé le jeu de données. Le metteur de data frame, on peut juste simplement donner la donnée puis nommer les colonnes, après montrer la tête, c'est point A, on préfère point L pour voir la fin. Après ça, comme je l'ai dit, j'ai oublié de mettre point d'E-Type, fait que d-t-y-p-e-s, on verrait le type des colonnes. Après, pour voir la somme, il n'y en a pas, parce que c'est un jeu de données qui est fait pour se pratiquer, fait qu'il est rempli, c'est déjà... On voit qu'il n'y a pas de nul. Puis pour dropper, c'est toujours mieux d'utiliser in-place, parce que sinon, on tient double l'information sur la mémoire. Donc in-place, ça permet de venir modifier l'objet. Donc... Puis Apply, moi, j'ai utilisé Apply juste pour mettre Apply, parce que j'aime mettre ça d'Apply partout, mais on ferait juste faire Boston-USD par Boston.min. Fait que... Fait que c'est ça. Après, je range dans un sujet qui devrait encore être maîtrisé par quelqu'un qui fait, depuis trois, peut-être six mois, du piton pour un objectif de Data Science. Donc là, c'est juste de faire une fonction, faire des classes, commencer à travailler avec le rayon d'objet. Donc c'est peut-être un petit peu plus avancé, mais ça devrait être maîtrisé par quelqu'un qui fait ça depuis trois à six mois d'après-moi, mais après mon expérience. Fait que là, ici, c'est une recherche Google donne la réponse en pro seconde, fait que je m'attendais à un 100%. Puis là, je demande de faire une fonction un peu bidon, qui est juste de valider si le taux des colonnes numériques dans le Tatafirm sont plus bas que N, puis retourner une table avec le nom des colonnes, la valeur de la saine, puis la valeur de la bolaine, du test. C'est une manière de le faire. Donc c'est lower than, N, un argument que je donne. La saine des colonnes est plus petite que ça fait tout force après ça. La saine sur l'accès 0, donc la saine des colonnes puis le nom des colonnes. Donc il y a 43 façons de faire ça, mais on voit aussi une. Donc ça a été quand même assez bien maîtrisé encore. Je m'attendais à plus une grande maîtrise de ça, mais que ma formulation n'est peut-être pas assez claire. C'est que c'est trop long à lire. Je sais pas. Donc c'est sûr. Après, c'est là où est-ce que ma question threshold, c'est que dans le fond, moi j'ai accès tout mon test vers le machine learning, mais je veux tester la diversité des connaissances de quelqu'un. Puis je me dis qu'une personne qui va être bonne dans un travail de data scientist, c'est aussi savoir quand je sais pas quelque chose de peut-être passer à la suivante parce que je vais perdre trop de temps sur quelque chose que je n'étais pas le meilleur à faire. Donc là, on rentre plus dans du scraping, qui serait une fonction simple à faire, mais si on ne l'a jamais fait, ça peut faire perdre 30 minutes sur 45 minutes. Donc ça va faire qu'on se casse, ça va pas très bon. Donc c'est juste d'aller sur la page de la presse et de prendre les 3 manchettes d'aujourd'hui, puis de prendre les éléments, de nettoyer le test puis de me faire un road job. En gros, c'est pas ma jeu ça. Donc ça, c'est une manière de le faire. Tu fais une classe, tu l'inities avec des arguments, après tu vas chercher dans la page l'ID manchette, son numéro, son nommé manchette dans la page. C'est pour ça que j'ai utilisé ça. Après ce clean manchette, on s'est juste avec d'enlever du ce qui est numérique ou les caractères spéciaux. Puis là, j'ai fait des stopwatches à la même et on aurait pu prendre des stopwatches de NMTK ou d'autres types de stopwatches. Puis de me faire un world cloud. Ça, c'est un world cloud. C'est aujourd'hui les manchettes de l'après, je pense. Donc ça, c'est très difficile. Puis en fait, j'aurais préféré que les gens passent cette question-là. Puis, à plus leur connaissance sur ce problème qui décide de résoudre ce problème-là. Puis c'est un peu le problème que j'avais par rapport à cette question-là que j'aurais peut-être dû retirer. Mais en même temps, c'est important pour en data science de connaître un large inventaire de techniques parce que des fois, c'est des problèmes de scraping, des fois, c'est des problèmes de classification, des fois, c'est des problèmes de régression. Donc ça, c'est une manière d'avoir une branche comme le supervisé où on a une classe ou une valeur continue qu'on veut prédire puis non supervisé où on en a pas puis on va venir catégoriser les groupes de temps des groupes inconnus. Ça fait que le supervisé, c'est... dans notre entreprise, c'est 80% des problèmes qu'on rencontre, souvent de la classification. Donc c'est comme vraiment important d'être familier avec au moins les techniques à faire. Donc il faut toujours comme explorer les données. Ça pour un junior, c'est... ça va être 75% de son travail, ça va être vraiment explorer les données. Après, les bons juniors vont avoir un 25% peut-être de modélisation puis devenir... préparer le terrain pour un senior que lui va venir vraiment mettre ça en production puis automatiser tous les processus. Donc c'est un peu ça que ça fait un junior en tout cas chez nous. Puis là, je m'attends que la personne soit très bonne dans la question 1 ou faire une matrice par exemple, faire des visualisations simples. Après, la personne aurait peut-être plus de difficultés à préparer les données pour le machine learning, mais je m'attends qu'elle connaisse la théorie puis qu'elle comprenne que tu peux pas juste appliquer un algorithre sur la totalité de ton dataset sans le normaliser, par exemple. Après, de connaître ses familles d'algorithmes, c'est un bonus. Tu sais, un junior, c'est peut-être un petit peu demandé de savoir c'est quoi la différence avec un algorithre de boosting ou un algorithre de distance. Je pourrais comprendre que la personne ne sache pas ça. Puis il faut ça de l'évaluer, ça, c'est vraiment important. Peu importe les modèles qu'on utilise, c'est une personne qui fait juste rouler des modèles puis se pose pas la question comment je sais que mon modèle est bon, ça, c'est vraiment crucial. Puis, tu as mis une ligne d'année, c'est juste pour voir si la personne maîtrise des modules comme random ou stat. Pardon. Donc, c'est un besoin. Une maîtrise de corrélation, ça aurait pu être une maîtrise point-corps sans faire un graphique, vu que je l'ai fait un graphique parce que c'est plus facile à rentrer sur une page. Après, des graphiques simplistes, ça, ça peut être simplement ça. Par exemple, un scatter plot, je suis allé chercher des corrélations supérieures assez en faisant juste comme ça. Après, tu n'as pas oublié que la personne de 45 minutes. Donc, je ne m'attends pas à des graphiques en bocke ou splottie ou whatever. C'est juste des graphiques simples. Peut-être faire un graphique de barre qui montre la différence entre les deux classes, par exemple. Après, la préparation à l'algorithme, ben, je m'attends à deux choses. Trois choses, en fait, qu'à sépar le Y du X. Après, quand tu fasses des tests de stress, c'est ce que tu vas me dire. Est-ce que la donnée est balancée vu que c'est une classification? Donc, ça devient important de savoir est-ce que mon algorithme que je vais rouler, s'il y a 90 % de précision, mais que j'ai 10 % d'événement, ben, c'est aussi bon que le random. Donc, ça veut rien dire. Tandis que, là, quand j'ai 40, 60, si mon algorithme est capable d'avoir 90 % de précision, ben, ça va vous dire beaucoup plus. Donc, c'est aussi, mais, mais bon, c'était comprenable. Et après, c'est le type d'algorithme, ben, c'est d'algorithme de distance, comme du type canyenne. Après, c'est d'algorithme de plusieurs, de boosting, puis, algorithme de régression. Là, c'est juste, moi, j'ai fait un random search, parce que je fais tout un random search, mais la personne n'aurait plus juste m'appeler la classe de paramètres, ça aurait été correct. Puis, une fois qu'elle a fait ça, mais avant avoir trois, elle peut mettre n'importe quelle métrique. Moi, j'ai mis précision, puis, lui, juste pour voir si mon modèle était bon sur un petit pourri sur l'autre. Puis, on voit que, par exemple, si la régression gagne, donc, des fois, une régression, ça peut être long. Puis, simuler une classe, ben là, j'ai juste un petit rouler un random sur l'autre. Alors, ça, non-supervisé. Donc, là, on rentre dans le fameux K-Mean, DBSCAN, JMM. Donc, c'est des algorithmes en entreprise qui sont super étusés dans ces domaines spécifiques, mais moins étusés à large. Donc, souvent, les problèmes qu'on rencontre, ça va être supervisé, parce qu'on réfléchit comme ça, je pense. C'est comme, on a un problème. J'ai un type d'employé. J'ai, je veux prédire une prédiction financière, mais dans ce cas, non-supervisé, c'est plus que ma stress, souvent. C'est comme j'ai des catégories de clients que j'aimerais classer dans des groupes cibles. Je connais pas les groupes. Donc, c'est comme un peu plus absurde pour notre pensée, je pense. Souvent, les gens connaissent juste K-Mean. Donc, pour ça, j'ai roulé K-Mean. Et aussi, Baig, pour chacun des classes de groupes qui les décrivent. Ou, les gens qui ne sont pas rendus là, c'est pour ça que le dos de recette est bas. Puis, après la théorie, c'est vraiment juste pour voir comme la personne réfléchit, est-ce qu'elle s'est déjà posé la question de la différence, par exemple, HGBoost, Random Forest. Là, je voulais, jusqu'à là-bas, bagging versus boosting. C'est principale. Après, justement dans un jeu non balancé, mais je voulais comme sorte des réponses comme, t'sais, par exemple, est-ce que j'ai over sample, j'ai un deux sample, est-ce que j'utilise davantage des alguerites decisionnelles parce que ce sont plus robustes à la différence des classes, par exemple. Puis pour les STM, bien là, je m'attends vraiment pas qu'un junior me répond à ça. Donc si ils me répondent à ça, bien je vais être très content, mais c'est juste des cellules de mémoire dans le fond, dans des résumes de Renault qui sont très utiles pour le texte ou les séries temporaires. Donc c'est ça. Je vous invite à aller nous suivre parce qu'on fait des compétitions qui sont un meet-up à chaque mois. Donc vous pourrez venir tester vos compétences et puis apprendre en même temps. Donc chaque mois, vous pourrez venir participer à ça. C'est un binôme créatif pour nous. C'est tout l'argent pour les participants. Donc c'est un bouton. Je parle peut-être vite, il y a peut-être des questions, c'est bruyant. Bonne pourcentage de D-17. C'est basé sur 100% des plans. Un point, c'est exact. Je ne sais pas comment le faire. C'est juste possible. Est-ce que déjà, la salle aurait eu une des bonnes... Comment t'explique les taux de réussite de la Rangoisse qui c'est parce que vous n'avez pas encore réussi à avoir des candidats qui t'avent pas de poste ou plus que de l'impression que la question était trop dure ou malheureuse? Ce que j'espère, c'est qu'on n'a pas eu les bons candidats pour nos bosses parce que je m'attendais un peu mieux par rapport aux questions que j'ai posées. Par contre, j'ai vraiment l'impression qu'il y a une différence entre... Je pense qu'il y a un effet pervers des formations en ligne. Les gens, ils vont suivre une formation. Ça peut être bon, mais si tu es la formation qui te donne tout cru dans le bec, et après ça, à chaque fois que tu vas lire un livre ou passer à travers une nouvelle formation, tu vas toujours assumer que tu connais cette information-là. Tu ne vas jamais revenir dessus. C'est comme une impression que j'ai parce que souvent, je rencontre des gens qui me disent qu'ils sont super bons, ils savent mais ils ne savent pas appliquer. En tout cas, c'est comme, je ne sais pas. Ce serait ma réponse. Oui. Nous, c'est ça comme j'ai dit, ce n'est pas pour faire une démonstration. Ce qu'on veut voir, c'est un esprit curieux davantage que les compétences pitons. Donc compétences pitons, c'est une chose, mais si tu n'es pas capable de me faire un data frame en 45 minutes et que tu as le droit à Google, je me pose des questions sur ta capacité à des recherches plus que tes compétences pitons. C'est vraiment sûr qu'on cherche à évaluer. Je ne sais pas si, pour la majorité d'entre vous, si c'était pertinent, comme je sais que c'est différent des conférences que mon récapiton offre à l'habitude, mais je ne sais pas si c'était pertinent. Oui. En fait, c'est juste ça autre. La capacité, c'est dans quel type de projet que vous faites plus du machine-learn à méton? Est-ce que c'est ça plus au niveau médical ou fraude ou en finance? C'est comme si c'était dans quel directeur que vous vous êtes plus. C'est mon papa. C'est difficile à dire. Pour le moment, on est comme égale en médecine-finance. Ouais, pour le moment. Mais je pense que la médecine va dépasser parce qu'il y a plus d'expertise au sein de notre groupe qui est en médecine. On est postés dans les universités, en fait, surtout. Fait que c'est toutes les étudiants de computer science de Find Back ou de maîtrise. Nous, on ne cherche pas nécessairement quelqu'un qui est étudiant de computer science parce que oui, la programmation, c'est utile pour faire de la data science, mais c'est surtout une réflexion scientifique. D'être bon à pitons, ça aide. Ou en AI, ou en Scala, ou whatever. Mais c'est plus la réflexion ou la curiosité de recherche qui est importante. En tout cas, tu peux répondre à ton interrogation. Moi, l'exemple Beautiful Soup, je vois ça comme un piège, justement, de passer par le sous-prime supérieur, parce que c'est mon opinion pour avoir fait du Beautiful Soup en mouterie. Même si tu as le droit à Google, tu peux perdre un temps. C'est peut-être un langage en effet, mais quelqu'un du genre sort de l'université ne peut pas assumer qu'il a touché ça si il n'y a pas touché, il y a ça. Ça ne veut pas dire qu'une base est en vie de connaissance. Il y a tellement de choses que tu peux toucher si il n'y a pas touché. C'est quand même particulier. Pour ranchérer, on fait toujours l'entrevue verbale en premier, qu'on regarde la personne répondre à certaines questions plus théoriques. J'ai un dataset dominé par des features catégoriques que je te demande de faire du clustering. Qu'est-ce que tu ferais ? Des questions plus faciles. J'ai des classes binaire. Je veux prédire là-dessus quel genre d'algorithme tu servirais, dépendant de l'entrevue. Quand la personne spécifie en entrevue qu'il est expert en piton ou avancé en piton, parce que chacun des personnes qu'on choisit, qui se considérait avancé en piton. Donc là, je vais leur faire passer le test, parce que là, je vais voir si c'est quoi ton réel niveau, tandis que quelqu'un me dit je ne suis pas très bon en piton ou je commence en piton, mais je n'étais resté. Alors là, je te ferai pas de passer le test, et ça se peut que tu aies l'emploi. Si tu me dis que tu es bon, je te ferai passer le test. C'est là. En ce moment, nous, en ce moment, on cherche tout quelqu'un qui va être là, temps plein pour un juno. Ok, c'est vrai que... juste... sur profil. Oui. Oui, c'est vrai que j'ai mis des toutes les recettes que j'ai reproduites. C'était juste pour donner une idée du niveau de... c'était juste une information additionnelle. Mais tu sais, je n'en prends pas vraiment considération du tout de recettes. Je regarde plus le cheminement de la personne à travers le test. Si la personne n'a assez arrêté rapidement et elle veut juste fermer leur dit, c'est une chose. Si la personne a vraiment cherché et je vois 43 onglais ouverts, c'est une autre chose. Après ça, c'est vraiment important. Après, oui, j'ai valu les points. Ça prend un certain aspect, des points. J'ai réfléchi en fonction de l'importance des connaissances pour le travail qu'on a à faire. Et puis... c'était quoi? Ah oui, la quarantaine... la quarantaine de minutes dans le fond, c'est juste parce que c'est plus longtemps que... que ça m'a pris à faire dans le fond. C'est juste pour ça. C'est ça, oui. Oui, ça m'a pris moins de temps. Mais moi, c'est des choses que c'est tout le temps. Normal, non? Oui, mais... Il est d'autres choses que je tiens pour le plus longtemps. Vous avez eu les scores de 20 jours d'aujourd'hui. Et comment avez-vous eu les scores de 20 jours d'aujourd'hui? Oui, mais... il n'y a rien d'autre que ça. Il y a beaucoup d'autres scores. Mais il n'y a rien d'autre que ça. Il n'y a rien d'autre que ça. Il n'y a rien d'autre que ça. Et le plus grand score que l'appartement a passé c'est que le candidat réel est 82. 82, oui. Le joueur ne compte pas. Et 82, il a fini le tout. Il est un joueur et il a seulement 6 mois d'expérience. C'est très bon. Oui? Je pense que... Moi, mon mentor est ici qui est Maxime. Mais... ce qui m'avait suggéré et ce que je suggère à tout le monde c'est de faire le cours de Andrew & G sur Coursera. Parce que je trouve que c'est un cours vraiment complet sur les aspects théoriques. Le seul problème c'est que c'est en math lab ou en octaves. Mais en fait le problème c'est aussi son avantage. Parce que moi j'avais pris son octave à piton et là tu apprends deux langages et tu apprends ton machine learning. Ça te prend peut-être comme 3-4 mois à faire. Mais une fois que tu le fais par contre c'est... c'est vraiment bon. Et après il y a des choses plus faciles comme Udemy, je sais que tout le monde connait Udemy tout ça. Mais comme le problème comme je le disais avec Udemy c'est que si on ne le met pas en pratique ça peut avoir un effet un peu pervers. Mais moi des fois je suis des formations sur Udemy comme par exemple on a un domaine que je connais moins c'est le développement web par exemple. Je fais une formation je connais déjà la base de piton mais je connais pas des trucs appliqués en développement web donc je kiffe les 6 premiers cours et j'arrive au 7ème cours j'ai de la misère parce qu'il y a des trucs que je savais pas avant mais je veux pas revenir parce que je le sais parce que Udemy ça peut être dangereux tandis que je vais vraiment faire l'exercice de traduire. C'est Andrew N.G. c'est le fondament de Andrew N.G. R M D R E P N G Non il y a des livres il y a des livres c'est bon je voudrais te l'écrire parce que je m'en avais petit c'était pas grave il y a des choses d'introduction d'un statistical learning et une version un petit peu plus avancée un petit peu plus magnématique c'est Calamity un statistical learning c'est bien un peu tard sinon je suis genre devenu aménitable de venir s'assurer tu vas pouvoir te pratiquer parce que c'est ouvert à tous les niveaux et justement on essaie de mentorer ceux qui ont plus de difficultés on essaie