 Merci d'être venu. J'espère qu'il vous reste un petit peu de force pour la suite. C'est une journée très riche. On va parler d'Audit SEO. Je me présente déjà. C'est Bilal Seba. Je travaille au Sainte-Bilapi en tant que responsable d'acquisition de trafic et mesure de la performance depuis trois ans. Je bane mieux dans le SEO depuis 2009 et je constate en fait que chaque année, à son level de mise à jour, de modifications, de nouvelles tendances, de nouvelles techniques, etc. Et j'ai remarqué que les gens ont tendance à s'affoler sur les nouveautés en négligant les bases et les fondamentaux du référencement naturel. Qu'il y a déjà un site, on en est un peu ? Un peu. Un peu. Ok, nickel. Donc, on va commencer par voir en fait la méthodologie d'un audit SEO. Mais pour ça, je vais devoir vous poser des questions et vous allez devoir me répondre pour que je puisse avancer. Autrement, on va bloquer. Pourquoi on fait un audit SEO ? Pour augmenter ranking. Quoi encore ? Je vais peut-être affiner un petit peu la question. Pourquoi on fait un audit technique ? Pourquoi on vérifie les éléments techniques d'un audit SEO ? D'un site dans le cadre d'un audit SEO. Pour voir ce qui est améliorable. En gros, en fait, on fait un audit SEO pour faciliter le travail d'un moteur de recherche. Prochaine question, quel est le travail d'un moteur de recherche ? Pardon ? Index de contenu. Index de contenu. Ça, c'est une fonctionnalité sur trois. Par courir, satisfaire l'utilisateur. Bravo. Un moteur de recherche explore, index et retourne des réponses. Il explore le web, en fait, il parcourt toute la toile en recherchant des éléments cliquables. Il appelle l'indexeur qui vient analyser la page, etc. Il enregistre des fragments dans son index, dans sa base de données. Et lorsqu'un utilisateur tape une requête de recherche, il va parcourir tout l'index. L'est classé par pertinence. C'est dans 200 critères et on n'a pas beaucoup. Et il retourne les résultats les plus pertinents. Donc nous, on va intervenir et regarder, en fait, les éléments qui interviennent sur ces trois fonctionnalités. L'exploration, l'indexation et les résultats. On va auditer un très beau site. C'est celui de Maxine, un collègue-développeur. On le remercie pour se dévoiler à nous. On va voir, en fait, si son site est fiable d'un point de vue de pertinence, je vais vous livrer en fait la méthodologie comme moi, je regarde un site et comment j'arrive, en fait, à regarder si je dois déployer beaucoup d'efforts ou pas, s'il y a beaucoup de défauts cassés ou pas. Pour ça, j'ai quand même demandé quelque prérequis. J'ai demandé accès à sa Search Console, chose que vous devez demander à vos clients. Si il n'a pas de Search Console, on va quand même prendre une semaine pour l'amètre en place et on va intervenir comme des aveugles et un accès au back-office. Sans un accès au back-office, on ne peut rien faire. Pourquoi ? Quel est le premier point qu'on regarde en faisant un audit SEO, à votre avis ? Ouais. Quoi encore ? Techniquement, il est bien agencé. Techniquement, il est bien agencé. Quoi encore ? Le plus important de tous. Exactement. Le premier point en fait d'un audit SEO, c'est de vérifier la fiabilité d'une installation WordPress. Si le site n'est pas à jour, si les plugins ne sont pas à jour, on va arrêter tout de suite, on va lui dire, mais à jour pour l'installation. En fait, notre emplacement, c'est une stratégie d'acquisition de trafic durable, ne peut l'être si l'installation, si l'installation de WordPress n'est pas fiable. Techniquement, n'est pas fiable d'un point de vue sécurité. Je rentre du coup dans le back office de Maxime. On va voir. Ok. Je regarde. Si c'est WordPress, il est à jour. 4.9.4, ça va, il est à jour dans sa branche. On va regarder un petit peu les extensions. Je vais regarder Yoast. Il est vite fait. Ça qu'il va calculer. Ah, c'est bon. On va regarder Yoast. On va faire vite. On est en 6 points. Point 3. Un Blasem. On est en 7.0.1 ou point 2. Et la version 7 corrige pas mal de... Enfin, c'est-à-dire des versions interne. Il y a pas mal de bugs de sécurité. Du coup, je vois déjà qu'il y a un petit problème. Là, je regarde Yoast. Je ne regarde même pas les autres extensions. Ensuite, je vais vérifier s'il y a des extensions désactivées qu'ils n'utilisent pas. Je vais remonter. J'ai 5 extensions désactivées. Tu les as mis à jour? Non? Du coup, j'ai des extensions qui ne sont pas utilisées mais qui présentent en fait des failles potentielles. Si on n'utilise pas des extensions quand on n'est pas à jour, autant les suffisent. Ça, c'est le premier point. C'est noté? Ok. Donc, ce qu'il faut garder en fait, et c'est une règle générale, la sécurité en fait d'une instance WordPress est un prérotique. Ce n'est pas un détail dans une stratégie de référencement naturel. Donc, ça, c'est le premier point. Le deuxième point, tu disais Laura, tu disais l'indexation. Donc, on vérifie. On fait en fait un état des lieux. Faut que je vous capte en fait. On fait un état des lieux en fait de l'indexation sur le moteur de recherche. On voit en fait comment vit le site sur les résultats de recherche. On fait quoi? Ça, c'est la solution de salle. On va faire un truc très, très simple. On va utiliser la commande site. La commande site en fait. Il y a des gens qui savent ce qu'elle fait. Ok. De façon exacte. Ok. C'est partiellement faux. Ça affiche. Il dit, lui, il est approximatif. Il ne ment pas. Il dit il y a environ 85 résultats. Mais on ne sait pas en fait. Parce que si je fais ça, j'ai rien. Je suis en deuxième page. Il ne sait pas. Il n'a rien. Ça veut déjà dire qu'il y a peut-être un problème d'indexation. Bon. Moi, ça me met la plus à l'oreille. Ok. J'ai regardé du côté de la search console. Très, très simple. Je regarde. Je regarde ça. Le site map indique en fait que j'ai fourni 92 URL. 92 fichiers indexables éligibles à l'indexation théoriquement. Et j'ai moins de la moitié en fait qui est indexée. Là, il y a clairement un problème d'indexation. Là, je commence à regarder. Je dis, ah, il y a peut-être un problème. En général, c'est symptomatique du contenu du cliquet. Ok. Je vois. Maxime, celui de la tendance. Il est en HTTPS. Je vais faire un truc tout simple en fait pour voir si il cache des problématiques. J'ai utilisé le site HTTPSite. Il va m'appuyer en fait. Je vais lui mettre 4 URL et il va, je vais voir en fait si la version HTTPS et la version HTTPS, enfin, si la version HTTPS renvoie vers la version HTTPS et si la version 3W du site renvoie, ou le contraire, la version sans les 3W renvoie vers la version officielle, à savoir les 3W. Donc, je vais faire ça. Ça, ça et ça. Maxime, est-ce que tu as un environnement de 3W? Ok. C'est très important en fait. On en parle de quantité du cliquet. On oublie souvent en fait les environnements de dev, de staging, de préprod, etc. C'est très important en fait de vérifier s'ils sont ouverts à l'indexation ou pas. Ça vaut. Hop. Alors, c'est ça. Donc, je cite en HTTP, bien redirigé en HTTPS, c'est vers maxipulia.fr, c'est la version sans les 3W. Le problème, c'est qu'elle répond au dessin. Ça veut dire qu'elle est accessible. Le HTTPSite fait pareil, mais il répond en fait sur les 3W. En HTTPS. C'est ce qui est indiqué ici et ici. Non. C'est une petite erreur en fait. C'est en HTTPSite. Ici. Je peux résister? Non, non. Mais je sais que je veux juste voir ça. Le HTTP, comment il répond? 3W. Voilà. Puis il redirige et il répond. Et lui, il répond directement. En fait, si on regarde la version avec les 3W et sans les 3W répandent indépendamment. Donc, si je fais ça, si je fais ça, ça répond sans redirection. Bravo Max. Donc, je suis clairement sur un problème de full du pliquet de content. En partie de contenu similaire, milliard du pliquet. On est en full du pliquet de content. En gros, maxipulia.fr existe en 2 versions. Le pire c'est que le moteur de recherche arrive sur la page et c'est merde. J'ai 2 contenus similaires qui sont accessibles depuis 2 sites en fait. Et il n'arrive pas à choisir. C'est de là en fait que vient le problème d'indexation. Ok. Bon. C'est pas grave. On va résister. On continue. On va garder un petit peu on va se localiser sur la version HTTPS avec les 3W un petit peu dans la search console. Je regarde. J'ai excès en fait de regarder l'ancienne version. La nouvelle version est très bien mais elle manque d'informations. Alors, on va regarder un petit peu l'état d'indexation. On voit que ça monte, ça descend, etc. Il n'y a aucun souci. Si je vais en mode avancé, je vais voir les pages subclinés. Il y a des pages qui ont été subclinées depuis l'index. Sur le papier, tout va bien. Je dis bien sur le papier. On va regarder un petit peu les erreurs d'exploitation. Et là, j'ai quelques pages incroyable. Rien de très grave. Est-ce que c'est grave d'ailleurs ? Les pages incroyable sur un site web. Si c'est... C'est ça. En fait, les pages 404 font partie de la vie d'un site web. C'est un peu comme la vraie vie en fait. Il y a des nouvelles pages. Il y a des pages qui partent. Il y a des pages incroyables en fait. Ils se perdent dans la nature. C'est grave lorsque ça concerne en fait des pages phares du site. Si la page d'accueil est en 404, c'est un vrai merveilleux. Ça soit pour le BIS ou pour le référencement d'un site. Donc il faut faire très attention. Par contre, ce qui est inquiétant, c'est les erreurs non identifiées autres ou les erreurs serveurs. Les erreurs serveurs, ça renvoie en fait un signal très, très négatif pour me faire de recherche. Faites très, très attention. Ah ok. On regarde un petit peu les statistiques sur l'exploration. On voit qu'il y a eu un pic ici des pages explorées par jour. Ici aussi. T'as partagé, t'as publié des articles début février. C'est ça. Ok. Et si vous regardez, on règle le général. Quand il y a un pic sur les deux premiers graphes, vous allez voir un creux dans les fonds de téléchargement d'une page. Ça veut dire quoi ? En fait, un moteur de recherche, quand il arrive sur votre site, il n'a pas de puissance de page. Il a un chronomètre. Il n'a pas beaucoup de temps à vous alluer. Il arrive sur un site, il charge rapidement et va voir davantage de pages. S'il a des problématiques pour charger une page, au bout de 10 secondes, il se casse. C'est aussi simple que ça. C'est vous voulez que le moteur de recherche revienne souvent sur votre site, en plus de publier régulièrement du contenu frais, optimiser les fonds de chargement d'une page. D'accord ? Ok. On va regarder un petit peu le sitemap. Je vais commencer par le robot.xc. À quoi sert le robot.xc ? Bon. Il l'a. Le robot.xc, c'est un fichier qui existe à la racine d'un site web. C'est le premier fichier qu'un moteur de recherche consulte pour savoir ce qu'il peut et ce qu'il ne peut pas explorer et indexer. Est-ce que sur une pré-production quand je mets un robot.xc qui indique qu'un moteur de recherche qu'il ne doit surtout pas indexer cet environnement, c'est viable ou pas ? Pourquoi ? Exactement. Je ne sais pas si vous l'avez remarqué mais des fois vous faites des recherches. Vous voyez que la description en fait un robot.xc mais que le résultat existe. Et ça c'est problématique. Quand vous travaillez sur une pré-prod donc si j'avais audité le site sur un environnement de pré-prod la première chose que j'aurais vérifié c'était est-ce qu'il y a une protection access ? Ça veut dire je mets un utilisateur et un mot de passe pour pouvoir y accéder. Donc si vous faites des sites ou si vous vous êtes développeur faites attention à ce point. Vous allez pénaliser vos clients derrière. Donc ça c'est en ce qui concerne le robot.xc c'est tout ce qu'il y a de plus basique. On va voir un petit peu le site map ce qu'il y a dit. Et là on va voir qu'il y a des erreurs. Donc on voit bien que j'ai 92 URL envoyés que j'ai 43 dans l'index. C'est pas très très optimal il m'appuie des avertissants et non les avertissants j'ai le fait que j'ai certaines URL qui mettent du temps à répondre. Ça c'est problématique. Donc là on va pousser un petit peu l'exploration un petit peu plus et on va faire appel un crawler ou un outil de crawler un outil d'exploration. Il y a toute une panoplie de crawler il y a Xenu je sais pas si des gens lui l'utilisent ou le connaissent il est très très bien. Moi je n'ai pas de religion sur le sujet si ce n'est regardé d'abord en fait la typologie du site. Si c'est un site où je dois vraiment crawler à haute fréquence j'utilise Xenu si c'est un site comme celui de Maxime j'utilise SCIO matroscope il est gratuit ça c'est l'avantage SCIO matroscope je sais pas si vous voyez le nom vous le téléchargez vous l'installez il est très très bien il marche la plupart du travail qu'on a pas Xenu ouais exactement c'est très simple en fait ça on lance et il fait le travail en fait ce qu'il va faire c'est qu'il va parcourir toutes les ressources existantes sur le site absolument toutes les ressources il est paramétré par défaut pour ne pas suivre les liens externes sinon il va crawler tout internet mais du coup il va voir toutes les pages et tous les liens toutes les ressources du site il va s'arrêter à s'attendre entre elles pour rétupérer le code de réponse parce qu'à répondre 200 ça veut dire qu'elle est disponible est-ce qu'elle répond en 404 parce qu'elle est incroyable est-ce qu'elle répond en 410 parce qu'elle est partie il y a plein de trucs d'ailleurs l'un des points qu'on vérifie parce qu'on commence à vérifier un site d'un point de vue SEO c'est que le serveur retourne vraiment les bons codes erreurs soit après s'il y a une grosse problématique c'est que les pages 404 répondent en général en 200 donc c'est du contenu explorable pour le moteur de recherche ok c'est du duplicate content à la fin mais une problématique il la détecte pas comme une page incroyable et il la crête pas en tant que tel donc pour ça il suffit juste de revenir sur l'outil http status faire Toto je ne sais pas un article qui s'appelle Toto et si elle s'admite si elle me répond en 404 ça veut dire que c'est très mieux elle est passe ok donc ça répond en 404 la 404 ça veut dire que la page est incroyable ok donc moi j'ai lancé un petit scroll un petit petit scroll sur le site de Maxime ça me retourne plus centre ça me retourne une multitude de couleurs avec des fonds de réponse sur le côté en rouge tout ce qui est rouge n'est pas bon alors comme les tomates du coup on voit en fait qu'on a des pages qui répondent en 20 secondes Maxime on voit aussi des pages qui répondent en 14 secondes et si on fait le le parallèle on voit que les vues tags les vues archive tags reviennent souvent c'est juste un élément en fait à prendre pour le moment on va prendre un très long détail ok j'ai lancé mon crawl la prochaine étape c'est d'aller sur le site et naviguer comme n'importe quel utilisateur l'objectif c'est quoi ? c'est de pouvoir identifier les différents gabarits qui composent son site quel cpt quel type de contenu utilise quel gabarit pour pouvoir en fait identifier le suyer structurel par la suite donc le site de Maxime est relativement simple j'ai une page d'accueil plein d'articles de partout rien de trop fou dans son menu j'ai une page article qui liste absolument les articles j'ai un petit budget qui m'affiche les vues par catégorie ça c'est un gabarit en plus et dans chaque article j'ai pas de panne j'ai des pages c'est les étiquettes dans une page du résultat de recherche et j'ai tout ce qui est page classique en gros en fait je n'ai pas créé des titres de contenu de malade ce qui est bien donc ça c'est la première analyse la deuxième analyse c'est d'avoir un œil le robot pour regarder ce site web un robot il regarde pas les CSS quand il explore il regarde pas les CSS il regarde pas les JS il regarde pas le JavaScript moi pour le faire je désactive donc le JavaScript il regarde pas les CSS par le biais d'une extension Chrome qui existe aussi pour Firefox qui s'appelle WebDeveloppable donc je vais désactiver le JavaScript je vais désactiver le CSS et je vais voir en fait si je peux naviguer sur son site très simple je clique sur les articles ok j'ai l'analégation qui s'affiche les éléments sont culpables les tags je les vois je vois plein de liens pour ajouter un commentaire et sur une vue de détails je ne vois pas en fait des contenus qui s'affichent et je ne vois pas des contenus qui disparaissent parce qu'ils s'affichent en JS donc ça c'est un bon point en principe vous allez me poser la question du JS est-ce que le monteur de recherche c'est l'air de JS c'est pas quelqu'un veut la poser est-ce qu'il s'alignera les JS ? c'est le monteur de recherche c'est le monteur de recherche c'est mieux lire les JS aujourd'hui on ne sait pas le lire parce qu'il ne sait pas le faire par tapis si il le fait partiellement c'est qu'il ne le fait pas du tout c'est très clair ok je reviens au site et je vais commencer à regarder un petit peu sur le capot si je vais regarder sur le capot je vais regarder sur le capot si je vais regarder le code source est-ce que vous montez ouvrir un code source est-ce que vous montez ce que veut dire une console ou un inspecteur d'éléments on va les laisser en fait on va regarder plusieurs éléments vite fait on va regarder est-ce qu'il y a une balise à mine est-ce que vous montez ce veut dire une balise à mine la première version pas pour la première version mais pour la précédente en fait une balise canonique permet d'indiquer au moteur de recherche le contenu original d'une page donc si j'ai deux contenus sur mon site qui sont très similaires je vais choisir je vais rediriger un moteur de recherche vers la version canonique vers la version qui doit préférer donc je regarde ça je regarde que sur les pages on a pas une métarobote je reviens ici SCO macroscope ça s'appelle comment ? c'est un crawler ok il m'affiche un flow d'informations impressionant donc j'ai toute la structure du site toutes les universités existent, toutes les ressources il me sort tout il me sort les gs il me sort les PDF il me sort les plissiers CSS etc il me sort absolument tout avec ça ce que je peux faire c'est un ratio en fait entre les ressources éligibles à l'indexation est-ce que le moteur de recherche a indexé aussi ça c'est très intéressant en tout cas aujourd'hui il me sort aussi plissiers analyse des balles thermiques donc là j'ai la page j'ai l'outil je m'indique que c'est que la balle thermique c'est la même page aucun souci par contre j'ai les pages où j'ai le request time out ça veut dire le request time out ça veut dire que le crawler en fait a demandé la ressource mais qu'elle a mis du temps à répondre du coup le serveur et a mis fin et ça c'est le genre d'erreur qui doit jamais arriver on doit optimiser en fait le serveur pour qu'il réponde d'une manière très optimale du coup si le moteur de recherche il n'arrive pas à y accéder il repart par contre est-ce qu'on peut se fier à ce genre d'outil ce genre d'analyse fait qui ? moi je dirais nous pourquoi ? il y a beaucoup de flux non en fait c'est très pertinent comme outil mais rien n'équivaut le fait de venir sur un site et de regarder si c'est vraiment un bon comportement je vous fais résumer toutes les pages ici ont des balles balles chimiques propres et juste aucun souci le souci majeur qui existe avec les balles canoniques sur ce site c'est la page d'accès pourquoi ? je reviens sur le site je reviens sur le site de Maxime aucun souci je fais ça je regarde la canonique remarquez qu'ici il n'y a pas de slash à la fin il n'y a pas de training slash si je regarde la canonique il y a un training slash et en fait ça fait une petite boucle de redirection à cette fois le moteur de recherche arrive sur la page d'accueil il va voir que c'est avec un slash il va le suivre parce que le moteur de recherche fait la différence entre une ressource avec un slash et son slash c'est très important et il va s'enracer et il va en fait revenir moins souvent sur le site ça peut expliquer en partie les problèmes d'exploration ou d'indexation des contenus de monsieur Maxime ça concerne l'analyse des balles canoniques comment modifier les balles canoniques ? lui, il utilise l'outil Yoast qui dit Yoast il y en a plein d'autres actes qui sont très très bien et assez oppresses etc Yoast le gère nativement donc en l'installe il va injecter une balles canonique elle va correspondre à la même adresse en fait, finale de la page quand je veux la modifier c'est très très simple je vais sur la ressource en question je vais choisir n'importe quel article ça je vais faire modifier l'article et dans la metabox de Yoast en fait j'ai plus des actifs je réactive le vs comme ça on a plus la page c'est ici que ça se passe ça a changé un petit peu avec la nouvelle version là c'est vraiment une ancienne version vous n'avez pas toutes les... donc là si je l'indique en dur si je fais je fais ça j'ai en fait les publications mettre à jour je vais voir l'article on voit bien que la canonique a bien été prise en compte quand je la modifie depuis le back office elle est surchargée donc elle est prise en compte dans quel cas vous avez besoin d'utiliser de champ canonique ça arrive rarement en fait sur un site sauf si c'est vraiment d'orgrité qui pardon on l'utilise mais par défaut j'ai besoin en fait de modifier la balise canonique si jamais j'ai un blog qui parle d'une thématique du sucre et je veux reprendre en fait un article d'un magazine qui parle du sucre qui a fait un beau dossier donc je fais un copier collé de bêtement mais pour pas que je sois pénalisé je mets une canonique vers le site en question donc là j'indique au moteur de recherche que je n'ai pas du piqué cette page j'ai du piqué depuis cette version originale en ce cas là je suis pas pénalisé d'accord ? faites attention avec les balises canoniques quand vous utilisez des plugins de multilinguisie avec Yoast ça peut foutre un bord d'alpha possible il faut vraiment faire attention à ça aussi quand est-ce qu'on fait ces vérifications à votre avis ? est-ce que c'est périodique en fait une fois par an ? moi je les vérifie systématiquement quand on installe un plugin et que je ne connais pas en fait son comportement si j'installe au commerce une grosse usine à gaz je revéris tout je refais sinon ça peut être très problématique là c'est réglé mais entre vous commerce et Yoast c'est une histoire d'amour difficile à l'époque et du coup on doit vérifier certaines règles qui concerne aussi tous les lieux on va voir un élément important vous voulez que je réponde maintenant ? en fait non en fait c'est pour savoir du coup on a 15 minutes on peut se permettre des questions moi ce que je recommande en fait c'est d'utiliser les slabs à la fin les ajouter systématiquement parce que le moteur de recherche de toute manière ne suit pas en fait que les URL qu'il voit il utilise aussi des paternes de recherche des modèles en fait d'URL des paternes d'URL donc des modèles d'URL il va voir en fait si ça marche ou pas si vous avez un site sans se lâcher à la fin et que vous activez l'analyse des logs de vos serveurs vous allez voir que le Googlebot teste des schémas d'URL qui n'existent pas sur votre site il les a jamais vus mais il les teste quand même facilitez la tasse au moteur de recherche ensuite il y a une autre particularité du côté des serveurs apparemment les serveurs en fait mettent beaucoup moins de temps à générer une page sans sache à la fin il y a un article qui existe sur internet il y a l'image mais c'est très intéressant c'est beaucoup plus fourni alors je voulais voir en fait comment les pages répondent est-ce que le moteur de recherche détecté comme l'angle en fait du site ici dont il maquille la balise HREP l'angle c'est pas ce que je recherche c'est cette colonne en fait où j'ai le language si je l'indique j'ai intérêt à ce qu'elle soit homogène sur tout le site si j'indique en fait que mon site est en français il va falloir que mes pages les dans son markup les dans leur markup de façon uniforme on voit en fait que sur le site de maxi selon les gabarits des fois c'est indiqué si on doit faire attention à ce que le contenu lorsqu'il est déclaré en français soit en français sur le site de maxi c'est un site en français mais le titre c'est en anglais votre presse by maxi est un peu un petit peu là c'est pas très très grave le crawler le voit c'est pas très très grave en fait si jamais vous avez des pages que vous devez publier des fois vous publiez des pages en français des fois des pages en anglais il faut que cette particularité soit prise en charge le moteur de recherche il va arriver c'est en français il regarde il tchèque non c'est en anglais il va déployer encore plus d'efforts il va appeler l'explorateur l'indexeur va revenir il faut pas le moteur de recherche il n'est pas ténéant pour qu'on a vu les canons et les cols les redirections ça c'est très important qui a déjà paramétré des redirections sur un site interne c'est bien on sait pas bien en fait utiliser des redirections qu'on pense qu'une redirection est utile ça c'est une règle générale c'est très très simple c'est une règle générale moi je parle vraiment des art les url one to one qu'on rajoute en plus des redirections que peuvent générer vous savez ces url avec des arguments à la fin des des points d'interrogation cher etc si on regarde si on regarde sur le site du maxime il n'y a rien en fait qui m'indique que c'est des liens c'est pas le pire je vais tester en fait c'est ça sauf qu'en vérité c'est un lien que le moteur de recherche va suivre ça va lui faire perdre son efficacité en plus ça redirige en 302 c'est problématique pourquoi c'est quoi une redirection 302 c'est une redirection temporaire ça veut dire quoi quand je mets en place les redirections 301 le moteur de recherche il va passer une fois deux fois etc il va intégrer que c'est une redirection faite donc il va plus taper sur l'ancien URL on l'élève pour les utilisateurs qui les ont bouc marqués pour ne pas perdre de particules de motorité pour les bacteria etc une redirection 302 on dit au moteur de recherche on a fait une redirection vers une page mais c'est temporaire, reviens tu verras on va le changer il va faire ce vanège en fait à chaque fois qu'il vient sur votre site il perd son efficacité donc il va falloir faire attention en fait, il revient souvent avec les plugins de partage sociaux faites attention est-ce que l'ancien c'est URL si elle est nécessaire qu'elle ne soit pas suivie par le moteur de recherche et pour ça, faut faire quoi ? on peut ajouter un overflow mais n'empêche ça va être un lien sur la page et du coup pour faire une interaction tu ne réponds pas pardon on peut bloquer ce pattern dans les robots mais le robot ce n'est pas très très fiable est-ce que le moteur de recherche peut quand même aller les gars pardon ? sans le fait en JS sans le fait en élément html très très simple button les boutons ne sont pas suivis par le moteur de recherche ils peuvent exécuter des interactions en JS mais ils ne sont pas suivis par le moteur de recherche d'accord ? parce que ce plugin a été développé par un développeur non non non parce qu'on lui a demandé de développer une fonctionnalité pas qu'il y a de soi et puis là on parle vraiment d'optinisation du budget d'exploration c'est deux choses différentes on est sur un petit site ce n'est pas très grave quand on est sur un site à très fort trafic là ça devient problématique parce que si je suis Amazon au rue du commerce et que j'ai la moitié de mes contenus qui sont soumis à l'indexation que j'ai juste 500 cent indexés c'est du bise en moins c'est du chiffre d'affaire en moins c'est des aspects qui dépassent de loin en fait le SEO on parle des gros chiffres d'affaires donc il faut en tenir quoi encore ? qu'est-ce qu'on peut avoir sur un site sur un site sur un site avec qui présente des liens qui ne sont pas très importants il y a un classique exactement ajouter un commentaire répondre etc ça fait perdre un temps fou au moteur de recherche je ne dis pas ça par intuition je le dis parce que quand tu regardes les logs d'un serveur tu vois que le moteur de recherche en fait il tourne en boucle le but c'est que dès qu'il vienne j'ai des informations qui l'intéressent très rapidement pour moi c'est très simple je fais un tic et le mine à monsieur Maxi et je lui dis tu vois c'est bien tu l'aimais en battant tout simplement ah en fait c'était un petit joke mais en fait je demande au développeur ce bouton enfin les boutons de partage ne soient pas codés en A mais plutôt en Baton pour qu'il ne puisse pas être possible par le moteur de recherche pareil il passe en fait soit en OJS non le contenu il est visible il n'y a pas de soucis vers une vraie page exactement tout simplement il y a énormément d'éléments htm qui nous restent pas beaucoup de temps en fait je veux juste mettre l'accent sur un point que vous pouvez mettre très rapidement depuis Yoast qui gère les paramètres enfin je vous pose la question qui gère les paramètres d'indexation sous Yoast et en général vous bloquez l'indexation de quel type de contenu nativement sur WordPress il y a des types de contenu ou des taxonomies qui sont pas très importants pour le référence parce qu'elles peuvent faire doublant etc je cite les fichiers datations de médias je peux ou d'un média il me génère une page elle contient l'image aucun contenu, rien de qualitatif le moteur de recherche de voix pas d'intégration donc ça je vais sur Yoast tu désactives ça tu désactives l'indexation c'est compliqué j'attends la question pour faire rapidement et laisser place aux questions de façon globale on bloque l'indexation des tags c'est pas très très optimal on bloque l'indexation des pages générées par la pagination sur les vues archives on bloque les pages datations des médias c'est clair pour vous s'il n'y a pas de vues hauteurs s'il n'y a pas beaucoup d'auteurs on la désactive et si j'ai que des catégories pour afficher mes contenus je désactive en fait tout ce qu'il y a c'est clair pour vous si en fait si la navigation sur mon site pour accéder aux articles ne se fait que via les catégories les vues archives par date je les désactive et exactement en fait une fois qu'ils sont désactivés on va dans la gestion de site map on fait en live alors type de contenu article page ok je le laisse dans l'index touché médias c'est les attachements chez un ondx il faut savoir que sur la nouvelle version par défaut il redirige le contenu qui contient cette dimension donc c'est rigolo donc ça c'est en ce qui concerne les types de contenu je vais voir les taxonomies et je désactive les étiquettes parce que si j'ai une catégorie qui s'appelle WordPress et un tag qui s'appelle WordPress ça va me remonter en fait quasiment les mêmes contenus je parle des petites étiquettes ensuite je vais dans les vues archives pour le coup que les seuls auteurs archive par date ouh là on a cassé le site on peut faire depuis le robots.exe on peut faire depuis le robots.exe mais si vous utilisez un site map un générateur de site map qui liste tous les types de contenu là vous allez devoir rentrer dans les paramétrages de toutes les vues un petit peu pour désactiver les types de contenu qui ne nous intéressent pas typiquement en fait si je désindex si je dis que le moteur de recherche il doit désindexer pas désindexer en fait la désindexation c'est autre chose d'ailleurs est-ce qu'on peut désindexer un contenu j'attends la réponse est-ce que vous voulez que je réponde la question parce qu'on prévoit ça pour un prochain atelier alors du coup le site map ici c'est le site map et je viens en fait indiquer ce qu'il doit y être ce qu'il doit pas y être et du coup comment on peut désindexer une passe qui est désindexée tiens les développeurs non non il y a deux personnes qui ne doivent pas répondre je développe un site web ok j'ai une belle prépreuve qui est indexée et vous allez appréponner qu'on vous regardez en fait le nombre des environnements peut-être j'ai perdu ça j'ai perdu ça site n'importe quoi en fait on va question Instagram j'ai la prépreuve d'instagram je peux même voir en fait on avant première les modifications qui vont arriver sur la plateforme instagram la prépreuve oui non mais on parle de prépreuve du coup le client s'en rend compte je fais comment je fais comment je dois le désindexer ben nous on ne doit pas répondre à cette question je fais comment la search console en fait elle sert juste à vous donner un état santé de votre site sur les résultats de recherche c'est la search console je fais comment en fait je fais un no index pardon ben c'est pas un backlink c'est carrément un nouveau site en fait il est index en fait comment ben attendez j'ai un petit alors on peut le faire mais en fait pour qu'ils les prennent en compte pour qu'ils prennent en compte les 301 et qu'ils les enlèvent c'est un petit peu problématique d'autant plus que je dois la protéger on a ce fait access allez déjà index on voit massivement des codes erreurs en 410 le code erreur 410 veut dire quoi que la page est partie pour dedans ça veut dire qu'elle est elle existe plus on fait depuis le access ça nous est déjà arrivé parce qu'on est des développeurs et et ce qu'on a fait en fait c'est qu'on a protégé la préprod pour les utilisateurs il y a en fait un petit pattern qui détecte tous les moteurs de recherche et qui renvoie systématiquement lorsque c'est un moteur de recherche qui vient voir le site des erreurs 410 qui lui indique que la page a été sublime l'effet est-ce qu'il est immédiat en général c'est entre 2 semaines et 3 semaines c'est relativement très rapidement donc ça c'est pour les 410 est-ce qu'il y a des questions urgentes dans le fait dans le access alors dans l'access je vais le partager c'est un code oui alors ce qu'il faut garder en tête c'est que dans la search en sol tu as le site en prod t'as pas le site en préprod donc tu dois déjà ajouter le site en préprod tu vas en fait juste compliquer le problème c'est clair il y avait une question ce matin sur RNT tu voulais poser une question sur RNT sur la RNT non ok pas juste paramétrer le serveur il doit répondre vraiment non c'est que des fois attendez des fois c'est le serveur des fois c'est le développeur qui fait mal son travail quand il trouve pas de quand l'URL en fait qu'on ne le détecte pas un contenu il renvoie une vue 404 et dans cette vue 404 le développeur vient modifier les trucs et répond au dessin c'est une page introuvable pour l'utilisateur mais pas pour le moteur de ressort oui ça dépend je ne l'ai pas testé tous les plugins mais tous les plugins qu'on a installés étaient pas très vides et du coup on fait du custom peut-être qu'Alexandre sortira un truc est-ce que c'est suivi par les moteurs de recherche les URL avec des fragments en fait avec des diases mais on dit il ne sert à rien en fait une one page c'est une page tout simplement alors là ta question est un petit peu plus flux ce que tu veux dire c'est que tu es sur une one page sur une page ok ça explique tout donc tu es sur une page et tu fais un petit silo qui lui c'est des batons à la base qui t'appuient sur la même page il n'est pas suivi je prends l'exemple d'un site de la CCI je viens pour savoir comment je peux créer mon entreprise donc je choisis la thématique et créer cela qu'on retrouve ok en France ou à l'étranger en France il m'appuie sur des solutions c'est ça ta question est-ce que je favorise les deux alors je parle des structures en silo je dirais ça dépend de la typologie du site on vend beaucoup c'est la tendance on vend beaucoup les structures en silo et on dit que c'est la solution magie on dit que c'est la solution à tout il n'y a pas de règles la seule règle c'est la règle des 3T c'est quoi la règle des 3T c'est test, test et retest il n'y a pas de religion ce n'est pas des sciences exactes on doit tester il y a des sites c'est pour une structure en silo il y a des sites qui doivent être en structure plate qui sont liés à la rassile je vous donne un exemple très très simple je suis sur un site de mise ok j'ai un article qui peut être accessible depuis plusieurs catégories je choisis quel sub quelle catégorie en fait je l'appuie dans lui un exemple plus parlant j'ai une boutique je vend des accessoires pour bébé donc j'ai n'importe qui a l'accessoire pour bébé qui soit accessible et associé à plusieurs catégories je sais quoi je choisis quelques catégories et donc ce genre de cas en fait nous on préconise de tout mettre à la rassile pour les fiches produits pour éviter tout ce qui est canonicole structure en silo pas très optimisé parce que la structure en silo c'est pas juste plus rl ce que les gens croient c'est que dès que j'ai Maxi Clia.fr slash warfress slash installé warfress c'est une structure en silo c'est pas ça la structure en silo la structure en silo c'est structure du rl mais aussi toute une grappe c'est ontique au tour il faut créer cette scie mervie contre les deux assiettes donc si je fais une catégorie qui parle que des accessoires bébé avec un bon contenu et je fais des fiches produits etc je ne peux pas être associé à d'autres catégories donc c'est vraiment cloisonné en silo là si je fais du silo si ça communique contre eux si j'ai une fiche telle catégorie qui communique sémantiquement avec une autre là si j'ai de l'hybride en fait si j'ai d'une importe croix c'est clair ? il peut l'être mais on réveille le général en fait on va juste la canonicole elle veut dire quoi ? le moteur de recherche s'arrive vous voyez qu'il y a une balise canonicole ok si je ne fais pas de temps je vais sur le contenu original j'optimise sans travail c'est un peu comme les redirections d'ailleurs la force d'une canonicole c'est un peu comme les redirections d'ailleurs la force d'une canonicole transmet en fait le jus comme une redirection donc tout ce qui est passif tout ce qui est une autorité tout ce qui est autorité de la page je le transmet vers la nouvelle page c'est pas en fait si c'est fini ou pas pourquoi qu'il reste sémant ? alors personne m'a parlé de tant de chargement sur mobile alors que c'est la tendance on m'a parlé de HTTPS ni de l'effet d'IMP sur un site internet je vous donne des pistes hein l'IMP en fait c'est le format accélérer des pages pour nos vies c'est un format minimaliste qui charge un minimum de ressources pour servir en fait des pages très rapidement sur nos vies je peux leur demander hein peut-être qu'ils veulent rester