 Nous sommes donc live pour cette deuxième part des webmasters en français sur toutes ces questions de SEO Google. J'ai un invité un peu spécial aujourd'hui, John Muller qui est avec nous, qui comprend le français un petit peu et qui le parle encore un tout petit peu plus. Donc John et là, il ne va pas rester toute la session mais voulait juste venir faire un coucou. Oui, bonjour. En français dans le texte. C'est tout en français. C'est déjà pas mal. Donc John est à Dublain, l'endroit depuis lequel nous faisons cette session aujourd'hui, puisque nous avons cette semaine le sommet des top contributeurs européens. Vous le savez peut-être, nous avons des forums de support d'environ 15 langues, dont certaines langues européennes, le français, l'espagnol, l'allemand, etc. Et sur ces forums où moi je vais poster sur le forum français, John est sur le forum anglais et on a d'autres Googlers qui sont présents aussi sur ces forums-là. Nous avons aussi des contributeurs externes, des gens de la communauté, n'importe qui des SEO, des personnes qui ont des questions, des gens qui bossent en web marketing, tous les types de profils qui viennent aider d'autres utilisateurs sur toutes ces questions SEO. Et nous avons, ces personnes-là peuvent devenir étoiles montantes d'abord puis top contributeurs qui est un statut un peu avancé où on est un peu plus en communication avec elles, on leur donne un peu plus d'informations, ils ont accès à des beta tests, des choses comme ça. Et notamment on organise, on essaye une fois par an d'organiser un sommet pour les faire venir dans les bureaux de Google pour avoir des sessions de feedback, écouter ce qu'ils ont à nous dire, on fait venir des ingénieurs, etc. Et donc on va faire ces sessions-là, jeudi et vendredi. Donc c'est un plug complet pour le forum. N'hésitez pas à y aller, il y a vraiment une communauté très sympa. On va essayer. Merci John. Et on verra comment ça se passe. Au revoir. Au revoir. Alors, cette vidéo est disponible donc sur YouTube. Il y a dans la description de la vidéo YouTube un lien pour rejoindre le ingate dans lequel nous nous trouvons actuellement. Donc si vous avez des questions, vous avez envie de poser live, n'hésitez pas à venir nous rejoindre. Le fonctionnement de ce ingate, de ce YouTube live, c'est aussi de faire en sorte qu'on puisse poser des questions à l'avance pour que moi je puisse les prendre, prioriser un peu sa mission importante, celle que j'estime pouvoir apporter le plus de valeur ajoutée possible. Donc si vous voulez poser des questions pour les futurs événements, ce sera avec le hashtag sur Twitter, SEO Google FR. Et donc c'est un hashtag que je suivrai pour essayer de suivre, de répondre aux questions que vous avez particulièrement. Voilà, donc je ne sais pas si on peut commencer par une question en live, si des personnes qui nous ont rejoint veulent lancer le bal, sinon j'en ai prête, j'attaque. Bon ça va pas l'air. Alors je vais commencer. Il y a deux questions qui ont été posées, qui permettent un peu de couvrir des updates sur ce qui va être lancé bientôt, sur ce qui est en cours. Donc je vais commencer par celle-là. La première c'est Roger qui nous demande une date pour la nouvelle version de Search Console. Donc pour certains d'entre vous qui ne se répètent pas au courant, on a une nouvelle version de Search Console qui est en bêta en ce moment, qui est en fait un nouveau travail sur certains des rapports qui sont dans la Search Console. Donc pour l'instant ça ne remplace pas les outils actuels, ça vient en plus. Et avec une visée à long terme, lorsque la série d'outils sera complètement prête, de remplacer donc le Search Console actuel. Les premiers tests publics, celui public on va dire, puisque l'accessible à un petit nombre de webmasters, sont en place depuis maintenant quelques bonnes semaines. Au coeur de l'été on a lancé ça pour un certain nombre de webmasters. Et on a une logique en fait de lancement des outils les uns après les autres. Donc d'abord lancer un outil, regarder comment ça se passe, comment l'interface est utilisée et ce qui l'apporte de la valeur ajoutée aux utilisateurs ou webmasters qui ont accès à cet outil-là. Et ensuite de voir les feedbacks à la fois quantitatives et qualitatives et de faire un rapport là-dessus si ça fonctionne, on passe à l'outil suivant. Pour l'instant c'est la logique. Le test est fait auprès de si je ne m'abuse quelques milliers de webmasters actuellement, donc on est vraiment sur des petites échelles. Mais a priori le but serait de pour le début de l'année à peu près lancer l'outil pour tout le monde. Alors ces dates sont toujours à prendre avec des pincettes. C'est impossible pour moi de dire ce sera le X janvier ou le Y février puisque on ne lancera que quand ce sera prêt. Nous visons en tout cas assez vite. Nous espérons en 2018. Il y a eu une question subsidiaire qui a été posée par quelqu'un dans la salle dans le Hangout qui demande s'il y a des nouvelles sur le fait de donner plus de données que 90 jours dans les outils de la search console. Donc ça c'est quelque chose sur lequel on est en train de travailler peut-être pour amener plus d'informations mais pour l'instant on n'a pas de dates, on n'a pas d'informations particulières à communiquer actuellement. Donc voilà pour Search Console j'espère que ça répond à la question de Roger. Est-ce qu'il y a d'autres questions sur Search Console actuellement ? Oui moi j'en ai une. Sur la Search Console il y a aussi puisque j'ai la chance d'y avoir accès sur un site des données Google Amp qui remontent d'une manière complètement différente d'aujourd'hui. Ça aussi c'est prévu pour être lancé pour tous au début de l'année 2018. Oui donc pour l'instant il y a deux vraiment types d'outils qui ont été mis en place sur la nouvelle Search Console, la version beta dont les rapports AMP. Donc c'est quelque chose qui sera lancé pour tout le monde quand la version publique sera sortie. Merci. Je t'en prie. Est-ce qu'il y a d'autres questions sur la Search Console ? J'en vois pas. Je vais enchaîner. Oui Vincent bonjour. Concernant les remontées de recherche en Search Console justement il faut savoir s'il y avait de la visibilité à ce sujet. Sur les recherches vocales ? A priori pour l'instant je ne connais pas de projet pour le faire de manière complètement beaucoup plus visible qu'actuellement pas dans la Search Console. D'accord pas dans la Search Console mais éventuellement un autre outil en prévision. Nouvelle outil je ne pense pas intégration ailleurs mais ça fait longtemps que je n'ai pas parlé aux autres équipes des rapports pour les webmasters, pour les créateurs de site etc. Donc je ne peux pas vraiment répondre positivement à cette question. Ok merci quand même. Je t'en prie. Ok donc je vais passer à la deuxième question qui nous vient de Seb qui était est-ce que les tests du Mobile First Indexing ont commencé ? Donc une nouvelle fois pour ceux qui ne seraient peut-être pas au courant Google a annoncé quasiment un an qu'il va y avoir une sorte de transfert pour passer en fait à une indexation des pages en fonction de leur contenu pour site mobile plutôt que leur contenu pour site desktop comme c'est le cas actuellement. Et comme on le sait il peut y avoir de grosses différences dans les contenus dans les présentations, dans les différentes versions pour desktop et pour mobile. Donc les premiers tests de cette indexation Mobile First ont commencé il y a quasiment un an maintenant ça fait très longtemps qu'on a commencé nos tests. C'est un changement au niveau de l'index que nous communiquons bien bien en amont et cette fois-ci comparé à d'autres modifications que nous avions faits par le passé nous avons communiqué sans date de lancement précise auparavant nous avions donné le temps le X, juin nous auront telle modification etc. Cette fois-ci nous avons donné une update en disant que ça allait changer mais nous n'avons pas donné de date. Pourquoi ? Parce que nous sommes bien conscients que c'est un changement qui peut s'avérer majeur pour certains sites qui ont des versions complètement différentes entre desktop et mobile et du coup on veut vraiment faire en sorte que la modification soit la plus insensible c'est pas vraiment le mot qu'elle soit le moins senti que possible pour tout les sites, pour l'immense majorité donc ça se fait vraiment très progressive les tests actuellement sont en train de d'augmenter évidemment ça fait un moment mais pour l'instant on n'a toujours pas de date et la modification les tests se font vraiment de manière progressive avec des tests faits sur des petits sites, sur des grands sites sur des sites anglophones, francophones, d'autres langues etc. donc on essaie d'avoir la vision la plus globale, la plus holistique possible pour faire cette modification de l'index Est-ce qu'il y a d'autres questions au niveau du mobile first in vaccine ? Ok, donc j'en vois pas on peut passer un peu à la suite, est-ce qu'il y a d'autres questions des personnes qui me sont avec nous dans le hangout actuellement qui veulent les poser en direct j'aime bien des questions en direct c'est toujours sympa J'en ai une Vous avez récemment changé le referer pour Google news c'est le début de ce mois-ci et ça perturbe l'analyse de stats mais surtout je me demande pourquoi vous avez changé en fait ce referer J'ai pas suivi ce changement Google news c'est un peu une autre équipe qui s'occupe de ça je peux regarder si tu veux, si je trouve un peu une logique à ça On a aussi perdu le referer Google news sur les pages AMP et donc on a l'impression que vous êtes en train de débrancher cet outil-là ou du moins qu'il est en train d'être décommissionné au profit d'autres choses donc voilà ça m'interroge Google news, d'accord j'ai pas de nouvelles en particulier là-dessus je peux regarder si tu veux, je sais pas ce qui a été publié récemment OK, fais-moi une note sur Twitter, quelque chose comme ça j'essaierai d'y répondre dans les gens qui viennent OK Merci OK, si pas d'autres questions je vais enchaîner donc j'ai dans le les jours passés j'avais annoncé donc prendre des questions avec le hashtag SIO Google FR merci à tous ceux qui ont posé des questions d'ailleurs et notamment nous avons une des une des personnes qui est avec nous aujourd'hui dans le ringate on voit son icône en bas, le petit digital nous a concocté une liste de 10 questions donc merci déjà c'est vachement sympa d'avoir beaucoup de questions à traiter donc je vais essayer de y répondre je vais peut-être pas répondre à tout d'un coup pour pouvoir faire un peu une pause à certains moments pour voir si d'autres personnes ont d'autres questions mais on va les traiter dans l'ordre et puis on va voir ce que ça donne donc la première des questions était les images au format WebP ont-elles les mêmes chances de se positionner que des images JPEG ou PNG dans Google Images donc la question est impossible à répondre avec une valeur générale c'est à dire que répondre que tel type de format ou quel type de format est préféré à un autre etc surtout dans les images c'est quelque chose que je ne peux absolument pas venir et dire oui ou non puisque en fait WebP est un format comme un autre c'est un format qui est beaucoup moins utilisé il me semble moi même je n'ai jamais utilisé ce format là en particulier mais c'est donc un format comme au même titre que le JPEG ou que le PNG donc l'avantage réel de ces images étant pour tout ce qui est assez haut la taille ça permet de réduire largement la taille d'image on parle souvent de chiffres du type 20-30% de réduction de la taille de l'image donc sachant que c'est un format comme un autre en fait la réponse sur savoir si une image en WebP peut bien se positionner dans Google image ou non sera un peu la même que pour toutes questions de ce type sur les formats ça va dépendre aussi de tout ce qu'il y a autour est-ce que l'image est dans un contexte clair et compréhensible par le Googlebot est-ce qu'elle est explorable est-ce qu'il y a des légendes est-ce qu'on a des altagues problématiques de l'optimisation d'images habituelles je dirais ce qui est intéressant c'est que probablement ces images vont se charger plus vite ce qui de toute manière est un gain pour l'utilisateur pour la personne qui va charger la page et évidemment aussi pour le webmaster puisque ça fait moins de temps donc de toute manière c'est une chose positive si c'est bien implémenté pour les personnes qui nous regardent sur Youtube en direct si vous désirez nous rejoindre pour poser une question de vive voix à laquelle je puisse répondre maintenant il y a un lien dans les commentaires dans la description de la vidéo donc c'est mon moment un peu de faire le youtubeur en pointant la différence et en droit de la page allez en dessous cliquez pour nous rejoindre et puis cliquez à droite, à gauche, partout pour nous suivre, pour liker pour tout ce que vous voulez j'ai toujours voulu faire ça est-ce qu'il y a des questions en direct ? non j'entends un souffle mais rien alors je continue Google comment Google gère-t-il les codes 304 not modified cela a-t-il un impact positif sur la manière dont Google crawl un site à forte volumétrie donc la 304 c'est le code server qui en fait se donne une réponse le contenu n'a pas été modifié il est le même qu'il a été auparavant c'est un code server tout ce qu'il y a de plus légitime et Google le Googlebot comprend le code 304 arrive sur la page, voit que la page n'a pas été modifiée ne la crawl pas puisque c'est le même contenu qu'avant et donc ne ré-explore pas forcément la page en fonction de ça donc c'est à utiliser ce qu'il n'y a pas de mise à jour de contenu qu'on a exactement la même chose qu'auparavant il n'y a pas eu forcément de changement sur le contenu primaire de la page et la page est toujours accessible elle est toujours le webmaster, le gestionnaire du site veut toujours que les internautes et le Googlebot aient accès à la page donc on peut tout à fait mettre en place un code 304 Googlebot se le comprend très bien est-ce que ça a un impact positif sur les sites pour l'hymétrie j'imagine qu'on parle ici de crawl budget et d'impact sur l'utilisation du serveur etc oui a priori c'est assez positif puisque le code 304 indique au client qu'il n'y a pas besoin de refaire une requête sur le serveur pour trouver la page puisque c'est le même contenu pas avant donc en navigateur pas besoin d'aller rechercher la page elle est déjà en cache le contenu n'a pas évolué donc pas besoin d'aller faire une requête complète pour aller crawler tout le contenu de la page et le réindexer etc donc oui a priori ça peut être une bonne solution je mettrai un bémol je ferai un peu attention au 304 parce que on peut vite tomber dans des situations qui peuvent éventuellement être problématiques si le 304 est appliqué à des nouvelles pages par exemple ça peut arriver par erreur mais en place à configuration serveur si des nouvelles pages avec du nouveau contenu sont en 304 du coup ça peut être embêtant puisque google va penser ok c'est pas modifié mais qu'est ce qu'il est pas modifié parce que c'est la première fois que la page est crawlée donc attention à ce genre de configuration un peu problématique et puis une deuxième chose c'est qu'on peut avoir par exemple une modification de son thème une modification de son menu des nouvelles parties du site on a créé un nouvel onglet avec des pages dedans etc dans un cas comme celui-là ça peut être un peu embêtant apprendre avec des pincettes mais disons que si beaucoup de choses changent sur le site et qu'il y a un certain nombre de pages qui ne sont plus explorées par google parce que par exemple il y a des 304 du coup ça peut créer un peu de latence dans le moment où google va comprendre les modifications sur le site donc faire un peu attention et le faire sur des certaines pages à mon sens le conseil général ce serait de le faire sur certaines pages quand on sait vraiment ce qu'on fait sur le site de manière générale j'espère que ça répondait bien à la question est ce qu'il y en a en direct des questions ? toujours pas je continue je suis content d'avoir pris une bouteille d'eau je suis content d'aider la voix alors la question est quelle est la meilleure pratique SEO quand une page a beaucoup de résultats à afficher par exemple c'est un site de commerce une page catégorie où on a 1000 produits listés dans la catégorie une recherche interne d'image et puis le site héberge un nombre calculable d'image comment faire pour un SEO faire en sorte que cette page-là s'affiche dans toutes les manières et le sous-texte de la question était est-ce qu'il vaut mieux utiliser une finie scrolling est-ce qu'il faut mieux du contenu paginé quelle est la meilleure solution à mettre en place au niveau SEO la meilleure stratégie à mettre en place c'est celle qui correspondra le mieux à ce que cherche les utiliser à faire je vois déjà certaines personnes vont dire parce que c'est une réponse un peu bateau mais c'est très vrai en fait chacune des différentes méthodes de mise en place de solution pour gérer ce genre de page aura des best practices particulières mais c'est impossible de donner une réponse unique en disant à chaque fois qu'il y a une page avec beaucoup de contenu, beaucoup de résultats à afficher il faut utiliser A, B ou C c'est quelque chose qui dépend de beaucoup d'autres paramètres notamment l'architecture générale du site web et comment il est mis en place et les préférences utilisateurs qui sont les deux gros points à prendre en compte ce qui correspond le mieux aux attentes sera à mettre en place pour un site web qui soit facile à interagir avec pour les intamates ceci dit donc chacune des méthodes à mettre en place à ses avantages et ses défauts pour l'infinite scrolling c'est un lien que je pourrais repartager plus tard parce qu'il est un peu velu mais en se rendant sur scroll simple donc scro2l s-a-m-p-l-e .appspot.com slash items c'est un site de tests qui avait été mis en place par John Muller il me semble 2 ou 3 ans et qui donne un exemple de la façon dont mettre en place les l'infinite scrolling pour que le Googlebot comprenne ce qu'il se passe effectivement quand un internaut arrive sur la page et puisse découvrir le contenu qui se charge lorsque l'on scroll vers bas donc je repartagerais cette URL derrière on peut également utiliser le contenu paginet et le contenu paginet c'est quelque chose que comprenne la majorité des internautes c'est assez universel comme solution bien pensé évidemment à mettre en place les valises linkrelnext et linkrelprev pour indiquer sur une page par exemple la 5e page la page précédente est la 4e que la suivante est la 6e donc avec ces liens qui seront explorables par le Googlebot pour qu'ils comprennent que la page fait partie d'un ensemble de pages paginés et que donc il a ensuite scrollé les pages par exemple scroller les pages suivantes dans la pagination une page unique avec tous les résultats ça peut avoir du sens attention évidemment à la taille la vitesse de chargement ça peut devenir très vite difficile à contrôler donc peut être mis en place mais pas forcément recommandé à mon sens une nouvelle fois ça dépendra des cas particuliers il peut y avoir des cas particuliers ou ce sera à favoriser par rapport à d'autres d'autres solutions j'espère que ça répond à la question est ce qu'il y a des questions en live je rappelle pour les personnes qui viennent de nous rejoindre en direct si vous voulez nous rejoindre pour poser des questions de vive voix il y a un lien dans la description de la vidéo pour faire cela moi j'arrive une petite question Vincent par rapport à ta par rapport à la logique de pagination c'était sur un city commerce où t'as des pages 2, 3, 4, 5 il y a plusieurs pratiques qui sont exercées souvent on peut avoir le choix d'indexer que la première page et du coup sur les pages 2, 3, 4 de mettre une canonical vers la page 1 ce qu'on voit couramment des fois sur certains sites voilà, de remettre en noindex follow histoire effectivement de lui baiser de ne pas indexer ses pages justement pour favoriser la page 1 parce que souvent il y a une sille de meilleurité qui peut être importante entre les pages maintenant j'ai souvent l'impression de constater ma question était plus autour de la balise canonical j'ai l'impression de constater ces derniers temps que Google change un petit peu la logique si la page n'est pas tout à fait pareil contre la page 1, 2, 3 que Google ne prend plus en compte cette canonical d'accord, et donc toutes les pages indexées plus loin dans la pagination qui t'embête au niveau de ton reporting et de ta... d'accord c'est quelque chose que j'entends pour la première fois je ne vais pas forcément faire attention à ça je pense que ce qui est important ici c'est que tu puisses faire en sorte de contrebalancer ça donc au niveau de ton reporting c'est forcément idéal au niveau de ta navigation derrière tu dois pouvoir trouver un moyen de faire en sorte de ramener tout de même mes utilisateurs vers la page 1 pas forcément avec une redirection parce que c'est un peu agressif mais avec d'être une UX qui favorise d'aller reverter en page 1 surtout si par exemple ça a des listes des produits qui sont plus importants pour ton business ou après au niveau de... est-ce que la canonical est mise de côté par Google dans les cities commerce actuellement moi je n'ai pas vu ça spécialement si tu as des exemples ce serait intéressant de les voir j'en ai eu sur les cities commerce j'en ai aussi sur des sites de recettes aujourd'hui j'ai vraiment le sentiment que la balliste canonical si vraiment la page est plutôt identique ou vraiment qu'il y ait une petite différence elle n'est plus beaucoup pris en compte je prends l'exemple petite personnelle j'ai des sites effectivement dans les recettes de cuisine j'ai un site A vers un site B pour un moment à l'instant T on a décliné vers un site B on a fait un site thématique spéciale minceur donc on a décliné par exemple les recettes sur le site A on a laissé le contenu sur le site B du coup on l'a dupliqué on a fait une canonical de A vers B c'est le site B qui était positionné parce que c'est lui qui prenait la canonical et globalement depuis on va dire à peu près bonnement six mois j'ai vraiment l'impression que Google tient plus cette canonical en place il y a deux pages le contenu est un petit peu varié et du coup il en tient plus compte c'est étrange parce que normalement dans l'immense majorité des cas on essaie de respecter la canonical puisque le webmaster nous dit que la page B ne devrait pas être celle qui est indexée ou en tout cas servi donc difficile sans voir l'exemple de te répondre je pourrais donner les exemples si c'est possible de faire un poste sur le forum je peux regarder et te répondre là bas je t'en prie Vincent il y a des gens qui me disent qu'ils ne peuvent pas rejoindre le hangout c'est peut-être parce qu'on a une limite on est combien on est dix il y a peut-être une limite sur dix je crois sur youtube live c'est un beau produit ok bon ce retour également d'une personne bon d'accord donc à prendre en compte pour les prochaines les prochaines versions je vais faire mon train d'avail pour voir si c'est si c'est effectivement une feature du produit du produit en particulier une personne du coup nous a quitté donc il a une place disponible c'est la course ok je vais faire une pause dans les questions du petit digital pour en prendre une autre qui a été posé sur twitter toujours avec le hashtag c'est Sandrine qui nous demande forcez l'ouverture d'une application depuis la surf plutôt que le site lui-même en se servant d'une bibliothèque iOS est-ce que c'est bien ou est-ce que c'est pas bien donc sur l'exemple en particulier utiliser une bibliothèque iOS en particulier pour créer une app qui se lance depuis les surfs j'ai jamais utilisé personnellement et je n'ai pas vu spécifiquement d'exemple récemment donc je ne vais pas commenter particulièrement sur ce point cet exemple-là mais pour donner une réponse général ce genre de mise en place technique d'une solution dans les surfs va être tout à fait ok tant qu'elle est implémentée de manière correcte à la fois pour l'utilisateur et pour le googlebot donc il va falloir que l'utilisateur puisse accéder au contenu que ce soit par le résultat de la recherche sur un site ou par le résultat qui ouvre une appli donc ce soit la même chose pour le googlebot puisque le googlebot doit pouvoir comprendre effectivement ce qu'il se passe au niveau du contenu c'est un format qui existe chez google avec la Pindexing par exemple l'ancien il y a 2 ans qui est aujourd'hui amigé sur firebase mais qui est une solution qui est tout à fait possible à mettre en place parce qu'il y a un moyen de déclarer un contenu à la fois dans un site web et sur une page d'une appli et du coup de faire cette correspondance l'exemple particulier de ios dont on parle là c'est pas quelque chose que je peux répondre particulièrement sur cette solution là si c'est une solution qui permet un crawl correct et donc une compression du contenu a priori ça devrait fonctionner après est ce que c'est ce que les utilisateurs veulent voir difficile aussi de répondre ok est ce qu'il y a des questions en direct une ou deux personnes nous ont rejoint récemment si vous avez des questions n'hésitez pas question sur htps on en est où par rapport au message de google dans chrome donc c'est de Paul cette question au niveau de htps donc pour synthétiser assez rapidement chrome depuis un an maintenant à peu près avec certaines versions il y a à peu près une version par mois ou tous les 2 mois qui sortent de chrome mais en place des nouvelles choses au niveau du htps donc par exemple il y a quelques mois on est passé sur lorsqu'il y a des champs des formuleurs par exemple pour rentrer des informations personnelles une adresse email, un mot de passe un numéro de carte bleue quelque chose de vraiment personnel privé à ce moment là lorsque l'utilisateur commence à taper ou même il me semble clique dans le champ du formulaire dans chrome dans la barre de navigation en haut il y a un avertissement un cadre gris qui apparaît qui nous dit attention si non sécurisé lorsque la page est en http donc ça c'est en place depuis un moment maintenant cet avertissement est ou va passer en rouge bientôt donc beaucoup plus visible pour l'utilisateur et il me semble que dans la version prochaine de chrome qui doit être la 64 si je ne me trompe pas qui devrait être pour octobre novembre 63 ok donc j'étais un peu en avance devrait mettre ce genre de ce genre d'avertissement pile pour tout champ et pas seulement un champ de mot de passe ou d'informations privées donc à chaque fois que l'utilisateur entrera de l'information sur un site web il y aura cet avertissement. A terme le but de l'équipe chrome est de faire en sorte que n'importe quel site l'http uniquement sera sans doute flagué à l'ouverture donc même sans que l'utilisateur rentre une information dans le champ c'est une lame de fond j'imagine comme tu peux l'imaginer le https c'est vraiment maintenant devenu un canon dans l'industrie on a un chiffre google chrome il me semble qu'il y a publiqué récemment sur le fait que le 71 des tops 100 sites mondiaux utilisent le https désormais et j'imagine que la majorité des autres ont la migration https sur leur roadmap donc ça devient vraiment important d'être en https ça l'était déjà auparavant mais maintenant encore plus. Est-ce que ça répond à ta question ? ça répond à la question. Parfait alors je ressemble sur une question du petit digital quatrième dans l'ordre googlebot crawlt-il les liens intégrés dans les form actions donc dans des formulaires donc depuis une dizaine d'années environ le googlebot va essayer lorsque c'est possible de rentrer les informations dans un formulaire pour essayer d'explorer ce qui se passe lorsque ce formulaire est rempli et la logique de faire cela c'est que il peut y avoir du contenu sur un site web qui est derrière un formulaire en étant accessible, indexable etc et du coup il y a cette tentative d'accéder à ce contenu le googlebot peut parfois être un peu gourmand et essaye d'explorer un peu tout ce qu'il peut et du coup si lorsque ce formulaire est rempli un nouveau contenu apparaît une nouvelle page et mise un nouveau lien de ce qu'on veut à ce moment là ce contenu pourra être exploré et indexé si c'est autorisé par le robot X, par le index etc pour que Google essaye de comprendre ce qu'il y a sur ce contenu c'est du contenu qui a priori est disponible pour l'utilisateur et donc devrait pouvoir être exploré par le bot Est-ce qu'il y a des questions en direct ? toujours pas, alors je continue questions supplémentaires il y a-t-il un moyen d'indiquer à google qu'un texte important niveau UX donc interface utilisateur, expérience utilisateur est dupliqué en interne qu'est-ce qu'il y a un moyen d'indiquer que ce texte est dupliqué en interne sur ram and seed et deuxième partie de la question la balise blockout peut-elle être intéressante dans ce cas donc ici je demanderais peut-être un peu des précisions sur la question si tu peux te unmute parce que tu es avec nous dans le hangout qu'est-ce que tu veux dire par un texte important au niveau expérience utilisateur là en fait concrètement alors tu m'entends donc en fait concrètement ce qu'on a comme problème c'est sur des fiches produits on va monter un bloc qui va être identique sur toutes les fiches produits du même type et donc l'idée c'est vraiment de savoir si on pouvait le masquer entre guillemets à google en sachant que c'est vraiment intéressant pour l'utilisateur c'est le contenu sur la destination ou sur part des avis enfin le meilleur avis qui va être remonté sur une destination et qui va être appliqué sur beaucoup de pages différentes d'accord ça peut représenter je ne sais pas par exemple 50 mots sur un contenu de peut-être 600 mots dans la page c'est pas assez important enfin selon nous est-ce que c'est quelque chose qu'on peut entre guillemets masquer ou ça va être impossible de dire en termes de nombre de mots ou quoi à ce niveau là si tu veux un texte court un peu tu peux imaginer un contenu un peu primaire qui est vraiment le contenu de la page en elle-même qui n'est pas disponible sur les autres pages du site web et puis un contenu un peu secondaire si tu veux le primaire ce serait l'intérieur de l'oeuf et le secondaire ce serait la queue qui contient donc si on a des textes un peu vraiment courts qui sont juste une indication pour aider l'utilisateur à mieux utiliser toutes les pages produits un feedback sur tous les produits dans leur ensemble etc ce qu'il peut se passer c'est que Google va comprendre que c'est un peu un contenu structurel j'aime pas trop ce mot là mais j'ai pas trouvé mieux un peu pour l'expliquer c'est à dire que ça fait partie de la structure du site web et ça explique un peu certaines choses et donc ce sera pas vu forcément comme un contenu dupliqué ce sera vu plutôt comme un contenu explicatif un peu à la marge si tu veux en grossissant si c'est un texte plus important si c'est vraiment du texte qui répond à la question de l'utilisateur quand il vient sur la page etc à ce moment là ça peut être plus compliqué puisque ça reste du contenu primaire ça reste le contenu vraiment de la page et c'est beaucoup moins dans la structure autour et donc dans un cas comme ça il vaut plus éviter je sais pas si c'est vrai et donc du coup du coup avec la balise block code je sais pas quoi on a aucun moyen enfin une autre balise je sais pas non il n'y a pas d'autres balises pour indiquer ça il y a la balise canonical pour les pages mais pas pour une partie de la page la balise block code elle n'est pas faite pour ça elle est faite pour expliquer que c'est une citation qui vient d'ailleurs ce qui n'est pas le cas a priori à moins que tu veuilles commencer à t'amuser à hoster la citation ailleurs ou la note si c'est un avis tu peux hoster la vie ailleurs et puis faire un block code de cette avis mais je suis pas sûrement que ça résoudre ton problème ok, merci beaucoup je t'en prie moi j'ai une petite remarque par rapport à ça au niveau du bot on sait que les évolutions de HTML5, les sections justement ce que ça n'entrait pas dans ce cadre je sais que aujourd'hui il le prend pas on peut mettre plusieurs h1 dans la page si on gère des sections, le bot le prend pas parce que ce serait pas un début de réponse avec des nouvelles questions portées de mettre plusieurs concues à certains endroits je sais très bien que ce n'est pas préencontre par rapport au bot mais c'est une simple remarque je ne sais pas si comment ça s'applique directement au e-commerce ok est-ce qu'il y a d'autres questions en direct pour les participants pour Googlebot même si on met 10 salauds dans le robot texte Googlebot continue d'essayer de scroller des pages intervites un moyen de mieux bloquer de mieux bloquer le crawl le robot texte va être pris en compte lorsque le Googlebot arrive sur la page je vais aller directement vérifier le robot texte et la site map en général et donc il va essayer de respecter le plus possible le fichier robot texte il ne peut pas forcément et puis il peut arriver aussi par d'autres vecteurs qui sont par exemple la page est en lien sur un autre site etc et donc il va la suivre il va arriver d'une manière particulière donc demander de ne pas scroller ce n'est pas une directive obligatoire c'est une demande du webmaster donc le bloquer entièrement ça ne va pas vraiment être faisable en revanche c'est quelque chose que Google va essayer vraiment de comprendre ce qu'il peut se passer beaucoup c'est que lors du premier temps où une page va passer à demander à ne pas être exploré par le robot dans le robot texte dans les premiers temps à ce moment là ça va mettre plus de quelques jours ou un peu plus en sorte que Google arrête d'explorer cette page là et avec le temps normalement ces chiffres devraient diminuer pas mal si c'est une page qui est disponible avec du contenu mais qu'on veut tout simplement ne pas scroller du tout il me semble bien, sauf si je débétise que ce n'est pas possible de l'empêcher entièrement parce qu'en fait c'est une page de géolocalisation donc c'est à dire une page je ne sais pas si tu peux nous parler d'un micro, Paul nous expliquer un peu plus page de géolocalisation peut-être qu'on est sur si tu le reprécites tu as un peu la question soit sur Twitter, soit sur le forum des webmasters, peut-être que je pourrais apporter une réponse plus particulière mais la réponse générale c'est de dire qu'empêcher complètement le crawl difficile, le diminuer progressivement avec le temps normalement c'est de la façon dont ça fonctionne si tu vois des choses très différentes nous les remonter peut être intéressant c'est peut-être un bug, c'est peut-être quelque chose bizarre qui se passe au niveau du Googlebot ça couvre aussi une autre question qui était pourquoi Google vient toujours scroller des pages 404.410 avec une information supplémentaire qui est que les pages 404.410 nous continuons à les explorer dans ces codes qui sont censés dire qu'il n'y a plus de contenu pour deux raisons la première c'est qu'il peut y avoir des erreurs, une page qui est mise en 450 par erreur du webmaster si nous décidons de ne plus jamais venir vers cette page en fait c'est une punition bien trop forte pour une erreur de configuration server ça veut dire que si on met une page en 404 tout son site en 404 un jour parce qu'on a déconné, on a fait un truc qui a mis tout le site en 404 ça veut dire que Google ne viendra plus jamais scroller le site ce qui peut être un petit peu embêtant donc il y a ce premier aspect et le deuxième aspect c'est de dire que une partie des 404.410 peuvent être mises temporairement par certains webmasters on voit des cas où le site pendant un mois pour une rénovation étant en 404.410 etc et du coup on essaye de revenir de revenir directement sur la page après un certain temps pour vérifier si ça a changé ou non, si c'était uniquement temporaire si c'était une erreur etc j'espère que ça répond la question de la personne Comment une passage de Googlebot faut-il pour qu'une 301 soit prise en considération de manière définitive j'ai vu des cas où après 20 passages Googlebot continue de tenter de fêcher de trouver la page URL en général Google essaye d'être un bon citoyen du net en essayant de ne pas prendre trop de ressources serveurs en essayant de ne pas trop scroller de manière abusive pour que le serveur de webmaster ne soit pas trop impacté parfois le système pense avoir des bonnes raisons pour revenir sur le site et donc ça charme peut-être un petit peu dans un cas comme ça oui ça peut arriver il n'y a pas de chiffres il n'y a pas forcément de systèmes qui disent ok donc là une page est passée en 404 donc on va essayer 3 fois une fois par semaine sur les 3 semaines qui viennent et si après après on n'arrête à tout jamais ça va pas être comme ça sur des 301 et 302 ça peut être pour plein de raisons ça peut être parce que certaines des anciennes pages sont sur une site map qui a été oubliée ça peut être parce qu'il y a des liens sur d'autres pages et du coup il y a des utilisateurs qui reviennent sur ces pages là ça peut être pour tout un tas de raisons et donc il y a beaucoup de réponses à comment l'éviter la réponse générale à ça comment éviter que Google ne comprenne pas vraiment les 302 c'est de dire que le mapping au moment de la transition 301 d'un ancien site ou d'un ancien page vers des nouvelles que le mapping soit fait de manière claire concise avec les nouvelles URL potentiellement envoyées en site map il y a plusieurs écoles mais essayez de faire en sorte que la structure de la migration soit bien comprise par Google il y avait une question supplémentaire j'espère que ça répond à ta question Virginie moyennement et la question subsidiaire de Paul qui était combien de mois il peut toujours avoir les 404, 410 explorés ça peut être admissible j'ai déjà vu des pages explorées 3 ans, 4 ans après des migrations parce qu'on n'a pas toujours ça oblige parfois quand il y a un changement des bergeurs à garder en virtualisé des anciens sites des anciens serveurs pour regarder des redirections effectivement j'ai vu des redirections qui étaient en place pendant 8 ans 9 ans là on arrive à des choses qui sont un peu cascaillennes et sur des parts importants de trafic non c'est pas des parts importants de trafic mais derrière il y a quand même du it il y a une chose à mettre en place il est supprimé et a du coup se retrouver avec des 404 qui arrivent alors avoir des 404 c'est pas forcément un problème au niveau SEO c'est à dire que là où ça devient un problème c'est quand c'est le symptôme du problème, c'est à dire qu'il y a un problème sur le site qui fait qu'il n'est pas explorable les 404 augmentent, on les voit dans search console on les voit sur les logs etc et du coup ça peut nous mettre au parfum du fait qu'il se passe quelque chose et du coup il faut investiguer et trouver une problématique comme ça 404 c'est pas une négative en soi il n'y a pas du tout une logique de dire ok un site qui a 10% de ses pages en 404 il n'est pas maintenu du coup on va le baisser dans le reste des résultats il n'y a pas du tout de relations comme ça direct la relation est simplement que s'il y a du contenu important et à jour sur des pages qui sont en erreur serveur à ce moment là ça n'a pas forcément un impact autre que effectivement créer un peu cette technique qui peut être parfois un peu lourd à gérer avec le temps mais de manière générale j'ai vu beaucoup de cas comme ça avec des pages toujours croulées avec le temps mais j'ai jamais vu vraiment de cas où c'était majeur et où il y avait une énorme une énorme erreur de configuration qui faisait que quelqu'un perdait 50% son trafic sur des anciennes pages etc si c'est le cas c'est vraiment des exemples que nous voudrions voir parce qu'il peut y avoir un bug ça répond à ta question ? pour moi c'est bon oui j'ai vu une question sautée à l'écran aussi tout à l'heure il y a 3 minutes qui demandait de la part d'olivier quelle serait le post de Danny Sullivan à Google donc certains d'entre vous sont peut-être au courant Danny Sullivan, blogueur de la CEO de l'Union vient de rejoindre Google donc son rôle sans rentrer dans les détails je pense que lui sera plus à même de donner une mise à jour lorsqu'il soit à l'aise avec l'idée de le faire en gros il va être là pour expliquer le fonctionnement du moteur de recherche au plus grand nombre et de manière assez j'imagine ça c'est mon avis personnel assez didactique, Danny a toujours été a bien compris beaucoup des problématiques de Google et à une certaine sensibilité et c'est très bien vulgarisé expliqué des concepts compliqués de manière très compréhensible etc et du coup je pense c'est mon avis personnel qu'il va se concentrer là-dessus mais je crois qu'il faut vraiment attendre que lui dise ce qu'il va faire exactement avant d'en parler entre eux il y a d'autres questions en direct et puis on a quelques minutes qui restent donc on essaiera de continuer quelques autres questions après est-ce qu'il y a des questions ou des retours ça peut être aussi des retours positifs ou négatifs sur tel outil, sur telle chose qu'on a communiqué ok donc je continue on retourne sur question du petit digital les partages sociaux impactent-ils les résultats de recherche de Google en 2017 la réponse ne change pas c'est non la data des réseaux sociaux est très bruyante noisy c'est très très compliqué d'obtenir des insights qui soient utilisables ensuite dans nos algorithmes c'est-à-dire que trouver des signaux pour corréler les réseaux des signaux sociaux la donner sur le nombre de partages ou autre avec l'aspect qualitatif d'un document donc que ce soit une image, une page web etc c'est extrêmement compliqué c'est quelque chose c'est comme on peut le savoir c'est pas parce qu'une page est très partagée qu'elle sera forcément qualitatif dans des considérations autres que search une page avec un contenu très minime qui est ancienne tout est partagé sur Twitter on sait pas comment ça prend un peu feu c'est de trouver des informations en utilisant ce critère n'est pas quelque chose qui est vraiment faisable c'est la même chose pour Google Analytics les données de Google Analytics de visite etc ne sont pas pris en compte puisque c'est pas forcément des choses qui indiquent de la qualité générale un commentaire de Virginie qui disait oui mais pourtant on a les tweets sur les pages US de Google des moteurs de recherche qui sont indexés oui c'est une question de différence c'est à dire que utiliser du contenu créé sur un réseau social comme réponse potentielle à une requête d'utilisateur oui ça peut se faire et ça se fait actuellement utiliser le fait que un article d'un éditeur en particulier a été partagé 1000 fois alors que un article d'un autre éditeur a été partagé 10 fois pour déterminer que l'article du premier éditeur est plus qualitatif que l'article du deuxième éditeur c'est ça que nous ne faisons pas nous n'utilisons pas des signaux sociaux dans la phase algorithmique du moteur de recherche mais en revanche indexé Twitter oui c'est quelque chose qui se fait actuellement j'ai vu passer une question de Paul mais elle a disparu et du coup j'ai pas pu bien la voir je ne sais pas si quelqu'un l'a vu et peut la répéter dans search console au renou plus de détails sur les pages indexés et les pages scrollés je pense que tu devrais essayer de voir si des gens ont parlé de la nouvelle version de search console ça pourrait t'intéresser oui le sourire un petit peu qu'utilisez-vous pour déterminer le AT qu'est ce que le AT question en direct expertise authority trust c'est un terme avec lequel je ne suis pas vraiment très je suis pas très au fait de ce terme là j'imagine que c'est pour déterminer en fait l'aspect de confiance que l'on peut avoir dans un site web dans une page web si c'est le cas si c'est vraiment la question à ce moment là ce qui va compter c'est l'expertise alors compliqué de déterminer de l'expertise et c'est un ensemble général une question qu'on peut se poser c'est est-ce qu'une page un contenu apporte une valeur ajoutée qui n'est pas apportée par le reste du corpus qui est sur google pour une requête particulière pour un intérêt particulier des internautes donc de savoir est-ce que je suis capable d'apporter une valeur qui n'existe pas actuellement puisque pas forcément pas forcément de on va prendre un exemple particulier je sais pas si on a un nouveau type de yaourt et il y a des articles de presse qui sortent sur le lancement du nouveau yaourt qu'est-ce qui va faire que mon site, ma page mon article sur ce yaourt en particulier va apporter une expertise qui n'est pas disponible ailleurs comment se dire que l'internaute va faire confiance à la personne donc il va falloir montrer une expertise il va falloir montrer que l'on connaît le sujet il va falloir montrer que le contenu est là il est de qualité, il répond à la question il est recherché c'est des critères un peu subjectifs et un peu compliqués à verbaliser puisqu'on a un système automatisé qui doit trouver qui doit comprendre un concept très humain donc se concentrer sur apporter un contenu qui a des réponses qui ne sont pas apportées par les autres apporter quelque chose d'un peu unique d'un peu nouveau d'un peu original in west 5 minutes on peut peut-être prendre une ou deux dernières questions en direct j'aime bien entendre vos voix donc si vous en avez n'hésitez pas sinon j'en ai toujours moi je peux avoir une question sur les futuristes mypads oui j'ai le sentiment que les sites médias sont en place de cet emplacement donc position 0 en français la traduction la réponse qui est abortée par google j'ai l'impression que les sites médias peut-être le monde les figaro, l'express peuvent être baquissés en fait de cet emplacement même si effectivement je peux comprendre qu'on ne pousse pas les actus mais les différents sites peuvent avoir du contenu type news, effectivement qui ne remontent pas par ce levier-là mais peuvent aussi avoir du contenu plus didactique d'accord et en fait j'ai l'impression qu'il y a vraiment une segmentation et si on fait de l'actu on peut peut-être c'est une décision algorithmique de savoir quel document doit apparaître ou ne doit pas apparaître en feature snippet en position 0 il n'y a pas à ce que je tache il n'y a pas de problématique de blacklisting ou d'enlever certains résultats plutôt que d'autres je pense que effectivement il y a un peu cet aspect de site qualitatif c'est très, c'est les sites de news traitent souvent de problématiques complexes avec on est loin souvent d'avoir des des réponses binaires oui ou non ou noir ou blanc etc. là où les features snippet si tu observes un peu le genre de requêtes sur lequel elles apparaissent souvent c'est dû très précis quel est le ou combien de personnes tu atteins c'est quand on arrive à trouver vraiment une réponse qui en une ligne un mot une phrase puisse répondre à la requête de l'utilisateur donc je ne pense pas que ces sites soient blacklistés je pense qu'ils n'ont pas de contenu qui répondent forcément à ce genre de questions et si ils en ont peut-être que ne sont pas montrés parce qu'algorithmiquement il y a d'autres sites qui répondent mieux à ces questions là d'accord mais enfin sur le lot est-ce que tu dis est certainement vrai sur la pertinence de contenu mais sur l'ensemble des médias il y a parfois des sites médias qui font justement des contenus inactifs pour essayer de travailler justement cette position 0 et qui ont 0 0 effectivement le placement je pense que au delà de la question plus particulière en fait il y a cet aspect de devenir même pour les médias n'importe quel site d'interagir directement avec l'internaute et mon avis personnel c'est qu'un autre biais qui peut être intéressant à ce niveau-là surtout si on parle de sites médias par exemple qui ont souvent des équipes dédiées de développeurs etc passer sur la AI API donc passer sur les actions avec l'assistant doit pouvoir apporter plus de capacité de reporting, de comprendre mieux l'implémentation de la tech qu'une feature de snippet qui est toujours soumise à un algorithme moins précis c'est beaucoup plus clair avec l'assistant je t'en prie et donc le temps pour une dernière question si vous en avez une dans l'audience pas forcément moi je m'avais juste une par rapport au bloc de maillage qui sont situés au-dessus de la ligne de flotaison est-ce qu'ils ont plus de poids ou de pondérations par rapport à des blocs de maillage qui ont été situés plus bas ou en dessous au niveau du footer par bloc de maillage tu veux dire par exemple je sais pas admettons on est sur une page produit on va mailler d'autres pages des liens qui sont donc plus les liens au-dessus de la ligne de flotaison c'est plus de poids que les liens qui sont en dessous de la ligne de flotaison pas forcément non pas forcément ce qui va être important c'est qu'il soit parfaitement explorable et clicable par le googlebot donc qu'il soit pas dans des fonctions javascript, bizarre ou des trucs de genre là qui empêchent le googlebot d'y accéder quand un lien est accessible en fait pour le googlebot et pour l'utilisateur il va être pris en compte de manière générale c'est pas forcément l'emplacement sur la page qui va te donner l'importance d'un lien tu peux en avoir par exemple ce qui se fait beaucoup c'est tu sais sur les sites des entreprises tu peux avoir un lien jobs ou emplois ou quoi dans le footer en général ces liens là sont souvent dans le footer le fait qu'il soit sous la ligne de flotaison n'empêche pas du tout le googlebot de le comprendre de le voir et de savoir aussi que nous de notre côté on sait que les internautes peuvent chercher une page d'un site d'une entreprise la page le lien vers le portail carrière donc ce lien là sera bien compris par le googlebot puisque ça correspond à l'usage des internautes donc a priori non il n'y a pas d'histoire de ligne de flotaison qui rentre en ligne de compte là où c'est problématique c'est si tu mets des liens en footer avec de l'infinite scrolling ce que j'ai déjà vu ok très bien question de paul tu passes quand à paris pour faire un apéro sio j'adore j'aime bien finir sur cette question là c'est parfait a priori en début décembre je serai peut-être à paris et si c'est le cas quand c'est le cas de toute façon je tiendrai au courant je suis sur twitter et donc quand je passe je tiens en général la communauté au courant et la dernière fois j'ai été un apéro sio justement rencontrer certaines personnes c'était bien sympa donc je referai à l'avenir de toute façon ok donc il est 15h chez vous 14h chez moi merci à tous de nous avoir rejoint aujourd'hui c'était sympa d'avoir des questions en direct aussi la prochaine fois je préférerais les avoir de vive voix c'est toujours mieux de discuter en plus je peux rater parfois les questions quand elles sont quand elles sont en écrise dans le hangout donc merci à tous et j'espère qu'on pourra faire une dernière session cette année novembre sera très occupé pour moi mais en décembre on devrait pouvoir organiser ça donc merci à vous et bonne journée