Google indexe les sites régulièrement. Comment s’assurer d’être trouvé puis d’être bien classé pour apparaître dans les premiers résultats?

Google indexe les sites

L’algorithme de Google n’est pas pas public, néanmoins certaines bonnes pratiques sont recommandées pour que chaque page de votre site soit indexé et classé. Évidemment il s’agit d’avoir des pages optimisées selon chaque recherche des internautes. Mais les points techniques suivants méritent une attention particulière pour favoriser l’indexation. 

  • Site en https
  • Mobile friendly
  • Fichier robots.txt à jour
  • Sitemap à jour
  • Pas de contenu dupliqué

Https quésako

Au début d’internet, les adresses des sites ressemblaient à http://www.monsite.com. HTTP veut dire « hyperText transfer protocol ». Il s’agit de la manière dont les données sont acheminées pour être affichées sur votre site. La récolte d’information s’étant généralisée sur les sites internet un S a été ajouté au protocole. Le « S » signifie que le protocole de transfert est sécurisé. Google est sensible à la protection des données des utilisateurs et privilégie désormais le https.  

Mobile friendly

De plus en plus d’internautes utilisent leur téléphone ou leur tablette pour accéder à l’internet. Google suit évidemment la tendance et a annoncé que le fait d’être « mobile friendly » serait un critère pour le classement des pages sur Google. Il s’agit donc de s’assurer que les pages de votre site web soient facilement navigables sur mobile pour qu’elles apparaissent dans les résultats de recherche. Les outils de Google tels lighthouse permettent de contrôler cela.

Le capital d’indexation

Dépendant de votre autorité, Google passe plus ou moins régulièrement pour indexer les différentes pages de votre site et y passe plus ou moins de temps. Il est important de s’assurer que ce capital d’indexation soit utilisé au mieux. Pour cela, vous pouvez tirer avantage du fichier robots.txt. Ce fichier doit être placé à la racine de votre site et s’appeler robots.txt. Il contient diverses instructions pour les robots d’indexation des différents moteurs de recherche. Il est notamment judicieux de restreindre l’accès aux pages ou sous-dossiers qui ne sont pas censés être affichées. Il est important de noter que ces instructions sont des recommandations et non des obligations. Elles servent avant tout à optimiser le temps passé sur votre site par les robots et à éviter que Google ne perde du temps sur des pages sans intérêt mais se concentre sur l’indexation des nouvelles pages. Elles ne constituent en rien une protection par exemple pour l’accès à un espace membre.

L’importance relative des pages de votre site

Votre site aura une structure particulière conçue pour que vos visiteurs puissent y naviguer le plus simplement possible. Néanmoins, il convient également d’informer Google de l’importance relative de certaines pages afin de faciliter le processus d’indexation. Pour cela il convient de construire un sitemap xml. Cela se fait très aisément avec les plugins de WordPress. Il est également possible de référencer plusieurs sitemap dans le sitemap principal; par exemple un sitemap pour le site et un pour le blog. Ce sitemap peut ensuite être envoyé à Google via la Google Search Console pour avertir Google. Il est utile de le renvoyer à Google à chaque changement important de votre site. Comme le fichier robots.txt, le sitemap doit également être stocké à la racine de votre site. Il sera visité à chaque passage du robot de Google. 

Le contenu dupliqué

Google désire présenter uniquement du contenu original à ses internautes. Ils pénalisent donc fortement le contenu dupliqué. Vous pouvez penser être à l’abri si vous ne faites pas de plagiat, néanmoins il peut arriver que vous vouliez faire deux pages au contenu similaire, par exemple pour des pages d’atterrissage de campagne qui n’ont pas vocation à être trouvées dans les résultats de recherche de Google. Vous pouvez en ce cas informer les robots de ne pas indexer ces pages pour éviter que vous soyez pénalisé. Cela s’effectue grâce au tag no-index. Moz peut vous aider à découvrir le contenu dupliqué car parfois cela passe entre les gouttes. Si vous n’avez pas spécifiquement précisé que vous ne désiriez pas l’indexation d’une page en particulier. Google pourrait penser que vous cherchez à flouer l’algorithme pour booster votre position dans les résultats de recherche et sera tenté de vous pénaliser.

Au final, avoir un site à jour (https et mobile friendly) et maîtriser les fichiers robots.txt et sitemap.xml tout en évitant les duplications de contenu permet d’optimiser la découverte et l’indexation de vos pages par Google ainsi que de maximiser les chances d’être bien classé. Il ne vous restera ensuite plus qu’à produire du contenu pertinent pour vos lecteurs. 

Intéressé à en savoir plus sur l’indexation et sur le référencement naturel?

Téléchargez les vidéos des 4 étapes pour un référencement Google réussi.