WordPress : Optimisez la configuration de votre fichier Robots.txt !
5 commentaires
Vous aussi vous êtes convaincu que WordPress est aujourd’hui le meilleur CMS pour optimiser votre référencement naturel. On est d’accord! Et nous ne sommes pas les seuls. En effet, le géant Google semble apprécier fortement cette technologie dans la mesure où vous l’avez bien configuré – bien sûr.
Du choix de vos modules à la configuration de votre fichier robots.txt, vous pouvez rapidement vous retrouver avec du contenu dupliqué, des pages inutiles indexées, ce qui perturbe la compréhension de votre site par les moteurs de recherche et donc pénalise votre site en terme de référencement.
Vous trouverez ci-dessous les principales règles pour optimiser parfaitement votre robots.txt, de manière à guider les moteurs de recherche. Cela permettra à votre site de présenter les bonnes pages aux internautes et d’optimiser le jus de vos pages.
Fichier robots.txt WordPress optimisé
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-login.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /category/
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?
Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*.gz$
Disallow: /*.swf$
Disallow: /*.wmv$
Disallow: /*.cgi$
Disallow: /*.xhtml$
Une fois votre robots.txt configuré, rendez-vous sur la page suivante de votre site www.site.com/robots.txt afin de vérifier la présentation du fichier.
- Exemple pour notre site : https://www.eskimoz.be/robots.txt
Finies les pages /category/ qui sortent sur Google à la place de votre article, qui lui, contrairement à la page /category/, est parfaitement optimisé au niveau SEO.
Pour finir, l’utilité principale d’optimiser son fichier robots.txt sur WordPress est que vous concentrez le jus au bon endroit, au lieu de le partager sur plusieurs pages.
Pourquoi indexer 100 pages, quand seulement 10 sont utiles ?
- Pensez à consulter le guide pratique robots.txt de Google.
Depuis Google mobile friendly
Suite à la mise en place du label Google mobile friendly le 21 avril 2015, il n’est plus conseillé de bloquer les fichiers JavaScript, CSS et images car cela empêche l’obtention de celui-ci.
- Source : Google Developers
Même si le label n’a qu’une incidence sur les recherches mobiles pour le moment, il devrait prendre de plus en plus d’ampleur dans les mois/années à venir donc pensez à soigner minutieusement la limitation des accès à vos pages !
Vous souhaitez en savoir plus sur la mise en place d’une stratégie SEO ?
N'hésitez pas à nous contacter dès à présent !
Bonjour,
Il semblerait qu’interdire les css et js aux robots ne soit plus vraiment souhaitable. Si on test une page depuis « Explorer comme Google » dans l’outil webmaster (https://www.google.com/webmasters/tools/googlebot-fetch), si le css et js ne peuvent pas être chargé par Google, le rendu ne sera pas le bon, et Google semble accorder de l’importance au rendu d’une page puisqu’il en offre une vue dans cet outil.
Oui tout à fait, je confirme, et aussi de ne plus bloqué les pages catégories lorsque ces dernières sont optimisées. 🙂
Bonjour,
Il ne faut pas bloquer CSS et JS, tester là :
https://www.google.com/webmasters/tools/mobile-friendly
Vous verrez que cela pose un problème
Un grand merci pour ce billet très utile.
Bonjour, je viens de lire votre article et j’ai appliquer vos conseils concernant le javascript sur le robots.txt. et maintenant je suis mobile friendly. Merci à vous et continuez comme ça !