Comment Désindexer Des Pages De Votre Site ?

Comment désindexer des pages de votre site ?

Désindexer durablement les pages d’un site web des résultats de recherche

  1. Avantages à désindexer les pages d’un site ?

  2. Désindexation des pages des résultats de recherche

  3. Désindexer les pages de son site d’une autre manière

On parle souvent d’indexer les pages d’un site et des moyens quasi infini qu’il existe pour cela mais beaucoup moins des moyens permettant de désindexer des pages. Dans cet article je vous présente la méthode que j’ai le plus expérimenté et qui m’a permis d’effacer un nombre important de pages des SERP de google.

Avantages à désindexer les pages d’un site ?

désindexer pages

Effacez vos pages comme si vous effacez un mot

 

 

 

 

 

Les bénéfices sont très nombreux et dans certains cas cela peut même s’avérer obligatoire pour la survie de votre site. Prenons par exemple le cas d’un site qui se fait pirater, le pirate va générer des milliers de pages en un temps record afin de vendre le plus souvent des produits sur le site piraté !

Une fois toutes les pages supprimées sur le serveur, celle-ci seront encore disponibles et affichées en erreur 404. Le problème c’est que les robots de Google auront tôt fait d’indexer ces milliers de pages. Donc même si vos pages sont théoriquement supprimées, elles resteront toujours dans les SERP et Google continuera à les explorer ! Avoir un grand nombre d’erreurs 404 sur votre site envoie un message très négatif aux moteurs de recherche.

Non seulement cela détruit votre réputation auprès des moteurs de recherche mais également aux yeux de vos utilisateurs car cela va vous décrédibiliser complètement quel que soit votre domaine d’activité.

Une rapide recherche avec « site :url » vous permettra d’avoir un aperçu des pages de votre site et des pages éventuelles à supprimer. Pour une analyse plus profonde un crawler du type Screaming Frog ou Botify fera l’affaire.

Maintenant il est important d’introduire une notion qui est le crawl budget, celui-ci est lié d’une certaine manière au nombre de pages que vous avez et de la qualité de celle-ci. Le crawl budget est un score qui quantifie les ressources que google va attribuer à l’exploration de votre site. Plus votre site est optimisé et digne de confiance et plus google va vous attribuer un crawl budget élevé à votre site.

Le risque serait que Google épuise ses ressources à crawler des pages inutiles plutôt qu’à crawler des pages qualitatives. En général plus un site est connu et plus sont crawl budget est élevé.

Désindexation des pages des résultats de recherche

Dans la suite de l’article je vais vous montrer une des techniques permettant d’effacer les pages de votre site dans les SERP. En réalité il y en a plusieurs mais je trouve que celle-ci est la plus efficace. Elle m’a notamment permis d’effacer plusieurs milliers de résultats des SERP de Google.

Tout d’abord il vous faudra Google Search Console ou Webmaster Tool (c’est le même !). Cet outil est vraiment puissant, si vous ne le connaissez pas ou si vous souhaitez en apprendre plus sur son fonctionnement je vous invite à lire un de mes articles qui y est consacré !

Parmi les fonctionnalités de Google Search Console, une très utile, va vous permettre d’identifier les erreurs 404. Ces erreurs comme vous le savez déjà sont très mauvaises pour le référencement de votre site, il faut donc les supprimer au plus vite.

Dans votre Search Console vous allez vous rendre dans l’onglet « Exploration » puis « erreurs d’exploration ». Vous allez pouvoir trouver dans cette rubrique toutes les Url de votre site qui contiennent une erreur 404. Téléchargez le rapport pour récupérer toutes les URL. Il faut savoir que Google Search

Console n’affiche que les 1000 premières URL détectés. Donc si vous avez un grand nombre de page en erreur 404 vous ne pourrez pas toutes les voir à la fois. Il vous faudra supprimer les résultats trouvés par la Search Console et attendre que les robots crawl à nouveau les URL.

Une fois la liste téléchargée rendez vous dans votre serveur FTP pour récupérer le fichier robots.txt. Si vous n’en avez pas, créé le au besoin.

Search Console

Les pages en erreur 404 s’afficheront dans l’onglet erreurs d’exploration

 

Vous allez ensuite utiliser la balise noindex devant chaque url, cette balise permet d’empêcher une url d’être indexée par les robots crawler. Sur une url déjà indexée elle permet de la désindexer.

Placez la balise noindex devant chaque url comme dans l’exemple :

  • Noindex: https://urlaeffacer.com

Réalisez cette opération pour chaque url et enregistrez votre fichier robots.txt

Au bout de quelques semaines les url dans le fichier robots.txt seront effacées des SERP. Assurez-vous en, avec une commande « site :url » pour en être sûr ou au besoin avec un crawler.

Comme je vous l’ai dit plus haut, cette méthode n’est pas la seule pour enlever des pages des moteurs de recherche.

Désindexer les pages de son site d’une autre manière

Il existe également d’autres moyens comme celui d’aller sur chaque page à faire disparaitre des SERP et implémenter le même code dans la balise <head>.

Il est également possible grâce à la commande XRobots-Tag de désindexer plusieurs pages d’un seul coup en se rendant dans le fichier .htaccess se trouvant sur votre serveur FTP.

Enfin pour terminer sachez qu’il existe dans la Search console un outil permettant de supprimer de manière rapide des url de Google mais cette suppression n’est que temporaire et ne permet pas de supprimer un nombre important d’url à la fois.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.