Cas Pratique : Comment J’ai Fait Gagner +60 % De Trafic à Un Site Pénalisé Par Google

Cas pratique : Comment j’ai fait gagner +60 % de trafic à un site pénalisé par Google

Sommaire :

  1. Comment ai-je remarqué la pénalité ?

  2. Une fois la pénalité détectée, que faut-il faire ?

  3. Que faire si le problème n’est pas identifié ?

  4. Quels étaient les facteurs de pénalité ?

  5. Comment ai-je détecté les pages de mauvaise qualité ?

  6. D’où provenait le problème ?

  7. Quelle a été la solution mise en place ?

  8. Quels ont été les résultats ?

  9. Conclusion

En tant que SEO, j’ai été amené à plusieurs reprises à traiter des cas de pénalité Google auprès de clients/entreprises pour lesquels je travaille. 

Il s’agit toujours d’un sujet difficile à traiter pour plusieurs raisons : 

  • La pénalité peut avoir un impact catastrophique sur le trafic : jusqu’à 80 % de perte. Ce qui engendre aussi une perte du Chiffre d’affaires. On est donc tenté d’agir dans la précipitation au lieu de se poser et de réfléchir aux bonnes questions.  
  • Google communique peu, voire pas du tout sur certains filtres algorithmiques, il est donc difficile de cerner quelle est la MAJ qui pose problème.
  • La pénalité peut être progressive : on ne sait pas que le site est pénalisé, car il peut s’agir d’une pénalité algorithmique donc rien dans la SC. Et on peut douter de l’effectivité de la pénalité malgré un trafic qui diminue. Les raisons peuvent être variées : saisonnalité, suppressions de pages, mauvaise communication, diminution du trafic payant etc…
  • Même en ayant identifié la pénalité avec certitude, il peut être difficile d’être en mesure de la révoquer, celle-ci peut toucher l’essence même d’un site et donc le remettre en question dans son entièreté. 

Au final, un site qui a subit une pénalité et qui a réussit à la révoquer n’est pas sûr non plus de recouvrir son trafic initial, d’ailleurs ce n’est pas toujours le cas. Dans tous les cas, le processus est long et affectera le site durablement. 

Nous allons revenir sur un cas précis d’un site qui a perdu jusqu’à 60 % de son trafic à la suite d’une pénalité Google.

Comment ai-je remarqué la pénalité ?

1ère étape : confirmer la pénalité

Si vous faites un reporting à minima mensuel de votre site, vous vous apercevrez vite que votre trafic chute. Il suffit d’observer la provenance de votre trafic et de comparer le trafic organique au reste de vos canaux d’acquisition. Si le trafic organique diminue, mais pas le reste de vos canaux, cela veut peut-être dire que vous êtes pénalisé. Mais cela n’est pas suffisant. Il y a des tonnes de raisons qui vous feront penser que vous êtes pénalisé et pourtant cela ne sera pas le cas. 

Alors que faut-il faire ?

Il faut confirmer les résultats, vous devrez donc observer la perte de trafic sur plusieurs mois. Si la chute est constante sur plusieurs mois sans jamais remonter, vous pouvez en déduire que vous avez été pénalisé.   

Dans mon cas, le site perdait son trafic organique à un rythme de croisière de 20 %/mois ! Il n’a donc pas été difficile d’en déduire qu’il y avait filtre algorithmique. 

perte trafic organique mars 2018 juillet 2018

Une fois la pénalité détectée, que faut-il faire ?

2ème étape : rechercher sur le site ce qui a pu induire la pénalité

C’est à partir de ce moment que votre travail va réellement commencer.

Qu’il s’agisse de votre site ou du site d’un client, la première chose qu’il est important de connaître, c’est l’historique du site. Pas seulement en terme SEO mais de manière générale : design, changement globaux, contenu, coup de com, publicité etc…

Il faut déjà à ce stade de l’enquête avoir en tête tout ce qui peut déplaire à Google (et la liste est longue !) pour essayer de déceler les prémisses d’une piste.

A ce niveau là, j’avais déjà une idée de ce qui avait pu énerver Google, et pourtant… je faisais fausse route… 

J’ai donc remonté le fil de l’historique du site pour m’apercevoir qu’il avait subi des actions de NSEO, assez classique dans les années 2008/2015 : ancre porn + mass follow et le tour était joué. Sauf que les attaques étaient bien trop anciennes 2015/2016 et le site s’était remis sur pied depuis. Il y avait peu de chances que le site se refasse pénalisé par le même filtre 2 ans après, alors que rien de plus n’avait été fait.  

La thèse du spinning de masse avait été rapidement écarté aussi, trop peu de textes dont beaucoup enlevés bien avant la chute du trafic. 

Je me suis donc concentré sur les derniers mois qui attestaient d’une perte de trafic et pourtant rien d’anormal à mes yeux.

Que faire si le problème n’est pas identifié ?

3ème étape : déterminer le filtre algorithmique en cause

Dans mon cas, la pénalité n’était pas commune, elle m’a donc demandé une analyse plus approfondie. 

Dans ce cas, il faut historiser les principaux changements de l’algorithme de Google entourant notre période de baisse de trafic. Quand on creuse un peu, on s’aperçoit que Panda et Penguin ne sont que la face cachée de l’iceberg, il y a bien d’autres filtres susceptible de faire chuter votre trafic.   

TIPS : le début d’une pénalité commence souvent par une hausse du trafic et des positions. 

J’ai donc continué mes recherches pour trouver les filtres algorithmiques qui étaient en lien avec la pénalité.

Trois semaines avant le début de la chute, soit le 10 Mars 2018, avait été confirmé le déploiement d’une importante MAJ appelée Fred Version 2 et celle-ci portait sur la qualité des sites. Certains sites accusaient une perte de positions massives, avec des chutes de trafic allant jusqu’à 80 %.   

La mise à jour Fred avait déjà était déployée 1 an auparavant, soit  le 8 mars 2017 dans sa première version. Surprise : le site avait accusé une légère baisse de trafic à ce moment là. Cette baisse est néanmoins durable tout au long de l’année.

Sur Twitter, Google confirme :

Each day, Google usually releases one or more changes designed to improve our results. Some are focused around specific improvements. Some are broad changes. Last week, we released a broad core algorithm update. We do these routinely several times per year….12/03/2018

“On Monday, we released a broad core algorithm update, as we routinely do throughout the year. For background and advice about these, see our tweet from last month…” 16/04/2018

Si j’avais une idée du coupable, il me fallait maintenant plus de détails quant aux sites visés par la MAJ et les facteurs qui avaient déclenchaient la pénalité.

Google explique que dans la MAJ Fred 2, les sites visés sont ceux qui sont perçus comme étant de mauvaises qualités. L’affirmation étant trop vague, et à ce niveau, il était impossible d’en déduire ce qui avait provoqué la pénalité.

Quels étaient les facteurs de pénalité ?

Google s’était attaqué aux sites ayant peu de contenu ou du contenu jugé comme étant de mauvaise qualité. 

On préconise en moyenne 500 mots/page pour éviter d’avoir un contenu trop faible. Il s’agit d’une moyenne basse, car Google préfère en réalité les pages ayant un contenu atteignant les 1000 mots. La qualité du contenu d’une page est également évaluée en fonction des autres pages du site, donc si le même contenu est présent sur toutes les pages du site, celui-ci est considéré comme moins intéressant et qualitatif. 

Enfin, Google se sert des KPI de comportements utilisateurs pour évaluer l’intérêt d’une page pour les utilisateurs. Et ça semble logique : plus une page est intéressante, meilleurs seront ses statistiques.  

La publicité était également visée : pop-up essentiellement et autres procédés publicitaires qui dégradent l’expérience utilisateur. 

Comment ai-je détecté les pages de mauvaise qualité ?

J’ai audité en profondeur les pages du site, en relevant les facteurs utilisaient par Google pour noter la qualité d’une page, c’est-à-dire :

  • Le nombre de mots/page
  • Le pourcentage de contenu similaire
  • Le temps d’affichage moyen des pages
  • Le taux de rebond
  • Le temps passé/page
  • Le ratio de nouveaux utilisateurs/utilisateurs revenant
  • Le trafic entrant vers les différentes catégories de pages
  • Les directives méta robots : index/noindex, follow/nofollow
  • Les pages du site où le trafic organique était le plus faible
  • Le nombre de pages orphelines

Les résultats ont été édifiants : une majorité des pages du site ne réalisaient pas plus d’une session par an. Dit autrement la plupart des pages du site n’étaient plus visité.

Cet élément est important, car Google note la qualité d’un site en fonction de la qualité des pages, si la majorité des pages d’un site ne sont pas visitées, il considère que le site est inutile et n’apporte rien à l’utilisateur.

Beaucoup d’autres éléments venaient en plus enfoncer le site : 

  • Pages trop lentes à charger
  • Pages non maillées dans la structure
  • Taux de rebond anormalement élevé
  • Très peu de contenu par page : 200 mots en moyenne selon les typologies de page
  • Un grand nombre d’erreurs 500 et 404, venant de pages encore maillées dans la structure 
  • etc…

D’où provenait le problème ?

Le site faisant un trafic important, il était étonnant de trouver des pages de si mauvaise qualité. 

En réalité, ces pages étaient des pages de listing d’offres d’emploi n’ayant plus ou très peu d’offres d’emploi. La majorité du contenu des pages étant composées des offres elles-mêmes, les pages étaient désormais vides de tout contenu, et par la même occasion inutiles pour une personne en recherche d’emploi.  

Ce qui était d’autant plus pénalisant, était le fait que ces pages étaient restaient en index, donc susceptible d’être indexées par les moteurs de recherche.

Après recherches, il s’avéra que la plupart de ces pages avaient étaient désindexées progressivement par Google, il s’agit d’ailleurs du premier facteur qui aurait dû être alarmant.

Quelle a été la solution mise en place ?

La solution bien qu’assez complexe peut être résumée de la façon suivante : les pages qui avaient été identifiées comme de mauvaises qualités ont subi un suivi sur le long terme qui a permi de les supprimer ou de les garder selon leur cas. Si les pages ne recevaient définitivement plus d’offres, elles étaient supprimées. Mais si celles-ci en recevaient de temps à autre, elles étaient gardées en index ou mise en noindex sur des périodes plus ou moins longues. 

Après 6 mois de suppression progressive de ces pages, plus de 40 % des pages du site ont été supprimées. 

Quels ont été les résultats ?

Tout d’abord, la stratégie mise en place a abouti à une disparition des pages de mauvaises qualité des moteurs de recherche : de Juin à Octobre.  

Puis à une indexation ou réindexation des pages restantes considérées comme de bonne qualité. 

Après une première hausse marquée du trafic organique en Septembre 2018, essentiellement saisonnière, le trafic explose en Janvier 2019. Recouvrant 50 % de son trafic par rapport à Décembre 2018. La courbe se stabilise sur les mois suivants.

hausse trafic organique janvier 2019

Pris indépendamment, ce résultat n’a que très peu de valeur, il doit être comparé à l’année précédente, moment durant lequel la pénalité était encore active.

comparatif_2018_2019_organique

En comparant le trafic organique (nombre d’utilisateurs) de l’année 2019 à celui de l’année 2018, on se rend compte de son évolution positive. 

De mi-Janvier à mi-Mars avant le déclenchement de la pénalité, le trafic est quasiment identique sur les années 2018 et 2019. Le boost de visibilité avant-pénalité, est très visible aux alentours du 13 Mars 2018. Pour autant, le trafic de début d’année 2019, reste relativement stable en comparaison. Suite au boost de visibilité en Mars, le trafic s’affaisse progressivement tout au long de l’année et essentiellement en Avril et Mai. A cette période, on enregistre une perte moyenne de 30 % d’utilisateurs/mois. A partir de la fin Avril, le trafic de 2019 rattrape progressivement celui de l’année passée. Tandis que celui-ci continue de décliner, le trafic de l’année 2018 est finalement dépassé à la mi-Juin. L’écart se creuse et se confirme en Juillet et Août 2019.

Fin juillet et durant tout le mois d’Août, le trafic est deux fois supérieur en 2019 par rapport à l’année précédente. 

Conclusion

Une pénalité Google doit être corrigée au plus tôt, pour contrer la perte de trafic. Mais il est préférable d’attendre plusieurs mois pour valider l’existence de la pénalité en cas de doute.

Il est difficile de repérer et de corriger une pénalité Google si vous n’avez pas déjà des connaissances sur les bases du référencement, notamment sur les bonnes pratiques. Ainsi que sur les principaux filtres algorithmiques et les mises à jour de Google. Dans ce cas, mieux vaut faire appel à un expert du référencement qui pourra prendre en charge rapidement votre site.  Le procédé d’annulation de la pénalité est relativement long et implique souvent des changements lourds sur le site. Des investissements en temps et en argent sont à prévoir sur la durée.

Enfin, une pénalité corrigée, n’implique pas pour autant un recouvrement immédiat de tout le trafic. Comme on peut le voir dans mon cas, la réacquisition du trafic organique est progressive en plus d’être soumise à une forte saisonnalité.

Arthur Greffe

Créateur de Reachconversion.fr et SEO de métier je ne cesse d'expérimenter de nouvelles méthodes pour mieux référencer les sites sur les moteurs de recherche

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.