Ce matin, un Panda a « tué» plein de sites en France… Et ce n’est pas un fait divers mais bien une petite révolution dans le monde du référencement naturel depuis le 12 aout 2011.
Depuis fin 2010, Google a implémenté une mise à jour importante de son algorithme, impactant fortement les résultats de son moteur de recherche et permettant de les améliorer. Plusieurs domaines sont concernés par ces améliorations :
– Les fermes de liens / la duplication de contenu
Dans ce domaine, les modifications ont pour objectif de :
- Réduire la présence de contenus dupliqués, sans intérêt ou peu utiles dans les pages de résultats Google ;
- Favoriser les sites qui proposent des articles inédits, résultant d’une recherche originale.
– La diffusion de contenu et de contenu copié (comme les comparateurs ou les agrégateurs)
Les plateformes comme Hellocoton et Wikio qui regroupent des informations mais qui ne produisent pas de contenu seront donc directement touchées, car elles n’apportent pas de valeur ajoutée.
Ces types de sites ont subi de fortes pertes de visibilité d’après les dernières études (même si on peut rester sceptique quant à l’aspect scientifique de la plupart des tests effectués et à la réelle corrélation entre visibilité et trafic).
Un article allemand nous faisait un état de la situation le 16 août.
Panda en France : les analyses ne font que commencer
Panda est désormais implémenté en France, mais tirer des conclusions quelques jours après son lancement semble prématuré.
Pour avoir une vue réelle de la situation, les analyses doivent porter sur un large échantillon de mots-clés (à la fois apporteurs de trafic à l’instant T et à fort potentiel qui n’étaient pas positionnés).
A partir des résultats obtenus, il sera possible d’affiner les typologies de pages / de type de contenu qui ne respectent pas les nouvelles contraintes éditoriales et qui doivent alors subir des changements.
Une analyse par type de mots-clés (génériques, middle et longue traine) peuvent également donner des pistes d’améliorations.
Chez W Garden, nous avons réalisé différents tests sur des échantillons de mots-clés représentatifs et non biaisés pour nos clients. Les résultats obtenus nous permettent de valider que les baisses de trafic ne sont pas d’actualité.
Certains secteurs considérés à risque (shopping, immobilier, voyages – en raison d’annonces publiées sur différents sites, comparateurs et agrégateurs) nécessiteront des études plus poussées.
Une chose est sûre, la guerre pour un contenu de meilleure qualité est lancée !
TD
Articles similaires:
- L’histoire du SEO en image de 1993 à 2010
- Donnez votre avis sur la pertinence de vos résultats de recherche sur Google
- Evolution Google : les métas remplacées par des liens
- Google : une grande mise à jour des algorithmes est annoncée
- Comment cibler des mots clés ?