On peut le dire, une petite tempête secoue le monde du SEO français depuis quelques jours maintenant : OH MON DIEU LES SITES DE CP TOMBENT COMME DES MOUCHES !!
Sérieusement vous pensiez que ça allait durer longtemps ? Que Google n’allait pas réagir ?
Le problème avec les bonnes idées, c’est qu’il y a toujours des personnes qui en usent et abusent.
On peut blâmer qui on veut, c’est facile et ça on sait faire en France :
- Le duplicate
- Les blasts sur des cps
- François Hollande ou Nicolas Sarkozy (c’est à la mode)
- Le chien du voisin
- …
Sauf que la plupart des sites de CPs portent un nom, et ce nom, Google le connait bien et lute contre depuis des années : des Linkfarms.
Certains de ces sites de CPs vont probablement résister plus longtemps que d’autres, plus anciens, plus solides aussi peut être, moins dupliqués, moins « blastés »…
Mais je pense que la plus grande partie va tomber petit à petit.
Pourquoi les sites de CPs tombent maintenant ?
Je pense que les raisons sont multiples, mais la première, probablement, est leur démocratisation, tant dans leur déploiement que dans leur usage.
Il y a de plus en plus de référenceurs sur le marché, donc de plus en plus de contenu publié sur ces sites, ce qui les rend également potentiellement de plus en plus visibles.
Faire un site de CP c’est simple, un hébergement pas cher, un ndd tout frais (ou recyclé), un wordpress from scratch + quelques plugins qui vont bien et hop je lance mon site de CP…
Et hop mon site tombe.
Contrairement à ce que certains d’entre vous pensent, ce n’est pas la première fois que les sites de CPs sont visés. Leur usage a certes explosé depuis un an, mais pour ceux qui comme moi les utilisent depuis plusieurs années, il est clair que leur puissance a déjà été diluée de nombreuses fois.
Il y a 3 ans, une dizaine de CPs et quelques bons annuaires de qualité suffisaient à obtenir une première page sur des expressions relativement concurrentielles (si le contenu derrière suivait bien sûr), puis petit à petit les résultats devenaient moins visibles, moins rapides.
De plus, les règles de la plupart des sites de CPs sont les mêmes ou presque : contenu unique, 300 mots minimum, un lien pour 100 mots, etc… Certains n’autorisent de liens que vers un seul site… WTF ?
Comment je peux sauver mon site de CP ?
Ca fait déjà quelques temps que je pense, et je ne suis pas le seul, que les sites de CPs doivent se spécialiser, devenir thématiques, devenir de vrais sites.
Choisissez une thématique, créez des pages de contenu fixe autour de la thématique, publiez des actualités liées à la thématique puis ouvrez les publications d’actualités aux « annonceurs ».
Ne donnez accès qu’à des comptes premium triés sur le volet, n’autorisez plus n’importe qui à proposer du contenu, uniquement à des référenceurs de confiance. Le temps que vous gagnerez sur la modération, vous pourrez le passer à publier du contenu.
Demandez à vos contributeurs au moins une fois par mois de publier un texte sans liens, franchement au prix du rédactionnel actuellement, ce n’est pas la mort.
Variez les longueurs de textes, autorisez les textes cours, moyens, longs… demandez que les rédactionnels aient des orientations particulières : tips, informations produits, fiches produits ou services.
Si votre site est bien fait et bien pensé, vous pourriez même gagner de l’argent avec.
Ok mais ces saletés de sites de CP ont fait pénaliser le site de mon client
Oui et non. D’après ce que j’ai pu voir, il ne s’agit pas de pénalités, mais de pondération. Certaines positions obtenues via des CPs ont tout simplement été perdues.
La faute des sites de CPs ? Pas si sûr.
La faute à une sur-optimisation externe et interne ? Plus probable.
Vérifiez les pages impactées, leur contenu, leur profil de lien.
Comme je le disais plus haut, la dilution de la force des liens de ces dernières années a probablement forcé nombre de référenceurs à « bourriner » sur les ancres des liens entrants ce qui donne au final un profil de liens entrants tout sauf naturel, donc aisément traçable.
Il est fort à parier que Google a remonté la source et fini par clairement identifier les fermes de liens que sont la plupart des sites de CPs.
La question que je me pose au final c’est : est-ce le site de CP qui a pénalisé votre site ? Ou votre site qui a fini par faire pénaliser les sites de CPs ?
27 réponses à “Google rase gratis”
Si ce n’était que pour les CP ou la faute des liens CP, ce serait bien trop simple.
Salut,
c’est le premier billet réfléchi que je lis sur le sujet.
« D’après ce que j’ai pu voir, il ne s’agit pas de pénalités, mais de pondération. Certaines positions obtenues via des Cps ont tout simplement été perdues. » => C’est exactement ce que je pense… mais c’est le contraire de ce qu’on peut lire à de nombreux endroits, ce qui ouvre la porte à des théories fumeuses sur le negative SEO.
Absolument d’accord avec toi : le footprint très marqué « ferme de liens » de certains sites de CP est trop évident.
Soyons patients et prenons du recul, fût un temps ou tout le monde fuyait les annuaires et ils sont toujours efficaces de nos jours, enfin, certains ;)
Dommage que tu ne publies pas plus souvent sur ton blog… ça glisse tout seul à la lecture. J’adore ta dernière phrase ^_^
En plus il y a un wysiwyg sur les comments, waouh !
Concernant les 2 sujets de discussion actuels…
Les sites de CPs pénalisés : et je parle de ceux qui ont été avertis via GWT. Je pense que pour certains, ils se sont trop concentrés sur le contenu unique à tout prix, et on bourrinés sur tout le reste (articles faibles, bannières de type « bon CP bien juteux ici », etc).
En tentant de faire de la qualité et en serrant les fesses très fort, ça peut passer pour très longtemps toujours. #optimiste
Le filtre Webspam : google n’a pas été capable de sortir un nouveau filtre sans dommage colatéraux… bah non, fallait pas trop espérer. Certains sites cleans (dont certains à moi) se font shooter sous pretexte d’avoir un peu trop forcé sur une ancre précise…
Par contre, quand je vois les réactions des amis twittos BH, il semble avoir réussi en grande partie son coup le Google.
Les spammeurs vont se mettre au 100% white hat vont enfiler une deuxième paire de gants pour leurs prochaines campagnes…
Entièrement d’accord avec les préconisations apportées ici. Il faudra dans le futur du thématique, du contenu ultra clean, des liens savamment dosés avec beaucoup de variations dans les ancres ne pointant plus uniquement vers le site du client mais aussi vers des sites trustés. Le tout saupoudré sur un réseau privé pour éviter que ça ne parte dans tous les sens.
Comme toi, je suis étonné que la communauté SEO s’étonne de ce pseudo « tsunami ». Bien que ne sois qu’un référenceur en herbe, je me rappelle des premières incursions de Panda. A l’époque, quelques SEO nous rappelaient alors nos fondamentaux : le référencement NATUREL. Et par naturel, ils disaient que le profil de BL devait être le plus naturel possible : des ancres variés, des liens sans ancres, du DO et du NOFOLLOW…Bref tout ce qui permet de rendre le profil de liens artificiellement « naturel ».
Et sans déconner ! Créer un site de CP avec SEO dans le NDD ??? (il suffit de regarder la liste des sites de CP pénalisés sur boost.bookmarks). Autant envoyer un recommandé avec accusé de réception à un Quality Rater !!!
Et comme tu le dis justement, ce sont ici les abus qui sont pénalisés. Je prône donc le retour du BON SENS et comme mes maîtres Jedi me l’ont appris : « N’oublies jamais que dans référencement naturel, il y a naturel ! »
Au final, pour prêcher pour ma paroisse, cette MAJ n’est pas pour me déplaire, car depuis, tous les sites dont je m’occupe rankent mieux !
Oué, bon billet avec la prise de recul nécessaire.
En même temps, à force de passer devant Google en sifflotant et en lui lâchant des boules puantes, il fallait bien qu’il se rebelle un jour.
Malgré tout, je crois comprendre que les BH qui faisient les choses intelligement sans être de gros bourrin ne s’en sortent pas si mal (je parle du filtre webspam). D’ailleurs, je trouve que certains d’entre eux sont nettement plus softs que des soi-disant WH qui bourinnent comme des malades sur leurs ancres notamment.
Sur le fond, tout le monde reprochait le spam dans les résultats, il en reste, mais le signal de Google est fort et tous les baratins de Matt Cutts vont peut-être maintenant trouver un vrai écho :-)
C’est toujours un plaisir de te lire. Il est clair que la pénalité concernant les CP étaient amusante par rapport à la mise à jour de mardi…
Quoi qu’il en soit, Google a perdu en pertinence, il risque donc d’y avoir des ajustements dans les jours à venir.
@Keeg : Totalement d’accord avec toi d’autant plus que le keywordstuffing à clairement été montré du doigt également, bref, les sites de CP sont les cibles principales du nouvel algo, pas la cause de nos soucis ;)
C’est pas faute de le répéter pourtant: variations. Plus on dilue et plus on à l’air naturel. C’était ceci dit une conséquence évidente de la sur-utilisation de ces plateformes. Et à ce propos, pour ceux qui voudraient se lancer dans l’aventure, commencez par arrêter de nommer vos sites avec l’expression CP et donnez à vos plateformes d’articles des allures de vrais sites.
Bonjour Aymeric,
Je pense que beaucoup réagissent à chaud sur ce sujet. Il faut patienter pour tirer des conclusions fiables et crédibles. Comme l’a évoqué Aurélien dans son commentaire, il peut y avoir des réajustements dans les jours qui viennent. D’ailleurs j’ai des résultats qui font le yoyo sur beaucoup de requêtes. Alors je patiente…
amicalement
Il y a pas mal de chute mais parfois il suffit de regarde d’un peu plus près pour voir que dans le top 10 nous retrouvons des sites de BH :/ Vive google :/
De toute façon bientôt tout ne sera plus que (not provided) ….
Je pense aussi qu’il faut patienter quelques jours avant de tirer des conclusions. Ca yoyotte beaucoup par chez moi aussi.
J’attends de mon côté une vraie analyse avec de beaux tableaux pour pouvoir tirer une conclusion de tout ce remue-ménage depuis Google Panda 3.4 : vivement quelques jours que l’accalmie revienne dans les Serps (si elle doit revenir un jour) et que l’heure puisse enfin être au bilan ;-)
La chute des sites de CP est sans doute due à la trop grande ressemblance entre les règles de chacun comme tu le dis.
Il est difficile de retrouver un critère en particulier car il y a toujours des contre-exemples, mais c’est la présence de plusieurs facteurs qui donne un signe négatif à Google.
Il faut maintenant faire de la qualité, c’est à dire des vrais sites, pas de l’actu déguisée…
MERCI MERCI MERCI!
Rhaaa punaise! l’article que j’allais écrire! Passons sur les CP mais la derniere mise a jour me fait fortement penser a la sorti de Panda en soit. (avec le buzz et tout et tout)
J’etais sur le point de faire un 2e « arretez de flipper et lachez moi la grappe avec Panda 2 » ca rencore une fois si on a fait son travail correctement sans bourriner comme un calut, sans faire du CP a tout bout de champ et sans coller des centaines de MC dans ses pages et bien ca passe – et encore je parles pas d’un travail de Génie, non non juste du taf correct, a la limite du médiocre.
L’avenir, c’est de créer des blogs de qualités, juste un peu optimisé et essayer de rentrer en concurrence (doucement) avec son site principal. Puis faire des liens naturellement. Qu’en pense-tu ?
@Julien D’accord avec toi concernant le not provided ! C’est déjà plus de 80% de mon trafic. Un peu beaucoup non ?
Certains devraient déjà commencer par sortir seo/referencement/presse et autres de leurs urls ou balises de CP…
quelqu’un a vu du mouvement cette nuit (du 27 au 28) ? beaucoup de DC me donnent des résultats très différents d’hier, et très différents selon les DC ?
il y aurait encore une mise à jour ?
Merci (une fois de plus) pour cet article de fond.
Pour ma part, quand je forme des gens à la création de contenu pour leur site, je leur indique un critère simple pour faire un lien : s’il sera frustrant pour le lecteur de ne pas avoir de lien à cet endroit (parce qu’on parle manifestement de quelque chose qui est approfondi ailleurs), alors il faut faire un lien.
Il me semble que faire ainsi, c’est rendre service aux lecteurs, et donc, être assuré sur le long terme de ne pas être pénalisé en terme de référencement.
Le gros problème c’est que google est entrain de faire de son moteur de recherche une plateforme pour les entreprises. Maintenant à moins de s’appeler Mark Zuckerberg, son site ou son blog faut y bosser à plein temps… Triste époque
Pour moi qui suis plus ou moins étranger à la petite bulle du référencement, je trouve que c’est plutôt une bonne nouvelle. Ces sites de CP polluent le web en fournissant des contenus uniquement destinés à être lus par des robots. Cette pratique n’est pas du tout naturelle, le seul objectif est d’augmenter sa popularité auprès de Google (ou autres..) en trichant, puisque celle-ci n’est pas du tout légitime. Pourquoi s’étonner de la riposte de Google ?? Leur objectif a toujours été de fournir des résultats de recherche pertinents et de qualité ! Un site ou une page qui est obligée d’utiliser ce genre de techniques « border-line » pour augmenter sa « popularité »… et bien au final elle dit clairement : « personne ne s’intéresse à moi, mais je vais essayer de faire croire le contraire ».
Le SEO/référencement n’a pas la réponse à tout et ne doit pas être la base de la stratégie de communication sur le web. Dépenser de l’énergie et de l’argent à créer des contenus préfabriqués destinés à être publiés sur des sites de CP qui n’intéressent personne… fallait s’attendre à quoi au juste ?
Vous tous ici dans les commentaires, vous avez tous l’air d’être familiers avec ces sites de CP et autres fermes de liens/contenus, vous n’avez pas l’impression d’avoir un peu trop joué avec la naïveté des robots qui parcourent le web ?? Le résultat de tout ça vous étonne ? Vous pensiez vraiment que google allait continuer à vous récompenser pour ça ?
J’ai juste envie de dire « bien fait » ! Depuis le temps que vous nous polluez nos résultats de recherche… ;)
J’aimerais bien être là quand vous allez devoir expliquer à vos clients pourquoi leur site a perdu XX places, tout ça parce que vous avez choisi de les rendre complice de ce genre de pratique, à l’antipode d’un référencement naturel et qualitatif.
Je suis pas d’accord avec Yvan, les site de cp même si il semble peu pertinent et font remonter des sites web de mauvaise qualité, que dire des liens sur forum, blog, echange de lien, achat de lien,…
Ces techniques font-elles aussi monter des sites de qualité? non, elle font monter les site qui sont dynamique en terme de référencement, et je pense que c’est à chacun d’assumer cela.
Autre chose, les liens sur ancre qui rapporte toujours autant en référencement, et dites moi comment on obtient des liens sur ancre autre que par les techniques citées plus haut ? Un lien « naturel » comme google les aime sont jamais sur ancre
Bannir les CP ne va pas améliorer la qualité des résultats je pense, c’est à google de changer son algorithme s’il veut des meilleures résultats.
Bonjour,
Pour ceux qui ont recherché une information pointue à la fois dans une bibliothèque et sur Internet, ils ont sans doute remarqué ce fait étrange : Souvent c’est la bibliothèque municipale qui contient l’information la plus profonde.
Cela veut dire que la majorité du contenu d’Internet est de la redondance et surtout des informations de surface.
La création d’un contenu original et expert coûte toujours du temps et c’est donc normal que celui-ci soit récompensé par de la popularité.
Les cathédrales de liens montées par les experts du SEO peuvent représenter un énorme travail, si le contenu final n’intéresse personne, il est facile pour un moteur intelligent de détecter le désintérêt.
Une fois de plus google frappe du poing sur la table, les référenceurs vont s’adapter, trouver une parade qui durera le temps qu’elle durera…. Et ensuite la terre tremblera à nouveau lors du prochain algorithme…
Une chose est sure, ne pas dépendre de sources de liens hazardeuses est une nécéssité, il faut se creuser les méninges pour trouver des liens durables sur des sites aussi variés que possible.