Pandi panda, petit ourson de chine

Pour la référence, soit vous avez des enfants, soit vous avez des souvenirs qui remontent à loin (du genre je vous parle d’un temps que les moins de 20 ne peuvent pas connaître…). Un indice : Tao tao.

Pour le reste, vous vous doutez que je vais bien sur vous parler de l’opération Google : Protect Adwords Need Dollars Action – PANDA.

Pour commencer, je vous propose d’aller lire la transcription faite par Sylvain sur le blog Axenet  (Google et les ravages du panda) d’un article de searchengineland (Lessons Learned at SMX West: Google’s Farmer/Panda Update, White Hat Cloaking, And Link Building) publié après les révélations du SMX West à San josé.

Autrement voici un résumé des annonces sur PANDA :

  1. Lutte contre le contenu de faible qualité : un site entier peut être pénalisé pour quelques pages de faible qualité.
  2. Plus de cloaking du tout : vous aviez fait une jolie version html du site en flash de votre client ? C’est mort.
  3. Linkbuilding : pour la xième fois, oubliez, vos liens doivent être 100% naturels et spontanés.
  4. Liens via des communiqués de presse : gros fumage de moquette, leur information est sujette à des tonnes d’interprétations possibles.
  5. Achat de liens : rien de nouveau, c’est toujours mal (vont-ils pénaliser les sites acheteurs ? Pour l’instant ils ne pénalisaient que les vendeurs).
  6. Mots clés dans le domaine : pénalité potentielle, fort signal de spam.
  7. Trop de publicité sur votre site : ouch, vous êtes probablement un spammeur.

Que retenir de Panda, quels signaux, quelles réelles informations ?

Premièrement, il y a une chose qu’il faut bien comprendre, Google n’aime pas les référenceurs. Depuis des années, GG serre de plus en plus la vis et complique de plus en plus notre travail.

En théorie, tout ça dans le but de contrer le spam de son bel index par les méchants  référenceurs Black Hat. En pratique, soyons clairs, ça ne fait chier que les White Hat.

Je n’ai lu quasiment rien sur le sujet, mais je peux vous le dire, depuis 3 ans, notre travail s’est considérablement compliqué. C’est presque intangible au niveau des procédures, mais c’est visible au niveau des résultats : il faut de plus en plus de travail de netlinking pour obtenir et fixer des positions correctes dès que l’on est dans du concurrentiel.

Et, ça a un impact direct sur le ROI de nos clients : plus de travail = plus de coûts = ROI plus faible.

Ce que je vois dans PANDA, c’est plus une volonté de serrer encore un peu plus la vis de la part de Google, de rendre notre travail encore plus complexe, plus long, plus coûteux que de vraiment lutter contre le « spam ».

Je ne sais pas si vous avez remarqué, mais depuis un an, on parle de plus en plus de techniques de référencement Black Hat (ou techniques de référencement avancées… n’est-ce pas Paul ?) et si vous avez l’impression qu’on en parle beaucoup, c’est tout simplement parce que devant les difficultés croissantes, de plus en plus de référenceurs White Hat s’y intéressent et s’y mettent.

Et ils s’y mettent dans l’espoir d’automatiser ou « industrialiser » certains process pour réduire les coûts et donc rester compétitifs.

Mais compétitifs par rapport à quoi ? A la concurrence qui est confrontée aux mêmes problèmes ?

Non, compétitifs face au « référencement payant » : Adwords.

Rappelez-vous : Google est une entreprise commerciale, et les référenceurs sont les concurrents directs d’Adwords.

Alors, vous allez lire à droite et à gauche, le métier de référenceur à l’ancienne est mort, il faut évoluer, travailler l’image de l’entreprise, sa présence en ligne, utiliser les réseaux sociaux…

C’est vrai, pour de gros clients, parce que, soyons clairs, créer une présence en ligne, une identité, une marque, ça demande beaucoup de temps et d’investissements, c’est quelque chose de très coûteux, c’est une prestation que peu d’entreprises peuvent réellement se payer.

Je peux vous en parler, je gère toute la présence en ligne d’un de mes clients, et ça représente plusieurs jours de travail par mois, je vous laisse vous faire une idée du coût d’une prestation de ce type. Et franchement, ce n’est pas le plombier du coin qui peut se permettre d’investir dans ce type de prestations, car le ROI est loin d’être assuré et l’investissement énorme, car on vise du moyen et long terme.

Le jour où il sera plus intéressant pour une entreprise, même à long terme, de payer de l’Adwords que d’investir dans un référencement White Hat durable, Google aura gagné une bataille…

… mais perdu la guerre.

Je vous laisse deviner pourquoi.

On apprend des choses avec le cache Google

Bon, d’accord, apprendre est un bien grand mot, mais on peut au moins analyser quelques petites choses.

Feignasse comme pas deux et voulant retrouver l’url d’un de mes articles rapidement (Quels tarifs pratiquer pour un freelance ? pour ne pas le nommer), je fais une recherche rapide sur google en utilisant les termes « quel tarif independant » puisque je sais de mémoire que je suis premier sur toutes les variantes.

Et comme j’ai fait une petite modification sur l’article récemment, il me prend l’envie de vérifier la version en cache de la page et là, non seulement je constate que la modification effectuée n’est pas encore prise en compte par le cache de Google mais un petit message attire mon regard :

Les termes de recherche suivants sont mis en surbrillance : quel tarif Ces termes apparaissent uniquement dans les liens pointant sur cette page : independant

Et plus particulièrement cette partie :

Ces termes apparaissent uniquement dans les liens pointant sur cette page : independant

Effectivement, le terme independant est absent de la page, contrairement à indépendant, google dissocie bien les deux termes et avoue implicitement que nous avons là affaire à un pseudo cas de Google Bombing (ces termes apparaissent uniquement dans les liens pointant sur cette page).

Autre point intéressant : la surbrillance.

Quel se trouve exactement sous cette forme dans la page et est donc mis en surbrillance les deux fois où on le trouve. Par contre, on trouve « quel » dans d’autres chaînes de caractères (quels, quelles…) et là, point de surbrillance.

Mais là où c’est étonnant, c’est que google précise qu’on trouve bien le terme tarif dans la page (Les termes de recherche suivants sont mis en surbrillance) mais qu’aucune version du terme tarif n’est mise en surbrillance, car à chaque fois il ne se trouve pas sous cette forme mais sous la forme tarifs avec un s.

Google ne fait donc pas l’extraction du terme dans les chaînes de caractères pour spécifier sa présence dans une page (du moins pour ce qui est des pages en cache affichées).

Pour l’instant, je ne sais pas encore quels enseignement en tirer, voir même si il y a des enseignements à en tirer, mais il m’a semblé opportun de partager la chose.

Action du backlink sur le référencement

On m’a posé la question par email la semaine dernière, pour mes amis référenceurs, ça semble évident, mais pour beaucoup de monde c’est encore globalement assez flou.

J’ai donc décidé d’en faire un petit article plutôt orienté débutants.

Quel impact a un backlink sur mon référencement ?

On parle souvent « d’autorité » pour un site, que l’on pourrait aussi appeler notoriété.

Cette autorité se calcule en partie grâce au liens entrants (backlinks) qui mènent vers votre site.

Je ne parlerai ici que des vrais liens, pas de cette verrue du web que sont les liens en nofollow.

Considérez chaque lien entrant comme un vote : un lien = un vote.

Considérez que sur internet, c’est un peu comme un conseil d’actionnaires d’une société, le vote d’un gros actionnaire (site d’autorité) aura plus de poids que le vote de Madame Michou, boursicoteuse à ses heures qui vient d’acquérir une seule et unique action (en gros elle vient juste de lancer un site).

Un lien venant d’un site d’autorité, ce sera un vote, mais qui compte pour 10 voix (voir plus), alors que le vote de Madame Michou ne comptera que pour une voix (voir moins).

C’est ça, le transfert d’autorité.

Ce transfert d’autorité, aura un impact direct et global sur vos positionnements dans les SERPS (Search Engine Results Pages – Pages de résultats de recherche) mais uniquement sur les requêtes sur lesquelles votre site peut se positionner par son contenu.

J’insiste là dessus car c’est important si sur votre site, on ne trouve absolument pas, disons l’expression « Bons plans », ce transfert d’autorité ne vous permettra pas de vous positionner sur cette expression, à moins d’utiliser cette expression comme ancre de lien. Mais au fait, c’est quoi l’ancre d’un lien ?

Quelle est l’importance de l’ancre d’un lien ?

L’ancre d’un lien, c’est le texte contenu dans ce lien, en gros, en html ce qui se trouve entre <a href= » « > et </a>.

Cette ancre, c’est une orientation du vote fournie par le lien :

  • Si l’ancre du lien est le fameux « cliquez ici », vous avez obtenu un vote qui augmente votre notoriété globale, mais ce lien va spécifiquement pousser le positionnement de votre site sur la requête « cliquez ici ».
  • Si l’ancre du lien est une expression ciblée et choisie (agence web Nantes totalement au hasard), non seulement vous avez obtenu un vote qui augmente votre notoriété globale, mais en plus ce lien va pousser votre positionnement sur l’expression ciblée. On parle alors d’ancre optimisée.

Le top étant bien sur d’obtenir un lien entrant provenant d’un site d’autorité avec une ancre optimisée, vous aurez alors un impact global sur vos positionnements grâce au transfert d’autorité et un impact ciblé sur l’expression utilisée.

Poussée à l’extrême, cette technique a un nom : le google bombing. Bien que google dise que la chose n’est plus possible, je peux vous assurer que l’on peut positionner un site sur une expression totalement absente de ses contenus.

Il existe de nombreux autres facteurs à prendre en compte, comme la thématique du site faisant un lien vers vous, l’emplacement du lien dans la page (au milieu d’un texte, dans une liste de liens – blogroll…) mais la base est là et c’est le plus important.

Maintenant, vous comprenez mieux pourquoi sur vos blogs vous avez des commentateurs qui s’appellent « rachat crédits », « lingerie », j’en passe et des pires.

PS : en fait cet article va servir à certains de mes lecteurs pour mieux comprendre un autre article à venir.

Google et la communication Chrome

Lors du lancement de Chrome par Google, j’avais fait un article sur le produit, son positionnement, les raisons possibles de son lancement et la probable promotion de l’outil par Google : Google Chrome, l’avenir du web ?

Je vais juste revenir sur la partie parlant des moyens de communication que Google pouvait mettre en place pour promouvoir son produit.

A l’époque j’avais listé les points suivants :

Comment Google va diffuser Chrome ?

Google bénéficie pour ça d’une batterie de canaux de diffusion proprement hallucinante :

  1. La homepage de Google : à l’heure ou j’écris ces lignes, l’annonce pour chrome n’est plus visible (enfin, chez moi) mais elle l’a été pendant quelques jours. Maintenant, imaginez le nombre de personnes qui utilisent la homepage de Google comme page de démarrage ou qui s’y rendent au moins une fois par jour et vous aurez une idée du matraquage que ça peut représenter.
  2. La régie Adwords : quoi de plus simple pour google de placer une publicité pour son navigateur dans les pages de résultats de n’importe quelle requête traitant de près ou de loin à internet ?
  3. Les publicités adsense : combien de sites visitez-vous chaque jour affichant des publicités Adsense ?
  4. Les sites utilisant la recherche sponsorisée google : quasiment tous les grands médias nationaux ou portails internet utilisent le moteur de recherche Google.
  5. Les logiciels et services Google : de parfaits espaces pour communiquer sur leur navigateur
  6. Google desktop : tout comme apple avec itunes, quoi de plus simple pour Google de proposer Chrome à télécharger à partir de son espace de mise à jour ?

Mettez tout ça bout à bout et vous aurez en face de vous la plus grosse machine de guerre publicitaire ayant jamais existé, pas une marque, pas un éditeur de logiciels ne peut communiquer aussi efficacement.

Et depuis voici ce qu’on peut voir si l’on ne surfe pas avec Chrome :

  • Des encarts qui vont et viennent sur la homepage de Google.
  • De l’adwords dés que vous tapez une requête utilisant le terme navigateur
  • De l’adsense placé sur les sites clients dés que ça parle de navigateurs
  • Pour les sites utilisant la recherche sponsorisée, voir ci-dessus avec adwords
  • Des encarts sur les sites et services Google (Youtube en tête de liste)

Pour Google desktop, je ne sais pas, n’utilisant pas ce service.

Chrome ne cesse de gagner des parts de marché (3% / 4% plus que ce qu’Opera n’a jamais eu) et je pense sincèrement que c’est en grande partie grâce à ce matraquage pourtant encore bien « discret » par rapport à ce que peut produire leur machine de guerre.

Je crois avoir lu qu’ils visent les 10% de parts de marché d’ici deux ans, ce qui est tout simplement énorme vu le marché actuel.

A mon avis, ils n’ont pas fini de promouvoir leur produit, ne serait-ce que pour pouvoir encore plus nous soutirer d’informations utiles pour leur ciblage publicitaire.

Recherche idéale

Avant tout, sachez que cet article a été rédigé dans le cadre de l’opération Billets synchronisés montée par Laurent Bourrelly.

Plus d’informations sur cette opération dans cet article.

Le sujet commun à cet ensemble d’articles synchronisés est l’avenir du search, ou plus précisément, le moteur de recherche de l’avenir, que peut-il de plus pour moi ?

Vous pouvez déjà trouver quelques idées en lisant une étude commanditée par Google sur le sujet :

Vous avez lu ? Ok, il y a pas mal de chose qui peuvent sembler loufoques, tout ce qui touche à la pensée par exemple, mais rappelez-vous qu’on parle de « futur » dans cette étude et qu’au final on n’y trouve rien de pire que ce que certains auteurs d’anticipation avaient imaginé il y a à peine quelques décennies.

Et c’est bien de ça qu’il s’agit, des projections sur ce que pourraient apporter dans le futur un moteur de recherche.

Allez, je ne vais pas vous faire attendre plus longtemps, je vais vous donner ma vision du moteur de recherche du futur (proche ?) :

  1. Permettre de faire facilement (au niveau recherche d’informations bien sûr) ce qui demande actuellement de solides connaissances au niveau des opérateurs avancés.
  2. Et deuxième chose, ce qui se rapproche le plus pour moi actuellement du moteur de recherche du futur, c’est Twitter, mais encore une fois quand on sait l’utiliser de manière avancée.

Pour l’instant, je vais me borner à parler du point 1, car si on regarde les résultats de l’enquête, enfin ce qui se place uniquement au niveau de la pertinence des résultats, on se rend compte que de nombreuses choses demandées… existent déjà ou presque.

Si vous n’êtes pas un utilisateur habitué des opérateurs avancés de Google, je vous conseille vivement d’aller faire un tour sur cette page : Opérateurs de recherche. Et même si vous êtes habitué, allez y faire un tour, je suis sûr que vous en découvrirez certains que vous avez probablement oublié.

Un exemple :

« televiseur lcd » -intext:comparateur -inurl:kelkoo -inurl:ciao -site:www.commentçamarche.net -site:wikipedia.org intitle:acheter+pas+cher

Bon cet exemple est relativement foireux, mais peut vous permettre de vous faire une petite idée des possibilités de filtre pour optimiser les résultats de vos recherches.

Allez, soyez honnêtes, combien d’entre vous utilisent les opérateurs avancés autres que « expression exacte » ou + ou or ?

D’ailleurs, petit aparté au passage; un autre point important pour le moteur de recherche du futur, s’il pouvait nous mettre à part les résultats tirés de wikipédia et de comment ça marche, ça nous ferait des vacances et m’éviterait de coller du -site:www.commentçamarche.net -site:wikipedia.org à chaque fois que je fais une recherche sur le net.

Je sais, je ne suis pas forcément clair dans ce que je veux dire, alors je vais clarifier une première fois en une phrase :

Les internautes ne savent pas utiliser les moteurs de recherche.

Et tout ça c’est encore la faute de Google, ou plutôt, l’effet de bord du moteur de recherche simplifié à l’extrême.

Vous, moi, nous tous, avons pris l’habitude de faire nos recherches le plus simplement possible :

Je clique dans le champ, j’écris ma recherche, je clique sur le bouton de soumission et je regarde ce qui tombe.

Il fut un temps où c’était la révolution, où les résultats retournés étaient globalement pertinents, ça c’était avant, quand il y avait encore peu de sites et le spam était encore assez limité.

Maintenant, faire une recherche Google de base, c’est comme jouer à la machine à sous, parfois on gagne mais la majeure partie du temps, on perd.

Je parle de Google, car aux dernières nouvelles, le moteur de recherche était encore en position de monopole en France (quelqu’un utilise Bing ou Yahoo comme moteur de recherche principal dans le coin ?).

Pour revenir au moteur du futur ou au futur des moteurs, c’est au choix, on peut retourner à certains fondamentaux, avec des propositions de filtres plus aisés à utiliser, c’est la solution simple, mais la plus contraignante pour l’utilisateur, du moins en apparence.

Vous préférez utiliser ça :

Interface Google classique
Interface Google classique

Plutôt que ça :

google-avance
Interface Google de recherche avancée

Se profile alors la solution de facilité : que le moteur fasse tout à ma place, même si pour ça je dois sacrifier « un peu de moi », c’est tellement plus simple.

Tout ça nous ramène à Twitter (non je ne l’ai pas oublié).

Si je dis que pour moi,Twitter est ce qui se rapproche le plus du futur du search, c’est parce que collectivement parlant et au travers de mes followers, twitter sait presque tout de moi : Je suis entrepreneur, webdesigner, référenceur, j’ai la quarantaine, je suis marié, deux enfants, j’aime le bon whisky et le bon vin, je suis plutôt quelqu’un d’épicurien, j’habite à la campagne, j’aime la musique classique, le trip hop, l’électro…

Inconsciemment, mes followers le savent, même si la majorité serait probablement incapable de répondre à une question précise me concernant, mais leurs cerveaux ont enregistré et analysé ces signaux (faibles ou forts) que je peux émettre aux travers de mes twitts, ils me profilent.

Et donc, quand je pose une question sur twitter, le formidable puits de connaissance que représentent mes followers prend ce message et l’analyse en prenant en compte tous ces signaux que j’ai envoyés :

  • Aymeric pose une question contenant le terme sprite, je sais qu’il bosse dans le web, il n’a même pas besoin d’expliquer de quoi il en retourne, je sais qu’il parle de l’usage des sprites images via CSS.
  • Aymeric est plutôt pas mauvais dans ce domaine (oui je me lance des fleurs) donc si il pose une question à ce sujet c’est que c’est peut être plus complexe qu’il n’y parait…

Si je pose une question d’ordre plus personnel, mes followers l’analyseront également à partir des informations qu’ils ont sur moi.

Si vous ne pensez pas que votre cerveau fonctionne de cette façon, vous le sous-estimez.

Vous voyez enfin où je veux en venir ?

Le moteur de recherche du futur sera un monstrueux outil de profilage, capable concrètement d’analyser l’ensemble des données qu’il pourra trouver vous concernant avant de retourner un résultat de recherche susceptible de vous intéresser réellement.

Ca existe déjà, un peu (Surf en mode connecté ou non sur Google), mais on est loin des possibilités déjà existantes en la matière.

Le moteur de recherche du futur devra devenir vous l’espace d’un instant, une sorte d’avatar de votre présence numérique, capable de se mettre à votre place, de trier l’information, de la qualifier, en fonction de vos compétences personnelles et de qui vous êtes réellement.

En un mot, le moteur de recherche du futur sera empathique.

Un peu comme cet ami de longue date capable de répondre avant même que vous n’ayez réellement fini votre question.

Pour finir, une petite liste d’autres articles de blogueurs participant à l’opération, ou vous pourrez probablement voir d’autres visions et d’autres avis :

PS : petit oubli dans mon article.

Je vous conseille, si vous ne connaissez pas encore, de vous renseigner sur le projet Sixth sense.

Et comme une vidéo vaut mieux que des mots :

Vous allez retrouver de nombreuses choses « demandées » par les personnes interrogées dans l’enquête.

http://www.googleraide.net/noframe/operateur.htm

Twitter, l’ennemi du Linkbait

Tout le monde vous le dira (et ce n’est pas parce que tout le monde le dit que c’est vrai), Twitter est THE place to be pour buzzer, faire circuler de l’information rapidement, faire parler de vous.

Bien utilisé, il peut même être utile à votre référencement, encore faut-il savoir comment, étant donné que ce sont surtout via les centaines de services externes qui se sont greffés au service que l’on peut obtenir quelques miettes de backlinks.

Alors pourquoi Twitter est-il l’ennemi du linkbait ?

Tout simplement parce que l’outil a changé le comportement de nombreuses personnes en matière de transfert d’information, il les rend feignantes.

Il est tellement plus simple de retwitter un lien en 10 secondes que de prendre 5 minutes pour poster un article sur son blog (pour ceux qui ont encore un blog) pour parler de quelque chose que l’on a aimé et surtout faire un lien vers la source.

Du coup, ces fameux liens naturels si chers à Google ont tendance à disparaitre au profit de retwitts dans lesquels non seulement les liens sont passés à la moulinette des réducteurs d’urls mais de plus sont en nofollow, donc, de facto non réellement pris en compte par notre ami GG.

On génère du trafic rapide mais aussi consistant qu’éphémère puisque votre article ne profitera pas de l’afflux de liens lui permettant d’obtenir sa seconde vie, celle des pages de résultats.

Pour exemple, il y a un an, un « bon » article sur mon blog récupérait en général entre 5 et 10 citations diverses à droite et à gauche. Mes deux derniers articles ayant le mieux « marché » ont certes été fortement retwittés mais n’ont été cités et liés  en dehors de twitter que 2 à 3  fois, faites le calcul.

Les webmasters n’ont plus le nez dans leur blog, ils l’ont dans leur lifestream, qui est hélas, bien souvent, totalement déconnecté du « grand » internet.

Google, la dictature du backlink

Google, la dictature du backlink

Il y a quelques temps, je suis tombé sur un article qui avait un peu fait parler de lui, ne me demandez pas l’url ou le titre, je ne me rappelle que du contenu.

En gros, l’auteur de l’article fustigeait les référenceurs en les accusant d’être à l’origine de tous les maux de l’internet moderne et de son principal représentant, Google.

Ce qui m’a fait rire à la fin de la lecture de l’article, c’est que l’auteur se positionne comme faisant du marketing… Poutre, paille tout ça.

Dans le fond, il a raison, oui, les SERPs sont, sur certaines requêtes totalement, trustées par le travail de référenceurs, à tel point que même des personnes qui ne sont pas particulièrement du secteur comprennent tout de suite qu’il y a quelque chose de pas totalement normal (n’est ce pas Charles ?).

Je ne vais pas dire le contraire étant donné qu’une grande partie de mon travail actuel consiste à pousser les sites de certains de mes clients sur certaines requêtes plus ou moins concurrentielles.

Seulement, voilà, si les référenceurs sont des joueurs professionnels du poker googlelien, ils  n’ont pas édité les règles du jeu, c’est Google et lui seul qui en est à l’origine.

Car voyez vous, Google a placé le lien entrant (le fameux backlink) et ce depuis bien longtemps comme facteur principal de son algorithme de classement et bien souvent au détriment de la valeur du contenu.

J’ai eu l’occasion d’effectuer quelques tests sur des sites de clients tous frais tous beaux, des sites nouveaux nés uniquement nourris au lait maternel (leur contenu) avant que les compléments alimentaires et les hormones (les backlinks) ne viennent totalement perturber leur rythme de croissance.

Pour que mes tests ne soient pas biaisés, je n’ai volontairement utilisé aucun outil fourni par google, ni analytics, ni Google Webmaster tools et je n’ai pas surfé en mode connecté sur aucun de ces sites (par contre, aucun contrôle sur les ordinateurs de mes clients).

Ces sites ont juste une structure propre, des contenus bien pensés et rédigés en ayant à l’esprit à la fois la lecture par le visiteur et les robots de moteurs de recherche, sans sur optimisation, sans techniques borderlines.

En fait, chaque site possédait un seul et unique backlink, celui fourni par l’hébergeur sur sa homepage pour chaque nouvel hébergement commandé, ce backlink est temporaire, mais suffisant pour faciliter la découverte des sites par les robots des différents moteurs de recherche.

J’ai laissé faire le temps, les résultats sont assez probants, et je n’ai testé que sur Yahoo et Google.

Sur un secteur à faible concurrence, un des sites se place rapidement en première page de Yahoo sur une grande partie de ses mots clés et expressions principales ainsi que sur de nombreuses requêtes secondaires. Par contre sur Google, si l’expression pour laquelle le site est optimisé arrive à se positionner en première page, pour le reste on part rapidement en deuxième voir troisième page de résultats.

Sur un secteur moyennement concurrent, les résultats sont sensiblement les mêmes chez yahoo, mais chez google, les écarts commencent à se creuser, les requêtes secondaires arrivent encore à se placer correctement, mais dés qu’on arrive à des choses assez « génériques », les positions plongent.

Sur un secteur « fortement » concurrentiel, entre yahoo et google, c’est le jour et la nuit, on obtient toujours par défaut des positions corrèctes chez yahoo par contre sur Google ça commence à ressembler à une guerre de tranchées ou les protagonistes s’amusent à jouer à cache cache.

On note même, et ça c’est assez étrange des comportement à la limite de l’illogique sur certaines expressions tournant autour d’une même thématique centrale mais « étendues » à une thématique complémentaire. En effet, ces expressions « secondaires » arrivent finalement à pas trop mal se positionner sur un marché relativement concurrentiel (2ème, troisième page de résultats) mais la thématique mère, elle, est tout simplement invisible, le site n’apparait tout simplement pas chez Google, ou alors très très loin, c’est à dire au delà des 200 premiers résultats retournée.

Le pire que j’ai constaté à ce jour est une 7ème place sur yahoo sur une requête très concurrentielle et aucun résultat retourné pour le site chez Google (alors que la page est bien indexée), avouez qu’il y a de quoi se poser des questions.

Puis viennent, pour certains de ces sites, les campagnes de linking à proprement parler, campagnes initiales que j’effectue en général sur une période de trois mois.

Bien sur je surveille les évolutions des positions de ces sites tout au long de ces trois mois, mais c’est le comparatif final qui est important.

Su un secteur à faible concurrence, on voit les positions initialement proposées par yahoo confortées et légèrement évoluer vers le haut, sur Google on arrive à fixer aisément les expressions principales en première page, voir top 5 et les secondaires (celles que l’on travaille le moins) suivent le mouvement.

Et l’on obtient les mêmes résultats sur des secteurs moyennement et fortement concurrentiels, la somme de travail n’étant juste pas la même.

Au final, quand on voit les écarts entre Yahoo et Google, sur le positionnement pur du contenu, puis par la suite sur les évolutions possibles qu’entraine une campagne de linking, il ne faut pas s’étonner si les référenceurs trustent les premières places pour eux ou leurs clients, Google, quoi qu’en dise Matt Cutts, leur a ouvert les portes en grand, même si, de temps en temps, il leur rapelle qu’il faut de préférence s’essuyer les pieds avant d’entrer.

Cours des actions d’entreprises dans les SERP

Petite surprise hier soir. Ma femme me demande de regarder vite fait ou en sont les résultats du match OL-Barca, histoire de…

Je recherche donc le site de l’Olympique Lyonnais avec la requête OL, Google me renvoie bien le bon résultat, mais avec un petit bonus :

Cours de l'action OL dans les SERP Google

La bordure rouge est un ajout.

Comme je suis curieux, je clique donc sur le petit plus et le temps d’un petit AJAX lave plus blanc plus tard, me voici face à cet écran :

Cours de l'action OL en mode étendu dans les SERP Google

Résumé à la fois rapide et complet des évolutions du cours de la bourse de l’Olympique Lyonnais.

La chose est déjà intéressant par elle même, surtout que j’ai testé plusieurs autres sociétés cotées en bourse et si bien souvent, les données boursières sont présentes via les éléments de recherche universelle (et souvent au dessus du site propre de l’entreprise dans les SERP), c’est la première fois que je le vois inséré dans la fiche même du site internet.

Autre point qui titille ma curiosité, c’est que les liens sur OLG et Plus d’infos sur OLG renvoient vers Boursorama, ce qui veut dire que d’une certaine façon, on offre une porte d’entrée vers un site « autre » dans la fiche Google d’un site recherché.

Et ça, c’est quand même un énoooorme point d’entré pour Boursorama. Imaginez si cet encart apparait sur toutes les fiches de toutes les entreprises cotées en bourse le traffic que ça peut générer pour boursorama.

Une nouvelle forme de partenariat ou de publicité « cachée »? Là, je me pose de nombreuses questions et pour l’instant, peu d’informations trouvables dans le monde du référencement.

Arnaud, t’as peut être un truc à essayer là ? ;)

Quelles sont vos pages dans l’index complémentaire de Google ?

L’index complémentaire de Google, c’est un peu le purgatoire du moteur de recherche. Ce sont des pages qui ne sont ni en enfer (non indexées) ni au paradis (apparaissant dans les SERPs).

En clair, ce sont des pages qui ont bien été indexées par Google mais, pour une raison ou une autre, le moteur de recherche de les a pas considérées comme assez pertinentes pour les afficher en résultat quand un internaute effectue une recherche.

C’est aussi le cauchemar de tout webmaster ou référenceur surtout si il travail pour un client et qu’un des pages les plus importantes du site se retrouve dans ce fameux « index complémentaire ».

Bref, jusqu’à maintenant, pour tester ça, j’utilisais la bonne vieille méthode de comparaison google search/AOL Search (les hacks sur la commande site ayant tendance à fonde comme neige au soleil) proposée par Jan de BVWGB : Comment savoir si une page est dans l’index complémentaire de Google.

Hier, un collègue avec qui je travaille sur un projet commun m’a envoyé l’url d’un petit script donnant des résultats assez similaires et donc je vous en fait profiter :

Supplemental Index Ratio Calculator

Vous rentrez l’adresse de votre site et il vous donne des statistiques de comparaison entre votre nombre total de pages indexées et le nombre de pages dans les résultats complémentaires.

Pour l’AJblog, c’est moins mauvais que ce que je pensais avec un ratio entre 15 et 20% de pages en index complémentaire. Par contre, si vous faites le test plusieurs fois vous aurez des variations dans les résultats.

Par contre, attention, après des tests effectués sur plusieurs sites, les variations avec le test AOl search peuvent être assez importantes. Exemple avec l’Ajblog ou le test AOL me donne près de 60% de pages en index complémentaire.

Reste à tester à fond et comparer les données sorties de ces deux tests pour voir si on peut obtenir des données réellement exploitable, et ça, ça va demander un peu de boulot.

Google pas encore au point en analyse de contenu

S’il y a une chose que Google sait faire, c’est analyser les liens, ça il n’y a aucun doute. Vous pourrez toujours tenter de cacher vos galaxies de sites avec du linking triangulaire voir plus, le grand méchant Google vous rattrapera un jour ou l’autre.

Par contre, pour ce qui est de l’analyse de contenu, il y a encore du travail à faire et donc de nombreux trucs et astuces possibles.

La preuve, regardez bien l’image suivante :

résultats sur la requête Google :création de blogs prestation

Il s’agit d’une partie des résultats affichés en première page de google.fr sur la requête suivante : création de blogs prestation.

Les 6 premiers résultats contiennent bien le mot prestation, rien à dire, on peut le voir dans la description affichée. Par contre à partir du 7eme, google commence à s’emmeller les pinceaux, il semble confondre prestation avec présentation.

Vous pouvez voir que le mot présentation et en gras dans les textes descriptifs, alors qu’en général Google ne graisse que les mots contenus dans la requête.

Ce qui est amusant, c’est que dans les résultats 7, 9 et 10, le mot présentation est mis en gras, alors que dés la page 2 de résultats on retrouve le mot prestation dans l’intégralité des résultats.

Autre fait intéressant, après vérification, les pages présentées dans résultats 9 et 10 contiennent bien le mot prestation, dans la page présentée en 7eme résultat par contre, le mot n’est absolument pas présent.

De là à dire que Google a un peu de mal avec les subtilités de la langue de Molière…