Nous ne sommes pas que des machines à faire du lien

Un peu partout, des enthousiastes convertis à des slogans marketing affirment que le blog est mort et qu’est venu le temps des lifestreams. Plutôt que produire des contenus originaux, nous serions des machines à créer des liens entre les contenus de qualité proposés par une élite intellectuelle. Si ce projet n’est pas un retour dans le vieux monde, c’est quoi ?

Thierry Crouzet : Facebook et Friendfeed tueurs de rêves | Le peuple des connecteurs – le cinquième pouvoir.

D’un autre côté, c’est ce que je fais avec mes brèves mais je le fais chez moi, pour moi et pour mes lecteurs.

J’aime bien la réflexion de Thierry, pas forcément d’accord avec tout, mais ses idées tiennent la route et se rapprochent de ma vision du « problème » lié aux réseaux sociaux et autres sites de « lifestream ». Je vous conseille donc fortement la lecture de cet article.

Via : Le contenu, le contenant et les gens sur Ultra vite.

Wikio et ses petites bidouilles

Nuage Wikio et ses petites bidouilles

Pas d’inquiétudes, je ne vais pas faire ici un article sur le bien fondé ou non du classement Wikio, je n’en ai à peu près rien à faire, je laisse ça aux gens que ça concerne.

Je vais m’intéresser à tout autre chose, des petites choses étranges qui me laissent assez dubitatif quand à leur utilité et finalité.

Ces petites choses concernent les flux rss de wikio, ou plutôt la page de redirection utilisée par les liens sortants dans ces flux.

Pour la petite histoire, je suis en train d’essayer de centraliser un certain nombre d’outils sur mon blog, pour commencer, nous avons travaillé avec julien sur un analyseur d’entête HTTP (oui en php5 il y a une fonction qui fait ça toute seule comme une grande, mais PHP5 et OVH…), au passage il est actuellement en travaux..

Comme je voulais tester la capacité du script à suivre et analyser des redirections, j’ai utilisé des liens tirés des flux Wikio que je savais par défaut être des redirections 301.

Et là, surprise, notre script ne suit pas la redirection, il nous indique juste l’entête http de la page de redirection chez Wikio (http://www.wikio.fr/info?id=l’id de l’article) ce qui veut dire qu’il ne s’agit pas d’une redirection « serveur » (on va utiliser ce terme à défaut d’autre chose).

Désactivation du javascript, des meta redirects (merci web developer toolbar), quand nous ouvrons le lien en direct dans le navigateur, nous avons bien la page qui s’affiche, par contre quand nous cliquons sur le lien à partir du flux rss, une redirection s’opère et comme il n’y  pas de scripts onclick dans un flux xml, on va chercher ailleurs.

Pour rappel,  l’analyseur d’entêtes n’a pas détecté de redirections « serveur ».

Allez, on tente autre chose, toujours pas de javascript ni de méta refresh, mais nous désactivons aussi les referers et là, surprise nous arrivons sur la page de redirections en cliquant à le lien dans la page de flux.

Et nous sommes très surpris, on parle bien ici de cloaking sur referer, une technique qui comme le scraping de contenu est plutôt utilisée du côté des chapeaux noirs.

Bref, nous avons enfin accès à la page de redirections et nous pouvons en analyser le contenu.

Code source de la page de redirections de Wikio :

Précision, les liens cibles de cette page change bien sur en fonction de l’article ciblé.

<HTML><HEAD><meta http-equiv="refresh" content="3;url=http://fr.techcrunch.com/2009/06/09/et-voici-donc-le-iphone-3gs/"></HEAD><BODY><SCRIPT>
window.location.href="http://fr.techcrunch.com/2009/06/09/et-voici-donc-le-iphone-3gs/"
</SCRIPT>
Vous allez &ecirc;tre redirig&eacute; sur la page demand&eacute;e. Si tel n'est pas le cas, veuillez cliquer sur <a href="http://fr.techcrunch.com/2009/06/09/et-voici-donc-le-iphone-3gs/">ce lien</a> .
</BODY></HTML>

Deux redirections et un lien en dur, une source on ne peu plus simple.

Intéressons nous aux redirections et à l’ordre dans lequel elles sont insérées dans la page.

La première est une redirection par http refresh, déjà, c’est surprenant, mais ce qui est encore plus surprenant, c’est la valeur de 3 qui indique (en secondes) le temps d’attente avant de lancer la redirection.

Pourquoi surprenant ? Et bien, voyez vous, bien que l’on puisse toujours dire qu’il n’y a pas de certitudes, on considère que pour les redirections par meta refresh, une valeur de 0 (redirection immédiate) correspond à une redirection de type 301 et qu’une valeur supérieure à 0 correspond plutôt à une redirection de type 302.

En clair, la première redirection (hors cloaking sur referer) active sur cette page ressemble plus à une redirection 302 qu’à une redirection permanente.

Bref, passons à la deuxième redirection, une redirection javascript qui par défaut n’est utile que pour le navigateur du visiteur, bien qu’encore une fois il soit supposé que les robots de moteurs de recherche, bien que ne pouvant pas exécuter le javascript semblent capables de suivre une url présente dans un script.

Donc, pour l’instant, sur cette page de redirection sensée donner des redirections de type 301, nous avons détecté :

  • Un cloaking sur referer (pour le referer wikio)
  • Une redirection par meta refresh avec un délai de 3 secondes
  • Une redirection javascript

Nous cherchons toujours la « vraie » redirection 301 qui pourtant est effectivement trouvée si vous utilisez l’analyseur d’entête HTTP de webmaster hub (testez avec l’url suivante http://www.wikio.fr/info?id=109378170).

EDIT : il semble d’après un retour d’infos que l’analyseur du Hub simule un user agent Googlebot (ça a son importance pour la suite de l’histoire).

A ce moment, je suis assez dubitatif de cet ensemble de détails, je n’arrive pas à savoir ce que l’équipe Wikio cherche à réaliser avec tout ça.

Un autre point qui semble étrange, c’est quand on utilise le flux dans un agrégateur, pour le test j’ai utilisé netvibes.

J’ai donc ajouté un flux tiré de wikio à mon netvibes. Au clic par défaut, on est bien redirigé, mais… Car il y a un mais, en effectuant de nouveau le test en désactivant le javascript, les meta refreshs, le referer et en cliquant sur le lien à partir de netvibes, la page de redirection s’ouvre… et redirige vers la page cible de l’article au bout de trois secondes, comme si le meta refresh s’effectuait malgré sa désactivation et ça, ça me laisse encore plus dubitatif.

Et là, je me dis, tient, vérifions comment un robot suit tout ce processus.

Javascript toujours désactivé, meta reflresh et referer aussi, je switche donc le user agent de mon navigateur en me faisant passer par Googlebot et là, presque sans surprise finalement, je suis redirigé vers la page cible de l’article.

Nous avons donc, non seulement un cloaking sur referer mais également un cloaking sur user agent, ça commence à faire beaucoup pour ce qui devrait être une simple redirection de type 301.

Donc, ma question au final :

Sincèrement, vous jouez quel jeu chez Wikio ?

Parce que entre nous, vous commencez sérieusement à trainer un bon paquet de casseroles, entre les redirections 302 de vos débuts, les liens vers les sites sources promis et toujours pas présents dans les flux générés par wikio, le scraping de contenu sans autorisation, le robots.txt de la mort… Vous ne trouvez pas que ça commence à faire un peu beaucoup d’expérimentations borderline ?

J’ai été, jusqu’à ce jour assez bienveillant avec Wikio, regardant le projet que ça pouvait devenir, mais là sincèrement, trop d’interrogations, perte de confiance, je crois qu’il est temps de demander la desindexation de mon blog de wikio et de demander également à ce que l’intégralité de mes contenus disparaissent du site, merci d’avance.

Fuzz utilise le nofollow ?

Vous me connaissez maintenant, je suis un peu, comment dire, tatillon en ce qui concerne la façon dont les sites font leurs liens vers vous, je vérifie donc les différentes sources.

Et là, consternation, un nofollow sur le lien vers mon article dans la news Fuzz :

Premier lien avec l’ancre sur le titre du billet :

<a href= »http://www.ajblog.fr/module-igoogle-dans-google-webmaster-tools » target= »_blank » rel= »nofollow« >Module IGoogle dans Google Webmaster Tools</a>

Deuxième lien avec l’ancre www.ajblog.fr (donc beaucoup moins intéressant pour les SERPs) :

<a href= »http://www.ajblog.fr/module-igoogle-dans-google-webmaster-tools » target= »_blank » rel= »nofollow« >http://www.ajblog.fr</a>

Bon, je me dis qu’il ya peut être quelque chose qui colle le nofollow tant que l’article n’est pas officiellement validé, je vérifie donc les articles en homepage, et même résultat, les liens vers les sources sont tous en nofollow…

Je veux bien croire que le but d’un digg like ne soit pas de fournir du backlink, mais du traffic (plus ou moins qualifié) mais sincèrement, du nofollow ? L’attribut pensé initialement pour luter contre le spam et qui indique aux moteurs de recherche de ne pas suivre le lien car celui-ci n’est pas forcément digne de confiance ?

Autant vous dire que le trackback Fuzz est passé hors ligne, étant donné que de mon côté, le nofollow, je ne pratique pas.

Donc, Eric, je te le dis comme je le pense, parce que je t’aime bien petit con, je vais t’apprendre la politesse (pour cette phrase il faut des références, depuis le temps que je rêve de la caser) :

Le nofollow, c’est mal, c’est nul, c’est petit, ça créé des trous noirs SEO (black hole SEO) et petit à petit, ça tue l’essence même d’internet : les liens.

Un plan de monétisation possible pour Twitter

Je vous préviens, il ne s’agit que de simple spéculation de ma part, l’idée vient de me traverser l’esprit pendant que je réinstalle mon poste de travail, c’est vrai, je n’avais rien de mieux à faire ce dimanche.

Bref, c’est une idée simple, à l’heure ou de nombreuses questions se posent sur les business model de tel ou tel service estampillés web 2.0 (arggglll je l’ai dit).

Et si Twitter monétisait ses liens ?

De nombreuses personnes utilisent Twitter pour diffuser des liens intéressants, diffuser les derniers articles de leurs blogs, etc.

Pour éviter que Twitter ne devienne une boite à spam, l’équipe de développement a fait en sorte que les liens publiés ne puissent pas servir, d’un point de vue de référencement, en couplant deux systèmes :

  1. Un service de compression d’url (tinyurl par exemple) de façon également à réduire le nombre de caractères des liens (pour tenir dans les 140 autorisés).
  2. L’ajout de l’attribut nofollow qui indique aux moteurs de recherche de ne pas suivre ces liens (et donc en gros de ne pas les comptabiliser dans le nombre de backlinks du site ciblé).

Quand on voir que certains profils sont très bien référencés, ça ouvre des perspectives.

A mon avis, deux options très intéressantes s’offrent à Twitter :

  1. Création de comptes « premiums » ou pros payants, permettant de ne pas utiliser le service de compression d’url et de ne pas avoir l’attribut nofollow sur les liens publiés vers un certain nombre de domaines (juste une réduction de l’url, mais avec un lien href complet en dur vers la source citée). Comptes qui devraient intéresser tous les professionnels du web.
  2. Des accords business avec des sites internet, permettant en automatique la même chose que pour les comptes premium, mais pour tous les utilisateurs. En gros, si je fais un accord business avec Twitter pour l’Ajblog, toute personne liant un de mes articles dans un twitt donne un backlink complet et comptabilisé par les moteurs de recherche. Imaginez l’avantage que cela pourrait représenter pour des gros sites d’information avec les millions d’utilisateurs de Twitter.

Et tout ça sans créer de nuisance pour les utilisateurs, pas de publicités, rien, juste du lien en dur, et ça, je pense que les utilisateurs de Twitter s’en fichent un peu, vu qu’ils ne sont pas avares de liens.

Je pense sincèrement qu’il s’agit d’un plan de monétisation tout à fait réalisable et viable pour un service tel que Twitter.

Facebook, c’est pas pour les pauvres

Bon, histoire de pas mourir idiot, je re-teste facebook à l’occasion de leur redesign… Je lance le truc de récupération de password pour retrouver mon vieux compte que j’ai utilisé 5 minutes ya 67 mois, et la, je vois mon Firefox qui s’excite à transférer une tonne de trucs depuis login.facebook.com …

Mathieu Pillard : Faceboo! – blog.virgule.info

Pas moins de 8 appels à des feuilles de style CSS et 38 appels à des fichiers .js, je n’ose imaginer le poids des pages facebook, sans parler de la charge serveur, ni de la saturation mémoire du poste client, allez voir la liste, c’est impressionnant.

Via : embruns.

Ziki créé des profils automatiques ?

Il découvre donc aujourd’hui, que ziki a créé une page à son nom, sans lui demander son avis, sans rien lui demander d’autre d’ailleurs, la page ayant été créée, il semble, par l’équipe Ziki car on y trouve les textes suivants :

  • Statistiques : 776 pages vues – Membre depuis : 9 mois – Créé par : Ziki
  • L’information sur cette société a été fournie par un membre Ziki

L’ensemble des informations présentes sur sa fiche sont directement tirées de son blog et d’autres sources d’information:

  • Sa bio copiée/collée de la page « about » de son blog, mais certains informations ne sont pas présentes
  • Ses derniers articles, tirés de son flux (je reviens là dessus après)
  • Un lien vers son réseau viadéo
  • Une série de mots clés en rapport avec son activité

Pour revenir sur la publication de ses derniers articles, et donc la reprise de son flux, cela pose plusieurs problèmes :

  • Chaque article a sa page dédiée dans son profile
  • Chaque page d’article est optimisée SEO avec titres, descriptions et mots clés qui vont bien
  • Chaque page d’article intègre le nom du profile dans les métas, permettant à chaque page de se positionner potentiellement sur le nom de la personne, d’autant plus qu’elles sont totalement indexables : <meta name= »robots » content= »index,follow,all » />
  • Il utilise les options de statistiques avancées de Feedburner, donc aucun lien profond direct vers ses articles.

Heureusement pour lui, il utilise un flux RSS tronqué, ses articles ne sont donc pas indexés en leur ensemble.

Il n’empêche que par cette création de profile nominatif incluant le flux d »information de son blog professionnel, Ziki se livre à une forme de parasitisme d’identité ou ils s’approprient une partie de la visibilité et du travail de la personne dont ils créent un profile.

Un autre fait intéressant, le seul visiteur de sa page présenté par Ziki est… son concurrent le plus direct.

Alors ? Profile créé automatiquement par l’équipe Ziki ? Profile créé par son concurrent pour se donner une visibilité détournée ?

Que ce soit l’un ou l’autre, je trouve la chose plus que borderline car Ziki est sensé être un service ou l’on centralise son identité numérique, pas un service ou l’on peut en créer de toute pièce.

Si c’est l’équipe Ziki, de quel droit créent-ils des profiles dans prévenir la cible et surtout sans lui demander son accord ? Si c’est le concurrent, quelles sont les procédures de contrôle ? Peut-on créer un profile pour n’importe qui aussi facilement ?

En cherchant un peu, je suis tombé sur le cas d’un autre personne ayant été confrontée au problème : Ils ont créé mon clone numérique sans mon autorisation !

Comme quoi, je n’invente rien.

En tous cas, un mauvais point pour Ziki, je suis, personnellement, assez déçu.

Mise à jour : Mon partenaire, Charles Boone, fait son propre retour sur son blog : Ziki fait un hold-up numérique en parasitant les identités numériques de personnalités.

Feedburner : une raison de plus de ne pas l’utiliser

Je continue ma campagne pour vous débarrasser des services webdeux dont vous pouvez vous passer avec en tête de liste Feedburner.

Pour rappel : Dans une semaine, je coupe les flux Feedburner

Outre le fait que vous déléguez la diffusion de vos contenus à un service tierce, ce qui déjà en soit est une aberration car vous n’avez aucun moyen de contrôler qui ou quoi l’utilise mais en plus, si vous utilisez les outils de statistiques avancés, Feedburner utilise une redirection 302 pour lier votre contenu, oui vous avez bien lu, une redirection 302, pas une 301 ou quelque chose de propre, une bonne vieille saleté de redirection 302 qui indique aux moteurs de recherche que votre contenu a pour origine… Feedburner (en gros, hein, je ne vais pas rentrer dans les détails).

En pratique, ça donne quoi ? Et bien, sur tous les sites ou vous avez déposé (ou qui le font sans votre accord) vos flux pour qu’ils diffusent vos articles, le lien renvoie vers Feedburner qui grâce à cette redirection 302 indique aux moteurs de recherche que votre article sous son adresse réelle (chez vous) n’y est que temporairement et que la source d’origine à favoriser, c’est l’adresse du flux Feedburner.

Feedburner, définitivement un parasite du web et en plus maintenant, Feedburner = Google vu que Google a acheté la société.

Wikio scrap le contenu html ?

Qu’est ce qui peut bien se passer dans le petit monde Wikio en ce moment ?

Premièrement, les liens vers les sites sources dans les flux, promis et fournis ont disparu, ce qui est loin d’être une bonne nouvelle.

Edit suite à commentaire : il semble simplement que le processus ne soit pas encore généralisé sur tous les flux.

Deuxièmement, je viens de me rendre compte que Wikio, d’une façon ou d’une autre, fait du scrap de contenu, et je suis très, mais alors très désagréablement surpris.

Preuve en est avec les captures suivantes :

Recherche sur le terme Ajblog dans la partie actualités de Wikio :

Recherche sur le terme Ajblog dans la partie blogs de Wikio :

Si la capture des résultats de la partie blogs correspond bien au contenu des articles, le contenu fourni par la partie actualités, ne peut en aucun cas provenir du flux rss du blog, pour la simple et unique raison, que ce texte (Ce blog utilise une syntaxe wiki dans les commentaires…) est écrit en dur dans la page des posts de mon thème dotclear.

Il n’est récupérable que dans le cas d’une opération de Scrapping de contenu, et là je m’étonne car à ce jour, rien ne m’indique que Wikio utilise cette technique très répandue dans les milieux « borderline ».

Et si vous vous demandez pourquoi cela ne me plait guère, c’est tout simplement, parce que je peux contrôler les informations que mon flux RSS diffuse, par contre je ne peux absolument pas contrôler ce qui est diffusé suite à un scrapping de mon contenu.

Jusqu’à maintenant, je crois avoir été assez bienveillant avec Wikio, mais si ils se mettent au Scrapping, ça va être une autre histoire.

Pour information voici la définition donnée au terme scrapper sur le blog Seo-blackout :

Définition de scraper : Récupérer le contenu d’une page web en vue de réutiliser ce contenu sur son propre site. Le but est d’obtenir du contenu sans efforts, la plupart du temps de façon automatique. Cela permet au scraper de générer des milliers de pages sur des thématiques ciblées. Sur ces pages ainsi générées, le scraper va ajouter des Adsenses ou des liens d’affiliation afin de gagner de l’argent facilement.

De l’utilité des Digg Like

Actuellement, je récupère des informations sur des retours utilisateurs des digg like, pour un dossier client ou l’usage de ces clones de Digg rentrent dans la stratégie de communication / référencement.

Dans l’ensemble des lectures plus ou moins partisanes, je suis tombé sur un article dont la conclusion est intéressante :

Dans l’idéal, il faudrait poster vos billets sur tous les Digg-like sans distinction d’audience, de classement ou de quoi que ce soit.
Mais soyons honnête : c’est chiant. Les interfaces sont souvent mal pensées, les sites rament, on perd plus de temps qu’autre chose… L’outils Digg-like doit être rentable : il doit ramener des visiteurs sans empiéter sur notre temps. Temps qui est de toute façon bien mieux employé à écrire des articles qu’à nourrir les Digg-like boîteux.
Forgaria : Quelle stratégie adopter vis-à-vis des Digg-like ?

La conclusion de Forgoria rejoint globalement la mienne.

Globalement parce que j’y apposerai quelques informations complémentaires :

  1. Il ne faut pas ignorer l’aspect communautaire des Digg like, tout comme les réseaux sociaux, professionnels ou non, pour avoir un gain réel en terme de visibilité à moyen et long terme il faut s’investir dans la « vie numérique » du site, s’y faire connaitre.
  2. Si vous vous bornez juste à poster vos articles sans réellement faire de suivi, vous avez intérêt de parler des dernières frasques de Britney Spears plutôt que de l’élevage des canards lapons importés en Papouasie inférieure. Si vous avez un blog qui parle de people, de l’actualité, des dernières technologies à la mode, les retours sont, il semble, beaucoup plus conséquents.
  3. Certains permettent les liens dans le contenu des résumés, c’est une chose à ne pas ignorer pour créer du lien profond vers d’autres articles que celui publié.
  4. Certains digg like « thématiques » (tutmarks, blogasty) apportent un trafic ciblé et qualitatif donc de l’abonné potentiel si la qualité des articles et des sujets traités est au rendez-vous.

En conclusion, pour avoir un vrai retour de l’usage des Digg Like, c’est comme tout projet de communication ou de référencement, ça demande du travail et du temps.

Le gain facile et immédiat, ce n’est pas là que vous le trouverez.

En complément à ces informations, vous pouvez aller lire les articles suivants :

  • Homo Sapiens Internetus : Digg-Like francophone : résultats et analyse (partie 1) (article en 4 parties)
  • Bleebot : Scoopeo : 15 mois plus tard…

Twitter, l’effet téléphones portables

Une des raisons qui a aidé le marché du téléphone portable à se développer, c’est que de plus en plus de gens n’avaient plus que ça comme téléphone, le bon vieux filaire était délaissé, particulièrement par les étudiants et les jeunes en général.

Du coup, les parents, la famille, les amis se mettaient également au téléphone portable, car ça revenait moins cher que les monstrueuses factures téléphoniques que l’on gagnait à appeler les gens sur leurs portables.

Twitter, c’est un peu pareil, certaines personnes délaissent leurs blogs, voir leurs emails pour leur espace twitter (ou Facebook, mais là j’ai définitivement renoncé).

Tout ça pour dire que, comme il n’y a que les abrutis qui ne changent pas d’avis, je viens de me créer un compte Twitter, je sens que je vais vite le regretter, comme si je n’avais pas déjà assez de trucs chronophages à gérer.

Par contre, ne vous attendez pas vraiment à des mises à jour fréquentes.

L’adresse très originale : http://twitter.com/AymericJ

Bon, maintenant, trouver les gens.

Edit : ça commence bien…

Twitter Down muwahahahaha