Pourquoi choisir la prestation la moins chère est (souvent) une erreur

Hey, mais j’écris sur mon blog, c’est fou ça.

On pourrait bien sur dire que je prêche pour ma paroisse étant donné que je ne suis pas réellement le prestataire le moins cher du marché (pas le plus cher non plus mais c’est un autre problème) mais en fait, cet article est plus dédié à tous ces clients qui ne regardent que le coût (et souvent avec raison par manque de connaissance du secteur) pour choisir leur prestataire.

Cet article concerne bien sûr le type de prestations que je propose (webdesign, formation et référencement) mais peut s’appliquer à peu près à tous types de prestations de service ne nécessitant pas de « matière première ».

Pourquoi « souvent » et pas « toujours » ?

Il y a certains status, l’auto-entrepreneur en tête de liste, qui permettent via une fiscalité qui leur est propre, de proposer des prestations mécaniquement moins chères qu’une « entreprise » plus classique.

Ca ne veut pas dire qu’ils travaillent moins bien que vous et moi, juste qu’avec vos charges, vous ne pouvez tout simplement pas vous aligner sur les tarifs qu’ils proposent.

Maintenant, que se passe-t-il si un client veut faire une grosse modif sur son site et que l’auto-entrepreneur a déjà réalisé le chiffre d’affaire maximum autorisé sur une année ? Ca m’intéresserait d’avoir des retours là dessus.

Pourquoi (souvent) une erreur ?

Tout dépend bien sur de la prestation demandée, mais croyez moi, plus le budget est faible proportionnellement au travail à réaliser, plus le taux d’engagement de votre prestataire est bas.

Prenons par exemple une prestation de référencement :

J’ai souvent des demandes pour des prestations de référencement à des tarifs très faibles (200/300 euros par mois). Je comprends ces demandes, il n’est pas donné à tout le monde de pouvoir dépenser plus (dans certains secteurs d’activité le ROI n’est pas toujours aisé à estimer) et j’en ai accepté à une époque, presque plus pour rendre service qu’autre chose.

Seulement, il faut être conscient du travail qui sera fourni pour ce prix. A mon tarif horaire classique, une prestation mensuelle de 300 euros correspond à 4 heures de travail.

Il faut intégrer là dedans : le suivi, tracking et analyse de positionnements, le suivi et analyse des statistiques de fréquentation, le conseil, le netlinking, les rapports… sur 4 heures.

Une prestation bien effectuée ne se fait pas 4 heures d’affilée, mais 4 heures dispatchées tout au long du mois. En terme de productivité, 4 heures de travail d’un coup ou 1 heure de travail chaque semaine, ça n’a rien à voir. Donc, soit je vous donne plus de temps et j’y perds, soit je travaille pour vous exactement le temps vendu et croyez moi, vous y perdez.

Ensuite, si je veux me verser un salaire correct il faut que je facture à minima 4500 euros par mois.

Si je ne prends que 300 euros par dossier il me faut donc au minimum 15 clients en référencement chaque mois. Est-ce que j’ai le temps de m’occuper sérieusement de 15 dossiers différents ? Mon expérience dit clairement non.

Je ne dis pas que je ne peux pas le faire, je dis juste que ce ne sera pas du travail sur mesure et de qualité (d’après mes critères).

J’ai pris une prestation de référencement comme exemple, mais ça s’appliquera à tout type de prestation de services.

Plus je baisse mes prix, plus je dois prendre de dossiers chaque mois pour pouvoir vivre, plus je prends de dossiers et plus mon taux d’engagement baisse. Au final le client est perdant.

Nous sommes en période de crise depuis longtemps maintenant, période propice à la négociation des tarifs par les clients, seulement, à trop tirer sur les prix, on finit par avoir ce que l’on voulait : un prix, juste un prix.

 

Pub copinage : Profession graphiste indépendant

Désolé Julien, oui, je sais, je suis très en retard, mais chose promise…

Profession graphiste inépendantProfession Graphiste Indépendant est un ouvrage traitant des problématiques liées à l’exercice de la profession de graphiste indépendant (oui, comme son titre l’indique).

L’ouvrage est co-écrit par Julien Moya (graphiste/DA freelance) Et Eric Delamarre (photographe Freelance).

J’ai déjà eu l’occasion d’échanger avec Julien, et si nos avis divergent sur de nombreux points et que nos échanges ont parfois été tendus et enflammés (oui c’est aussi une grande gueule qui ne mâche pas ses mots), Julien a tout mon respect car c’est quelqu’un qui a un vrai sens du partage de son expérience, de son métier, vous le trouverez principalement sur des forums comme kob-one et 1dcafé ou il exerce le difficile rôle de modérateur. Moi, les gens qui partagent sans compter, je respecte plus que tout.

Je ne peux hélas pas vous en dire plus sur le livre étant donné que julien n’a pas eu la bonne idée de m’en faire parvenir un exemplaire, mais je ne saurais trop vous conseiller d’aller voir le site dédié : Profession Graphiste Indépendant où vous trouverez toutes les informations utiles.

Recherche idéale

Avant tout, sachez que cet article a été rédigé dans le cadre de l’opération Billets synchronisés montée par Laurent Bourrelly.

Plus d’informations sur cette opération dans cet article.

Le sujet commun à cet ensemble d’articles synchronisés est l’avenir du search, ou plus précisément, le moteur de recherche de l’avenir, que peut-il de plus pour moi ?

Vous pouvez déjà trouver quelques idées en lisant une étude commanditée par Google sur le sujet :

Vous avez lu ? Ok, il y a pas mal de chose qui peuvent sembler loufoques, tout ce qui touche à la pensée par exemple, mais rappelez-vous qu’on parle de « futur » dans cette étude et qu’au final on n’y trouve rien de pire que ce que certains auteurs d’anticipation avaient imaginé il y a à peine quelques décennies.

Et c’est bien de ça qu’il s’agit, des projections sur ce que pourraient apporter dans le futur un moteur de recherche.

Allez, je ne vais pas vous faire attendre plus longtemps, je vais vous donner ma vision du moteur de recherche du futur (proche ?) :

  1. Permettre de faire facilement (au niveau recherche d’informations bien sûr) ce qui demande actuellement de solides connaissances au niveau des opérateurs avancés.
  2. Et deuxième chose, ce qui se rapproche le plus pour moi actuellement du moteur de recherche du futur, c’est Twitter, mais encore une fois quand on sait l’utiliser de manière avancée.

Pour l’instant, je vais me borner à parler du point 1, car si on regarde les résultats de l’enquête, enfin ce qui se place uniquement au niveau de la pertinence des résultats, on se rend compte que de nombreuses choses demandées… existent déjà ou presque.

Si vous n’êtes pas un utilisateur habitué des opérateurs avancés de Google, je vous conseille vivement d’aller faire un tour sur cette page : Opérateurs de recherche. Et même si vous êtes habitué, allez y faire un tour, je suis sûr que vous en découvrirez certains que vous avez probablement oublié.

Un exemple :

« televiseur lcd » -intext:comparateur -inurl:kelkoo -inurl:ciao -site:www.commentçamarche.net -site:wikipedia.org intitle:acheter+pas+cher

Bon cet exemple est relativement foireux, mais peut vous permettre de vous faire une petite idée des possibilités de filtre pour optimiser les résultats de vos recherches.

Allez, soyez honnêtes, combien d’entre vous utilisent les opérateurs avancés autres que « expression exacte » ou + ou or ?

D’ailleurs, petit aparté au passage; un autre point important pour le moteur de recherche du futur, s’il pouvait nous mettre à part les résultats tirés de wikipédia et de comment ça marche, ça nous ferait des vacances et m’éviterait de coller du -site:www.commentçamarche.net -site:wikipedia.org à chaque fois que je fais une recherche sur le net.

Je sais, je ne suis pas forcément clair dans ce que je veux dire, alors je vais clarifier une première fois en une phrase :

Les internautes ne savent pas utiliser les moteurs de recherche.

Et tout ça c’est encore la faute de Google, ou plutôt, l’effet de bord du moteur de recherche simplifié à l’extrême.

Vous, moi, nous tous, avons pris l’habitude de faire nos recherches le plus simplement possible :

Je clique dans le champ, j’écris ma recherche, je clique sur le bouton de soumission et je regarde ce qui tombe.

Il fut un temps où c’était la révolution, où les résultats retournés étaient globalement pertinents, ça c’était avant, quand il y avait encore peu de sites et le spam était encore assez limité.

Maintenant, faire une recherche Google de base, c’est comme jouer à la machine à sous, parfois on gagne mais la majeure partie du temps, on perd.

Je parle de Google, car aux dernières nouvelles, le moteur de recherche était encore en position de monopole en France (quelqu’un utilise Bing ou Yahoo comme moteur de recherche principal dans le coin ?).

Pour revenir au moteur du futur ou au futur des moteurs, c’est au choix, on peut retourner à certains fondamentaux, avec des propositions de filtres plus aisés à utiliser, c’est la solution simple, mais la plus contraignante pour l’utilisateur, du moins en apparence.

Vous préférez utiliser ça :

Interface Google classique
Interface Google classique

Plutôt que ça :

google-avance
Interface Google de recherche avancée

Se profile alors la solution de facilité : que le moteur fasse tout à ma place, même si pour ça je dois sacrifier « un peu de moi », c’est tellement plus simple.

Tout ça nous ramène à Twitter (non je ne l’ai pas oublié).

Si je dis que pour moi,Twitter est ce qui se rapproche le plus du futur du search, c’est parce que collectivement parlant et au travers de mes followers, twitter sait presque tout de moi : Je suis entrepreneur, webdesigner, référenceur, j’ai la quarantaine, je suis marié, deux enfants, j’aime le bon whisky et le bon vin, je suis plutôt quelqu’un d’épicurien, j’habite à la campagne, j’aime la musique classique, le trip hop, l’électro…

Inconsciemment, mes followers le savent, même si la majorité serait probablement incapable de répondre à une question précise me concernant, mais leurs cerveaux ont enregistré et analysé ces signaux (faibles ou forts) que je peux émettre aux travers de mes twitts, ils me profilent.

Et donc, quand je pose une question sur twitter, le formidable puits de connaissance que représentent mes followers prend ce message et l’analyse en prenant en compte tous ces signaux que j’ai envoyés :

  • Aymeric pose une question contenant le terme sprite, je sais qu’il bosse dans le web, il n’a même pas besoin d’expliquer de quoi il en retourne, je sais qu’il parle de l’usage des sprites images via CSS.
  • Aymeric est plutôt pas mauvais dans ce domaine (oui je me lance des fleurs) donc si il pose une question à ce sujet c’est que c’est peut être plus complexe qu’il n’y parait…

Si je pose une question d’ordre plus personnel, mes followers l’analyseront également à partir des informations qu’ils ont sur moi.

Si vous ne pensez pas que votre cerveau fonctionne de cette façon, vous le sous-estimez.

Vous voyez enfin où je veux en venir ?

Le moteur de recherche du futur sera un monstrueux outil de profilage, capable concrètement d’analyser l’ensemble des données qu’il pourra trouver vous concernant avant de retourner un résultat de recherche susceptible de vous intéresser réellement.

Ca existe déjà, un peu (Surf en mode connecté ou non sur Google), mais on est loin des possibilités déjà existantes en la matière.

Le moteur de recherche du futur devra devenir vous l’espace d’un instant, une sorte d’avatar de votre présence numérique, capable de se mettre à votre place, de trier l’information, de la qualifier, en fonction de vos compétences personnelles et de qui vous êtes réellement.

En un mot, le moteur de recherche du futur sera empathique.

Un peu comme cet ami de longue date capable de répondre avant même que vous n’ayez réellement fini votre question.

Pour finir, une petite liste d’autres articles de blogueurs participant à l’opération, ou vous pourrez probablement voir d’autres visions et d’autres avis :

PS : petit oubli dans mon article.

Je vous conseille, si vous ne connaissez pas encore, de vous renseigner sur le projet Sixth sense.

Et comme une vidéo vaut mieux que des mots :

Vous allez retrouver de nombreuses choses « demandées » par les personnes interrogées dans l’enquête.

http://www.googleraide.net/noframe/operateur.htm

Je donne une conférence chez Microsoft le 17 novembre

Si c’est pas un titre qui se la joue ça.

Plus sérieusement, j’ai été convié à participer à la journée de conférences du 17 novembre chez Microsoft (le programme complet chez Christophe Lauer ) pour intervenir sur la thématique : techniques et mythes du SEO.

Pour l’instant, le programme de ma conférence tourne autour de termes comme bullshit et bisounours, mais comme je ne suis pas certain que ça passe vraiment, on va peut être édulcorer tout ça.

Donc, si vous êtes sur paris le 17 novembre, passez faire un petit coucou, on me susurre dans l’oreillette que les conférences sont gratuites et que vous pouvez vous inscrire sur la page dédiée sur le site de Microsoft.

Sur ce, je retourne préparer mon déménagement.. oops, ma conférence.

PS : oui, ce post est une pub copinage éhontée.

Mise à jour Importante de Dotclear : 1.2.7

Pep (callmepep.org) sur le blog de Dotclear nous prévient de cette mise à jour :

En réponse aux récentes failles de sécurité, voici venue Dotclear 1.2.7. Comme les corrections ont demandé d’assez importantes modifications, il s’agit là d’une version dépassant la simple maintenance release . Ainsi, l’interface d’administration subit un léger (et discret) lifting, certaines possibilités de traitement par lot sur les billets et les commentaires font leur apparition, certaines méthodes du core ont vu leur comportement enrichi et quelques bugs mineurs ont été corrigés pour l’occasion. Notez également que jQuery complète désormais la panoplie Javascript disponible du côté de l’administration.

Vous en saurez plus en allant voir son billet sur le blog dotclear : Dotclear 1.2.7

Bon, on va retrousser ses manches et installer la nouvelle version, attendez vous à des gros plantages sur le Blog (oui je sais j’ai touché au moteur Dotclear et c’est mal).

Merci à Kozlika pour l’info.

15h45 : allez je me lance, à tout à l’heure.

Bon.. Jusqu’ici tout va bien.

Ahahhh.. bon je suis allé trop vite. commentaires et trackbacks bloqués le temps de la mise à jour.

aarglllll plus de 250 spams sont passés pendant la mise à jour entre le moment ou j’ai fait les premières manipulations et le moment ou j’ai bloqué commentaires et trackbacks. quelle plaie.

Statistiques des Navigateurs utilisés par les visiteurs de l’AJblog

Un petit résumé de quelques statistiques techniques sur les visiteurs du blog : Navigateur, Système d’exploitation, résolution d’écran…

Période étudiée : du 20 Juin au 21 Juillet 2007

Navigateurs :

  1. Firefox : 57.13%
  2. Internet Explorer : 36.95%
  3. Safari : 2.98%
  4. Opera : 1.24%
  5. Konqueror : 0.81%
  6. Mozilla : 0.59%
  7. Tout le reste.

Graphique de répartition des navigateurs

Statistiques de versions :

Firefox :

  1. 2.0.0.4 : 82.05%
  2. 2.0.0.5 : 5.49%
  3. 1.5.0.12 : 4.60%
  4. 2.0.0.3 : 2.81%
  5. 2.0 : 1.29%
  6. 2.0.0.2 : 0.86%
  7. 2.0.0.1 : 0.58%
  8. 1.0.6 : 0.30%
  9. 1.0.7 : 0.30%
  10. 1.5.0.9 : 0.28%

Internet Explorer :

  1. 6.0 : 51.72%
  2. 7.0 : 47.54%
  3. 5.5 : 0.47%
  4. 5.01 : 0.20%
  5. 5.17 : 0.08%

Données utiles supplémentaires :

Systèmes d’exploitation :

  1. Windows : 87.98%
  2. Macintosh : 6.15%
  3. Linux : 5.63%

Résolutions d’écran :

  1. 1024×768 : 32.85%
  2. 1280×1024 : 31.01%
  3. 1280×800 : 10.96%
  4. 1440×900 : 5.68%
  5. 1680×1050 : 4.84%
  6. 1152×864 : 3.70%
  7. 800×600 : 3.61%
  8. 1280×960 : 1.60%
  9. 1400×1050 : 1.33%
  10. 1600×1200 : 1.30%

Sources du trafic :

  1. google (organic) : 53.73%
  2. (direct)  : 16.78%
  3. netvibes.com (referral) : 6.34%
  4. google.com (referral) : 1.73%
  5. blog.60questions.net (referral) : 1.68% (coucou Jean-Marc)

Réflexions en vrac :

Contrairement à ce que j’aurais pensé, la forte importance des visiteurs utilisant Firefox ne vient pas que de mes visiteurs habitués, étant donné que 55% du trafic vient de Google.

Les sujets traités dans le blog et recherchés sur les moteurs de recherches touchent donc un lectorat assez ciblé, habitué des usages Internet et donc plus naturellement tourné vers des navigateurs alternatifs.

Près des 60% des utilisateurs sur Mac utilisent Firefox pour surfer à la place de Safari.

La part de marché des OS représentée par Windows est tout simplement effarante (quoique sans surprise).

Les utilisateurs de Firefox mettent plus naturellement à jour leur logiciel que les utilisateurs d’Internet Explorer :

90 % des utilisateurs de Firefox sont passés volontairement à la version 2 depuis sa sortie alors que la majorité des utilisateurs d’Internet Explorer (51%) sont restés à la version 6 alors que le passage en version 7 est une mise à jour.

Et ne croyez pas qu’il y ait des raisons de forte présence des versions anciennes de Windows, puisque XP représente 87% du parc Windows (couplé avec Vista : 94%).

Comme je l’avais prédit, la résolution 1024×768 ne sera jamais la nouvelle résolution de référence. Malgré ses 33% de part du marché, elle ne résiste pas à la standardisation de fortes résolutions entrainée par l’évolution du marché vers les écrans plats (58/60% des résolutions sont supérieures au 1024) et des écrans larges (20/22%).

Jean-Marc Hardy est un bon apporteur de trafic. ;)

Et un dernier chiffre pour finir, chiffre que je trouve pour ma part étonnant et qui me laisse encore plus songeur que tout le reste, LE provider :

Proxad / Free avec plus de 50% de part de marché. (je n’ai pas réussi à obtenir un % exact).

Ces chiffres peuvent donner lieu à une étude plus approfondie, mais franchement, c’est le Weekend.

Bon weekend à vous au passage.

Comment se comprendre entre infographistes et webmasters ?

C’est une très bonne question que se pose La Blonde sur son blog : Le blog de la Blonde (tout simplement).

Même si pour ma part j’aurais utilisé Webdesigner plutôt que Webmaster, mais c’est une question de détail.

Vous y trouverez un aperçu rapide des différences de perception de la mise en page de ces métiers si proches mais éloignés par l’application à des medium différents.

L’article ne creuse pas en profondeur les différences fondamentales entre ces deux métiers et je ne suis pas forcément d’accord sur certaines des positions de l’auteur (…les webmasters plutôt tournés vers la technique que le graphisme) mais il a l’avantage de ne pas être bêtement manichéen (…des graphistes polyvalents qui s’intéressent autant aux réalisations imprimées qu’aux réalisations du web) et d’ouvrir une réflexion.

L’article complet : Comment se comprendre entre infographistes et webmasters ?

Vu chez les autres : Si les architectes devaient travailler comme les web designers…

C’est le titre d’un billet de Frédéric de Villamil ayant pour origine cet article de Scott Manning : If architects had to work like web designers (datant de 2002 mais hélas toujours d’actualité).

Frédéric nous livre une traduction agrémentée de réflexions personnelles, morceau choisi :

Cher architecte,

Je souhaite vous confier la conception et la construction de ma nouvelle maison. Je ne sais pas encore vraiment de quoi j’ai réellement besoin, aussi vous fais-je entièrement confiance pour élaborer ce qui me conviendra le mieux. La maison devra héberger entre 2 et 45 chambres. Établissez donc les plans de telle sorte qu’on puisse facilement en ajouter ou en retrancher une. Les plans que vous me fournirez me permettront de voir de quoi j’ai vraiment besoin. Aussi, pensez à indiquer les impacts budgétaires de chacune des options de telle sorte que je puisse choisir sur ce seul critère.

Entendons-nous : la maison de mes rêves devra me coûter moins cher que mon habitation actuelle. Assurez-vous cependant d’en corriger toutes les imperfections : le plancher de la cuisine vibre quand je la traverse, et les murs sont insuffisamment insonorisés.

Etrangement ça me rappelle plein de choses, c’est drôle et pathétique à la fois dans la justesse de la transposition et ça me renvoie mes propres parallèles entre la création web et le bâtiment.

Courrez donc lire l’article complet : Si les architectes devaient travailler comme les web designers…

Merci à Mike (Blog Mots and Co) pour l’info.

Que l’accessibilité devienne accessible…

C’est un des voeux d’Alban Leroux dans son blog (Blog Blog) pour la rentrée 2007.

Alban se pose quelques questions sur la difficulté de s’y retrouver dans le jungle des spécifications tournant autour de l’accessibilité :

Aujourd’hui donc vouloir créer un site en suivant scrupuleusement le WCAG, RGAA, WAI, les 92 critères d’accessiweb et j’en passe… Aujourd’hui donc je reprends, ceci relève du parcours du combattant.

J’ai retrouvé dans ses questionnements un écho à certaines de mes réflexions sur l’accessibilité.

Pour le reste, ça se passe et se lit sur son blog dans cet article : Ma wishliste pour la rentrée (ce billet ne parle pas que d’accessibilité).

Article à lire : Rédaction Web – À quoi ressemblent vos liens ?

Florent Verschelde vient de publier sur son site (Covert prestige) un article très intéressant, argumenté et documenté sur le bon usage et le bon formatage des liens hypertextes :

Rédaction Web – À quoi ressemblent vos liens ?

Article dont je vous recommande chaudement la lecture.