L’escadrille des huns compétents du SEO !

J’ai écrit mon article relatif au test de compétence d’un prestataire SEO à la suite de deux événements qui m’ont quelque peu agacé. Je peux, hélas, très vite être contrarié. Le premier fut une batterie de mails insistants de la part d’une agence belge, pour me proposer de référencer son site, alors que son site ne dispose même pas du fichier robots.txt. Le deuxième événement fut la mise en copie du retour, par un de mes clients, de son prestataire spécialisé en référencement, qui ne semblait même pas connaître l’existence du robots.txt.

Je persiste et je signe. Sur la base d’éléments formels (et il y en a beaucoup d’autres encore), j’affirme que l’absence du fichier robots.txt à la racine d’un site et du chemin indiquant, dans ce fichier, l’emplacement du fichier au format sitemap est un signe manifeste d’incompétence pour un professionnel qui s’autoproclame expert du référencement/SEO. J’ai dit.

L'escadrille des huns compétents du SEO !Un florilège de réactions !

Lui nettoie votre e-réputation !

Le souci de l’utilisation de langages vernaculaires (merci Jean-Christophe), c’est qu’on n’est jamais très éloigné de la verbigération. Extraits choisis.

@informatique il aurait été plus pertinent d’analyser le profil netlinking des sites en question face au poids de ce levier dans l’algo

Lui répondant que je ne comprenais ni Hegel, ni Lacan, mon interlocuteur précise :

@informatique les stratégies de linkbuilding mises en place si vous préférez :-)

La discussion se termine par mon interlocuteur en me prenant franchement pour un con :

@informatique J’abandonne ! Je préfère aller lire vos articles #sysadmin sur votre blog ;-)

Je traduis : « Casse-toi, pov’con« . Cela ne fait que 8 années que je pratique le référencement/SEO dans le cadre de la société Winuxware ! C’est sans doute bien peu eu égard aux longues années d’expérience de mon interlocuteur.

Celui-là est un expert en « spinning » !

Quand je parlais de logorrhée dans l’usage des langages vernaculaires, il faudrait y ajouter l’incapacité de votre interlocuteur à structurer une pensée claire en 140 mots.

@informatique OMG ! Pas de sitemap pour quelques dizaines de pages ? C’est la catastrophe. GG va m’ignorer alors ?

Je connaissais les OGM. Ça fait peur, non, pour un spécialiste du Content Spinning ou du Spinning Content ? Le mérite de Twitter, c’est de nous faire découvrir des métiers qui n’existent pas dans la vraie vie et des gens qu’on ne voit pas.

La culture du résultat

Ce qui m’a explosé au visage à la lecture de mes commentaires, c’est la mise en avant de la culture du résultat. Je suis un bon SEO parce que j’apparais en tête dans l’index Google, alors que les résultats que produit Google sont de plus en plus fabriqués par les cookies qui jonchent nos navigateurs. Heureux d’avoir fait un coup qui durera l’espace de quelques jours, de quelques semaines ou de quelques mois, ces experts autoproclamés du référencement nous expliquent que, eux, ils savent et que, nous, nous ne saurions pas. Extraits choisis.

En effet, les chiffres parlent d’eux-mêmes. La plupart des 10 premiers n’a pas besoin de robots.txt ou d’un lien vers le sitemap pour ranker.

Comment expliquer que des incompétents trustent les premières pages ?

Je répondais à mes interlocuteurs, contents qu’ils étaient d’avoir trouvé la faille qu’il fallait regarder beaucoup d’autres paramètres tels que :

De l’art de chercher à faire passer votre interlocuteur pour un con

Mention spéciale à Sylvain pour avoir cherché à me faire passer pour un con, le sourire en plus ! La technique est connue depuis bien longtemps. Vous sortez un mot de son contexte… pour discréditer votre interlocuteur.

Quel andouille, j’ai oublié de soumettre mon sitemap à Exalead :-) Je dois perdre un paquet de visite hein ?

Remarquez l’utilisation du « hein ».

Matt Cutts, chaman du SEO

Un de mes interlocuteurs, Martin, qui, à la différence de beaucoup d’autres, a fait l’effort de présenter un point de vue structuré avec lequel je reste en désaccord,  en est venu à invoquer notre Dieu à tous, Matt Cutts :

Enfin, et Matt Cutts a déjà consacré une vidéo à ce sujet : si l’on doit choisir entre un sitemap.xml sur un site ou un plan du site en HTML, mieux vaut privilégier le second.

Le souci est que ce n’est pas ce que dit Matt Cutts dans la vidéo. Il dit que les deux ont un rôle différent. Comme s’il fallait choisir ! La vision du SEO est additive : elle ne peut pas être soustractive.

Google Attitude

La dindification aussi dans le SEO ?Ce qui est apparu en creux à la lecture de tous les Tweets et autres commentaires, c’est qu’il ne servait à rien de s’occuper des autres moteurs.

@informatique que vous avez raison de concentrer vos efforts de visibilité sur Bing…

@informatique En étant premier dans GG peut-être ? Non je plaisante, continuez sur Bing, ça va payer ;)

Je pourrais encore évoquer ce que disait, en commentaire, Sylvain sur Exalead ou Martin sur Matt Cutts.

Dans la journée du 13 février sur ce site, les accès à ce site au travers des services Google ont représenté 13.66% (5931/43411) du trafic global, vu et non vu !!! Cette statistique est produite à partir des logs fournis par le serveur Apache. Google Analytics me remonte 439 visites pour Google sur un total de 786, cette même journée, soit 55.85% des visites. En termes de pages visitées (trafic vu), le poids de la recherche Google remonté par Awstats est de 9.95% depuis le début du mois de février ! Je tiens à préciser qu’il s’agit là d’une analyse quantitative.

Je vous incite fortement à lire un article que j’avais écrit le 21 janvier 2012, alors que je prenais, ce jour-là, 48 ans : Google Analytics à l’origine de la mesure de la baisse d’audience des sites Web !

Le mot de la fin à Régis

Merci à Régis pour ses paroles rassérénantes !

Ça parait tout de même surprenant, que des gens qui s’estiment experts SEO, qui écrivent et lisent des articles à ce sujet tous les jours, ne mettent pas leur sitemap à la racine de leur site. Je suis surpris. Mais ça laisse plus de place pour les autres.

J’ai juste un doute, cher Régis, au vu des commentaires et des Tweets sur la conclusion.

Sources : Twitter, le billet et ses nombreux commentaires

Référencement  / Branlage de dindons Consultant SEO Dindification de la société e-réputation Formateur SEO Référencement naturel robots.txt SEO Sitemap sitemap.xml 

Commentaires

Eh bien Denis, où Monsieur Szalkowski si vous préférez, vous avez sacrément pris la mouche.

Je vous disais définitivement au revoir hier, mais j’ai repris le clavier pour avoir été cité dans ce nouvel article.

Vous faites un article qui décrit les SEO n’utilisant pas le robots.txt ou le sitemap comme vous le préconisez d’incompétents.

Il s’avère que les exemples que vous prenez sont les 10 premiers résultats de la première page de Google. Il semble donc assez étonnant qu’autant d’incompétents squattent les premières positions, non ?

Faut-il comprendre que les « compétents » selon vos critères arrivent moins bien classés dans les résultats ? Je m’étonne donc à nouveau de vos conseils.

Vous convenez ensuite que les positions sont influencées par nombre d’autres facteurs. Si j’en crois toujours les résultats de ceux que vous avez pris en exemple (les obsédés de la culture du résultat), ils ont donc utilisé d’autres facteurs bien plus efficaces que le robots.txt ou le sitemap pour squatter les premières places. Entre nous, ce n’est pas très étonnant puisque le robots.txt et le sitemap n’aident en rien au positionnement, mais plutôt à l’indexation. D’ailleurs, dans ce cas, ils sont loin d’être indispensables non plus comme tentait de vous l’expliquer Martin.

Moi qui suis un obsédé du résultat, ou plutôt du R.O.I, j’avais tenté avec humour (très mal pris, je n’en ferai plus ici c’est promis) de mettre en exergue que les entreprises clientes des SEO, se fichent comme de l’an 40 des résultats d’Exalead. Ce moteur n’apparait même pas dans les tableaux de part de marché des moteurs en France. Je précise que je ne remets pas en cause ce que fait Exalead par ailleurs, je parle juste du moteur public.

En ce sens, lorsqu’un client m’attribue un budget correspondant à deux jours de travail dans le mois, sur quel moteur pensez-vous que ce client souhaite que je m’attarde, Google ou Exalead ?

En dernier lieu et pour répondre à votre tweet d’hier, le fichier robots.txt de mon blog est pour le moins succinct en effet. Et alors ? Mes articles sont indexés en 30 secondes (souvent moins) et se positionnent plutôt très bien. Je ne vois pas l’utilité d’aller renvoyer vers un sitemap que je n’ai pas d’ailleurs puisqu’il ne me servirait strictement à rien.

Bref, autant je ne me permettrai certainement pas de remettre en cause vos compétences réseaux ou infrastructures, vous êtes bien meilleur que moi.
En revanche, pour le SEO, je ne me souhaite que des concurrents comme vous.

Bien cordialement

@Sylvain

J’ai dit très clairement que des experts autoproclamés du référencement qui n’utilisaient pas le fichier robots.txt et qui oubliaient de déclarer le chemin vers leur sitemap dans ce fichier, n’étaient pas qualifiés pour nous parler du référencement.

La culture du résultat, c’est la culture de l’instant. Je referais un point dans quelques temps pour voir si ce sont toujours les mêmes et s’ils ont changé leur comportement vis à vis de robots.txt et de sitemap.xml ! ;+)

La partition que vous faites entre l’indexation et la présence dans l’index me semble des plus intéressantes. Comme vous avez pu le constater, en forçant l’indexation, on accélère aussi le positionnement dans les moteurs. Je croyais que vous étiez dans la culture du résultat ? A chacun, ses contradictions et, comme vous avez vu, j’ai les miennes ! J’espère que vous saurez reconnaître les vôtres.

Sur Exalead, Ask ou d’autres comme Yandex, compte tenu du temps que ça demande, je ne vous trouve pas sympa avec vos clients et particulièrement radin ! ;+)

Concernant le ping de nos blogs, je l’utilise comme vous. J’en connais son efficacité, notamment dans la vitesse que met Google à indexer nos contenus. Nous les utilisons d’ailleurs très souvent en sous-domaine – ou au cœur des sites – pour booster la visibilité des sites institutionnels. Mais vous avouerez que pour un site qui ne dispose pas d’un tel mécanisme, la problématique est très différente. J’ai, il y a, 6 ans positionné le site d’un client en flash sur deux expressions (selon la volonté du client). Depuis, il n’a pas bougé. Le monde n’est pas à notre image, les sites de nos clients encore moins !

Aujourd’hui, j’étais occupé. Je n’ai pas pu vous répondre plus tôt. Je viens de vendre deux contrats de référencement. L’un de mes clients a eu affaire à un presta qui avait oublié son robots.txt et son sitemap.xml. ;+) Je vous rassure : il n’y a pas que ça, non plus. Ce serait un peu trop simple. L’un des contrats va nécessiter un énorme boulot et, comme je le disais, nous avons toujours fonctionné en vision additive.

Bon vent à vous.

Donc des incompétents qui rankent mieux que leurs concurrents…
Et bien en tant que client, je me fierais plus à eux qu’aux autres.
Il est amusant de constater que depuis votre précédent article et sur celui-ci vous tournez autour de cette question sans jamais y répondre.

Vu que cette discussion risque d’être sans fin, Je vais cette fois en rester là pour de bon en finissant sur deux points :

1 / je vous invite à revoir vos classiques.
L’indexation se traduit par le fait d’être « enregistré » dans l’index d’un moteur, mais potentielement invisible sur l’essentiel des requêtes décrivant l’activité du dite.

Le positionnement, souvent appelé à tord référencement, se traduit par le fait d’être visible sur ces mêmes requêtes, de préférence en première page de résultats ou mieux en première position (ne me parlez pas de recherche personnalisée, le site qui n’a jamais été visité par un internaute n’a aucune chance d’y apparaitre)

Le positionnement permet donc généralement à une entreprise d’engranger de nouveaux contacts / clients.

Vous m’attribuez une contradiction qui part de VOTRE postulat selon lequel forcer l’indexation accélère le positionnement.
Je réitère mes propos, indexation et positionnement sont deux choses distinctes. Je ne comprends donc pas votre phrase à moins que vous ne disiez qu’il est nécéssaire d’être indexé avant d’esperer être positionné. Lapalisse n’aurait pas dit mieux.
Je ne vois donc aucune contradiction dans mes propos.

2 / Pour terminer car je ne voudrais pas que vous pensiez que je vous ai pris en grippe, je dirais que j’apprécie beaucoup une chose chez vous, c’est le fait que vous n’hésitiez pas à publier les avis contraires au vôtre. Ce n’est pas le cas de tout le monde. Et pour être totalement sincère, j’espère vivement qu’un jour nous nous retrouvions en concurrence. Je vous montrerais comment je vous grillerai la politesse dans la SERP sans robots.txt ni sitemap :-) et sur des requêtes concurrentielles.

A ce sujet, je ne vois aucune références sur votre site, pas facile de savoir auprès de quesl clients vous exercez votre art.

( Le smiley n’est pas de l’humour cette fois, plutôt un signe de sympathie envers quelqu’un faisant le même métier que moi, je suis (aussi) joueur et je piaffe d’impatience)

Très bonne soirée à vous

@Sylvain

Nous ne serons pas d’accord. Regardez mon exemple sur Bing. Il est révélateur. J’en ferais un billet pour vous expliquer les détails. Pour Google, c’est plus difficile à démontrer du fait de nos systèmes de ping. Sans Ping, que se passe-t-il pour que le crawl intervienne le plus rapidement possible ? Je repose la question, vous qui êtes dans la culture du résultat…

Je ne suis pas joueur. Je tâche de faire mon métier le plus sérieusement possible. Vous savez : un bon SEO, c’est comme le cueilleur de morilles (je suis cueilleur de morilles). Il ne diffuse jamais ses coins. Pour plusieurs raisons.

La 1ère, c’est que nous pouvons faire des erreurs. Et comme tout le monde, j’en ai fait. J’en referais, sans doute. Si c’était à refaire, il y a des campagnes de référencement que je ferais différemment. La 2nde, c’est que le référencement nécessite beaucoup de sérénité. Notre société de prestation, c’est Winuxware que je co-gère avec mon associé, Olivier depuis 2004. C’est sur cette société que nous proposons de nombreuses prestations : hébergement (nous gérons désormais nous-mêmes nos serveurs sous Linux), référencement, contrats de rédaction et de community management. L’avènement des réseaux sociaux que j’ai commencé à utiliser dès fin 2007-début 2008 pour le compte de mes clients a profondément bouleversé la donne.

Aujourd’hui, pour moi, tous ces métiers se rejoignent et j’avoue que j’ai beaucoup rigolé quand j’ai vu récemment les fiches métier d’un cabinet de recrutement spécialisé dans le Webmarketing, dont je préfère taire le nom. J’ai même vu que HEC s’était associé à Google. Là, ça devient franchement drôle ! ;+) Je trouve que nous avons à faire majoritairement à des gens qui ne savent pas de quoi ils parlent. Dans ce domaine, comme dans tant d’autres.

Si Matt Cutts est votre dieu, il est urgent de changer de religion ;)

Le sitemap.xml et le robots.txt ne sont pas utiles pour le positionnement et sont généralement inutiles pour de nombreux sites.

Le 1er est utile si le site a des problèmes d’indexation ou pour les sites à gros volumes de nouvelles pages (particulièrement important pour les sites d’actus).

Le second est très souvent inutile (il est préférable d’utiliser Google Webmaster Tool pour indiquer son sitemap.xml) et d’ailleurs il pose plus souvent problème qu’autre chose notamment lorsqu’on cherche à désindexer certaines pages, j’ai déjà vu : désindexation des PDF, de la page contact, voire même du site entier (optimiser un site avec « disallow:/ » pas trop compliqué :D)…

@Alex

Vous n’avez pas de fichier robots.txt pour votre site.

@Toucouleur

Pour Matt Cutts, c’était, pour ce qui me concerne, du second degré, vous l’aurez compris. J’ai toujours eu une profonde détestation pour les gourous et leurs groupies, sans avoir au juste qui étaient les pires.

J’allais passer mon tour car je ne me suis pas exprimé sur le premier billet, mais finalement je glisse mon grain de sel.
Tous savent que je ne suis pas le dernier lorsqu’il s’agit de critiquer les menteurs et arnaqueurs du secteur, mais lancer une attaque aussi globale et surtout peu pertinente ne sert à rien d’autre qu’attiser la foudre que vous prenez en pleine poire.

1) Robots.txt : concrètement c’est le premier fichier qu’un crawler va chercher sur le serveur, donc oui il est intéressant d’en avoir un. S’il n’est pas là, des tonnes d’erreur 404 vont apparaître dans les logs. En aucune manière son absence va empêcher un référencement. C’est là que vous avez tout faux.
Puis c’est bien de regarder chez les autres, mais blindez votre propre travail.
User-agent: *
#Disallow:
Le Disallow en commentaire ne risque pas d’être pris en compte.

2) Sitemap.xml : ce document n’est absolument pas indispensable pour référencer un site. Encore heureux d’ailleurs que le sitemap n’est pas un avantage car ça serait scandaleux s’il suffisait d’inscrire son site dans une console webmaster afin d’être référencé. Il s’agit uniquement d’un outil de contrôle qui permet éventuellement au moteur de découvrir des URLs, mais absolument pas de valoriser un positionnement ou même aider l’indexation. Prenez un site avec une architecture déplorable et des tonnes des pages perdues. Vous pouvez fourguer tous les sitemaps que vous voulez et ça n’arrangera pas la situation pour autant.
De la même manière que votre robot.txt possède une faute de syntaxe, votre sitemap pourrait être largement mieux optimisé. Je passe sur les paramètres optionnels qui sont réglés n’importe comment, mais j’en reviens au robots.txt où vous déclarez le fichier compressé, alors que c’est le xml qui convient. Sans même parler de la validité d’un fichier compressé pour un site aussi petit…

Pour finir sur un plan global, je n’ai pas de problème avec vos problèmes envers la profession, mais armez vous convenablement car votre entêtement sur ces deux éléments n’est pas sain.
En plus, je parle en connaissance de cause, il y parfois des problèmes sur son propre site, dont on est conscient, mais qu’on a tout simplement pas eu le temps ou l’envie de s’occuper. Encore une fois, ce ne sont pas des facteurs bloquants, mais seulement des facteurs ralentissants. Vous avez l’air de tout mettre sur un même plan, alors qu’il existe une hiérarchie et un degré d’importance. Si vous pensez que le robots.txt et encore plus le sitemap figurent parmi les facteurs bloquants vitaux, alors vous avez simplement démontré votre incompétence (peu importe le nombre d’années passées à travailler dans le secteur). Même si le robots.txt figure parmi les facteurs bloquants dans mes audits, ce n’est pas du tout au même niveau que vous l’entendez.

@Laurent

Mais j’ai jamais dit que l’absence du fichier robots.txt empêchait le référencement. Donnez-moi la citation exacte où je m’exprime de la sorte.

Je me suis placé sur le plan formel de la qualification d’un expert autoproclamé du SEO qui oublie de mettre le fichier robots.txt et qui oublie d’indiquer le chemin vers sitemap. Votre conclusion va exactement dans le sens de ce que je dis !!! Relisez ce que j’ai écrit. Je pense avoir exprimé une pensée clairement.

Comme je l’ai dit, j’ai fait un audit de site le 6 février. Il n’y avait pas de fichier robots.txt. Ça la fout mal pour un site de commerce électronique à l’international, non ? Et c’est lorsque j’ai eu la réaction du presta que j’ai eu l’idée de ce billet.

Merci de votre passage.

NB Et vous, vous avez un robots.txt digne de ce nom !

Mon robots.txt est bien plus sympa que le vôtre et il n’inclut pas de fautes de syntaxe.
Cependant, ce n’est pas moi qui suis allé critiquer les sites des autres, donc peu importe ce qui se passe chez moi (à ce niveau en tout cas).
Ma critique envers votre attitude est que vous jugez de la compétence en fonction de deux fichiers qui ne sont absolument pas vitaux.
Je préfère une autre dimension http://www.laurentbourrelly.com/blog/3.php

@Laurent

Désolé ! Mais mon fichier ne contient aucune faute de syntaxe ! Dites-moi lesquelles ? Quelque chose peut m’avoir échappé ?

Vous pouvez vérifier ici et .

J’ai dit que je jugeais sur le plan formel. J’ai dit aussi qu’il y avait d’autres critères. Ceci étant, je ne comprends pas bien… nous sommes en d’accord sur le fait qu’il s’agisse d’un défaut et vous me dites que j’ai tort. La dialectique a encore des secrets que je semble ignorer.

NB J’aime beaucoup le point du n°1 de votre billet : l’humilité en matière de résultats.

Première instruction « interdire rien »
Vous avez :
User-agent: *
#Disallow:

Avec Disallow en commentaires, vous ne risquez pas de donner une bonne instruction.
Par ailleurs, privilégiez la déclaration du fichier xml au lieu du zippé.
J’ai déjà écrit tout ça…

Vous avez raison dans le sens où ce sont des éléments à optimiser, mais en aucune façon ils permettent de jauger d’une quelconque incompétence.

Je suis plus préoccupé par mon site qui retourne une 302 au lieu d’une 404, mais vous ne faites pas mieux avec une 301. Sommes nous incompétents ? Dans mon cas, je sais pertinemment qu’il y a un souci, mais c’est mon choix de ne pas le mettre en priorité dans le ToDo.

Disallow est justement en commentaire. Là, j’ai décidé de bloquer certains contenus depuis peu, sciemment. Par défaut, tout le site est pris en compte. Il n’y a aucun problème sur ce fichier.

Par ailleurs, la taille de mon sitemap, non compressé, était volumineuse. Je l’avais mis en .gz (>1Mo). Mais faut que je regarde si je peux le passer en sitemap.xml. Ca m’étonnerait !

On peut aussi indiquer deux directives sitemap. Je n’ai rien vu sur le fait de déclarer un.gz et un fichier non compressé. Faut que je regarde si c’est possible !

@LaurentB

J’ai sciemment mis mon 404 en 301. C’est un choix qui tient au fait que, malgré mes rewriting opérés dans mon .htaccess et dans mes fichiers de conf Apache, j’ai encore beaucoup d’urls dans la nature. Ce site était naguère hébergé chez Free sur DotClear, puis sur PhpMyFAQ dans une machine Kimsufi. J’ai d’ailleurs fait un billet sur cette problématique, qui, chez Free, doit être traitée en 404 !!!

Le problème dans ce choix est le risque d’un DOS évident, la page 404 étant moins gourmande que le retour par un 301 sur la page du blog. L’intérêt, c’est que les internautes sont redirigés sur du contenu. C’est donc un choix de ma part.

Pour l’oubli du robots.txt, s’il s’agit d’un choix, c’est encore plus gênant, vous ne trouvez pas ?

Je lis toujours les commentaires avec attention et un sacré rictus surtout apres la pose déjeuner…. l’experience a son importance dans le referencement, mais il faut aussi savoir evoluer sans cesse pour rester compétitif et surtout avoir cette capacité a inventer ce qui n’est pas donné à tout le monde. surfer avec google translate sur les sites americain ca m’a aidé a comprendre 2-3 bricoles de mafieux en tout cas.

@nova media

J’ai bien compris à quoi ça jouait ! ;+) Je reste zen pour l’instant.

Bonjour Denis,

J’ai deux questions : votre client positionné depuis des années sur un site en flash grâce à votre prestation, quelles sont les deux fameuses requêtes dont vous parliez ? Je suis impatient d’en connaître le niveau de concurrence.

Non je vous demande ça parce que moi par exemple, je travaille quotidiennement pour conserver mes positions sur des requêtes telles que « canapé » ou « regime Dukan ». Alors à la limite si vous pouviez me faire un devis pour une prestation one shot qui me permet de rester positionné pendant des années en suite, notamment sur ces deux requêtes, je suis preneur.

Moi même j’oublie souvent de créer le couple robots.txt / sitemap. Je dois d’ailleurs être incompétent, ce qui m’oblige à travailler quotidiennement toutes mes requêtes concurrentielles pour compenser mon médiocre niveau en référencement.

Nul doute qu’un badbuzz dans la sphère SEO vous importe peu, mais je vous conseille malgré tout, afin de légitimer votre discours, de présenter quelques références de positionnement, ça pourra certainement apaiser le débat et donner un peu plus de poids à votre argumentaire.

Bien à vous,

@nicodesh

J’avoue que la combinaison de mots clés n’était pas usuelle. Elle touche à la santé, sur deux mots ! Pour autant, à l’époque, personne ne voulait le faire. Si ça vous intéresse d’en savoir plus, appelez-moi. Sur canapé et régime Dukan, ça doit être légèrement plus dur. ;+)

@vince

Je ne publierai pas votre commentaire, sinon je serais obligé de vous assigner devant un tribunal ! Il y a des limites à tout.

@tous

Compte tenu de la nature particulièrement injurieuse du dernier commentaire reçu, j’ai décidé de fermer les commentaires. Je n’ai pas envie que certains aient le toupet d’organiser un dîner de con sur mon propre site, où le con, ce serait moi ! Je crois que certains se sont déjà suffisamment amusés comme ça. Point final. Je crois avoir permis à tout le monde de s’exprimer. Pour ceux qui ne l’auraient pas fait, vous pouvez me contacter par mail ou par le formulaire de contact de ce site, par téléphone. Mais, là, trop, c’est trop.

J’ai autre chose à faire dans la vie et j’ai mes deux campagnes de référencement à préparer.

Laisser un commentaire

(requis)

(requis)