Bidonnage de la mesure de l’audience des sites Web

J’ai déjà eu l’occasion de m’exprimer sur l’inanité des scripts par marqueur tels que Google Analytics pour mesurer l’audience d’un point de vue quantitatif. Si vous avez suivi ma prose récemment, vous savez que je suis confronté depuis près de 3 semaines maintenant à du spam de commentaires qui provoquent des ralentissements et parfois des dénis de service.

Hier, j’ai tenté autre chose. J’ai annulé mes règles de filtrage au niveau du pare-feu Iptables sous mon serveur auto-hébergé, tout en laissant celles que j’avais crées au niveau de mon serveur Apache, en bloquant l’accès au script wp-comments-post.php aux machines de pays « exotiques ». Le résultat ne s’est pas fait attendre. L’audience vient d’exploser de manière totalement artificielle de 33.6% sur ce blog et de 38.8% sur mon blog citoyen. L’accès aux commentaires par un robot ou un automate est comptabilisé, quel que soit l’outil d’analyse du trafic, comme un accès à part entière. Le problème est le même en matière d’audience sur les sites des principaux médias ou de la PQR, par exemple !!! Autrement dit, le spam et les tentatives d’intrusion amènent un biais statistique important dans l’évaluation de la fréquentation des sites Web, proportionnel à sa notoriété.

Site 13/05/2013 20/05/2013 Variation
Dsfc 2280 3054 +33.6%
Voie Militante 1696 2354 +38.8%

Du coup, je m’interroge. Comment fait aujourd’hui Google avec le service Blogger face à du spam qui altère la qualité de service ? Autrement dit, lorsque je lisais chez Thierry que l’audience les principaux blogs High Tech francophones s’était cassée la figure, ne faut-il pas y voir la mise en place de systèmes antispam renforcés au niveau des plates-formes d’hébergement de blogs ?

 

Web Analytics / , , ,