#SEO : le cocon sémantique dépassé par le SMO et l’expérience utilisateur ?
L’étude de Moz nous rappelle que le nombre de backlinks vers la page constitue la principale clé de la qualité du référencement naturel pour Google. Vous pouvez le vérifier sur cette recherche qui pointe sur un de mes articles du fait qu’il a fait l’objet d’un backlink dans Wikipédia.
Le 2e facteur de succès en termes de SEO semble être le texte associé à l’utilisation des ancres, comprenez à la balise anchor, à partir de domaines externes. Le texte associé au backlink semble tout aussi important que le backlink lui-même. Quid du maillage interne théorisé par l’excellent Laurent Bourrelly ?
L’étude évoque encore la bonne corrélation entre la présence de la « marque » dans Facebook et la visibilité des pages dans les SERP. Je pense, pour ma part, que le SMO a pris le dessus sur les techniques de linking utilisées naguère. ;+) C’est en tout cas ce à quoi je m’emploie depuis maintenant plus de 4 ans avec un certain succès au niveau de ce site.
Là où les résultats statistiques établis par Moz sont à nouveau très surprenants, c’est au niveau de la faible corrélation entre l’utilisation de mots-clés dans le titre ou dans le texte – à l’exception de celui utilisé dans les ancres – et la qualité du référencement. La thèse du « magma » sémantique chère à l’excellent Christian Méline en prendrait également un coup dans l’aile. Je pense que l’étude, sur ce point particulier, présente un biais statistique évident du fait qu’elle est contraire à la réalité observable dans les SERP.
L’expérience utilisateur
Avec des outils tels que Google Analytics ou Google Chrome, Google dispose d’informations très importantes sur le taux de rebonds – bounce rate in english – ainsi que sur le temps moyen passé sur une page. Quand les référenceurs commenceront à tricher par la mise au point d’automates, que restera-t-il à Google pour déterminer de la pertinence d’un contenu par rapport à un autre ? Je remarquais récemment la lenteur soudaine à indexer nos contenus. Les « filtres » Panda et Penguin, les pénalités manuelles infligées aux black hats avaient pourtant comme objet principal de dégraisser le mammouth, me semble-t-il. Que vont-ils devoir dégraisser à partir des données collectées de l’expérience utilisateur ? Combien de temps devrons-nous attendre ?
Le souci de l’étude de Moz intervient à une époque charnière, nous empêchant sans doute de voir clairement les facteurs de succès d’une action de SEO. A moins que Google n’en sache rien lui-même et que son algorithme devienne une sorte de machin dont chacun essaie d’en faire l’exégèse ? C’est en tout cas le sentiment que j’ai eu à la lecture de cette énième étude.