Depuis que le page rank a disparu, le Domain Authority (indice édité par la société Moz) demeure l’indice le plus utilisé pour évaluer la puissance SEO d’un site. Il existe de nombreuses théories quant à son utilité réelle, et, régulièrement, fleurissent des controverses à son sujet. Pour certain, le DA peut être mauvais pour les SEO débutants, car il provoque des actions destinées à augmenter le DA du site, et non à travailler réellement sur la notoriété et le SEO de ce dernier. Pourtant, le DA reste le domaine de référence pour la plupart des professionnels du secteur. Suite à une mise à jour importante de l’indice en mars, nous revenons sur les règles qui régissent une utilisation intelligente du DA.
Un indice concurrentiel pour le référencement naturel
Comme vous l’avez déjà lu dans ces colonnes, le DA est avant tout un indice concurrentiel. Cette information capitale est rappelée par Russ Jones dans cette interview qu’il a donné à l’occasion de la mise à jour de l’indice. En effet, la valeur absolue du DA n’a aucun intérêt. Cependant, une comparaison des différents DA des sites actifs sur votre secteur (et donc de vos concurrents en termes de référencement) est toujours intéressante. Elle permet notamment de connaître le “potentiel seo” de chaque nom de domaine, au-delà des positions ou du trafic réel. Nous aimons par exemple déceler les sites à fort potentiel affichant un DA élevé sans pour autant afficher une bonne visibilité. Dans ce cas, nous pouvons savoir qu’avec une optimisation SEO en profondeur du site, nous pouvons espérer des améliorations à moyen terme, ce qui est toujours une bonne nouvelle pour l’annonceur.
Il s’agit donc d’un indice intéressant lorsqu’il est utilisé dans un prisme concurrentiel. Il faut cependant se garder de toute théorie quant à son utilité en tant que valeur absolue.
Quelles sont les nouveautés de la mise à jour ?
Grâce aux modifications qui ont été réalisées chez Moz, le DA va désormais être plus précis, notamment grâce à la mise en place d’un système de machine learning. Non seulement cette méthode d’apprentissage statistique permettra de gagner en précision sur l’évaluation de la qualité des noms de domaine, mais elle assurera aussi une évolution en “temps réel” de l’indice. Grâce à l’accumulation de données, il sera de plus en plus facile pour l’algorithme de corriger de lui-même l’indice en fonction des nouvelles analyses réalisées.
Cette évolution permettra également d’utiliser un système de fonctionnement plus proche de celui utilisé par Google : grâce au réseau neuronal utilisé, il sera plus facile de séparer le bon grain de l’ivraie, et de ne pas mettre au même niveau des profils de liens qui n’ont rien à voir (et donc de lutter efficacement contre le spam).