Ces dernières semaines, Google a indiqué sa volonté de généraliser sa protection des données. Cette protection a pour effet de crypter les mots clés provenant du trafic dit organic (référencement naturel).
Ce cryptage en question empêche les sites de connaître les mots clés apportant du trafic sur leur site venant des moteurs de recherche comme Google. Ce système était en partie en place mais cette fois, il couvrira 100% des requêtes.
Le pourcentage de ‘not provided’ en constante hausse depuis sa sortie
Ce cryptage apparaît avec la notion ‘not provided’ dans les rapports venant de Google Analytics.
En 2012, le % de not provided était d’environ 30% mais il atteint fin 2013 75% pour certains comptes. Cette progression s’explique aussi par l’adoption de cette norme par le navigateur Firefox. Vous pouvez suivre cette évolution sur ce site http://www.notprovidedcount.com/
A ce rythme et à en croire le site Not provided et les différents communiqués annoncés par Google, 100% des données devraient être en ‘not provided’ avant la fin de l’année 2013.
En effet, Google a pris prétexte du scandale Prism pour décider de rendre confidentiel l’ensemble des requêtes pour la protection de nos chers internautes.
Google et Le paradoxe des Adwords ?
Lorsqu’on parle de référencement naturel, Google annonce vouloir « protéger l’internaute » des données transmises aux webmasters. La protection est accrue puisque les webmasters n’auront bientôt plus aucun accès aux requêtes réelles des internautes. Cette protection s’arrête en revanche à Google Adwords, à contrario les données des mots-clés sont ici communiquées sans soucis de déontologie…
Il est vrai que sans cette donnée, le pilotage des liens sponsorisés serait quasi impossible.
De plus, même si Google n’a pas officiellement communiqué sur ce sujet, Google analytics possède désormais une version premium payante mais ne risque t’on pas un accès à ces données uniquement par une version payante ?
Est-ce un véritable problème pour une stratégie SEO ?
Suite à la mise du ‘not provided’, en tant que webmaster nous avons le souci de savoir comment trouver de nouvelles solutions pour détecter les potentiels de trafic sur le moteur de recherche.
Plusieurs solutions se présentent pour procurer un référencement naturel pertinent et surtout efficace tout en faisant abstraction de ce que Google cryptera.
Lors de la construction de sa liste de mots clés, cela ne changer pas grand-chose car les outils à la disposition de chacun restent disponibles
On pourra toujours s’appuyer les outils de Google ( Webmasters tools et Keyword Tools) mais aussi d’autres outils comme SEMRush ou encore Ubersuggest
Avec notre forte expertise en Adwords – nous avons établi des listes des requêtes réelles et performantes par secteur d’activité (beaucoup plus crédible que les estimations fournies par les outils tiers). Cela ne changera pas grand-chose dans notre approche de sélection des mots clés.
Ce sera surtout dans l’analyse des performances que le travail sera beaucoup plus difficile à réaliser. Le taux de transformation par mots clés ne sera plus disponible.
(sauf via le webmaster tools)
Il faudra donc mixer le suivi de positionnement – le volume de requête venant de seo en y ajoutant la qualité des visites pour mesurer l’efficacité des actions.
Il est clair que nous perdons une véritable source d’information pour affiner nos stratégies mais il faudra simplement s’adapter à cette nouvelle contrainte.
Si vous avez des questions sur ce sujet ou d’autres problématiques SEO, n’hésitez pas à nous solliciter.