Google vs les référenceurs
À l’origine Sergey Brin et Larry Page fustigeaient l’opacité et l’orientation vers la publicité des autres moteurs de recherche, tout en souhaitant favoriser plus de développement et de compréhension dans le domaine académique avec Google :
« This causes search engine technology to remain largely a black art and to be advertising oriented. With Google, we have a strong goal to push more development and understanding into the academic realm. »[ii]
Ils ont quelque peu changé d’avis puisqu’ils considèrent désormais les algorithmes comme un secret un industriel :
« Aucun utilisateur ni aucune autorité ne peut avoir accès aux détails de cette formule dont les auteurs prétendent « organiser les informations à l’échelle mondiale ». Quelques grandes lignes sont connues, et Google communique régulièrement pour annoncer que tel ou tel point est considéré comme un indicateur de pertinence, mais personne ne connaît l’algorithme dans le détail hormis une poignée d’ingénieurs basés à Mountain View. »[xxvii]
Le seul paramètre réellement connu des professionnels du référencement reste le PageRank, et l’utilisation des liens hypertextes pour gagner en pertinence qui fut l’objet d’une publication scientifique en 1998.[ii]
En soutenant envers et contre tout que le classement produit par son algorithme est « naturel » ou même « organique » selon le jargon consacré, Google s’applique à satisfaire une contrainte statistique obligatoire pour assurer la pertinence du PageRank : être absent des intentions des internautes.[viii]
L’entreprise recommande d’ailleurs aux webmasters de « faire comme si les moteurs de recherche n’existaient pas » dans les consignes qui sont leur sont destinées[xxv].
Alors que Google voudrait que les internautes oublient son existence et continuent à faire de liens de manière naturelle et sans intention de favoriser le positionnement de leurs sites, certains stratèges en référencement payent ou fabriquent des sites qui font des liens hypertextes vers des sites web dans le but d’augmenter leur visibilité.
Pour obtenir des backlinks, ils placent des liens vers les sites cibles dans les commentaires de blogs, en contribuant sur Wikipédia, en créant des sites de type « ferme de contenu » permettant de glisser des quantités de liens hypertextes dans du contenu éditorial de très faible qualité souvent produit automatiquement pour manipuler l’algorithme. Ce faisant, ils altèrent la pertinence des résultats fournis par le moteur de recherche au détriment des internautes et des intérêts économiques de Google.
La plus part de ses techniques sont devenues obsolètes en raison des mises à jour que Google apporte constamment à son algorithme et aux différents filtres mis en place pour décourager ceux qui essayent de manipuler son classement.
Chaque camp essayant sans cesse de nouvelles techniques ou ajoutant une nouvelle couche à son algorithme, ce jeu du chat et de la souris est sans fin.[vi]
Pour Google, il existe deux manière d’acquérir de la visibilité dans ses SERP : soit par la réputation et l’autorité acquises auprès des autres, « naturellement » soit en payant sa visibilité à Google par le biais de la régie Adwords. Ce qui est contraire aux objectifs des référenceurs, dont toutes les actions ont pour intention d’améliorer le positionnement et l’audience de sites internet.
Certains cherchent à gagner en visibilité et sont en compétition pour obtenir les meilleures positions dans les résultats « organiques » du moteur de recherche quitte à « déformer à leur profit la structure des liens de la toile ».[vii]
En agissant ainsi, les webmasters stratèges « défont la position d’extériorité et d’invisibilité à laquelle prétend le PageRank…et posent à Google un problème à la fois mathématique et moral ». Les liens produits stratégiquement apportent une « information biaisée qui érode la pertinence du résultat global de la recherche ».
A vouloir corriger et contrôler ces pratiques, en voulant définir la qualité des liens, Google est peu à peu devenu une « police du Web » qui édicte ses règles et tente de punir les comportements qui lui nuisent en mettant à jour son algorithme avant que les « contrevenants » n’exploitent une nouvelle « faille » de l’algorithme.
1. Les consignes de Google pour les webmasters
Dans le blog Google Webmaster central, la firme conseille les webmasters par le biais d’un article daté d’avril 2001, signé Amit Singhal, responsable du Search Quality departement :
« Faites le nécessaire pour satisfaire au mieux les internautes qui visitent votre site Web et ne vous préoccupez pas
inutilement des algorithmes ou des paramètres utilisés par Google pour le classement. Certains éditeurs ont considéré, à tort, que Panda était la cause de la baisse de leur site dans le classement, alors qu’il ne s’agit que de l’une des quelque 500 améliorations que nous avons prévu d’apporter à la Recherche Google cette année. D’ailleurs, depuis le lancement de Panda, nous avons également appliqué une dizaine de modifications mineures supplémentaires à nos algorithmes de classement. La recherche est un mécanisme très complexe, en constante évolution.
Aussi, plutôt que de vous inquiéter des conséquences de telle ou telle modification apportée à nos algorithmes, nous vous conseillons plutôt de réfléchir aux moyens de satisfaire au mieux vos visiteurs. »[xxviii]
Google place l’internaute au cœur ses préoccupations et invite les webmasters à faire de même. Le moteur de recherche réclame qu’on l’oublie, qu’on ne se préoccupe pas de son fonctionnement. Au passage, l’accent est mis sur les nombreuses modifications apportées aux algorithmes minimisant ainsi la mise en place du filtre Panda, Google se dédouanne de ses conséquences pour de nombreux éditeurs de sites.
Dans ses « Consignes aux webmasters »[xxv], le géant de Mountain View liste un ensemble de recommandations afin que les sites web soient bien pris en considération par le moteur de recherche :
- Optimiser les mots clés : « Essayez d’identifier les mots que les internautes sont susceptibles d’employer pour rechercher vos pages, puis utilisez ces mêmes termes sur votre site», « Assurez-vous que les éléments <title> et les attributs alt sont précis, pertinents et descriptifs »
- Faire des sites au design clair, facilitant la lecture (notion d’UX)
- Faire attention à ce que le site soit accessible pour les Google Bots : « assurez-vous qu’il crée bien des pages et des liens explorables par les moteurs de recherche.»
- Faire en sorte que le site ne soit pas trop long à charger, pour l’utilisateur mais aussi et surtout pour gagner du temps de crawl.
De par l’ensemble de ses recommandations, Google a ainsi façonné la façon d’écrire pour le web, qui s’adapte à la façon dont ses Google Bots crawlent une page web :
- L’url
- Le titre de la page dans la balise <title> (d’où son l’importance d’y mettre un mot clés)
- Le titre de l’article dans la balise <H1>
- L’importance de hiérarchisé le texte en mettant des intertitres : les balises <Hn>
- L’importance des mots mis en avant pas les balises <em> et <strong>
- L’importance des ancres de liens (surtout le 1° quand un le même lien est cité plusieurs fois dans une page)
- L’importance des attributs « alt » pour identifier le contenu des images
Cet ensemble de connaissances sur le fonctionnement du moteur et sur ce qu’il prend en compte est devenu l’apanage des référenceurs qui en ont fait un fond de commerce, le déclinant en recommandation pour leurs clients, en formation ou sous forme de guides.
Dans sa volonté de formater le web, Google est également parti en croisade pour des sites internet de qualité, il publie un ensemble de questions à se poser concernant son site, éloignant le webmaster des perceptions des algorithmes :
«
- Les informations contenues dans cet article vous semblent-elles fiables ?
- Cet article a-t-il été écrit par un expert ou une personne connaissant bien le sujet, ou bien ne donne-t-il que des informations superficielles ?
- Le site contient-il des articles en double, qui se chevauchent ou se répètent sur un ou plusieurs sujets similaires, avec de légères variantes au niveau des mots clés ? (contenu dupliqué = faible qualité)
- Auriez-vous suffisamment confiance en ce site pour lui communiquer les informations relatives à votre carte de paiement ?
- Cet article contient-il des fautes d’orthographe, de style ou des faits inexacts?
- Le contenu proposé correspond-il aux centres d’intérêts réels des lecteurs ou bien n’est-il généré que dans le seul but d’améliorer le classement du site dans les résultats de recherche ?
- L’article fournit-il des contenus, des informations, des recherches, des analyses ou des rapports originaux ?
- La page offre-t-elle quelque chose en plus par rapport aux autres ?
- Dans quelle mesure la qualité du contenu proposé est-elle contrôlée ?
- L’article offre-t-il plusieurs points de vue sur ce qui s’est passé ?
- Le site a-t-il une autorité reconnue dans le domaine abordé ?
- Le contenu est-il produit en masse, récupéré auprès d’un grand nombre de sources externes ou encore étalé sur un vaste réseau de sites, ce qui fait que chaque page ou site ne fait pas l’objet d’un contrôle très poussé ?
- L’article est-il soigné ou semble-t-il avoir été rédigé à la va-vite ?
- Le nom de ce site vous évoque-t-il une autorité compétente ?
- Cet article propose-t-il une description complète du sujet ?
- Cet article propose-t-il une analyse poussée ou des informations ayant demandé un certain travail de réflexion ?
- Est-ce le genre de page que vous aimeriez ajouter à vos favoris, partager avec un ami ou recommander ?
- Cet article contient-il un nombre excessif d’annonces qui distraient le lecteur ou l’empêchent d’accéder au contenu principal ?
Pourriez-vous trouver cet article dans un magazine, une encyclopédie ou un livre en version papier ?- Les articles sont-ils inutiles, car trop courts, trop superficiels ou trop vagues ?
- Les pages ont-elles ou non été produites avec beaucoup de soin et de rigueur ?
- Les internautes qui accèdent à ce genre de pages ont-ils des raisons de se plaindre?
- »
A la lecture de ces questions, il saute aux yeux que la qualité d’un site web selon Google s’apparente à celle de la presse et de l’édition papier traditionnelle.
Toujours pour endoctriner les créateurs de sites web dans une démarche de qualité façon Google, la firme énonce une liste de techniques à éviter, allant du contenu générer automatiquement, à la participation à des systèmes de liens ou encore la pratique du keyword stuffing (Accumulation de mots clés non pertinents sur les pages)…
Avec le fonctionnement du PageRank, se rendre visible, c’est la plus part du temps obtenir des backlinks, et Google insiste sur ce point dans un chapitre intitulé « Systèmes de liens »[iXXX] :
« Tout lien visant à manipuler le classement PageRank ou le classement d’un site dans les résultats de recherche Google peut être considéré comme faisant partie d’un système de liens, et constitue, de ce fait, une infraction aux Consignes aux webmasters de Google. Sont incluses dans cette catégorie toutes les opérations visant à manipuler les liens dirigeant vers votre site ou les liens contenus dans votre site et redirigeant vers d’autres pages. »
Parmi les exemples cités « pouvant avoir un effet négatif sur le classement d’un site dans les résultats de recherche », on trouve :
- Achat ou vente de liens pour améliorer le classement
- Échanges de liens excessifs
- Vastes campagnes de marketing via des articles ou de publication de messages de blog en tant qu’invité, avec des liens de texte d’ancrage riches en mots clés (communément appeler guest blogging)
Tout le talent des référenceurs étant de d’éviter les potentiels « effets négatifs sur le classement », en se montrant discret dans leur pratique du netlinking.
Aveux d’impuissance de Google fasse à la pratique du netlinking, il incite même les webmasters à la délation avec la mise en place d’un formulaire de « spam report » pour signaler les sites contrevenants :
Figure 10 – Formulaire de spam report
Outre la morale discutable de ce « spam report », la différence de valeur accordée au lien hypertexte par Google pour qui il est un « acte de reconnaissance » et par les référenceurs pour qui il est « un pourvoyeur de trafic, un simple signalement de direction qui n’a pas besoin de s’ancrer dans un texte de qualité »[vii] est à l’origine des évolutions successives menant à la complexification des algorithmes de Google.
Ainsi, défendant le fait qu’un lien s’acquiert au mérite, Google s’est décidé à punir les webmasters créant de la « fausse autorité » par la création de liens artificiels. Les punitions sous forme de déclassement des sites concernés ou même leur « blacklistage » pouvant se révéler désastreuses.
Dans le panel de sanction, Google a même introduit de l’humain puisqu’il existe une « pénalité manuelle » infligée par des Quality Raters chargés de juger de la qualité des sites en suivant des consignes strictes[xxx]. Ces consignes normalement destinées à un usage strictement interne au géant de Mountain View ont mystérieuse fuité… Peut-être pour entretenir la peur de la sanction et inciter au maintien de la qualité des sites web…
2. Mises à jour de l’algorithme
Toute l’histoire de l’évolution des algorithmes de Google est en fait la conséquence du jeu et de la souris qui se jouent entre la firme et les référenceurs.
Le moteur de recherche essaye de détecter et de punir les comportements contraires à ses consignes tandis que les SEO testent et challengent les algorithmes à la recherche de nouvelles failles à exploiter pour positionner leurs sites.
2.1 Historique de principales mises à jour et leurs conséquences
Chaque année Google change les algorithmes de son moteur de recherche environ 500 ou 600 fois. Alors que la majeure partie de ces changements sont mineurs, épisodiquement une mise à jour majeure est déployée (comme Panda et Pingouin) celle-ci affectant les résultats de recherche de façon significative.
Pour les professionnels du search, connaitre les dates et les paramètres impactés par ses mises à jour est important pour expliquer d’éventuels changement dans les positionnements de leur sites ou une baisse/ hausse de trafic.
Une liste des mises à jour majeures des algorithmes de Google est tenue à jour sur le site de Moz[xxxi], acteur reconnu du référencement au niveau mondial.
Afin de les présenter de manière plus visuelle, voici une infographie réalisée en combinant plusieurs sources [xxxii] :
Attardons nous sur les mises à jour qui ont eu le plus d’impact sur les résultats de recherche et qui ont touché le plus grand nombre de sites internet.
- Florida: lancée en 2004, cette mise à jour répond à la pratique consistant à surcharger une page de mots clés ou keyword stuffing afin de se positionner sur les requêtes correspondantes. Un nombre conséquent de sites ont chuté dans les SERP. Cette mise à jour fut compléter quelques mois plus tard par Austin qui s’attaquaient aux « textes cachés ». Ces deux mises à jour successives ont signé le début de la « guerre » entre Google et les SEO.
- Panda : lancée en 2011, cette mise à jour vise les sites dont le contenu est de faible qualité. Ainsi, les sites pauvres en contenu, multipliant les pages vides, sur optimisant leur contenu ou abusant du keyword stuffing, et proposant du contenu généré automatiquement sont écartés des premières pages de résultats.
A l’origine Panda était plus un filtre qu’une mise à jour en profondeur de l’algorithme, à la manière d’un radar qui flashe et sanctionne les automobilistes qui roulent trop vite. Il est susceptible de déclasser un site entier ou seulement des pages. Parmi ses victimes, on dénombre des sites destinés essentiellement à générer des revenus publicitaires, notamment des guides d’achat tels que Twenga (celui-ci a perdu la moitié de son trafic organique provenant de Google aboutissant au licenciement de 50 personnes).
Panda a subi plusieurs mise à jour jusqu’en 2016 où il a été intégré au cœur de l’algorithme.
- Pingouin : Lancé en 2012, ce filtre pénalise les sites ayant des backlinks artificiels notamment :
- Obtention des liens en masse via de annuaires ou des sites de communiqué de presse de faible qualité
- Achats de liens sur des réseaux de sites
- Excès d’ancres optimisées
Les sites à seule vocation que de faire liens, au contenu médiocre appelés « fermes de liens » sont également touchés.
Afin d’éviter une pénalité ou d’essayer de faire sortir un site d’une pénalité, Google a mis un place un formulaire permettant de « désavouer » les backlinks potentiellement « toxiques »[xxxiii]. Toujours prompt à utiliser la « sagesse des foules », Google qui connait désormais les sites ainsi dénoncés est susceptible de leur envoyer la visite de Quality Raters et de les sanctionner.
Depuis septembre 2016, Pingouin est intégré aux algorithmes de Google et tourne en temps réel. Les conséquences de cette mise en jour font encore l’objet de débats au sein de la communauté SEO[xxxiv].
- RankBrain: déployé fin 2015, cet algorithme utilise l’intelligence artificielle et l’apprentissage statistique (Machine Learning). Il permet de calculer les classements présentés aux utilisateurs du moteur de recherche.
RankBrain utilise l’intelligence artificielle pour retranscrire une énorme quantité de données en formules mathématiques : « les vecteurs » interprétables et compréhensibles par des ordinateurs.
Ainsi, Rankbrain permet à Google de répondre aux prés de 15% de requêtes quotidiennes totalement inédites, qu’il n’a encore jamais vues.
Selon Greg Corrado, un scientifique impliqué dans le développement de RankBrain au sein de Google : RankBrain fait partie des centaines signaux pris en compte par l’algorithme qui détermine quel résultat apparait dans les SERP et dans quel ordre. Après quelques mois de déploiement, RankBrain est devenu le troisième signal le plus important dans la contribution aux résultats de recherche [xxxv].
Les techniques d’apprentissage de RankBrain ajustent au cas par cas leurs paramètres en fonction :
- des requêtes,
- de ce que Google sait des pratiques de navigations antérieures de l’utilisateur (données personnelles recueillis par Chrome ou Android),
- des comportements des internautes, notamment les liens cliqués pour une requêtes donnée
- des jugements humains au sujet de la pertinence des sites recueillis par les Quality Raters.
Figure 11- Tweet de Gary Illyes (googler) au sujet de RankBrain
Pour D. Cardon :
« Au principe d’autorité qui a fait la force du PageRank, Google substitue de plus en plus un principe d’efficacité qui renvoie de manière toujours plus appropriée vers l’internaute les choix que l’algorithme a appris de ses comportements. De fait, la machine inventée par Google est devenue si complexe, si sensible aux tests statistiques qui ne cessent de la reparamétrer, si dévoreuse de variables et de traces, si auto-apprenante, que ses comportements ne peuvent plus désormais être compris et interprétés, pas même par ses géniteurs. »[viii]
Cette affirmation est confirmée par les propos tenu par Sylvain Peyronnet, co-fondateur et responsable des ix-labs (laboratoire de R&D en algorithmique du web), mais aussi Chief Scientist chez Qwant et enseignant chercheur en disponibilité, dans le Journal du Net :
« Je pense que le machine learning de RankBrain agit sur plusieurs critères de
l’algorithme.
C’est pour cela que l’on ne peut plus bien le comprendre ! Même les ingénieurs de Google ne peuvent plus comprendre le fonctionnement du moteur en
détail. Tous les algorithmes se retrouvent gérés par RankBrain. Il y a donc une possibilité pour que RankBrain efface Panda ou Penguin.
Dans ce contexte, je ne vois pas comment la communication de Google sur ses mises à jour pourrait s’améliorer… ».[xxxvi]
En effet, la communication de Google au sujet des mises à jour et des évolutions de ces algorithmes par rapport aux webmasters et aux référenceurs en particulier est le nerf d’une guerre de l’information.
2.2 La politique de la peur (info war)
Google a développé une stratégie de communication bien particulière, fondée sur une politique de la peur. Elle consiste à pousser les webmasters à se soumettre à ses consignes sous peine de voir leurs sites pénalisés.
A chaque annonce de mise à jour majeure de l’algorithme comme Panda ou Pingouin, il suffisait d’un tweet de Matt Cutts pour que la communauté des référenceurs se sente en danger et fasse les modifications suggérées avant même le déploiement de l’update.
Avec Panda, Google a vite compris qu’il pouvait changer les mentalités en touchant une minorité de sites victimes, tombés pour l’exemple.
Avec Pingouin, selon Laurent Bourrelly , consultant SEO reconnu :
« La stratégie s’est raffinée en incorporant des principes de base tirés de l’Infowar ou guerre de l’information. Cela comporte des opérations de terrain et intellectuelles coordonnées, permettant d’atteindre un impact maximum avec un investissement minimal. ». Pour lui, au final « Pingouin va dézinguer une minorité de sites et tout le monde se sent en danger. C’est la partie opérationnelle de terrain qui est actionnée. ».
Aboutissant au résultat voulu par Google : « C’était symptomatique d’observer que pendant 2 ou 3 mois, tout le monde s’est arrêté net de construire le moindre lien. »[xxxvii]
Cette peur de faire des liens est allée tellement loin que certains webmasters ont cru que le « link building » était devenu illégal, contraignant Matt Cutts à dire le contraire dans une interview datée de juillet 2013 [xxxviii] :
Figure 12 – Extrait d’une interview d’un ancien porte-parole de Google : Matt Cutts
Google entretient savamment la peur en tapant fort et en le faisant savoir, comme en témoignent plusieurs cas de systèmes d’échanges de liens pénalisés[ixxxx] :
- Build my rank (2012)
- Sape Link Network, Text Links Ad, Backlinks.com, Anglo Rank et Ghost Rank 2.0 (2013)
- Rankseller et Teliad, Buzzea ainsi que des réseaux italiens, espagnols, japonais et polonais (2014)
- Blogdash en 2016 suite à une dénonciation auprès de Googlers (portes parole de Google) sur Twitter :
Figure 13 – Echanges de tweets signant la fin de Blogdash
Une autre pénalité qui avait fait du bruit : celle d’Interflora. Le spécialiste de la livraison de fleurs a en effet été sanctionné sur le moteur britannique google.co.uk car l’entreprise offrait des fleurs à des blogueurs contre des liens.
Le site de la marque ne sortait plus dans les résultats de recherche sur des requêtes à fort potentiel comme « fleuriste » ou « livraison de fleur ».
En frappant ainsi une marque très connue, Google montre que la notoriété ou la taille de l’entreprise ne protège pas contre ses sanctions, menant ainsi les référenceurs à se conformer à ses consignes et à redouter les conséquences de l’achat de liens.
La pénalité manuelle fut rapidement levée au bout de 11 jours (suite à un nettoyage de backlinks de la part d’Interflora)[xxxx].
Cette pratique du FUD (Fear, uncertainty and doubt) pour Peur, Incertitude et Doute en français, fondée sur des annonces médiatisées et touchant des entreprises parfois célèbre est apparemment très efficace et moins coûteuse pour Google qu’un nettoyage massif des SERP.
Pour citer Laurent Bourrelly : « Les règles de combat entre le plus faible et le plus fort imposent de se dérober, de harceler, de bien se connaître et surtout de parfaitement connaître l’ennemi. Tous ces éléments peuvent s’appliquer au référencement. »[xxxvi]
Voyons si les règles de ce combat sont effectivement suivies par les référenceurs.
3. La réalité des pratiques des professionnels du secteur
Afin de mettre en évidence la réalité du métier de référenceurs, savoir quels sont leurs points de vue par rapport à la politique de communication de Google, j’ai réalisé une étude de terrain.
Cette étude se présente sous la forme d’une interview de douze questions que j’ai soumis directement à certains référenceurs parmi mes contacts puis que j’ai posté sur des forums spécialisés et dans des groupes dédiés au référencement naturel sur Google + et sur Facebook par le biais d’un formulaire Google.
J’ai pu obtenir un panel de 24 réponses, cependant, j’en ai écarté 5 car les réponses étaient souvent trop succinctes ou hors sujet.
Cette étude exploratoire porte donc sur une série de 19 interviews réalisées auprès de professionnels du référencement naturel. Il s’agit donc de tendances constatées qui sont qualitatives et qui n’ont pas vocation à traduire la réalité du marché. Certains professionnels ayant répondu à l’étude sont parfois identifiables de par la précision de leur réponse, en revanche, les données recueillies resteront anonymes.
Ces 19 interviews sont disponibles en annexe de ce mémoire, en voici la synthèse par question afin d’en retirer des tendances :
Pouvez-vous décrire votre poste et les fonctions que vous occupez ?
Parmi les professionnels du search qui ont répondu à cette étude, on dénombre 6 consultants SEO indépendants, 3 responsables SEO ou référenceurs chez l’annonceur, 4 gérants ou co-gérant d’agence de communication avec une spécialisation en référencement naturel et 8 personnes sur des postes à la fois opérationnels et managériaux comme chef de projet SEO, Chef de projet webmarketing, trafic manager en agence ou chez l’annonceur.
Ainsi, le panel de l’étude me parait assez représentatif de la diversité des profils puisque tous les périmètres d’intervention des référenceurs sont présents.
En revanche, ce panel met en évidence la nécessité d’autonomie et des compétences en gestion de projet et en relation client nécessaires à la pratique du métier.
Quel est votre parcours ? Comment en êtes-vous venu au référencement ?
Parmi notre échantillon de référenceurs, une majorité (8 personnes) a une formation supérieure bac +5, que ce soit en école de communication & marketing ou école de commerce ou bien des Masters avec une connotation marketing et web puis, ils se sont tournés vers le SEO par nécessité ou par passion en se formant sur le tas.
Quatre de nos sondés travaillaient déjà dans le web avant de se spécialiser dans le référencement naturel.
Ensuite, nous avons 3 référenceurs avec un niveau bac +3 orienté web, dont un seul est issu de la licence référenceur de l’IUT de Mulhouse (seul diplôme spécifique au métier de référenceur).
Nous avons également 2 profils atypiques et totalement autodidactes en ce qui concerne le référencement, venant de la gestion administrative pour un et un adolescent passionné par le web et le SEO en particulier.
Notre étude est donc cohérente avec le manque de formations diplômantes dédiées au référencement, un seul référenceur étant issu de la seule formation existante.
En quoi consiste votre métier au quotidien ?
La plus part des référenceurs interrogés mentionnent qu’ils font de la vieille technologique et concurrentielle, qu’ils donnent des recommandations à suivre à leurs développeurs ou aux clients (guidelines ou cahier des charges).
Ils créent des liens (backlinks) ou organisent des campagnes pour en acquérir (partenariat avec des blogueurs parfois achat de liens) et s’assurent que les sites soient conformes aux attentes de Google (optimisation on page ou on site).
Ils assurent également un suivi des positionnements des sites, de l’acquisition de trafic et analysent les statistiques. La plus part assurent un accompagnement et un reporting à leurs clients en mettant en avant des KPI ou Indicateurs de performance.
Certains SEO sont également éditeurs de leurs propres sites dont il assure le bon positionnement et l’acquisition de trafic, d’autres assurent également une mission de rédaction optimisée pour le référencement naturel.
Ils sont parfois amenés à produire des supports de formation.
A votre avis, faut-il suivre à la lettre les guidelines de Google ?
Pour la grande majorité des SEO de notre étude, il faut les connaitre et les analyser avec un certain recul mais ne pas forcément les suivre à la lettre.
Il faut adapter sa stratégie en fonction du risque encouru, du niveau de concurrence et de l’objectif à atteindre…on ne prendra pas les mêmes risques sur un site personnel que sur un site corporate qui « nourrit » une centaine de personnes.
Tous sont d’avis que Google est contre la création de liens artificiels mais les backlinks sont essentiels pour le bon positionnement d’un site internet.
Pour un de nos référenceurs : « Suivre à la lettre les guidelines de Google implique souvent de devoir travailler beaucoup plus pour des résultats souvent très loin de ce que permet le SEO. »
Certains avouent utiliser des techniques « Black Hat » mais uniquement sur leurs sites personnels ou sur des sites clients à leurs demande et en les avertissant lourdement sur les risques encourus.
Tous les référenceurs de notre panel peuvent être catégorisés comme « Grey Hats » car tous pratiquent le netlinking et ne sont donc pas 100% « White Hats », certains arborant un chapeau plus foncés que d’autres.
Pour connaitre les techniques qui fonctionnent, pratiquez-vous régulièrement des tests ? Si oui, avez-vous quelques exemples à communiquer ?
Seulement 4 référenceurs affirment de pas réaliser de tests dont 2 par manque de temps pour les faire.
Parmi les testeurs, deux n’ont pas souhaité communiquer sur la nature de leurs expérimentations.
Les autres sont assez unanimes sur le fait que faire des tests ou à défaut lire les tests des autres (veille) est essentiel et permets de valider des théories, de vérifier certaines hypothèses concernant par exemple :
- différentes optimisations de contenu,
- le positionnement de pages de contenu dupliqué,
- l’influence du comportement utilisateur sur le positionnement des sites.
Les tests réalisés permettent également de vérifier que certaines vieilles techniques fonctionnent toujours malgré les mises à jour de Google comme insérer du texte blanc sur fond blanc dans une page web (contenu caché) ou encore afficher des symboles HTML dans les SERP.
Faut-t-il avoir peur des mesures répressives de Google comme les pénalités pour réseaux de site, les filtres panda, pingouin ?
Malgré une ou deux réponses négatives, la grande majorité des référenceurs de l’étude tiennent compte des éventuelles sanctions de Google dans leur stratégie de référencement.
En effet, sans tomber dans la psychose et la paranoïa, ils sont conscients qu’un site pénalisé peut être synonyme de la fin d’un business pouvant mener à la perte de plusieurs emplois.
Ainsi, ils agissent en connaissance de cause et en tiennent compte pour s’adapter en veillant à rester « en dessous des radars » ou au contraire en adoptant une stratégie plus risqué et profitent du positionnement du site avant qu’il ne soit pénalisé.
L’un d’entre eux souligne que si toutefois un site venait à être pénalisé, il est indispensable de savoir la marche à suivre pour le sortir de cette pénalité, bien qu’un de ses confrère insiste sur le fait que « Google garde un historique et risque de ne jamais re-référencer complètement un site ».
Les sanctions de Google ont donc une influence certaine sur la façon dont les référenceurs mettent en place leurs stratégies SEO.
Google déconseille la pratique du netlinking, quel est votre point de vue ? Le netlinking est-il toujours un facteur important de positionnement des sites web dans les SERP ?
J’ai été reprise sur la formulation de ma question par 3 référenceurs. En effet, Google déconseille les liens non naturels tels que les liens achetés, obtenus par des réseaux privés de blogueurs. En revanche, il encourage les liens s’ils sont utiles à l’internaute, il enjoint notamment les journalistes à « citer » leurs sources par des liens.
Pour tous les SEO de l’étude, les liens sont toujours un facteur essentiel pour le positionnement d’un site, il est impossible de s’en passer et ils constituent un des premiers facteurs de ranking si ce n’est pas le premier.
Cependant, il est important de privilégier les liens de qualité à la quantité et de respecter la thématique du site et de varié les ancres pour éviter les pénalités et faire « plus naturel ».
Pour de nombreux SEO le déploiement de Pingouin a été vécu comme un choc, l’avez-vous connu? Comment avez-vous réagit ?
Parmi notre panel, 7 SEO n’ont pas connu le déploiement de Pingouin (2012), car ils ne travaillaient pas encore dans le référencement à l’époque.
Pour ceux qui l’ont vécu, certains l’ont plutôt bien pris et l’avait même anticipé face à l’exaspération de Google en raison des pratiques de SPAM, d’autres ont réellement subit un choc face à la chute de leurs sites dans les SERP et à la baisse de trafic engendrée.
De nombreuses entreprises et éditeurs de sites ont subis de lourdes pertes financières.
En revanche, Google semble avoir réussi son effet puisque Pingouin a amené les référenceurs de notre étude à se remettre en question, à revoir leur méthode de travail et à redéfinir certaines de leurs actions techniques, notamment à moins optimiser les ancres de liens.
Pour deux professionnels, ce filtre anti spam a été un mal nécessaire pour mettre fin aux abus, aux liens obtenus en masse et sur optimisés :
« La prolifération certes limitée dans le temps d’autant de sites « pauvres » en tête de liste Google a enfin été stoppé au profit de sites qualitatifs, aux optimisations raisonnées et raisonnables car basée sur l’expérience et le service à l’internaute et non au seul et unique trafic. »
Google semble dans le déni par rapport au Negative SEO. Avez-vous déjà été confronté à ces pratiques ? Les employez-vous ? Qu’en pensez-vous ?
Parmi les référenceurs du panel, aucun n’avoue utiliser des techniques de NSEO sauf un, si un client le lui demandait.
Pour eux, il s’agit de pratiques déloyales et dépourvues d’éthique de plus elles demandent un gros investissement de travail pour un résultat aléatoire (les sites d’autorité y sont insensibles).
Si 9 référenceurs ont déjà été confronté à ses pratiques soit directement sur un site dont ils avaient la charge ou sur un site qu’ils surveillaient, tous sont conscients de l’existence de ses pratiques quoi qu’en dise Google.
Le NSEO a d’ailleurs était démontré par Paul Sanches qui avait réussi à faire chuter le positionnement du blog de Matt Cutts alors porte-parole de Google après en avoir dupliqué le contenu sur d’autres sites.
Google communique sur le déni mais il semble impossible de ne sache pas que le NSEO impacte de nombreux sites, cependant son algorithme le gère plutôt bien et déconsidère les liens de mauvaise qualité arrivant en masse.
Quel moteur de recherche ou acteur du web est susceptible de concurrencer Google selon vous ? Facebook ?
A l’heure actuelle, 7 référenceurs du panel ne voient aucun acteur du web en mesure de concurrencer Google notamment en France où l’hégémonie de Google n’est plus à démontrer. En revanche, localement notamment en Chine et en Russie Baidu et Yandex sont des concurrents sérieux.
Cité par 8 référenceurs, Qwant le moteur français qui respecte la vie privée de ses utilisateurs pourrait être un futur challenger de Google notamment grâce à sa stratégie de développement sur le long terme en captant les enfants dès le collège avec Qwant junior.
Concernant Facebook, les avis sont partagés :
- Pour 5 SEO, c’est uniquement un réseau social pas un moteur de recherche qui sera un moteur interne uniquement
- Pour 5 autres référenceurs Facebook pourrait concurrencer Google mais ils n’apportent pas de précisions.
Plus marginalement, Bing a été cité car il est poussé dans la dernière version de Windows (10), YouTube également ainsi que des éventuels acteurs des objets connectés et de la réalité virtuelle.
Pensez-vous que les réseaux sociaux ont un impact sur le référencement naturel ?
Pour 4 membres de l’échantillon, les réseaux sociaux n’ont aucun ou un impact vraiment minime sur le référencement naturel d’un site. Pour 2 référenceurs, ils ont un impact mais ils n’apportent aucunes précisions pour étayer cette affirmation.
Pour la majorité des professionnels interrogés, les réseaux sociaux n’ont pas d’impact direct sur le référencement au niveau algorithmique. En revanche, ils ont un impact indirect en modifiant le comportement des internautes qui lui influence le positionnement d’un site internet.
Une publication sur les réseaux sociaux peut :
- augmenter le taux de clics dans les SERP (rassure les internautes)
- augmenter le volume de visiteurs
- augmenter la durée des visites (sessions) sur un site
- contribue à faire baisser le taux de rebond
Tous ses signaux comportementaux sont des indicateurs de qualité aux yeux de Google et contribuent donc au référencement global du site.
De plus, si un article est très partagé, devient viral, il est susceptible de recevoir des liens et donc de mieux se positionner dans les SERP : « plus le site fait du « bruit » autour de lui plus il sera connu, visité (audience) et partagé (backlinks). »
Même si les réseaux sociaux n’ont pas d’impact direct sur le SEO, ils sont en prendre en compte dans le cadre d’une stratégie globale de communication et de visibilité.
On annonce régulièrement la mort du SEO, qu’en pensez-vous ? Quelles sont, à votre avis, les évolutions à venir pour le métier ?
Pour l’ensemble des référenceurs ayant répondu à cette étude, le SEO est loin d’être mort, tant que les gens chercheront des informations, il y aura besoin de SEO. Cependant, le métier est en constante évolution et seuls ceux qui sauront s’adapter continueront à l’exercer.
Pour la majorité des interviewés, le SEO n’est pas une fin en soi mais un levier à placer dans une stratégie globale de visibilité, ainsi les référenceurs seront de plus en plus amenés à se diversifier vers d’autres secteurs du web :
- dans la publicité en ligne : SEA, Facebook Ads, retargueting publicitaire…
- dans les réseaux sociaux
- dans l’UX (user experience) et l’optimisation de la conversion
Face au fait que Google mets de plus en plus en avant ses propres produits et services (AdWords, Shopping, Knowledge Graph et plus récemment, Google Post), il va devenir de plus en plus difficile de se faire une place au milieu des gros sites « trustés »… le métier sera donc appelé à devenir de plus en plus technique avec notamment l’utilisation des données enrichies pour gagner en visibilité dans les SERP.
Deux référenceurs ont également évoqué la recherche vocale comme évolution du métier, mais à mon sens, elle fait déjà partie des habitudes des mobinautes et doit donc déjà être prise en compte dans une stratégie de référencement naturel.
4. Le paradoxe
La relation entre Google et les référenceurs peut être perçue comme l’analogie que fait Domique Cardon dans son ouvrage « A quoi rêvent les algorithmes ? » au sujet de la relation entre les humains et les machines : « un couple qui ne cesse de rétroagir et de s’influencer mutuellement ».
Les pratiques parfois discutables des SEO ont conduit Google à multiplier les évolutions et les mises à jour de ses algorithmes, contraignant les référenceurs à adapter leurs techniques.
En « éduquant » parfois par la force les webmasters et en les contraignant à se conformer à ses consignes, Google leur a permis de se familiariser aux moindres procédures de l’algorithme.
Ainsi, l’opacité de ses algorithmes et le savoir-faire des référenceurs permets à ceux-ci de proposer un panel de prestations :
- Formations
- Guide de conseil
- Développement d’outils pour tester la compatibilité des sites web par rapport aux recommandations de Google.
Le formatage du web orchestré par le moteur de recherche est devenu un enjeu industriel d’importance. Le marché du référencement est devenu tellement concurrentiel entre des acteurs souhaitant augmenter leur visibilité, que les référenceurs proposent des prestations de conseils :
- Comment conformer les sites web aux robots de Google : l’optimisation « on site ».
- Vendre de la réputation, autrement dit vendre des prestations en netlinking afin d’obtenir du « jus de liens » : optimisation « off site ».
Si les filtres ou les pénalités manuelles peuvent être perçus comme une entrave pour les SEO, ce sont en réalité de nouvelles opportunités de « business » puisque savoir identifier quelle pénalité a subi un site et l’en faire sortir fait désormais partie de l’arsenal des prestations proposées.
Google tente de mettre en garde ses utilisateurs avant de faire appel à SEO :
« Faire appel à un SEO est une décision importante qui peut vous permettre d’améliorer votre site et de gagner du temps.
Mais un mauvais SEO peut potentiellement nuire à votre site ou à votre réputation. »[xxxxi]
La firme reconnait ainsi implicitement leur utilité dans le formatage du web et pour accélérer le positionnement des sites web :
«
- vérification du contenu ou de la structure de votre site ;
- conseils techniques sur le développement de sites Web, concernant par exemple l’hébergement, la redirection, les pages d’erreur ou l’utilisation de JavaScript ;
- développement de contenu ;
- gestion des campagnes de développement commercial en ligne ;
- recherche de mots clés ;
- formation à l’optimisation pour les moteurs de recherche ;
- expertise sur des zones géographiques ou des marchés précis. »
Malgré l’existence de quelques moutons noirs dans la profession :
« Un certain nombre de SEO peu scrupuleux ont donné mauvaise réputation à cette spécialité en se livrant à des actions marketing agressives et
en tentant de manipuler les résultats des moteurs de recherche de façon abusive. Les pratiques non conformes à nos consignes peuvent nous amener à
déclasser votre site des pages de résultats, voire à supprimer votre site de l’index Google. »
[xxvii] « Dans les ramures de l’arbre hypertexte, Analyse des incitations générées par l’opacité du moteur Google » Guillaume Sire et Bernhard Rieder (3/2015) http://frenchjournalformediaresearch.com/lodel/index.php?id=468
[xxviii] Google Webmaster Central, « Informations supplémentaires concernant la création de sites de qualité » : https://sites.google.com/site/webmasterhelpforum/informations-supplementairesconcernant-la-creation-de-sites-de-qualite. Et article original en anglais https://webmasters.googleblog.com/2011/04/high-quality-sites-algorithm-goes.html
[ixxx] « Consignes aux webmasters > consignes relatives à la qualité > systèmes de liens » https://support.google.com/webmasters/answer/66356?hl=fr
[xxx] Guidelines pour les Quality Raters : http://static.googleusercontent.com/media/www.google.com/en//insidesearch/howsearchworks/assets/searchqualityevaluatorguidelines.pdf
[xxxi] « Google Algorithm Change History » https://moz.com/google-algorithm-change
[xxxii] « GOOGLE UPDATES TIMELINE » https://www.rankwatch.com/fr/google-timeline.html & «The Click Consult Traffic Drop Troubleshooter has landed! » http://www.click.co.uk/blog/click-consult-traffic-drop-troubleshooter/
[xxxiii] « Désavouer des liens » https://support.google.com/webmasters/answer/2648487?hl=fr
[xxxiv] « Authority & link building with real-time Penguin » http://searchengineland.com/authority-link-building-real-time-penguin-259584
[xxxv] « Google Turning Its Lucrative Web Search Over to AI Machines », Article publié le 26/10/2016 dans Bloomberg Technology https://www.bloomberg.com/news/articles/2015-10-26/google-turning-its-lucrative-web-search-over-to-ai-machines
[xxxvi] « Même les ingénieurs de Google ne peuvent plus comprendre le fonctionnement du moteur », interview de Sylvain Peyronnet le 13/09/2016 dans le Journal du net http://www.journaldunet.com/solutions/seo-referencement/1184472-meme-les-ingenieurs-de-google-ne-peuvent-plus-comprendre-le-fonctionnement-du-moteur/
[xxxvii] « La guerre psychologique par Google contre le SEO » Article de Laurent Bourrelly le 21/11/2014 http://www.laurentbourrelly.com/blog/1174.php
[xxxviii] « Link Building Is Not Illegal (or Inherently Bad) with Matt Cutts », interview de Matt Cutts par Eric Enge 10/07/2013 https://www.stonetemple.com/link-building-is-not-illegal-or-bad/
[ixxxx] « Google a pénalisé un nouveau réseau d’achat de liens », article publié sur Abondance le 11/08/2016 http://www.abondance.com/actualites/20160811-16878-google-a-penalise-un-nouveau-reseau-dachat-de-liens.html
[xxxx] « SEO : Interflora pénalisé pour avoir acheté des liens ? », le JDN le 22/02/2013 http://www.journaldunet.com/solutions/seo-referencement/penalite-google-pour-interflora-0213.shtml
[xxxxi] « Avez-vous besoin d’un référenceur (SEO) ? » https://support.google.com/webmasters/answer/35291?hl=fr
Pour approfondir
partie 1 – Etat des lieux des moteurs de recherche en 2016
partie 2 – Le référencement naturel, un levier webmarketing incontournable
partie 3 – Google vs les référenceurs
partie 4 – Référencement : évolution et perspectives