SEO : est-ce tricher avec Google ?
Malgré la communication de Google, la recette exacte du fonctionnement des moteurs de recherche reste secrète, ainsi que les multiples modifications ajoutées pour contrer les petits malins qui tentent de s'insinuer dans les failles du système pour essayer de se favoriser.
Pourquoi faire cela ? Contourner les règles, vouloir exploiter une faille pour en tirer un avantage est un comportement très humain et qui existe dans tous les domaines, et depuis très longtemps.
Vous avez probablement déjà lu le terme de martingale, pour gagner à tous les coups dans les jeux de casino, vous avez peut-être déjà utilisé une tactique dans un jeu vidéo X ou Y qui permet d'avoir des ressources gratuites infinies... C'est la même chose avec l'algorithme de Google et le SEO. Si y'a algo, y'a SEO ! L'existence même d'un algorithme suppose qu'on peut le manipuler.
Pourquoi vouloir manipuler l'algorithme de Google ?
Les critères de qualité qui forment l'algorithme de Google ou de Amazon par exemple ne sont pas vraiment un secret, puisque Google ou Amazon communiquent régulièrement sur les changements profonds (Core Update) qu'ils ajoutent à leurs algorithmes. En revanche, les rouage exacts des critères de qualité restent dissimulés à nos yeux.
Comprendre comment fonctionne un moteur de recherche comme YouTube, Instagram ou TiKTok, peut d'ailleurs être encore plus nébuleux, car les enjeux marketing sont très importants.
Les mises à jour : un flou nécessaire ?
Aucun moteur de recherche ne prendra le risque de détailler ses mises à jour ou de fournir des données chiffrées.
Pourquoi ? Parce qu'à partir du moment où il existe une donnée chiffrée, il existera des stratégies pour tenter de la manipuler.
C'est ce qui s'est passé avec le PageRank de Larry Page, au début de Google, et que l'on peut voir actuellement dans le monde du SEO avec des données comme le TF (trust flow) de Majestic. Une donnée seule n'est pas un indicateur si fiable que cela, car elle peut très bien être le résultat de manipulations et non l'indice de qualités réelles.
Comprendre l'algorithme Google : le SEO pour les moteurs de recherche
Si certains e-commerçants ont très vite saisi l'enjeu d'être visible sur la première page de Google, la plupart des grandes entreprises ne s'en rendent compte que maintenant. Heureusement, il n'est pas trop tard pour comprendre comment fonctionne un moteur de recherche ! Mais se former au SEO en partant de zéro (surtout quand on a aucune connaissance du web) demande d'accumuler des notions et des connaissances complexes.
Le SEO, optimisation pour les moteurs de recherche : une nécessité
Devant l'écrasant monopole de Google (93% des parts de marché en France), vouloir faire "ranker" ses pages web sur la page 1 de Google ou de Amazon n'est plus un jeu innocent.
Pour les sites internet business, c'est même devenu un critère de survie. Si vous n'êtes pas sur la page 1 de Google, vous n'existez pas !
Cet art du "ranking" sur les moteurs de recherche porte même un nom : la science de la manipulation des algorithmes de classement des moteurs de recherche. Elle s'appelle le SEO (search engine optimization, optimisation pour les moteurs de recherche).
Mais appliquer une "astuce" pour mieux référencer ses pages web ne constitue pas une stratégie SEO. Bien comprendre l'algorithme Google, le fonctionnement d'Amazon ou comment fonctionne l'algorithme des moteurs de recherche comme Instagram reste la meilleure façon d'en tirer parti intelligemment.
Différence entre triche et optimisation
Il faut bien comprendre la différence entre triche et optimisation. La triche est une pratique frauduleuse (bien qu'elle soit très populaire), c'est-à-dire qui va à l'encontre des règles.
Quand on a affaire à un algorithme, il n'est pas possible d'aller directement "contre" ses règles sans subir de sanction automatique, ce qui serait contre-productif. Tricher avec un algorithme informatique n'est donc pas aussi simple que de dépasser une limite de vitesse sur l'autoroute : il faut réussir à exploiter le système sans sortir du cadre des règles imposées.
Exemple : les fiscalistes des grandes sociétés sont des professionnels de l'optimisation fiscale. Sans jamais se mettre dans l'illégalité, ils vont faire en sorte de tirer profit du système et parfois, de ses failles.
L'optimisation d'une page web n'est donc pas forcément frauduleuse, mais peut être considérée comme "limite" parce qu'elle joue sur un point de règlement qui n'est pas bien défini, une erreur ou un oubli. Comprendre comment les moteurs de recherche fonctionnent permet d'éviter un certain nombre d'erreurs SEO.
Quand le SEO fait évoluer l'algorithme de Google
Evidemment, si les failles de l'algorithme étaient si facilement exploitables, la qualité des résultats présentés par le moteur de recherche risquerait de se dégrader. Les utilisateurs en seraient mécontents.
Google, un algorithme à couches
Pour garder la faveur des internautes et leur fournir les résultats qu'ils demandent, Google par exemple a pris en compte certaines techniques SEO qui jouaient sur une zone aveugle et a fait en sorte d'appliquer une parade.
Une fois identifiée et bloquée, la technique devient obsolète. L'équipe de devs a donc commencé par cacher le PageRank, puis a déployé des filtres correctifs, tels que Pingouin ou Panda afin de contrer des tactiques "bourrines". Ces couches d'algorithme, ces mises à jour, détectent et sanctionnent automatiquement les tentatives maladroites d'exploiter le système.
Les référenceurs sont obligés de chercher d'autres moyens pour favoriser leur classement, ce qui force ensuite l'équipe des développeurs du moteur à chercher la prochaine parade. Et ainsi de suite.
On pourrait presque dire qu'essayer de contrer le SEO fait évoluer la qualité de l'algorithme du moteur de recherche. Peut-être que le SEO participe indirectement à la croissance de Google ?
Qui dit triche dit sanction
Tricher avec un algorithme de moteur de recherche n'est pas anodin : les sanctions sont efficaces. On peut se faire bannir définitivement du moteur de recherche ou désindexé (comme cela est arrivé à plusieurs reprises à des sites e-commerce), ce qui revient à mettre fin à son activité commerciale.
Il est évident qu'à partir du moment où il y a des "interdits", même définis automatiquement par un algorithme mathématique, il y a des sanctions.
Les sanctions peuvent être différées : un site "tricheur" peut être bien positionné sur les résultats de recherche pendant un moment sans que Google ne semble s'en préoccuper, puis du jour au lendemain, le site peut être pénalisé et chuter brutalement dans les résultats.
Une sanction douloureuse
Cette chute de positions entraîne directement une chute du trafic web, qui entraîne une chute du chiffre d'affaires. Disparaître brutalement des résultats de recherche d'un moteur de recherche qui a le monopole dans son pays peut faire très mal !
C'est arrivé par le passé, notamment avec des sites e-commerce pénalisés par Google pour leur pratique du "doorway pages", une technique qui consistait à créer de nombreuses pages (souvent très proches les unes des autres) contenant des mots clés ciblés dans le but d'améliorer le positionnement du site sur ces requêtes. Cette technique ne fonctionne plus aujourd'hui.
Pénalité Google
Il ne faut pas confondre pénalité Google et condamnation judiciaire. Les sanctions appliquées par le moteur de recherche sont automatiques, définies par son algorithme, ou manuelles (infligées par un contrôleur humain). Elles interviennent quand une page ou un site se fait prendre en train d'enfreindre les règles d'utilisation du moteur de recherche.
Les sanctions Google peuvent être très lourdes pour une entreprise, mais elles ne sont pas prononcées par un tribunal.
Pénalités judiciaires
Il est possible qu'une entreprise soit poursuivie judiciairement pour des pratiques commerciales douteuses ou frauduleuses par exemple. Mais cette condamnation est complètement distincte des sanctions automatiques appliquées par le moteur de recherche.
Contrevenir aux règles de Google n'expose donc -en théorie- qu'à une sanction sur Google. Mais comme Google détient un monopole... c'est déjà beaucoup !
Sortir son site internet de l'anonymat du web : le SEO
L'optimisation pour les moteurs de recherche, le SEO, désigne un ensemble de techniques visant à gagner une meilleure position dans les classements de Google. Comme on l'aura compris, il est impossible de forcer un algorithme de recherche à placer son résultat en premier.
En revanche, quand on sait mieux comment fonctionne l'algorithme et qu'on connaît ses critères de qualité, il est possible de travailler dessus pour être bien classé : c'est l'optimisation.
Il existe différentes façons d'optimiser ses résultats.
Manipulation black hat SEO
En SEO comme ailleurs, contourner les règles peut se faire de façon plus ou moins subtile. Il n'est pas possible de toucher directement aux algorithmes pour s'assurer une meilleure position dans les résultats, mais il est possible de "bourriner" sur un critère identifié.
Les techniques dites "black hat" sont un exemple de "triche" SEO. Elles consistent à manipuler l'algorithme dans le but de s'assurer une meilleure position dans les résultats, sans se soucier des conséquences sur l'utilisateur. On compte dans ces techniques le "negative SEO", un type d'attaque visant à faire déclasser ses concurrents.
Voici quelques exemples black hat SEO de la grande époque (révolue) du bourrage de mots clés et des fermes à liens.
Le bourrage de mots clés
Le bourrage de mots clés consistait à répéter massivement un mot clé dans le contenu du site internet (code HTML, textes, images, etc.) afin d'amener les robots d'indexation à penser que ce site est particulièrement pertinent pour ce mot clé, et donc à le classer en bonne position dans les résultats. Cette technique particulièrement désagréable à lire pour un humain était courante dans les années 1990 / 2000, avant que les algorithmes n'évoluent.
De nos jours, le bourrage de mots clés est facilement détecté et sanctionné automatiquement par Google.
La ferme à liens
Une autre technique black hat SEO pour booster le PageRank consistait à créer massivement des liens artificiels vers son site internet. A l'époque, le nombre de liens comptait beaucoup pour le PageRank. C'est encore -partiellement- vrai aujourd'hui : plus on a de liens de qualité vers son site, mieux on doit être classé.
Une ancienne technique de manipulation du PageRank consistait donc à créer des milliers de liens sur des sites peu qualifiés pour forcer son classement en bonne position. Cette technique ne fonctionne plus, car Google a mis en place des filtres automatiques pour détecter et sanctionner ce type de liens "spam".
Aujourd'hui, avec la complexité de l'algorithme, il est de plus en plus difficile de le manipuler sans subtilité. Cela dit, certains le font toujours avec succès ! Les failles sont de plus en plus difficiles à repérer et à exploiter, mais c'est toujours une possibilité.
Le negative SEO
Il y a deux façons d'être premier : travailler pour être le meilleur, ou empêcher ses concurrents de l'être.
Le negative SEO consiste donc à nuire à un concurrent en ligne, afin de le faire déclasser dans les résultats de Google. La manipulation peut prendre différentes formes : création massive de liens spam sur des sites malveillants ou peu qualifiés, dénonciations abusives pour plagiat de contenu, etc.
Ces pratiques malveillantes sont sanctionnées par Google, mais encore faut-il les prouver. Et cela prend du temps, alors que le mal est fait : être déclassé et perdre des positions dans les résultats entraîne une perte de trafic immédiate. Le negative SEO est particulièrement désagréable à subir.
White hat SEO
Le terme "white hat" désigne toute technique d'optimisation qui se contente de respecter les consignes du moteur de recherche. Ce n'est pas de la triche, simplement une façon d'être le plus qualitatif possible.
Ce sont des techniques SEO à utiliser sans modération pour améliorer son positionnement, car elles ne seront jamais sanctionnées par l'algorithme : elles font partie de ses bonnes pratiques. Cela permet aussi de mettre ses pages web à l'abri des effets potentiellement dévastateurs d'une mise à jour de l'algorithme.
L'expérience utilisateur
Les techniques white hat sont nombreuses, et ont toutes un objectif : offrir la meilleure expérience utilisateur possible sur un site web.
En effet, Google a pour objectif premier d'offrir à ses internautes le meilleur service possible, c'est-à-dire les meilleurs résultats en fonction de leur requête (mots clés). En s'appuyant sur la qualité de service, on est assuré de choisir le bon chemin pour rester dans les bonnes grâces du moteur de recherche.
Un site de qualité est un site bien positionné
Plus un site web est qualitatif, plus il respectera les attentes de l'utilisateur, et plus son positionnement sera bon sur Google.
Voici quelques exemples de techniques white hat SEO :
- La qualité du contenu du site web
- La pertinence des mots clés choisis
- La qualité des liens pointant vers le site
- La vitesse de chargement du site
- L'adaptation du site à tous les supports (ordinateur, mobile, tablette)
- etc.
Les techniques white hat visent donc à améliorer la qualité globale d'un site, selon Google.
Grey hat
Le terme "grey hat" désigne des techniques entre le white hat et le black hat : c'est une zone grise, où elles peuvent être tolérées un jour et sanctionnées le lendemain par l'algorithme de Google. Elles jouent sur un flou artistique dans une règle et peuvent rester comme cela pendant des années.
Une technique grey hat peut évoluer vers le white hat ou le black hat. Si Google officialise un des points qu'elle manipule, la technique peut potentiellement devenir white hat. Mais Google peut aussi décider de la bloquer en déployant un correctif sur ses algorithmes, la rendant alors inefficace et obsolète.
Un moteur de recherche objectif ? A prendre avec des pincettes
Même si un moteur de recherche se targue d'être objectif, on peut toujours se demander dans quelle mesure ses résultats le sont exactement. En effet, un algorithme reste codé par des humains.
Si les créateurs d'un moteur de recherche sont seuls à décider de ce qui constitue un critère de qualité ou non, et qu'ils fixent eux-mêmes les bornes chiffrées de leurs propres critères, alors ils peuvent tout à fait orienter (volontairement ou non) les résultats dans une direction précise, sans que l'internaute ne le sache.
Le deep web
Ce qu'on ne trouve pas sur Google, ce n'est pas parce que cela n'existe pas, mais tout simplement parce que Google ne l'indexe pas ! La difficulté à trouver certaines informations hors de Google s'appelle le silence documentaire.
Si on prend en compte le deep web, la partie non indexée d'internet (c'est-à-dire non trouvable sur Google), on se rend compte que la partie visible de l'iceberg n'est qu'une toute petite partie d'internet. Ce deep web ou web profond / caché, c'est en fait l'immense majorité d'internet.
Il est composé de sites qui ne sont pas accessibles par les robots d'indexation de Google, soit volontairement (dark web, paywall), soit involontairement.
Interprétation de l'intention de recherche
Si vous tapez la requête « comment faire un site web », Google comprend que les mots clés pertinents à traiter sont « comment », « faire » et « site » et est capable de leur donner un sens.
On comprend mieux le fonctionnement particulier de l'algorithme de Google sur des requêtes plus complexes, comme "mot pour modifier une planète".
Google proposera spontanément la réponse "terraforming", ainsi que des liens sur le développement durable. Sur le moteur de recherche Bing, la réponse obtenue est "mémoriser l'ordre des planètes" ainsi que des liens sur les planètes en général.
Plus inquiétant, si vous tapez "meilleure méthode suicide", l'algorithme du moteur de recherche Bing vous fournira une liste des meilleures méthodes pour en finir (!). Google, lui, vous fournira spontanément le numéro de téléphone d'un centre de soutien psychologique gratuit, ainsi que des liens du type "parler peut sauver".
L'interprétation des termes de recherche d'un algorithme va donc au-delà du sens lexical d'un terme : c'est l'analyse de l'intention de recherche définie par Google.
Faites le test !
Le phénomène de biais, filtre, ou "bulle"
Tant que cette interprétation "colle" avec celle des utilisateurs, tout va bien... mais il faut bien garder en tête que cette interprétation n'est pas forcément la vérité. C'est-à-dire qu'un algorithme de moteur de recherche peut dans une certaine mesure définir ce qui est vrai ou faux, en faisant apparaître ou disparaître des informations.
Par exemple, si on fait une recherche avec le mot clé « climat », on obtient le site web de Greenpeace en première position.
Ce n'est pas anodin : ce sont des résultats orientés, et Google ne s'en cache d'ailleurs pas.
Si on fait la même recherche avec le mot clé « climato-sceptiques », on tombe sur des sites web qui mettent en doute le réchauffement climatique, et dont beaucoup sont financés par des groupes ayant intérêt au maintien des énergies fossiles (notamment les Koch Brothers, milliardaires américains et principaux financeurs du climato-scepticisme).
On peut donc tomber dans une "bulle" de résultats : si on commence par des requêtes qui aboutissent à des sites qui dénoncent le réchauffement climatique (ou à des sites qui nient sa réalité), l'algorithme Google va nous entraîner dans une spirale de résultats qui dénoncent le réchauffement climatique.
Inversement, si on commence par des requêtes qui aboutissent à des sites mettant en doute le réchauffement climatique, on aura tendance à tomber systématiquement sur des résultats climato-sceptiques.
Ce phénomène est connu sous le nom « d'effet boomerang » ou « d'effet filtre » : on ne voit que ce qui confirme nos préjugés, et on n'a plus accès à une vision objective de la réalité. C'est un biais cognitif identifié que l'on retrouve dans de nombreux domaines, mais particulièrement accentué par internet et les algorithmes qui nous proposent du contenu "similaire et susceptible de nous intéresser".
Ce problème est d'autant plus important aujourd'hui que les moteurs de recherche et les réseaux sociaux ont une influence croissante sur la manière dont on voit le monde. Il est plus que jamais important de rester vigilant, et de ne pas se contenter d'une seule source d'informations.
Un algorithme au service d'intérêts variables
Les moteurs de recherche sont des entreprises, avec des actionnaires qui en attendent des dividendes. Et avec un monstre comme Google, il y a beaucoup, beaucoup, beaucoup d'argent en jeu.
Le contrôle de l'information
Google a une influence particulièrement importante. L'algorithme de Google peut décider quelles informations seront facilement accessibles, et quelles informations seront cachées.
Or, comme nous l'avons vu, Google est loin d'être un moteur de recherche neutre : il a des intérêts économiques et politiques, et fait des choix en fonction de ces intérêts.
Moteur de recherche et politique
On a pu le voir avec les scandales qui entourent les résultats de recherche de Baidu, le moteur de recherche chinois.
Celui-ci avait en effet tendance à favoriser des résultats payants... ou validés par le gouvernement. Un moteur de recherche peut ainsi devenir un outil de propagande. L'opacité de Google sur les critères de classement a également servi pour la censure, avec Google China par exemple.
Google, un service gratuit ?
La publicité est le principal moyen de gagner de l'argent avec un moteur de recherche.
Lorsque vous faites une recherche sur Google, vous remarquerez qu'il y a des résultats qui sont affichés en évidence, assortis de la mention "annonce".
Ce sont des résultats payants, c'est-à-dire que le site est prêt à payer pour être bien positionné sur ce mot clé. Ce type de publicité s'appelle le SEA (Search Engine Advertising).
Il va de soi que les revenus tirés de la publicité sont essentiels pour un moteur de recherche, y compris pour Google dont ils constituent toujours plus de la moitié du chiffre d'affaires. Google a donc tout intérêt (financier) à ce que le SEA reste un besoin pour les annonceurs. Jusqu'à quel point ?
Publicités ciblées et tracking
Les moteurs de recherche sont des services gratuits, ils doivent aussi trouver des moyens pour rentabiliser leur activité.
Comme on dit, si c'est gratuit, c'est vous le produit : c'est d'autant plus vrai en matière de données sur internet. Les données laissées par les utilisateurs sur le web sont donc particulièrement précieuses (et chères !) pour les entreprises, qu'il s'agisse de données privées de contact ou d'habitudes de navigation et d'achat sur des sites web. Un moteur de recherche comme Google peut tout à fait collecter et revendre ces données.
Il faut savoir que Google fournit par exemple des données à la CIA, comme le révélait le site Wikileaks en 2014. Les données privées des internautes qui naviguent sur Google ne sont donc pas aussi privées qu'on pourrait le penser.
Un exemple d'utilisation de ces données : les publicités AdSense. Si vous avez regardé des sites de chaussures, il est probable que vous voyiez ensuite plus souvent des publicités pour des sites de chaussures. C'est le principe du ciblage publicitaire, et c'est une pratique courante sur internet.
On peut donc avoir l'impression que tout le monde est intéressé par ces chaussures (et déclencher un achat impulsif provoqué par un "fear of missing out", la peur de manquer), alors qu'en réalité, c'est juste que nous sommes ciblés par l'algorithme de Google pour des publicités pour des sites de chaussures...
Conclusion
Nous espérons que ce chapitre vous aura aidé à mieux comprendre le concept d'algorithme et son application au moteur de recherche, ainsi que sa puissance et ses dérives. C'est en comprenant mieux l'algorithme qu'il sera possible d'en tirer parti, et de comprendre pourquoi on conseille certaines optimisations et pas d'autres.
Dans le chapitre suivant, nous tenterons d'expliquer la construction en couches de l'algorithme de Google.