Jusqu’où écrire pour Google ?

Jusqu’où écrire pour Google ?

Pour les éditeurs de sites web, il est primordial d’avoir de l’audience, et donc d’apparaître en premier dans les résultats de Google. Quels sont les critères favorisés par le moteur de recherche ? Comment faire pour être en tête du classement ?  

Temps de lecture : 11 min

Les éditeurs de sites web n’ignorent pas que les moteurs de recherche existent, et que, parmi eux, Google jouit d’une position hégémonique. Ils n’ignorent pas non plus que sur le web « exister, c’est être indexé par un moteur de recherche »(1) . Enfin, ils n’ignorent pas que la place de leurs pages web dans les listes de résultats dépend en partie de leurs actions : sujets traités, structure du site, vitesse de chargement, formats, mots, liens, code. Certains éditeurs agissent par conséquent en fonction de ce qu’ils savent, ou croient savoir, à propos des algorithmes de classement des moteurs en général, et de Google en particulier. Ils optimisent les contenus dans le but de maximiser les chances de recevoir un trafic substantiel(2) . Grâce aux différentes techniques regroupées sous l’expression « Search Engine Optimization » (SEO), « il est possible pour un individu isolé de réussir à positionner un site web tout en haut des listes de résultats de manière durable et sans rien faire d’illégal »(3) .
 

Les concepteurs d’un moteur utilisé massivement par les internautes, comme l’est Google, ne peuvent pas agir en pensant que les éditeurs ne calibreront pas leurs actions en fonction de ce qu’ils savent des leurs. Ce que les concepteurs font influence ce que les éditeurs, eux-mêmes, élaborent, et influence donc la nature des documents et des liens entre eux, c’est-à-dire la nature du web tout entier. Une telle situation découle de la position hégémonique de Google : s’il existait une multitude de moteurs concurrents, si leurs parts de marchés étaient comparables et si ces moteurs fonctionnaient différemment, une telle influence ne pourrait pas avoir lieu. Il faut imaginer un projectionniste unique qui, selon la façon qu’il a de braquer la lumière sur tel ou tel point de la scène, et selon ce que les comédiens savent de ce qui compte à ses yeux, influencerait les déplacements et les répliques des comédiens, si bien que la pièce elle-même pourrait être influencée par le pouvoir du projectionniste.
 
Si les algorithmes des moteurs étaient parfaitement transparents, les éditeurs seraient nombreux à agir de la même façon pour optimiser le calcul de pertinence de leurs documents, auquel cas l’algorithme ne pourrait plus fonctionner, incapable de choisir parmi des éditeurs qui auraient conçu de manière identique des documents traitant d’un même thème. Il faudrait trouver d’autres critères pour les départager, et ne pas divulguer ces critères. C’est la principale raison pour laquelle Google ne dévoile pas les détails de son algorithme. En revanche, la firme publie des recommandations sur son « Centre d’aide aux webmasters » destinées aux éditeurs souhaitant maximiser leurs chances de figurer en bonne place dans les résultats. Pour autant, Google ne promet rien à celui qui obéirait scrupuleusement à ses recommandations.
 
 Certains éditeurs n’hésitent pas à détourner les règles pour piéger Google  
De nombreux éditeurs se conforment à la « norme de publication » ainsi promue par Google. C’est pourquoi certains auteurs n’hésitent pas à comparer le pouvoir exercé par la firme sur l’action des éditeurs à un « régime disciplinaire »(4) censé être au service des utilisateurs du moteur, certes, mais qui va également dans le sens des intérêts de Google, dès lors que le faire faire exercé par l’entreprise à l’endroit des éditeurs permet de fluidifier l’indexation et la hiérarchisation des documents. Il serait faux cependant d’y voir une forme totalisante de pouvoir. Google ne peut pas forcer les éditeurs à quoi que ce soit. Certains d’entre eux, d’ailleurs, n’hésitent pas à détourner les règles pour piéger le moteur. Les ingénieurs de Google sont par conséquent obligés de réviser les critères et les pondérations de l’algorithme s’ils veulent que le dispositif continue de générer des classements pertinents. Une partie de ping-pong se met en place, durant laquelle des ajustements et des réajustements ont lieu visant à négocier les modalités de la norme de publication censée permettre aux documents pertinents d’être identifiés comme tels par le moteur de recherche et de recevoir, en conséquence, le trafic qu’ils méritent.
 
Comprendre ce que l’éditeur doit faire pour maximiser ses chances d’être bien classé, et comment les règles du jeu peuvent éventuellement être contestées, négociées, sans cesse ajustées et réajustées, c’est comprendre le moteur de recherche non pas comme un système « à côté » du web, mais au contraire comme un dispositif qui y est effectivement pleinement intégré. C’est parce que Google a un pouvoir de « porte-voix » qu’il peut influencer la manière dont les éditeurs « prennent la parole » sur le web. Dès lors, la question se pose de l’intégrité éditoriale des éditeurs : à quel point sont-ils contraints par les impératifs liés au référencement ? Dans quelle mesure cela pourrait-il les empêcher de traiter l’information qu’ils veulent traiter, et de la traiter comme ils le veulent ?

Google peut-il influencer la ligne éditoriale ?

 

 Un éditeur qui souhaite attirer un trafic substantiel sera incité à traiter les sujets les plus en vogue : sexe, météo, people 
Dans une certaine mesure, Google est susceptible d’influencer les lignes éditoriales. Les sujets n’ont en effet pas tous le même potentiel de succès auprès des utilisateurs du moteur, et un éditeur qui souhaite attirer un trafic substantiel sera incité à traiter les sujets les plus en vogue : sexe, météo, people, orthographe, conjugaison. Comment savoir que tel ou tel sujet aura plus de succès qu’un autre ? Eh bien, soit les éditeurs le constatent eux-mêmes, en comparant le trafic amené par Google vers leurs différentes rubriques et les sujets qu’ils ont traités ; soit ils utilisent l’outil « Tendances de Recherche » grâce auquel il est possible de spécifier une période temporelle et une zone géographique afin de comparer des sujets les uns avec les autres.

Par ailleurs, lorsque le moteur vertical Google Actualités crée une « grappe de liens » (cluster) autour d’un sujet qu’un éditeur de presse n’aurait pas encore traité, celui-ci peut être conduit à traiter ce sujet simplement dans l’espoir de figurer dans la grappe et d’attirer du trafic, quitte à ne procéder pour cela à aucun autre traitement que celui qui consiste à republier une dépêche de l’AFP.

Les moteurs de recherche peuvent ainsi se faire l’écho de la « demande » de leurs utilisateurs, et conduire les éditeurs à effectuer leurs choix en fonction de cette demande. Un éditeur qui suivrait entièrement cette logique abandonnerait la prérogative qui consiste à décider seul des sujets à traiter, pour être en permanence en train de répondre aux requêtes effectuées par les utilisateurs des moteurs de recherche.

Google peut-il influencer le choix des mots ?

 

Idéalement, le contenu doit être explicite, informatif plutôt qu’incitatif, et des mots-clefs désignant sans ambigüité le thème traité par un document doivent figurer le plus tôt possible dans le contenu(5) . C’est pourquoi on voit fleurir sur le web des titres ayant la forme : « DSK : l’affaire du Carlton », « Ukraine : les attaques ont repris ». Les moteurs de recherche sont paramétrés de façon à considérer qu’il existe une forte probabilité pour que le mot situé avant les deux points dans un titre soit un descripteur pertinent de la thématique abordée dans le contenu.

De la même façon, pour maximiser les chances d’être bien référencé sur les moteurs, il est préférable d’éviter les introductions que font parfois les journalistes pour incarner le traitement d’un sujet : « Le soleil ourle la rive du lac Michigan. Nous sortons de la voiture et marchons vers la cabane où un ancien collaborateur du Président nous a donné rendez-vous… ». Sur le web, les mots-clés doivent apparaître le plus tôt possible. Idéalement, ils doivent être les mêmes que ceux qui sont utilisés par les internautes dans leurs requêtes. Ainsi, la créativité des producteurs de contenus peut être bridée étant donné les impératifs liés au référencement sur Google et la volonté de maximiser le trafic.
 Le SEO peut conduire à certaines erreurs inacceptables du point de vue journalistique  

Dans un article du Poynter, la journaliste Kelly McBride a révélé quelles pouvaient être les dérives de l’influence de Google sur le choix des mots. Elle a montré comment le traitement journalistique du projet de construction d’un centre musulman à deux pâtés de maison et demi du Ground Zero à New York avait pu être erroné par l’usage de l’outil « Tendances de Recherche ». Puisque les internautes formulaient la requête « ground zero mosque » sur Google, de nombreux journalistes utilisaient ce terme à des fins de captation du trafic. Mais l’information donnée par les titres sous-entendait qu’une mosquée serait effectivement construite sur le Ground Zero, ce qui était faux puisque la mosquée devait être construite beaucoup plus loin (et que le projet, porté par des musulmans modérés, n’était pas seulement de construire une mosquée, mais également un centre comprenant de nombreux équipement indépendants du lieu de culte, comme une piscine, un auditorium de 500 places, une librairie ou encore un restaurant.

Cette anecdote illustre la limite de la stratégie qui consiste à reprendre dans le titre d’un article les termes utilisés par les internautes lors de leurs requêtes. En effet, l’objectif de la requête est d’exprimer un besoin d’information, alors que le but d’un article est de traiter l’information. La première est une question, le deuxième une réponse. La stratégie qui consiste à reprendre dans la réponse les termes utilisés dans la question, parfaitement valable du point de vue du Search Engine Optimization, peut conduire à certaines erreurs inacceptables du point de vue journalistique.

Google peut-il influencer les choix techniques ?

 

Google prend en compte l’efficacité de l’infrastructure, et notamment la vitesse de chargement de chaque page depuis février 2009. La firme justifie la prise en compte de ce critère en expliquant qu’elle a toujours elle-même été « obsédée par la vitesse ». Ainsi, Google fait de la performance du contenant un critère de pertinence du contenu. C’est un peu comme si vous demandiez à deux philosophes supposément compétents pour parler de Spinoza de courir un cent mètres, et que vous décrétiez que le plus rapide est le plus compétent !
 
Les éditeurs désireux de maximiser leur trafic doivent investir dans les infrastructures afin de réduire la vitesse de chargement de leurs sites, tout en s’assurant que les documents sont créés dans un format qui n’est pas trop gourmand en bande passante. Cela représente des coûts et a par conséquent tendance à avantager ceux qui ont les moyens d’investir. Un éditeur peut payer les services d’un « Content Delivery Network » (CDN) afin que les requêtes de ses visiteurs soient servies, grâce à un mécanisme de routage, par le « nœud » le plus proche dans le réseau, optimisant ainsi la transmission/réception du document. Pour le coût d’une telle opération, les prix pratiqués par une entreprise comme OVH (spécialiste de solutions de CDN) varient de 9,99 € à 599,99 € euros par mois (hors taxe). Étant donné cette logique, l’éditeur qui a les moyens d’investir dans son infrastructure augmente ses chances d’être en bonne position dans les résultats de recherche. Cela avantage donc les éditeurs « les plus riches ».
 
 Le fait qu’un propos soit agréable à consulter constitue-t-il un indicateur de pertinence ? 
Google a fait du « confort » des internautes, qui apprécieront naturellement que la page se charge rapidement(6) , un critère utilisé pour comparer entre elles les réponses que le moteur est susceptible de leur apporter. Du point de vue épistémologique, c’est très discutable : dans quelle mesure le fait qu’un propos soit « agréable » à consulter constitue-t-il un indicateur concernant sa pertinence ?

Google peut-il influencer le maillage hypertexte ?

 

Contrairement à de nombreux critères, le PageRank de Google est connu dans le détail. Les éditeurs peuvent par conséquent ajuster leurs actions étant donné ce qu’ils savent de l’analyse topographique effectuée par Google. Selon le PageRank, les liens entrants apportent de l’autorité. Les liens sortants, quant à eux, redistribuent cette autorité. Plus les liens entrants sont nombreux, plus la pertinence supposée d’un document augmente. Plus les liens sortants sont nombreux, moins l’autorité apportée par chacun d’entre eux est grande. Les éditeurs ont donc intérêt à pointer vers leurs propres pages et à recevoir des liens provenant de pages extérieures.
 
Le PageRank encourage un certain égocentrisme hypertexte, qui constitue pourtant un contre-sens du point de vue de Google car si tous les éditeurs n’effectuaient des liens que vers eux-mêmes, cela créerait des « bulles » hypertextes étanches, ce qui affaiblirait la pertinence de la mesure effectuée par le PageRank, et empêcherait les crawlers de trouver les documents (les crawlers se déplacent de lien en lien pour trouver de nouveaux documents). Ainsi, ce que suggère de faire la formule mise au point par les ingénieurs de Google peut nuire au fonctionnement du système dont cette formule est pourtant le centre névralgique.
 
Si aucun éditeur n’en connaissait l’existence, l’algorithme PageRank pourrait fonctionner sans que cela ait d’influence sur le nombre de liens. Mais dès lors que les éditeurs connaissent la formule, ils sont incités à ne pas faire de liens vers l’extérieur, alors que cela va contre l’intérêt de ceux qui ont mis au point la formule. Le « pouvoir normatif » de Google joue ici contre lui. C’est pourquoi Google a cherché à réduire l’influence du PageRank sur l’usage des liens hypertextes en annonçant notamment que les liens sortants pertinents augmenteraient la pertinence supposée du document sur lequel ces liens se trouvent, et en annonçant que l’autorité redistribuée à soi-même serait moins forte que l’autorité distribuée par un site extérieur. Il s’agit de contrebalancer les incitations à l’égocentrisme hypertexte et de promouvoir une norme de publication qui va dans le sens des intérêts des utilisateurs de Google.

Le stratège Google et les éditeurs tacticiens

 

Le moteur de recherche Google n’est pas à côté du web, mais dedans. Quand le web évolue, Google change. Si Google change, le web évolue. La façon dont les ingénieurs décident de calculer la pertinence des documents influence les actions de ceux qui les conçoivent. Aussitôt que Google dit « cela est pertinent », de nombreux éditeurs choisissent de dire/faire « cela » dans l’espoir de voir leurs documents « devenir pertinents » aux yeux de Google et être récompensés comme tels.
 
Google fixe les règles du jeu : c’est le « stratège » au sens de Michel De Certeau(7) . Quant aux éditeurs, ils sont libres de décider à quel point ils suivent ces règles ou non : ce sont des « tacticiens ». Ils peuvent se conformer aux préconisations qui leur sont faites —auquel cas on les surnomme des « white hats » (chapeaux blancs) — mais dans tous les cas le pouvoir de Google n’est pas totalisant : la firme ne peut pas forcer les éditeurs à quoi que ce soit. Les éditeurs restent libres (et responsables) de leurs agissements. Certains d’entre eux peuvent privilégier d’autres règles (celles que dicte par exemple aux journalistes la déontologie propre à leur profession) et agir d’une façon qui n’est pas forcément conforme à ce que Google leur aura suggéré. En reprenant les mots de Michel De Certeau, il est possible de dire que même si les éditeurs se déplacent dans un champ qui les régule à un premier niveau, ils peuvent y introduire « une façon d’en tirer parti qui obéit à d’autres règles et qui constitue comme un second niveau imbriqué dans le premier »(8) . Certains d’entre eux — surnommés les « black hats » (chapeaux noirs) — peuvent notamment essayer de contourner ou de détourner les règles du jeu à leur avantage : ils regimbent pour agir d’une façon non préconisée (ou parfois simplement non prévue) par les ingénieurs de Google. Par exemple, ils automatisent la production de liens pointant vers leurs contenus pour gonfler artificiellement leur PageRank. Les ingénieurs de Google peuvent alors être amenés à re-paramétrer le dispositif de façon à ce que le moteur continue à produire des résultats jugés pertinents du point de vue des utilisateurs. Un aller-retour se met en place entre le stratège et les tacticiens : la norme est négociée, renégociée, etc.
 
Finalement, la relation entre Google et les producteurs de contenus est faite de stratégies et de tactiques qui s’ajustent les unes aux autres. Chacun des acteurs a le pouvoir d’adapter son comportement en fonction de ce qu’il sait du comportement des autres. Aucun d’entre eux n’a de pouvoir absolu, pas même les ingénieurs de Google. Ces dynamiques contribuent à faire du web ce qu’il est : les sujets traités, les mots, la topographie hypertexte. Elles ne sont pas résultat mais cause : elles font de la Toile ce qu’elle est davantage qu’elles n’en résultent.

Références

 

Judit BAR-ILAN , « Google Bombing from a Time Perspective », Journal of Computer-Mediated Communication, vol. 12, n°3, 2007, p. 910–938.
 
Charles-Victor BOUTET, Samy BEN AMOR , « Vers l'active SEO 2.0 », Les Cahiers du numérique, vol. 6, 2010, p. 179-198.
 
Charles-Victor BOUTET , Luc QUONIAM, William Samuel RAVATUA-SMITH (2012), « Towards active SEO 2.0 » , Journal of Information Systems and Technology Management, vol. 9, no. 3, 2012, p. 443-458
 
Michel de CERTEAU, L’invention du quotidien, 1. Arts de faire, Paris, UGE/10-18, 1980.
 
Lucas INTRONA, Helen NISSENBAUM « Shaping the web: why the politics of search engines matters », The Information Society, 16, 2000, p. 169-185.
 
Raphaël RICHARD , Google décodé : les 300 critères de classement t. 1&2, Webmarketing Academy , 2011.
 
Theo RÖHLE, « Dissecting the Gatekeepers. Relational Perspectives on the Power of Search Engines », in : Becker K, Felix S. (dir.) Deep Search. The Politics of Search beyond Google, Innsbruck, StudienVerlag, 2009, p. 117-132.
 
Quelques sites incontournables à propos de l’optimisation pour les moteurs de recherche :
Webrankinfo

--
Crédits photos :
Pixabay
    (1)

    Lucas INTRONA, Helen NISSENBAUM « Shaping the web: why the politics of search engines matters », The Information Society, 16, 2000, p. 171.

    (2)

    Judit BAR-ILAN, « Google Bombing from a Time Perspective », Journal of Computer-Mediated Communication, vol. 12, n°3, 2007, p. 910–938.

    (3)

    Charles-Victor BOUTET , Luc QUONIAM, William Samuel RAVATUA-SMITH (2012), « Towards active SEO 2.0 » , Journal of Information Systems and Technology Management, vol. 9, no. 3, 2012, p.457

    (4)

    Theo RÖHLE, « Dissecting the Gatekeepers. Relational Perspectives on the Power of Search Engines », in : Becker K, Felix S. (dir.) Deep Search. The Politics of Search beyond Google, Innsbruck, StudienVerlag, 2009, p. 117-132. 

    (5)

    Raphaël RICHARD , Google décodé : les 300 critères de classement t. 1&2, Webmarketing Academy , 2011.

    (6)

    Il s’agit d’optimiser la fameuse « expérience utilisateur »

    (7)

    Michel de CERTEAU, L’invention du quotidien, 1. Arts de faire, Paris, UGE/10-18, 1980.

    (8)

    Michel de CERTEAU, L’invention du quotidien, 1. Arts de faire, Paris, UGE/10-18, 1980.

Ne passez pas à côté de nos analyses

Pour ne rien rater de l’analyse des médias par nos experts,
abonnez-vous gratuitement aux alertes La Revue des médias.

Retrouvez-nous sur vos réseaux sociaux favoris

Autres épisodes de la série