Optimisation pour les moteurs de recherche

ensemble de techniques visant à favoriser la compréhension de la thématique et du contenu d'une ou de l'ensemble des pages d'un site Web par les moteurs de recherche

L'optimisation pour les moteurs de recherche, aussi connue sous le nom de référencement naturel[1] et le sigle SEO (de l'anglais « Search Engine Optimization »), inclut l'ensemble des techniques qui visent à améliorer le positionnement d'une page, d'un site ou d'une application web dans la page de résultats d'un moteur de recherche[2].

Illustration du principe de fonctionnement du PageRank
Illustration du principe de fonctionnement du PageRank.

Ces techniques cherchent à améliorer la compréhension et la prise en compte de la thématique et du contenu d'une ou de l'ensemble des pages d'un site web par l'algorithme de classement des moteurs de recherche.

L'objectif est d'améliorer le positionnement d'une page web dans les pages de résultats de recherche. Le positionnement d'un site est considéré comme bon lorsqu'il est classé dans la première page des résultats de recherche et donc dans l'une des sept à dix premières réponses naturelles d'une recherche sur des mots-clés correspondant précisément à sa thématique[3].

Le référencement SEO englobe de nombreux aspects, notamment l’optimisation technique du site (comme la structure, la vitesse de chargement, la compatibilité mobile), la création de contenu de qualité et pertinent, l’acquisition de liens de qualité provenant d’autres sites web, l’optimisation des balises HTML et des métadonnées, la recherche de mots-clés, et bien d’autres facteurs.

Ces techniques d'optimisation permettent d'augmenter la visibilité d'une page sans recourir au référencement payant qui consiste à payer un moteur de recherche pour qu'il fasse apparaître la page en tête des résultats lorsque certains mots-clés sont saisis[4].

Historique

L'optimisation pour les moteurs de recherche a commencé dès l'apparition des premiers annuaires et moteurs de recherche en 1994[5]. Le référencement s'est d'abord porté sur des moteurs comme Altavista ou des annuaires comme Yahoo! avant de se concentrer sur Google et son algorithme PageRank puis de se professionnaliser.

L'historique de l'optimisation pour les moteurs de recherche s'assimile aux mises à jour des algorithmes de Google. En effet, en 2020, il est le moteur de recherche le plus utilisé. En France, il regroupe plus 92 % des requêtes faites sur le web et plus de 87 % dans le monde[6].

Enjeux

L'optimisation pour les moteurs de recherche représente un enjeu à plusieurs niveaux[7] :

  • rendre un site visible de façon pérenne ;
  • permettre un bon référencement ;
  • capter du trafic qualifié depuis les moteurs de recherche ;
  • augmenter le nombre de conversions ;
  • construire une image de marque en direction des internautes.

Apparaître sur un moteur de recherche en première page assure un volume important de trafic. En effet, environ les deux tiers des utilisateurs cliquent sur l'un des résultats de la première page et la quasi-totalité ne regarde pas au-delà de la troisième.

La meilleure technique d'optimisation que Google recommande aux webmestres est de concevoir un site agréable et pertinent pour l'utilisateur, et non pas à créer un site en ne prenant en compte que l'algorithme de classement et les robots d'indexation[8]. Le meilleur moyen d'avoir un site bien classé est d'avoir une réelle valeur ajoutée pour l'utilisateur.

Techniques d'optimisation

L'optimisation pour les moteurs de recherche est un domaine difficile à quantifier en termes de résultats, puisque les algorithmes changent sans cesse[9]. De nombreux spécialistes en SEO tentent d’examiner le fonctionnement des moteurs de recherches en faisant appel à des techniques d’ingénierie inverse. Ces experts ont identifié de cinquante à cent facteurs de pertinence (sur un total de plus de cinq cent selon les estimations de spécialistes internationaux en SEO) et tentent des corrélations entre ces facteurs et le positionnement dans les pages de résultat. Néanmoins, ces corrélations ne prouvent pas toujours une réelle causalité, et le nombre de facteurs, leurs pondérations, interactions et évolutions rendent ces calculs trop complexes pour permettre une compréhension exacte du fonctionnement algorithmique. Un certain nombre de leviers permettent tout de même de faire une différence dans le référencement[10].

Leviers d'optimisation d'un site web
Leviers internes Leviers externes
  • Accessibilité des contenus
  • Balisage HTML sémantique[11]
  • Présence de mots clés recherchés dans les balises <title> et <h1>
  • Mise en place d'une arborescence optimisée
  • Maillage interne des pages[12]
  • Contenus de qualité[13]
  • Quantité de texte dans les contenus
  • Contenu jugé « frais »
  • Construction des URL[14]
  • Vitesse de chargement
  • Nombre de liens entrants
  • Qualité des liens entrants

Le référencement naturel est un ensemble de techniques[15] destinées à faire apparaître des pages web dans les résultats non commerciaux des moteurs de recherche. Les informations contenues dans les pages d'un site web conditionnent en grande partie la qualité du référencement naturel.

Optimisation sur la forme

Balises meta

Les balises meta (meta tags en anglais) peuvent avoir plusieurs rôles : indiquer le titre de la page et fournir un résumé de son contenu, informer les robots sur certains détails du site, comme la langue utilisée, le type de document consulté, le codage de caractères utilisé, l'auteur de la page, etc[16]. Néanmoins, elles ne jouent pas de rôle pour l'amélioration du positionnement, en tout cas pas chez Google[17]. Elles peuvent également servir à rediriger automatiquement les navigateurs vers une autre page, à interdire la mise en cache ou l'indexation de la page par les moteurs. Le code meta (qui respecte le Hypertext Markup Language) est le suivant (il se situe entre les balise <head> et </head> au début de la page donc) :

<meta name="robots" content="all, index, follow">

Cette balise meta donne aux robots la directive de suivre et d'indexer la page. Cependant, cette directive est celle de base, ce qui la rend inutile. La balise est plus souvent utilisée pour une directive contraire, indiquant aux robots de ne pas indexer les pages (dans le cas où le webmestre ne peut pas garantir la fiabilité du lien, lorsque le lien est payant ou encore lorsqu'il s'agit de liens d'inscription)[18] :

<meta name="robots" content="noindex, nofollow">

Sélection des mots-clés

La première étape, mais aussi la plus importante, consiste à trouver des expressions de recherche pertinentes[19]. Pour qu'un contenu soit optimal, il est important de cibler un mot-clé principal qui représente une requête et de choisir des mots clés dits secondaires qui seront disséminés tout le long de l'article. Il faut ensuite adapter sa ligne éditoriale en fonction de ce lexique établi afin que le mot-clé principal soit bien repris autant dans la balise <title>, dans l'URL que dans le contenu[20].

Référencement

Techniques white hat et black hat

Le référencement se manipule de différentes façons, qualifiées notamment de « white hat » (licites) et « black-hat » (illicites). La base du référencement white hat cherche à créer un site conçu selon les règles de l'art définies par les moteurs de recherche ainsi qu'un contenu de qualité, pertinent pour l'utilisateur. La base du black hat utilise tous les moyens disponibles (le plus souvent illicites et dénoncés par les moteurs de recherche), quitte à courir le risque de voir son site retiré de l'index des moteurs de recherche[21].

Quelques techniques white hat consistent à optimiser ses pages en utilisant des mots-clés pertinents et en faisant du « link-building », c'est-à-dire de créer un contenu de qualité sur différents blogs ou annuaires pour obtenir un « backlink ». En matière de white hat, le Guide d’optimisation pour le référencement édité par Google est une bonne source d'information[22]. Quelques techniques black hat consistaient à acheter des liens en masse ou à cacher du texte en le rendant de la même couleur que l'arrière-plan ou en lui donnant un attribut transparent[23]. Néanmoins, Google ne prend maintenant plus en compte ces liens « cachés », et va jusqu'à les pénaliser s'ils n'ont pas été désavoués[24].

Techniques black hat

Voici quelques techniques considérées comme black hat :

  • afficher un contenu différent aux moteurs de recherche et leurs robots d'indexation à l'aide d'un script en JavaScript (technique appelée cloaking), avec une page masquée. Cette technique est proscrite par les moteurs de recherche, et le site sera probablement placé sur une liste noire s'il est repéré, comme dans l'affaire BMW en Allemagne où la firme automobile a été blacklistée par Google qui l'a éliminée de son index en durant deux jours[25] ;
  • textes masqués ou liens ;
  • mots-clés répétés ;
  • inadéquation entre le contenu de la page et sa description ;
  • redirection trompeuse ;
  • génération automatique de contenu ;
  • site ou page répétée (duplication du contenu).
  • acheter des liens
  • liens de pied de page
  • texte d'ancrage surutilisé
  • Private blog networks (PBN)

Toutes ces techniques sont désormais pénalisées par le moteur de recherche Google[26].

Référencement local

Le référencement local ou SEO local[27] est l'ensemble des techniques qu'il est possible de mettre en place, pour améliorer la visibilité des entreprises dans un secteur défini.

Les moteurs de recherche comme Google, utilisent trois critères de classement pour les recherches à intention locale :

  • Proximité
  • Autorité
  • Pertinence.

Et cela passe entre autres par :

  • L'enregistrement d'une entreprise sur Google My Business qui permet à Google de savoir si elle opère dans l’emplacement physique indiqué, afin de lui donner de meilleures chances d’apparaître dans les résultats de recherche et sur Google Maps[28].
  • L'utilisation des balises Schema locales[29]
  • Le recensement sur des annuaires locaux. Exemple : pages jaunes.
  • L'optimisation du site sur des mots-clefs locaux, etc.

Effet de l'E-A-T

E-A-T est l'acronyme des mots anglais expertise, authoritativeness et trustworthiness.

En 2018, Google a lancé une nouvelle mise à jour de l'algorithme appelée « Medic Update ». Cette mise à jour visait à donner un meilleur classement de recherche aux sites web qui publiaient du contenu bien documenté et de bonne réputation[30]. L'E-A-T était plus important pour le classement qu'il ne l'était au départ.

L'importance de l'E-A-T est devenue évidente lorsque Google a mis à jour[31] ses directives de classement de la qualité de recherche en . Google a alors fourni des précisions par rapport au concept du E-A-T. L'auteur du contenu est-il 1) un expert sur le sujet abordé, 2) une autorité reconnue dans le domaine et 3) fiable (trustworthy).

En 2022, Google remplace l'E-A-T par l'E-E-A-T, en rajoutant la nécessité de l'expérience de l'auteur sur le sujet abordé[32].

Mobile-First

L'approche "Mobile First" adoptée par Google dans son processus d'indexation et de classement des sites web met en avant la priorité accordée aux versions mobiles des sites dans les résultats de recherche[réf. nécessaire]. Cette stratégie reconnaît l'importance croissante de l'utilisation des appareils mobiles pour accéder à Internet et vise à offrir une expérience utilisateur optimale aux utilisateurs mobiles.

Concrètement, cela signifie que Google privilégie les sites qui sont bien optimisés pour les appareils mobiles lors de l'affichage des résultats de recherche sur les smartphones et les tablettes. Les sites qui ne sont pas adaptés aux mobiles peuvent voir leur classement affecté de manière négative dans les résultats de recherche mobiles[réf. nécessaire].

Les principes de base du 'Mobile-First" :

  • Conception réactive permettant au contenu de s'adapter automatiquement à différentes tailles d'écrans.
  • Optimisation de la vitesse de chargement pour assurer une navigation rapide et fluide sur les appareils mobiles.
  • Navigation intuitive facilitant l'accès au contenu sur les petits écrans tactiles.
  • Utilisation de balises méta optimisées pour spécifier la manière dont le contenu doit être affiché sur les appareils mobiles.

Lutte contre le référencement abusif

Google a mis en place un arsenal de techniques pour contrer des optimisations qui ne respecteraient pas ses consignes de qualité (vente de liens, texte caché, etc.), on parle de « pénalités[33] ». Les pénalités peuvent être de deux types :

  • pénalité algorithmique : la pénalité est consécutive à une mise à jour de l'algorithme ;
  • pénalité manuelle : la pénalité est activée par une action manuelle d'un membre de l'équipe « web spam » de Google généralement à la suite de la détection d'une action black hat.

Google fait évoluer ses algorithmes de manière régulière pour continuer d'améliorer la pertinence de ses résultats, avec des mises à jour de ses filtres anti spam. En effet, les professionnels du référencement naturel font aussi évoluer leurs techniques de travail pour tenter de duper l'algorithme et obtenir des meilleurs classements pour les sites sur lesquels ils travaillent.

Google a ainsi déployé en 2022 pas moins de 10 mises à jour[34], quasiment une chaque mois pour renforcer l'efficacité de ses filtres.

Parmi les dernières mises à jour importantes de Google, deux ciblaient spécifiquement le référencement abusif[35] :

  • update Panda : pénalité contre les sites ayant peu de valeur ajoutée, trop de publicités ;
  • update Penguin : lutte contre les liens externes abusifs.
  • update Helpful content: lutte contre les contenus de faible qualité générés par l'intelligence artificielle.

Critères du SEO

Il existe plus de cinq cents paramètres utilisés par les algorithmes de position[réf. nécessaire]. Selon une étude réalisée auprès de 140 référenceurs, certains critères permettraient de hisser la page dans les premiers résultats naturels, et d'autres généreraient de fortes pénalités de la part de Google[36].

Principaux critères affectant positivement la position :

  • la popularité de la page ;
  • la pertinence des pages liantes ;
  • le texte des liens entrants ;
  • la pertinence de la page ;
  • l'indice de confiance de la page ;
  • l'ancienneté du site web ;
  • l'autorité du nom de domaine ;
  • la qualité des liens vers cette page ;
  • la qualité du contenu ;
  • l'adaptation mobile (Responsive) ;
  • le balisage sémantique (H1, H2, Hn...).

Google met à disposition un document de recommandation à l'usage des webmasters et référenceurs. Ce document délivre des conseils pour l'optimisation sur les moteurs de recherche. Il recommande notamment d'éviter "les « astuces » destinées à améliorer le classement sur les moteurs de recherche" et encourage la création de "contenu original qui offrent de la valeur ajoutée aux internautes"[37].

Métier de référenceur

Selon les résultats de l'Observatoire international des métiers de l'internet, la compétence « optimisation moteurs de recherche » apparaît comme étant l'une des plus recherchées sur l'ensemble des profils professionnels. Si cet aspect apparaît logique pour un webmestre ou un webdesigner, il pourrait, à première vue, sembler moins prioritaire pour d'autres profils, par exemple pour un spécialiste de bases de données internet ; néanmoins, la cohérence avec laquelle ce dernier organise le fonctionnement de la base de données concernée peut apporter un gain important dans l'optimisation du site. En fait, selon certaines études, la compétence SEO, mise en avant et prouvée, est un atout essentiel dans une phase de recherche d'emploi[38].

Une étude réalisée par l'association du référencement SEO CAMP a révélé qu'en 2016, 70 % des référenceurs étaient des hommes. 32 % des référenceurs ont entre 26 et 30 ans, 53 % ont moins de cinq ans d'expérience (preuve que le métier est jeune) et 39 % travaillent en Île-de-France. 70 % sont en CDI avec un salaire annuel brut moyen de 35 877 [39].

Références

  1. « référencement naturel », sur vitrinelinguistique.oqlf.gouv.qc.ca (consulté le ).
  2. B. Bathelot, « Référencement naturel », sur definitions-marketing.com, (consulté le ).
  3. Rémi Bachelet, « cours de référencement », sous licence Creative commons, École centrale de Lille, .
  4. B. Bathelot, « SEA », sur definitions-marketing.com, (consulté le ).
  5. Jerry Louis-Jeune, « Bien Comprendre Le SEO En 2023 (Search Engine Optimization) », sur jljdigital.com, (consulté le ).
  6. « Parts de marché moteurs de recherche (septembre 2020) France, USA, monde », sur WebRankInfo, (consulté le ).
  7. Sylvain Nox, Référencer un site internet et le faire connaître: Niveau débutant, 26 p..
  8. « online chat with Webmaster Help Group guides », Google, , transcription.
  9. Olivier Duffez, « Google : les algorithmes à connaître pour un bon référencement », sur webrankinfo.com, (consulté le ).
  10. Google webmasters, « Bien débuter en référencement naturel (SEO) », sur support.google.com (consulté le ).
  11. « Quelles sont les balises HTML qui ont encore de l’importance en SEO ? », sur lafabriquedunet.fr, (consulté le ).
  12. (en) « Internal Links for SEO: Best Practices 2023 », sur link-assistant.com, (consulté le ).
  13. (en) « General Guidelines », sur static.googleusercontent.com, (consulté le ).
  14. Emma Labrador, « 10 conseils pour optimiser vos URLs pour le SEO », sur fr.oncrawl.com, (consulté le ).
  15. « Guide de démarrage Google - Optimisation pour les moteurs de recherche »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur static.googleusercontent.com (consulté le ).
  16. « À quoi servent les balises META », sur alsacreations.com, (consulté le ).
  17. Guide des balises meta, WebRankInfo
  18. « Utiliser l'attribut rel="nofollow" pour les liens spécifiques - Aide Search Console »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur support.google.com (consulté le ).
  19. « Le SEO on-page et le SEO off-page », sur Site d'actualité Geek et Tech | GuideLogiciel.com, (consulté le ).
  20. Guillaume Guersan, « Quelques conseils pour rédiger un texte SEO facilement », sur journaldunet.com, (consulté le ).
  21. « Référencement naturel - Guide pratique complet du SEO », sur CommentCaMarche (consulté le ).
  22. « Guide de démarrage Google – Optimisation pour les moteurs de recherche », Google, .
  23. Dominique Cardon, « Dans l'esprit du PageRank : Une enquête sur l'algorithme de Google », Réseaux « 1 », no 177,‎ , p. 63-95 (DOI 10.3917/res.177.0063, lire en ligne)
  24. « [Guide] Comment connaitre et supprimer les mauvais Backlinks », Creapulse,‎ (lire en ligne, consulté le ).
  25. (en) « BMW given Google 'death penalty' », BBC News,‎ (lire en ligne).
  26. Virgile Juhan, « 20 techniques de Black Hat SEO », sur journaldunet.com (consulté le ).
  27. « SEO Local - Comment être visible Facilement ? », sur Info Marketing, (consulté le ).
  28. « Google My Business - Drive Customer Engagement on Google »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur Google.com (consulté le ).
  29. « Qu'est-ce que le balisage Schema ? Guide du débutant pour les données structurées », sur Semrush Blog (consulté le ).
  30. (en) Semrush, « What Are EAT and YMYL ».
  31. (en) Barry Schwartz, « Google may use different ranking weights for ymyl », sur searchengineland.com.
  32. « Dernière mise à jour des consignes destinées aux évaluateurs de la qualité : l'expérience vient compléter le concept E-A-T | Blog Google Search Central », sur Google Developers (consulté le ).
  33. (en) LISA BARONE, « Google Openly Profiles SEOs As Criminals », Outspoken Media marketing agency, .
  34. Jloo, « Liste des mises à jour de l'algorithme de Google en 2022. », Article,‎ (lire en ligne  )
  35. « SEO: 13 algorithmes Google et leurs mises à jour à connaître », sur HubSpot, (consulté le ).
  36. Virgile Juhan, « Les critères les plus importants selon 140 référenceurs », Le Journal du Net, (consulté le ).
  37. Google, « Consignes aux webmasters » (consulté le ).
  38. « Observatoire International des Métiers de L'Internet ».
  39. « Les référenceurs en France en 2016 », Le Journal du Net.

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes

Liens externes