Optimisation pour les moteurs de recherche

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Concours de positionnement)
Sauter à la navigation Sauter à la recherche

L’optimisation pour les moteurs de recherche, référencement naturel ou SEO (pour search engine optimization), est un ensemble de techniques visant à optimiser la visibilité d'une page web dans les résultats de recherche (les SERP, pour Search Engine Result Pages). Ces techniques cherchent à améliorer la compréhension de la thématique et du contenu d'une ou de l'ensemble des pages d'un site web par les robots d'indexation, et à augmenter le trafic naturel (organique) du site, ce qui résulte généralement à une meilleure visibilité de l'entreprise ainsi qu'à une augmentation du chiffre d'affaires.

L'objectif est d'améliorer le positionnement d'une page web dans les pages de résultats de recherche.On considère que le positionnement d'un site est bon lorsqu'il est classé dans la première page des résultats de recherche, et dans l'une des dix premières réponses naturelles d'une recherche sur des mots-clés correspondant précisément à sa thématique[1]. Le SEO se concentre à générer des résultats organiques, contrairement au SEA (Search Engine Advertising) qui va chercher à améliorer le positionnement grâce à des moyens payants comme des liens sponsorisés ou des publicités payantes.

Le pluriel de l'acronyme SEO peut se référer aux « search engine optimizers » qui offrent des services SEO.

Historique[modifier | modifier le code]

L'optimisation pour les moteurs de recherche a commencé avec l'apparition des premiers annuaires et moteurs de recherche dès 1994. Le référencement s'est d'abord porté sur des moteurs comme Altavista ou des annuaires comme Yahoo! avant de se concentrer sur Google et de se professionnaliser.

Enjeux du SEO[modifier | modifier le code]

L'optimisation pour les moteurs de recherche représente un véritable enjeu à plusieurs niveaux[2] :

  • Rendre un site visible de façon pérenne
  • Permettre un bon référencement
  • Capter du trafic qualifié depuis les moteurs de recherche
  • Augmenter le nombre de conversions
  • Construire une image de marque en direction des internautes

Apparaître sur Google en première page assure un volume important de traffic. En effet, environ les deux tiers des utilisateurs cliquent sur l'un des résultats de la première page et la quasi-totalité ne regardent pas au-delà de la troisième.

Du fait de cet énorme trafic potentiel, les webmestres cherchent à figurer en tête de liste, quitte à tricher. On a noté à une certaine époque l'utilisation de techniques de référencement abusif (spamdexing) destinées à flouer les robots des moteurs pour faire remonter le site dans les résultats; les moteurs ont néanmoins réagi en modifiant leurs algorithmes de classement pour pénaliser ces sites. Le but d'un moteur de recherche est de fournir la requête la plus pertinente à l'utilisateur, aussi les algorithmes de classement sont constamment améliorés pour prévenir les fraudeurs et continuer à ressortir les résultats les plus utiles aux internautes.

La meilleure technique d'optimisation que Google recommande aux webmestres est de concevoir un site agréable et pertinent pour l'utilisateur, et non pas à créer un site en ne prenant en compte que les robots d'indexation (crawler)[3]. Le meilleur moyen d'avoir un site bien classé est d'avoir une réelle valeur ajoutée pour l'utilisateur.

Techniques du SEO[modifier | modifier le code]

L'optimisation pour les moteurs de recherche est un domaine difficile à quantifier en termes de résultats, puisque les algorithmes changent sans cesse. De nombreux spécialistes SEO tentent d’examiner le fonctionnement des moteurs de recherches en faisant appel à des techniques d’ingénierie inverse. Ces experts ont identifié de 50 à 100 facteurs de pertinence (sur un total de plus 300 selon les estimations de la communauté SEO) et tentent des corrélations entre ces facteurs et le positionnement dans les pages de résultat. Néanmoins, ces corrélations ne prouvent pas toujours une réelle causalité, et le nombre de facteurs, leurs pondérations, interactions et évolutions rendent ces calculs trop complexes pour permettre une compréhension exacte du fonctionnement algorithmique. Un certain nombre de leviers permettent tout de même de faire une différence dans le référencement :

Leviers d'optimisation d'un site web
Leviers internes Leviers externes
  • Accessibilité des contenus
  • Codage sémantique
  • Mise en place d'une arborescence optimisée
  • Maillage interne des pages
  • Contenu jugé « frais »
  • Nombre de liens entrants
  • Qualité des liens entrants
  • Signaux apportés par les réseaux sociaux

Le référencement naturel est un ensemble de techniques destinées à faire apparaître des pages web dans les résultats non commerciaux des moteurs de recherche. Les informations contenues dans les pages d'un site web conditionnent en grande partie la qualité du référencement naturel.

Il existe trois catégories principales concernant les activités d'optimisation: l'optimisation technique, l'optimisation stratégique et le référencement.

L'optimisation technique[modifier | modifier le code]

L'optimisation technique regroupe les leviers internes, et concerne les modifications directement sur le site web. Ce sont généralement les premières optimisations faites dans une optique SEO, car il s'agit de modifications directes. L'optimisation technique facilite beaucoup l'indexation du site web par les moteurs de recherche, car cela simplifie la tâche aux robots et leur envoie des informations claires qui permet une indexation optimale. L'optimisation technique se concentre autant sur le fond (le contenu) que la forme.

Optimisation sur le contenu[modifier | modifier le code]

Concernant le contenu des sites web, la tendance est orientée vers la recherche sémantique plébiscitée par Google, car ce mode de recherche est adapté à la formulation des questions des internautes, notamment dans les requêtes vocales effectuées depuis un téléphone.

Optimisation sur la forme[modifier | modifier le code]

Balises meta[modifier | modifier le code]

Les balises meta (meta tags en anglais) peuvent avoir plusieurs rôles : indiquer le titre de la page et fournir un résumé de son contenu, informer les robots sur certains détails du site, comme la langue utilisée, le type de document consulté, le codage de caractères utilisé, l'auteur de la page, etc[4]. Néanmoins, elles ne jouent pas de rôle pour l'amélioration du positionnement, en tout cas pas chez Google[5]. Elles peuvent également servir à rediriger automatiquement les navigateurs vers une autre page, à interdire la mise en cache ou l'indexation de la page par les moteurs. Le code meta (qui respecte le Hypertext Markup Language) est le suivant (il se situe entre les balise <head> et </head> au début de la page donc) :

<meta name="robots" content="all, index, follow" />

Cette balise meta donne aux robots la directive de suivre et d'indexer la page. Cependant, cette directive est celle de base, ce qui la rend inutile. La balise est plus souvent utilisée pour une directive contraire, indiquant aux robots de ne pas indexer les pages (dans le cas où le webmestre ne peut pas garantir la fiabilité du lien, lorsque le lien est payant ou encore lorsqu'il s'agit de liens d'inscription)[6]:

<meta name="robots" content="noindex, nofollow">

Analyse des liens[modifier | modifier le code]

Les moteurs de recherche savent lire le contenu des liens ou URL des pages d'un site web comme du texte. S'il est exact que la qualité du référencement d'un site commence par la qualité et la pertinence de son contenu pour les internautes, tout est important dans son optimisation, y compris les chemins d'accès et les liens URL de chaque page.

Puisque les moteurs ont accès à la sémantique des liens, les mots-clefs qui y sont inscrits ont un poids notable. Par exemple, si un nom de domaine domaine.com héberge une page ayant un contenu sur les mp3, il est de bonne pratique de nommer la page domaine.com/mp3.html plutôt que domaine.com/page1.html. Les robots d'indexation analysent les sites comme un internaute le ferait, la sémantique est donc importante et les liens URL doivent être intelligible avec le contenu des pages. Il est également de bonne pratique de générer des URL les plus courts possibles.

Optimisation de la vitesse[modifier | modifier le code]

Google a officialisé dès 2010[7] que la rapidité d'un site est un critère pris en compte dans le classement des résultats (sur ordinateur fixe). A partir de juillet 2018, ça sera également le cas pour le mobile[8].

L'optimisation stratégique (marketing)[modifier | modifier le code]

L'optimisation stratégique du contenu passe par l'identification des segments de clientèle et par la compréhension de leur comportement en ligne. En ayant en tête ces comportements, il est plus facile ensuite de créer du nouveau contenu et de nouvelles pages ciblées spécifiquement pour certains internautes, qui sauront attirer leur attention et générer plus de trafic. Les moteurs de recherche sont sensibles aux contenus uniques et de bonnes qualités, et qui offrent des informations pertinentes pour les clients; ils vont donc mieux indexer ces sites web par rapport à d'autres qui n'auront pas de contenu ciblé.

Sélection des mots-clés[modifier | modifier le code]

Avant de commencer un travail d'optimisation pour le référencement naturel, il est nécessaire d'identifier et de choisir les mots-clés pertinents. Différentes stratégies de ciblage sont possibles. Il est ainsi intéressant de cibler aussi bien des requêtes génériques (télévision, vente maison, vols pas chers…), concurrentielles mais permettant un volume de trafic important, que des requêtes de type longue traîne moins volumineuses pour chacune de ces requêtes. Dans le cas d'une stratégie de ciblage longue traîne, il est donc indispensable de viser un volume important de mots-clés.

Il est inutile de se positionner sur un mot-clé qui n'est pas lié directement à l'activité du site. La probabilité de positionnement est faible car les moteurs sauront souvent identifier l'inadéquation entre les mots-clés ciblés et l'intérêt du contenu. Pour sélectionner les mots-clés, il existe plusieurs outils (dont Google AdWords), gratuits et payants, mais les suggestions de recherche proposées par les moteurs sont également un bon indicateur. Ces mots-clés doivent ensuite être classés en fonction de plusieurs critères:

  • Potentiel en volume de trafic ;
  • Taux de conversion estimé ;
  • Caractère concurrentiel du mot-clé.

Pour qu'un contenu soit optimal, il est important de cibler les bons mots-clés qui représentent les requêtes des internautes, puis d'adapter sa ligne éditoriale en fonction de ce lexique établi afin que les mots-clés soient repris autant dans les URL que dans le contenu.

Le référencement[modifier | modifier le code]

Le référencement est un levier externe à ne pas négliger. Pour qu'un internaute fasse confiance à un site web, il faut que ce dernier ait une réputation, qu'on ait entendu parler de lui. Plus les gens reconnaissent un site web et sa notoriété, plus il va acheter ses produits.

Techniques white hat et black hat[9][modifier | modifier le code]

Le référencement se manipule de différentes façons, qualifiées notamment de « white hat » et « black-hat ». La base du référencement white hat cherche à créer un contenu de qualité, pertinent pour l'utilisateur. La base du black hat utilise tous les moyens disponibles, quitte à courir le risque de voir son site retiré de l'index de Google ou d'un autre moteur de recherche.

Quelques techniques white hat consistent à optimiser ses pages en utilisant des mots-clés pertinents et en faisant du « link-building », c'est-à-dire de créer un contenu de qualité sur différents blogs ou annuaires pour obtenir un « backlink ». En matière de White hat, le Guide d’optimisation pour le référencement édité par Google est une bonne source d'information[10]. Quelques techniques black hat consistaient à acheter des liens en masse ou à cacher du texte en le rendant de la même couleur que l'arrière-plan ou en lui donnant un attribut transparent. Néanmoins, Google ne prend maintenant plus en compte ces liens « cachés », et va jusqu'à les pénaliser s'ils n'ont pas été désavoués[11].

Toutefois, certains webmaster ne peuvent être catégorisés de manière aussi tranchée. Si la plupart se conforment effectivement aux règles « white hat » pour l'essentiel de leur travail, il est fréquent de voir certaines pratiques « black hat » être utilisées de manière complémentaire. Les « grey hat », situés entre le blanc et le noir, optimisent l'efficacité du référencement en usant de techniques proscrites avec modération. La difficulté de cette approche consiste à limiter suffisamment l'intensité d'utilisation des procédés « black hat » pour ne pas être désindexé par les moteurs de recherche, tout en en tirant un profit maximum. Contrairement au « black hat », le « grey hat » permet ainsi de minimiser la prise de risque tout en obtenant des performances SEO plus importantes.

Techniques black hat[modifier | modifier le code]

Voici quelques techniques considérées comme black hat, car ne respectant pas les critères de qualité de Google :

  • Afficher un contenu différent aux moteurs de recherche et leurs bot à l'aide d'un script en JavaScript (technique appelée cloaking), avec une page masquée. Cette technique est proscrite par les moteurs de recherche, et le site sera probablement placé sur une liste noire s'il est repéré, comme dans l'affaire BMW en Allemagne où la firme automobile a été blacklistée par Google qui l'a éliminée de son index en janvier 2006 durant deux jours[12].
  • Textes masqués ou liens
  • Mots-clés répétés
  • Inadéquation entre le contenu de la page et sa description
  • Redirection trompeuse
  • Site ou page répété (duplication du contenu)

Suivi de positionnement et d'indexation[modifier | modifier le code]

Assurer un suivi du rendement de ses mots-clés et de son positionnement par rapport à ces derniers est essentiel afin de mesurer les résultats des stratégies SEO.

  • Suivi d'indexation pour vérifier que le moteur connaît toujours la page concernée. Il n'est pratiquement plus utile de soumettre des sites aux moteurs et encore moins de les soumettre s'ils sont déjà indexés.
  • Suivi de positionnement pour optimiser par la suite par rapport aux mots-clés qui nous intéressent.
  • Le suivi d'indexation dans les annuaires thématiques et généralistes doit être réalisé fréquemment afin de conserver la popularité acquise, voire l'optimiser en augmentant le nombre et la qualité des liens en retour (backlink) vers le site à positionner.

Vers le SXO[modifier | modifier le code]

Le SXO (search experience optimization) permet d'améliorer la qualité d'un contenu pour répondre aux attentes des utilisateurs via un travail de maillage sémantique. Il fait réponse à l'évolution des tendances de recherche des internautes et notamment de l'utilisation croissante des recherches vocales. Le SXO se base ainsi sur l'expérience utilisateur (UX) pour améliorer la visibilité d'un site internet.

Lutte contre le référencement abusif[modifier | modifier le code]

Article détaillé : spamdexing.

Le référencement est toutefois une profession évoluant dans un cadre complexe. Ses techniques de plus en plus innovantes, intègrent évidemment des considérations nouvelles constituées sur le marketing, sur le relationnel avec les communautés, sur une veille patiente des évolutions, ainsi que sur une certaine imagination informatique et technique. Mais les enjeux commerciaux auxquels répondent les référenceurs peuvent être contraires aux enjeux économiques des moteurs de recherche, notamment ceux de Google.

Google a mis en place un arsenal de techniques pour contrer des optimisations qui ne respecteraient pas ses consignes de qualité (vente de liens, texte caché, etc.), on parle de « pénalités »[13]. Les pénalités peuvent être de 2 types :

  • Pénalité algorithmique : la pénalité est consécutive à une mise à jour de l'algorithme ;
  • Pénalité manuelle : la pénalité est activée par une action manuelle d'un membre de l'équipe "Web spam" de google générallement suite à la détection d'une action black hat.

Parmi les dernières mises à jour importantes de Google, deux ciblaient spécifiquement le référencement abusif[14] :

  • Update Panda : pénalité contre les sites ayant peu de valeur ajoutée, trop de publicités ;
  • Update Penguin : lutte contre les liens externes abusifs.

Critères du SEO[modifier | modifier le code]

Il existe plusieurs centaines de paramètres utilisés par les algorithmes de positionnement. Selon une étude réalisée auprès de 140 référenceurs, certains critères permettraient de hisser la page dans les premiers résultats naturels, et d'autres généreraient de fortes pénalités de la part de Google[15].

Principaux critères affectant positivement le positionnement:

  • La popularité de la page
  • La pertinence des pages liantes
  • Le texte des liens entrants
  • La pertinence de la page
  • L'indice de confiance de la page
  • L'ancienneté du site web
  • L'autorité du nom de domaine
  • Le page rank de la page
  • La qualité des liens vers cette page

Métier de référenceur[modifier | modifier le code]

Selon les résultats de l'Observatoire international des métiers de l'internet, la compétence « Optimisation moteurs de recherche » apparaît comme étant l'une des plus recherchées sur l'ensemble des profils professionnels. Si cet aspect apparaît logique pour un webmestre ou un webdesigner, il pourrait, à première vue, sembler moins prioritaire pour d'autres profils, par exemple pour un spécialiste de bases de données internet; néanmoins, la cohérence avec laquelle ce dernier organise le fonctionnement de la base de données concernée peut apporter un gain important dans l'optimisation du site. En fait, selon certaines études, la compétence SEO, mise en avant et prouvée, est un atout essentiel dans une phase de recherche d'emploi[16].

Le métier de référenceur, encore récent, ne bénéficie pas encore d'un cursus type, à tel point qu'à l'heure actuelle ce poste peut être occupé après des formations et des carrières multiples. On trouve 3 grands types de profils : le référenceur « technique » (souvent issu d'une formation en informatique ou en ingénierie), le référenceur « éditorial » (pas de cursus dédié mais qui demande une sensibilité à l'écriture) et le référenceur « marketing » (souvent issu d'études commerciales ou en communication et marketing).

Une étude réalisée par l'Association du Référencement SEO CAMP a révélé qu'en 2016, 70 % des référenceurs étaient des hommes. 32 % des référenceurs ont entre 26 et 30 ans, 53 % ont moins de 5 ans d'expérience (preuve que le métier est jeune) et 39 % travaillent en Île de France. 70 % sont en CDI avec un salaire annuel brut moyen de 35 877€[17].

Concours SEO[modifier | modifier le code]

Des concours permettent aux référenceurs de comparer leurs résultats. L'objectif de ces concours est d'arriver en première place sur Google avec un mot-clé donné. Ces mots-clés sont généralement choisis avec précaution afin de ne pas interférer avec de véritables mots-clés utilisés dans d'autres contextes plus officiels. Exemples de mots-clés de précédents concours : mangeur de cigogne, sorcier glouton, chocoku, tiger l'osmose, cobraoupouaout, zurtouij, gollumelite, sentimancho, black hattitude, trafic organique, insdigbord, digmasbord, etc.

Ces compétitions sont un bon moyen pour les référenceurs de s'améliorer, de se mesurer aux autres. Ces concours mettent en exergue les écarts existants entre le comportement attendu d'un moteur de recherche sur l'indexation d'un mot et son comportement effectif. Lors de certains concours, les organisateurs ont caché au public durant la joute le mot-clé choisi, pour éviter une perturbation excessive lors des tests et analyses.

Références[modifier | modifier le code]

  1. Rémi BACHELET, « cours de référencement », École centrale de Lille, , sous licence Creative commons.
  2. Sylvain Nox, Référencer un site internet et le faire connaître: Niveau débutant, 26 p.
  3. « online chat with Webmaster Help Group guides », Google, , transcription, traduction partielle : Thomas Soudaz, « 236 questions/réponses à des experts de chez Google », .
  4. « À quoi servent les balises META », sur alsacreations.com, (consulté le 6 juillet 2018)
  5. Guide des balises meta, WebRankInfo
  6. « Utiliser l'attribut rel="nofollow" pour les liens spécifiques - Aide Search Console », sur support.google.com (consulté le 5 juillet 2018)
  7. « Using site speed in web search ranking », Official Google Webmaster Central Blog,‎ (lire en ligne)
  8. « La vitesse de chargement des pages comme critère de positionnement pour les recherches sur mobile », Blog Officiel de Google pour les webmasters,‎ (lire en ligne)
  9. « Référencement naturel - Guide pratique complet du SEO », sur CommentCaMarche (consulté le 6 juillet 2018)
  10. « Guide de démarrage Google – Optimisation pour les moteurs de recherche », Google, .
  11. « [Guide] Comment connaitre et supprimer les mauvais Backlinks », Creapulse,‎ (lire en ligne)
  12. « BMW given Google 'death penalty' », BBC News,‎ (lire en ligne)
  13. (en) LISA BARONE, « Google Openly Profiles SEOs As Criminals », Outspoken Media marketing agency,
  14. « SEO: 13 algorithmes Google et leurs mises à jour à connaître », sur HubSpot, (consulté le 6 juillet 2018)
  15. « Les critères les plus importants selon 140 référenceurs », sur JournalDunNet, (consulté le 6 juillet 2018)
  16. « Observatoire International des Métiers de L'Internet »
  17. « Les référenceurs en France en 2016 », étude SEO CAMP relayée dans le JDN

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Articles connexes[modifier | modifier le code]