Optimisation pour les moteurs de recherche

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis SEO)
Aller à : navigation, rechercher

L’optimisation pour les moteurs de recherche, couramment appelée SEO (acronyme de Search Engine Optimization), est un ensemble de techniques visant à optimiser la visibilité d'un site web dans les pages de résultats de recherche (les SERP, pour Search Engine Result Pages). Ces techniques cherchent à améliorer la compréhension par les robots d'indexation de la thématique et du contenu d'une ou de l'ensemble des pages d'un site web et à en augmenter ainsi le trafic naturel.

L'objectif de ce procédé vise à améliorer le positionnement d'une page web dans les pages de résultats de recherche des moteurs sur des mots-clés ciblés (correspondant généralement aux thèmes principaux du site). On considère que le positionnement d'un site est bon lorsqu'il est positionné (classé) en première page des résultats de recherche, dans l'une des dix premières réponses d'une recherche sur des mots-clés correspondant précisément à sa thématique[1].

Le pluriel de l'acronyme SEO peut se référer aux « search engine optimizers » qui fournissent des services SEO.

Historique[modifier | modifier le code]

L'optimisation pour les moteurs de recherche a commencé avec l'apparition des premiers annuaires et moteurs de recherche dès 1994. Le référencement s'est d'abord porté sur des moteurs comme Altavista ou des annuaires comme Yahoo! avant de se concentrer sur Google et de se professionnaliser.

Enjeux du SEO[modifier | modifier le code]

L'optimisation pour les moteurs de recherche ou search engine optimization représente un véritable enjeu à plusieurs niveaux :

  • rendre son site visible de façon pérenne ;
  • capter du trafic qualifié depuis les moteurs de recherche ;
  • construire une image de marque en direction des internautes.

L'objectif du travail d'optimisation du site pour les moteurs de recherche est, dans un premier temps, de définir les termes/les requêtes que les internautes seront susceptibles de saisir pour arriver sur le site. Ces mots-clés seront sélectionnés en fonction de l'activité de la société ainsi qu'en fonction du trafic potentiel. Un mot-clé trop spécifique n'apportera pas assez de trafic et un mot-clé trop générique génèrera un volume important de trafic non qualifié.

Apparaître sur Google en première page pour une requête dite « générique » (exemple « mp3 »), assure un volume important de trafic. En effet, environ les deux tiers des utilisateurs cliquent sur l'un des résultats de la première page et la quasi-totalité ne regardent pas au-delà de la troisième.

Du fait de cet énorme trafic potentiel, les webmestres cherchent par tous les moyens à figurer en tête de liste, quitte à « tricher ». On a noté à une certaine époque l'utilisation de techniques de spamdexing (référencement abusif) destinées à flouer les robots des moteurs pour faire remonter le site dans les résultats. Les moteurs ont réagi en modifiant leurs algorithmes de classement pour blacklister ou pénaliser ces sites « voyous ».

Le but d'un moteur de recherche étant de fournir la requête la plus pertinente à l'utilisateur, les algorithmes de classement des moteurs sont constamment modifiés pour aller dans ce sens, dans celui de l'utilisateur.

La réponse que Google apporte régulièrement à tous les webmestres qui veulent connaître les techniques pour optimiser leurs sites est de dire qu'ils doivent penser à concevoir un site agréable et pertinent pour l'utilisateur plutôt que de chercher à créer un site pour leur robot d'indexation (crawler)[2]. Même s'il existe des pratiques à éviter qui pénalisent le classement d'un site, le meilleur moyen d'avoir un site bien classé reste de faire en sorte qu'il apporte un réel bénéfice à l'internaute.

L'optimisation pour les moteurs de recherche est donc un domaine difficile à quantifier en termes de résultats : en effet, les algorithmes de classement changent en permanence.

Une méthode efficace pour optimiser un site internet est de se « mettre dans la peau » d'un moteur de recherche et de voir de quelles informations il peut disposer pour classer une page, adresse URL, métaéléments (metatags), titres, contenus, images, fichiers…

Techniques du SEO[modifier | modifier le code]

L'optimisation d'un site web passe par de multiples leviers internes : accessibilité des contenus, codage sémantique, mise en place d'une arborescence optimisée, maillage interne des pages, ajout de contenus frais. Mais les facteurs externes vont l'impacter fortement pour asseoir son autorité aux yeux des moteurs de recherche. Le nombre et la qualité des liens entrants, les signaux apportés par les réseaux sociaux sont autant de facteurs d'influence positifs.

Le référencement naturel est un ensemble de techniques destinées à faire apparaître des pages web dans les résultats non commerciaux des moteurs de recherche. Un référencement naturel de qualité est déterminé par de nombreux facteurs. Si le choix des mots-clés est important, il est primordial d’apporter un soin tout particulier au contenu des pages d'un site internet. Organiser soigneusement l'arborescence des rubriques est un acte capital et il faut savoir prendre le temps de se poser les bonnes questions. Les informations contenues dans les pages d'un site web conditionnent en grande partie la qualité du référencement naturel.

Analyse des liens[modifier | modifier le code]

Les moteurs de recherche savent lire le contenu des liens ou URL des pages d'un site web comme du texte. S'il est exact que la qualité du référencement d'un site commence par la qualité et la pertinence de son contenu pour les internautes, tout est important dans son optimisation, y compris les chemins d'accès, les liens URL de chaque page.

Les moteurs lisent très bien le texte de l'URL et donc ces dernières sont les meilleurs mots-clés. Par exemple si un nom de domaine toto.com héberge un site de mp3, il vaut mieux nommer ses pages toto.com/mp3.html plutôt que toto.com/page_1.html. Google analyse les sites comme un visiteur, leurs URL doivent donc être logiques et en rapport avec le contenu des pages.

Techniques White hat et Black hat[modifier | modifier le code]

Le référencement se manipule de différentes façons, qualifiées notamment de « white hat » et « black-hat ». La base du référencement white hat cherche à créer un contenu de qualité, pertinent pour l'utilisateur. La base du black hat utilise tous les moyens disponibles, quitte à courir le risque de voir son site retiré de l'index de Google ou d'un autre moteur de recherche.

Quelques techniques white hat consistent à optimiser ses pages en utilisant des mots-clés pertinents et en faisant du « link-building », c'est-à-dire de créer un contenu de qualité sur différents blogs ou annuaires pour obtenir un « backlink ». En matière de White hat, le Guide d’optimisation pour le référencement édité par Google est une bonne source d'information[3]. Quelques techniques black hat consistent à acheter des liens en masse ou à cacher du texte en le rendant de la même couleur que l'arrière-plan ou en lui donnant un attribut transparent.

Toutefois, certains webmestres ne peuvent être catégorisés de manière aussi tranchée. Si la plupart se conforment effectivement aux règles « white hat » pour l'essentiel de leur travail, il est fréquent de voir certaines pratiques « black hat » être utilisées de manière complémentaire. Ces « grey hat », situés entre le blanc et le noir, optimisent l'efficacité du référencement en usant de techniques proscrites avec modération. La difficulté de cette approche consiste à limiter suffisamment l'intensité d'utilisation des procédés « black hat » pour ne pas être désindexé par les moteurs de recherche, tout en en tirant un profit maximum. Contrairement au « black hat », le « grey hat » permet ainsi de minimiser la prise de risque tout en obtenant des performances SEO plus importantes.

Techniques Black-Hat[modifier | modifier le code]

Voici quelques techniques considérées comme Black Hat, car ne respectant pas les critères de qualité de Google :

  • Afficher un contenu différent aux moteurs de recherche et leurs bot à l'aide d'un script en JavaScript (technique appelée cloaking), avec une page masquée. Cette technique est proscrite par les moteurs de recherche, et le site sera probablement placé sur une liste noire s'il est repéré, comme dans l'affaire BMW en Allemagne où la firme automobile a été blacklistée par Google qui l'a éliminée de son index en janvier 2006 durant deux jours[4].
  • Textes masqués ou liens
  • Mots-clés répétés
  • Inadéquation entre le contenu de la page et sa description
  • Redirection trompeuse
  • Site ou page répété(e) (duplication du contenu)
  • Page satellite (aussi appelée Doorway, cette technique est très prisée en France[réf. nécessaire])

La sélection des mots-clés[modifier | modifier le code]

Avant de commencer un travail d'optimisation pour le référencement naturel, il est nécessaire d'identifier et de choisir les mots-clés pertinents. Différentes stratégies de ciblage sont possibles. Il est ainsi intéressant de cibler aussi bien des requêtes génériques (télévision, vente maison, vols pas chers…), concurrentielles mais permettant un volume de trafic important, que des requêtes de type longue traîne moins volumineuses pour chacune de ces requêtes. Dans le cas d'une stratégie de ciblage longue traîne, il est donc indispensable de viser un volume important de mots-clés.

Il est inutile de se positionner sur un mot-clé qui n'est pas lié directement à l'activité du site. La probabilité de positionnement est faible car les moteurs sauront souvent identifier l'inadéquation entre les mots-clés ciblés et l'intérêt du contenu.

Pour sélectionner vos mots-clés, il existe plusieurs outils :

  • Outil de suggestion de mots-clés de Google AdWords ;
  • Les suggestions de recherche proposées par les moteurs ;
  • Des outils comme SEMrush.

Le référenceur classera ensuite les mots-clés en fonction de plusieurs critères :

  • Potentiel en volume de trafic ;
  • Taux de conversion estimé ;
  • Caractère concurrentiel du mot-clé.

Pour optimiser le contenu, il faut penser à :

  • identifier ce que recherchent les internautes (= quels sont les mots-clés utilisés) ;
  • adapter sa ligne éditoriale en fonction du lexique utilisé par les internautes et donc organiser les contenus d'un site en fonction des besoins/recherches des internautes ;
  • rédiger habilement les URL de ces contenus, les transférer efficacement (HTTP) et formater (HTML) correctement l'information.

La visibilité d'un document devient ainsi naturelle et dépend directement de la qualité du contenu. En effet, un contenu de qualité est souvent référencé par d'autres sites : le contenu, parce que populaire ou considéré comme la référence sur son domaine, est positionné en tant que tel (comme la référence/en première position) dans les résultats de recherche.

Balises meta[modifier | modifier le code]

Les balises meta (meta tags en anglais) peuvent avoir plusieurs rôles : indiquer le titre de la page et fournir un résumé de son contenu, informer les robots sur certains détails du site, comme la langue utilisée, le type de document consulté, le codage de caractères utilisé, l'auteur de la page, etc. Elles peuvent également servir à rediriger automatiquement les navigateurs vers une autre page, à interdire la mise en cache ou l'indexation de la page par les moteurs. Le code meta (qui respecte le Hypertext Markup Language) est le suivant (il se situe entre les balise <head> et </head> au début de la page donc) :

<meta name="robots" content="all, index, follow" />

Cette balise meta donne aux robots la directive de suivre et d'indexer la page. Cependant, les directives par défaut de la plupart des robots sont justement celles-ci, rendant inutile l'emploi de cette balise avec les attributs "all, index, follow". Le code inverse est le suivant :

<meta name="robots" content="noindex, nofollow">

Analyse de logs[modifier | modifier le code]

Les robots, en arrivant sur le site, laissent une empreinte sur le serveur dans le fichier log. Leur passage est repérable par une « signature » propre à chacun.

Optimisation des contenus[modifier | modifier le code]

Concernant le contenu des sites web, la tendance est orientée vers la recherche sémantique plébiscitée par Google, car ce mode de recherche est adapté à la formulation des questions des internautes, notamment dans les requêtes vocales effectuées depuis un téléphone.

Suivi de positionnement et d'indexation[modifier | modifier le code]

  • Suivi d'indexation pour vérifier que le moteur connaît toujours la page concernée. Il n'est pratiquement plus utile de soumettre des sites aux moteurs et encore moins de les soumettre s'ils sont déjà indexés.
  • Suivi de positionnement pour optimiser par la suite par rapport aux mots-clés qui nous intéressent.
  • Le suivi d'indexation dans les annuaires thématiques et généralistes doit être réalisé fréquemment afin de conserver la popularité acquise, voire l'optimiser en augmentant le nombre et la qualité des liens en retour (backlink) vers le site à positionner.

Lutte contre le référencement abusif[modifier | modifier le code]

Article principal : spamdexing.

Le référencement est toutefois une profession évoluant dans un cadre complexe. Ses techniques de plus en plus innovantes, intègrent évidemment des considérations nouvelles constituées sur le marketing, sur le relationnel avec les communautés, sur une veille patiente des évolutions, ainsi que sur une certaine imagination informatique et technique. Mais les enjeux commerciaux auxquels répondent les « référenceurs » peuvent être contraires aux enjeux économiques des moteurs de recherche, notamment ceux de Google.

Google a mis en place un arsenal de techniques pour contrer des optimisations qui ne respecteraient pas ses consignes de qualité (vente de liens, texte caché… ), on parle de "pénalités". Certaines décisions prises par Google ont touché certains sites[5].

Les dernières mise à jour importantes de Google sont :

  • Update Panda : pénalité contre les sites ayant peu de valeur ajoutée, trop de publicités.
  • Update Penguin : lutte contre le linking externe abusif.

Critères du SEO[modifier | modifier le code]

Il existe plusieurs centaines de paramètres utilisés par les algorithmes de positionnement, voici une liste des plus importants communément admis :

  • La popularité de la page
  • La pertinence des pages liantes
  • Le texte des liens entrants
  • La pertinence de la page
  • L'indice de confiance de la page
  • L'ancienneté du site web
  • L'autorité du nom de domaine
  • Le PR (Page Rank) de la page
  • La qualité des liens vers cette page

Le métier de référenceur[modifier | modifier le code]

Selon les résultats de l'Observatoire international des métiers de l'internet, la compétence « Optimisation moteurs de recherche » apparaît comme étant l'une des plus recherchées sur l'ensemble des profils professionnels[6]. Si cet aspect apparaît logique pour un webmestre ou un webdesigner, il pourrait, à première vue, sembler moins prioritaire pour d'autres profils, par exemple pour un spécialiste de bases de données internet ; néanmoins, la cohérence avec laquelle ce dernier organise le fonctionnement de la base de données concernée peut apporter un gain important dans l'optimisation du site. En fait, selon certaines études, la compétence SEO, mise en avant et prouvée, est un atout essentiel dans une phase de recherche d'emploi[7].

Le métier de référenceur, encore récent, ne bénéficie pas encore d'un cursus type, à tel point qu'à l'heure actuelle ce poste peut être occupé après des formations et des carrières plurielles. On trouve 3 grands types de profils : le référenceur "technique" (souvent issu d'une formation informatique/ingénieur), le référenceur "éditorial" (pas de cursus dédié mais qui demande une sensibilité à l'écriture) et le référenceur "marketing" (souvent issu d'études commerciales ou en communication/marketing).

Une étude réalisée par l'Association du Référencement SEO CAMP a révélé qu'en 2016 70 % des référenceurs étaient des hommes. 32 % des référenceurs ont entre 26 et 30 ans, 53 % ont moins de 5 ans d'expérience (preuve que le métier est jeune) et 39 % travaillent en Île de France. 70 % sont en CDI avec un salaire annuel brut moyen de 35 877€[8].

La blogosphère SEO[modifier | modifier le code]

Ce modèle est-il pertinent ? Cliquez pour en voir d'autres.
Emojione 267B.svg
Cette section a besoin d'être recyclée (indiquez la date de pose grâce au paramètre date).  
Une réorganisation et une clarification du contenu sont nécessaires. Discutez des points à améliorer en page de discussion.

De nombreux blogs consacrés au SEO ont vu le jour, reflétant la diversité des approches du métier. Certains relaient l’actualité, sans cesse changeante, des moteurs de recherche, de manière assez neutre. D’autres relaient un point de vue plus engagé (White Hat ou Black Hat). Certains enfin délivrent des astuces, des stratégies, pour améliorer le trafic d’un site.

Une blogosphère consacrée à ce domaine s’est ainsi peu à peu constituée. Cela a favorisé l’émergence de certains référenceurs, qui ont acquis une influence dans le milieu. Les blogs sont un moyen pour les acteurs du référencement d'un bon niveau de se faire connaitre, alors qu'ils sont aussi le moyen pour les débutants de découvrir des techniques et des retours d’expérience intéressants.

Concours SEO[modifier | modifier le code]

Des concours permettent aux référenceurs de comparer leurs résultats. L'objectif de ces concours est d'arriver en première place sur Google avec un mot-clé donné. Ces mots-clés sont généralement choisis avec précaution afin de ne pas interférer avec de véritables mots-clés utilisés dans d'autres contextes plus officiels. Exemples de mots-clés de précédents concours : mangeur de cigogne, sorcier glouton, chocoku, tiger l'osmose, cobraoupouaout, zurtouij, gollumelite, trafic organique, etc.

Ces compétitions sont un bon moyen pour les référenceurs de s'améliorer, de se mesurer aux autres. Ces concours mettent en exergue les écarts existants entre le comportement attendu d'un moteur de recherche sur l'indexation d'un mot et son comportement effectif. Lors de certains concours, les organisateurs ont caché au public durant la joute le mot-clé choisi, pour éviter une perturbation excessive lors des tests et analyses.

Références[modifier | modifier le code]

  1. Rémi BACHELET, « cours de référencement », École centrale de Lille,‎ , sous licence Creative commons.
  2. « online chat with Webmaster Help Group guides », Google,‎ , transcription, traduction partielle : Thomas Soudaz, « 236 questions/réponses à des experts de chez Google »,‎ .
  3. « Guide de démarrage Google – Optimisation pour les moteurs de recherche », Google,‎ .
  4. « BMW given Google 'death penalty' », BBC News,‎ (lire en ligne)
  5. (en) LISA BARONE, « Google Openly Profiles SEOs As Criminals », Outspoken Media marketing agency,‎
  6. (en) « e-Jobs Profiles », European e-Jobs Observatory, analysing e-Jobs, e-Skills and e-Competences; supported by the European Commission
  7. « Observatoire International des Métiers de L'Internet »
  8. « Les référenceurs en France en 2016 », étude SEO CAMP relayée dans le JDN

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Articles connexes[modifier | modifier le code]