fbpx

SEO (Search Engine Optimisation) est une discipline à part entière qui nécessite de travailler sur trois piliers majeurs sur lesquels repose la performance en référencement naturel d’un site.

Le pilier technique.

Le premier pilier est le pilier technique, à savoir que les robots qui parcourent le web en permanence pour crawler et indexer le contenu des sites génèrent d’importantes dépenses d’électricité pour leurs propriétaires (Google, Bing, Baidu, Yandex…) et de ce fait ceux-ci attribuent un « crawl budget » à chaque site parcouru en fonction de divers critères inconnus du grand public.

Or si quand le robot arrive sur le site, il est confronté à des problèmes dit techniques empêchant le bon chargement des pages du site et freinant la navigation cela va d’une part l’amener à dépenser plus d’énergie pour indexer les contenus et d’autre part l’amener à conclure que les internautes n’apprécieront pas d’être confrontés à des problèmes techniques dans leur navigation sur le site.

Les problèmes techniques étant par exemple des problèmes de codes HTML mal rédigés, des problèmes d’images trop lourdes, des problèmes de maillage de site, des problèmes de polices absentes, des pages en erreur ou mal redirigés, des contenus qui ne s’affichent pas ou mal, des commandes Java mal rédigées ou trop nombreuses, des contenus ou descriptions mal optimisés, des pages en doublons….

Par exemple une trop grande profondeur de champs (réelle ou extrapolée par les robots) par rapport à la home page implique un risque fort que toutes les pages situées à plus de trois pages de la Home Page ne soient pas indexées en totalité et de ce fait que le temps passé à élaborer des contenus et à les mettre en ligne le soit en pure perte.

La liste est longue et seul un audit approfondi avec les outils appropriés permet de constater la vision du site d’un point de vue technique telle qu’un robot l’analysera et d’y remédier afin que cela ne soit pas un frein à l’indexation du contenu du site sur les moteurs de recherches.

Le pilier sémantique

Le deuxième pilier est le pilier sémantique, à savoir l’étendue du champ lexical du site tel qu’il existe, tel qu’il est indexé par les moteurs de recherches. Un site n’est jamais indexé en totalité, en fait les robots retiennent un certain nombre de mots clés ou de longues traines (suite de mots clés formant une phrase) qu’ils vont enregistrer dans une base de données et dont ils considèrent qu’ils permettent de qualifier le contenu du site et de la page. Cela leur permet ensuite de juger de la pertinence de proposer la page en réponse aux requêtes des internautes. Un bon référencement implique donc d’avoir des mots clés pertinents et qu’ils soient indexés par Google.

Mais un mot clé pertinent c’est quoi ? 

C’est un mot clé (ou une longue traine) qui qualifie bien l’activité ou le centre d’intérêt du site et qui correspond à de nombreuses requêtes des internautes. Le pilier sémantique est donc fondamental car il permet de constater quels sont les mots clés qui sont référencés et qui génèrent du trafic tant pour le site que pour ses concurrents dans la vraie vie ou sémantiques c’est à dire qui bien que ne faisant pas la même activité utilisent les mêmes mots clés et accaparent ainsi une partie du trafic qui intéresse le site.

Cette analyse va permettre de définir un schéma éditorial, de qualifier et évaluer les mots clés et longues traines générant des requêtes des internautes, d’analyser le champs sémantique des concurrents et l’origine du trafic sur leur site, pour ensuite fabriquer un contenu sémantique de qualité utilisant ces mots clés puis de le faire savoir aux robots pour qu’ils proposent ce contenu en réponse aux requêtes des internautes.

Le pilier Backlinking.

Le troisième pilier est le pilier NetLinking qui consiste à faire une analyse détaillée des liens entrants et pointant vers le site et des liens sortants c’est à dire pointant vers d’autres sites. Cette analyse est importante car l’époque où il suffisait de parsemer son site de mots clés pour être bien référencée est révolue et l’analyse du NetLinking du site est fondamentale dans l’évaluation du site par les robots. En effet la quantité mais surtout la qualité des liens va permettre d’évaluer la qualité du site sur deux axes, à savoir le Trust Flow, c’est à dire l’indice de confiance sur une note de 0 à 100 du site qui dépend de la qualité des sites ayant généré des liens entrants, et le Citation Flow sur une note de 0 à 100 qui est l’évaluation du nombre de citation du site sur d’autres sites et en quelque sorte de sa notoriété. Or ces deux notes vont permettre de qualifier le site et son contenu par les robots et plus les deux notes seront élevées plus les robots considéreront pertinent de proposer les contenus du site en réponse aux requêtes des internautes.

De plus la quantité des liens ne compensera pas la qualité et les quelques sites qui ont cru opportuns d’acheter des lots de liens pointant vers leur site et dont les robots l’ont découvert ont subi des pénalités pouvant anéantir en totalité le trafic sur le site et sa survie. Il est donc important que les liens qui pointent vers un site soient considérés eux-mêmes comme de grande confiance avec un excellent Trust-Flow (par exemple liens en point.gouv  ou point.edu).

On voit donc qu’un bon référencement implique la maitrise de la partie technique, sémantique et NetLinking du site et ce si possible au moment de la conception du site pour s’assurer que le déploiement de celui-ci intègre toutes les bonnes pratiques SEO et qu’ainsi le référencement futur du site permettra que celui-ci bénéficie d’un trafic important et qualifié.

De la même manière, après le déploiement il est important de continuer les efforts en ce sens car le site vit et évolue et si les bonnes pratiques ne sont pas mises en œuvre le référencement du site peut se dégrader avec comme corolaire une baisse du trafic, et par ailleurs l’algorithme des robots évoluant en permanence, le contenu du site et son architecture technique et son NetLinking doivent aussi s’adapter.

L’avantage de cette démarche c’est que le référencement naturel est un excellent moyen de générer du trafic à moyen et à long terme sans avoir à investir dans l’achat de mots clés mais il demande à choisir des partenaires maitrisant parfaitement les 3 piliers du SEO.

Demande de Pré-Audit/Souscription