Web Marketing et Référencement

dimanche 20 décembre 2009

Mes règles pour optimiser le SEO (Référencement naturel)

"Mes règles SEO" sont celle dont j'ai pu mesurer l'efficacité dans de nombreux cas pour mes clients. Elles font partie, bien sûr, des recommandations émises par les moteurs de recherche. Elles rejoignent "naturellement" le nouveau contexte de la recherche personnalisée. La recherche personnalisée de Google invite à construire un dialogue Besoin/réponse avec les internautes. Il faut oublier les "astuces" de contournement des algorithmes des moteurs de recherche. Optimiser le référencement naturel d'un site consiste à appliquer des règles simples et transparentes puis contrôler leur bonne application.

Les bonnes règles SEO à appliquer :


1/ Un contenu global pertinent pour SEO
Une évidence, certes. Mais la création éditoriale doit constuire un discours clair en réponse à une interrogation. Il faut oublier le verbiage professionnel qui aurait pour but de prouver une compétence; Il faut garder à l'esprit le couple "Besoins/bénéfices". Il ne s'agit pas de se faire reconnaître de ses pairs mais de répondre à une demande. L'interactivité vise le dialogue, non un panégyrique.

Les mots et expressions doivent être choisis en conséquence.
Le point de départ, avant de rédiger, est de passer au filtre tous les mots clés qui identifient le message. Par ailleurs, il faut raisonner au niveau des expressions et non des mots clés isolés.

Pour cela, testez vos mots clés au niveau des modules de suggestions des moteurs de recherche ou des modules de suggestion de termes pour les campagnes publicitaires. Retenez les expressions au coeur de votre discours. Ces expressions sont celles qu'expriment les internautes qui attendent de vous (et de vos concurrents) des informations et réponses.

La globalité d'un site doit être conçue pour un référencement optimum par les moteurs et une compréhension aisée pour les internautes. Imaginez une vitrine de magasin bien présentée à gauche et en vrac à droite.
Dans cet esprit, les agences spécialiées en référencement qui promettent une bonne place pour 10 mots clés (ou expressions) ne vont travailler que sur une partie de votre site. Inversement, les moteurs recherchent une cohérence sémantique dans l'ensemble des pages.
Et quid de la déception d'un internaute qui passerait de la vitrine gauche à la vitrine droite ?... Pas de conversion !.

2/ Une balise "Title" qui exprime le contenu de la page, un facteur SEO important
Le contenu de la balise Title est primordial et doit être le titre de la page.
Souvent, le code source mal construit reprend un terme générique.
Souvent, le titre est un effet de style qui ne contient pas les mots et expressions significatifs. Les moteurs de recherche attendent une valeur sémantique des titres en accord avec le contenu de page.

Renseigner les autres balises n'a plus d'intérêt. Les moteurs scrutent le contenu des pages.

2 bis/ Une balise "Description" qui reprend de l'importance
Mes différentes lectures de veille font apparaître en ce début d'année 2010 que Google redonne une importance à cette balise. Dans ce cas, elle doit rappeler le contexte du site (Ex. : marque, positionnement) et résumer le contenu de la page.
A noter que ce texte peut être repris sur les résultats de recherche à la place d'un extrait de contenu de la page.

3/ Un texte structuré
Les feuilles de style (CSS) doivent respecter une hiérarchie éditoriale (Pas de H2 au-dessus d'un H1). Cela ne peut qu'aider la lecture des internautes.

4/ Des liens internes
Il suffit de mettre en place, dans les corps de textes, des liens vers d'autres pages dont l'information est un complément à celle consultée. Ces liens doivent être créés sur des termes explicites (en corrélation avec les titres des pages appelées). Evitez de créer des liens sur des libellés isolés tels que "ici".

Dans un site (non un blog), une ligne de chemin de l'arborescence (> Accueil xxx > Rubrique 1 > Page) est un guide pour l'internaute et les moteurs de recherche.

Les URL des pages doivent contenir les termes significatifs. Pour un site dynamique (contenus de pages générés depuis une base de données), il faut éviter des adresses URL contenant "...id=xxx".
Une fonction URL rewriting permet de construire une adresse de page avec les termes de l'arborescence des rubriques et le titre de la page de destination.

5/ Un code source de pages respectueux des recommandations W3C
Le code source est la base grammaticale des moteurs de recherche. Interrompre la lecture hiérarchique et linéaire des robots est préjudiciable.
Il est pourtant simple de vérifier son code via W3C validator.

6/ L'intégration des images
Il ne s'agit pas seulement d'être référencé au niveau des recherches d'images tel que Google Images. Il s'agit de ne pas créer de suspicion vis à vis d'un moteur "universel".

Les moteurs ne lisant pas les images (mais tout change avec l'arrivée de la reconnaissance des images prises par un mobile... autre histoire, autre sujet), leur seule ressource est de constituer un indice de crédibilité. Cet indice est mesuré par une concordance entre le nom du fichier, le libellé du alt, la légende et... le texte envirronnant.

Pour un portail dont la thématique est le graphisme, j'ai pu constater après de nombresues expériences itératives que les règles évoquées avaient un effet certain sur le Page Rank tant en recherche globale qu'en recherche d'images.

Attention aux interfaces (boutons de rubriques) construites avec des images.

Pour un bon référencement dans les recherches d'actualités, il est impératif d'afficher les images à leur taille réelle (Une fonction zoom est rédibitoire).

7/ Un sitemap
Ce fchier xml en racine du site est le guide arborescent pour les moteurs. Si toutes les règles mentionnées ci-dessus sont respectées, le sitemap est moins utile.
Toutefois, il sécurise le parcours des robots et surtout... il permet d'indiquer les pages ou fichiers qui ne doivent pas être indexés.
Hors la protection de données, il est important qu'une page d'arrivée depuis un moteur soit explicite par son contenu et son contexte (on aboutit trop souvent à des pages "orphelines" hors interface du site qui ne favorisent pas la crédibilité et la compréhension).

8/ Une politique sélective des sites référenceurs, backlink
Tel le réseau social entre les personnes, ou la blogosphère qui relie par affinité des rédacteurs de blogs, il faut rechercher parmi ses pairs ceux qui enrichissent le discours et qui disposent d'une crédibilité avérée.

Le nombre de liens n'est pas le gage d'un meilleur Page Rank.
On voit, sur les réseaux sociaux professionnels et sur Twitter, des personnes qui accumulent un nombre gigantesque de contacts. Franchement, ils ne sont pas crédibles. Ils proposent d'échanger des liens sans aucune argumentation. Si j'acceptais toutes les demandes que je reçois sur Twitter, les réseaux et sur ce blog... mes espaces Web seraient brouillés.

Ainsi, les pieds de pages présentant des sites partenaires sont une tactique révolue. Les liens n'ont de pertinence pour les moteurs que si ils sont intégrés dans un contenu.
Le raisonnement est simple : ce qui ne contribue pas à l'enrichissement de l'information (en cohérence avec le contexte textuel) n'a que peu de valeur. Pensez-vous que les moteurs ne repèrent pas les liens artificiels qui n'ont pour unique objectif que de partager des backlinks ?

9/ La recherche personnalisée
Dans la logique d'une réponse toujours plus adaptée à chaque internaute, la recherche personnalisée prend en compte (cookies) l'historique de recherches et de consultations. Les critères SEO ne sont plus les seuls maîtres du jeu. Un site qui sait retenir un internaute, le convertir ou le fidéliser verra sa performance de référencement naturel s'accroître. La satisfaction des internautes, non déclarée mais mesurée, devient la clé de voûte d'un bon positionnement sur les résultats de recherches.


Les principaux contrôles à mener pour optimiser le SEO :

1/ Le code source des pages
Pour bien respecter la "grammaire" à laquelle sont sensibles les moteurs de recherche, il est utile de passer ses pages au W3C validator.

2/ Les balises META
Vérifier que la balise Title reprend bien le titre de la page (et non un texte générique).
S'assurer que le contenu des pages sera bien scruté (meta http-equiv="content-type" content...

C'est la meilleure façon de permettre à un moteur d'extraire le texte affiché dans les résultats.

3/ Une bonne densité des expressions clés
Je vois souvent des pages utiliser des termes tels que "nos produits", "pour les professionnels"... Quels produits et pour qui ? Chaque page peut être la première page d'accès à un site; chaque page doit (re)définir le contexte... tant pour les robots que pour les internautes.

La meilleure méthode est de constituer un référentiel de mots et expressions hiérarchisés (essentiels, liés à un thème,...) et de s'assurer de leur présence dans chaque page.

4/ Des outils de contrôle pour un bon SEO
- RankQuest met à disposition des outils qui s'intègrent dans le navigateur Firefox : toute la panoplie de mesures et diagnostics techniques et sémantiques.
> Tous les outils RankQuest à disposition

- Websitegrader de HuSpot donne une estimation qualitative à travers de nombreux critères pertinents pour un bon SEO. Par exemple : pages indexées, liens entrants, présence dans la sociale médiasphère, potentiel de conversion, balises META, niveau informatif... le tout dans un rapport détaillé.
> Un rapport détaillé de votre site avec comparatif sur Websitegrader

- > Validation des codes sources avec W3C Validator Markup Validation Service

Le contrôle d'optimisation SEO prend du temps mais est nécessaire car les règles et le contexte concurrentiel évoluent sans cesse.

La seule stratégie SEO à long terme est d'oublier les moteurs de recherche et de ne penser qu'à son audience : ses besoins, ses questions. Jouer la transparence vis à vis de sa cible amène naturellement à jouer la transparence vis à vis des robots d'indextation.

Et la concurrence ?

Bien sûr, il faut la suivre et la surveiller.
Mais il ne faut pas construire sa stratégie SEO prioritairement dans un esprit de compétition. Il faut la construire avant tout sur la spécifité de l'offre.


Bonne audience naturelle !

Philippe AUSTIN

Pour aller plus loin :

> Google Insights en version française et de nouvelles fonctions
> SEO, ce qui va changer avec Google TimeLine
> Comment utiliser SKTool et Insights for search
> Mesure de saisonnalité avec Google Insights
> Mesure de localisation et termes associés avec Google Insights


Ma.gnolia DiggIt! Del.icio.us Blinklist Yahoo Furl Technorati Simpy Spurl Reddit Google

2 commentaires:

  1. Vraiment un amusement la lecture de votre article, le sujet est impressionnant …il s'agit d'un article à garder et à suggérer aux autres !! merci pour l'article.

    RépondreSupprimer
  2. je ne regrette pas la lécture de votre article,déja le titre m'a attiré et j'a découvert après un sujet qui m'a vraiment plu, je vous demande plus d'articles de ce genre,ça va me fait plaisir de le relire !! courage et merci.

    RépondreSupprimer

Faites-moi part de votre avis (d'accord ou pas)

 
over-blog.com