1. Quels sont les facteurs clés de succès d’un bon référencement aujourd’hui ?
Un bon référencement repose aujourd’hui sur la « règle des 3 C » : La Conception du site est importante (présence d’un fichier Sitemaps au format XML, indexabilité optimale, bref, le site doit proposer une « journée portes ouvertes » aux spiders des moteurs afin qu’ils découvrent toutes le pages et les indexent rapidement), le Code HTML doit avoir été pensé, dès sa création, pour être réactif aux critères de pertinence des moteurs (balise TITLE, texte, liens, balise H1, texte des liens – notions de popularité et de réputation, etc.) et enfin le Contenu éditorial doit être rédigé, là aussi, en tenant compte le plus possible des moteurs : titre éditorial, chapeau, importance des 2 à 3 premières phrases du texte, etc.).
Il est important de bien comprendre que nous sommes plus à une époque où le référencement s’effectuait grâce aux balises meta « keywords » (stratégie révolue depuis de nombreuses années, mais qui représente pourtant une croyance encore répandue de façon assez forte). Aujourd’hui, le référencement doit être pris en compte dès la conception du site, au niveau du cahier des charges ; c’est là que l’on est le plus efficace… Ceci dit, il est bien entendu possible de faire de nombreuses choses sur un site déjà en ligne et non optimisé au préalable… Mais la meilleure stratégie est de travailler ce point a priori…
2. Comment pensez-vous que les recherches des internautes ont évolué ? Et comment l’algorithme du PageRank de Google s’est perfectionné ?
Globalement, les recherches des internautes n’ont pas réellement évolué à propos des syntaxes de recherche avancées, qui restent très peu utilisées. En revanche, on voit dans les études publiées à ce sujet que le nombre de mots clés dans une requête a fortement évolué ces dernières années. Aujourd’hui, un tiers des requêtes effectuées sur les moteurs contiennent de 4 à 10 mots, et la moitié de 3 à 5 mots, ce qui n’était pas le cas il y a quelques années de cela. Cela impacte donc obligatoirement la façon dont le référencement est pensé…
La théorie de la Longue Traîne, chère à Chris Anderson (Wired), va certainement également révolutionner le référencement dans les années qui viennent… En effet, les statistiques sur les mots clés ayant permis de trouver un site web sur les moteurs de recherche montrent bien une division de la courbe en deux zones conformes à cette théorie :
- Les mots clés de tête de longue traîne (mots clés « métiers », assez génériques, ou basés sur le nom de l’entreprise), qui sont assez peu nombreux mais génèrent un trafic fort, individuellement,
- Les mots clés de queue de longue traîne, très nombreux mais générant chacun un trafic faible (entre 1 et 5 visites mensuelles).
Il s’avère que la queue de la longue traîne génère 80 % du trafic « moteur » sur tous les sites dont je suis en train d’analyser les statistiques. Or, jusqu’à maintenant, beaucoup de stratégies de référencement se sont focalisées sur les mots clés « métier », qui constituent la tête de cette « long tail »… Mais ils ne représentent que 20 % du trafic total…
En ce qui concerne le PageRank, la notion de PageRank, en elle-même, a peu évolué depuis son « invention », ou plutôt sa mise en pratique dans Google en 1998. Mais le piège serait de croire que la valeur affichée dans la barre d’outils de Google représente ce PageRank, ce qui est faux. Le « vrai » PR, celui qui est utilisé par Google dans son algorithme de pertinence, n’est pas connu de façon publique. Celui de la GoogleBar n’est qu’une évaluation, mise à jour tous les trimestres environ, et qui est plus un outil de communication pour Google qu’autre chose. Baser son référencement sur le PR affiché dans la barre d’outils de Google est un piège dans lequel, malheureusement, beaucoup de webmestres tombent…
3. Enfin quelles tendances voyez-vous se dessiner pour les moteurs de recherche en 2008 : hégémonie de Google ou développement de solutions alternatives comme Baidu, métamoteurs, Wikia ou encore moteurs de recherche spécifiques ?
Il existe de nombreux projets prometteurs dans le domaine de la recherche d’information en 2008 : Cuill, Blekko, Powerset, Hakia, Mahalo ou Wikia Search sont des projets qui verront le jour dans les mois qui viennent et qu’il faudra suivre au plus près… J’avoue un faible pour la « recherche sociale ». Permettre à une communauté d’améliorer les résultats des moteurs est un concept qui me plait bien. Reste à voir comment le mettre en place de façon efficace et sans trop de fraude… L’année 2008 sera passionnante dans ce domaine, je n’en doute pas une seconde… 🙂
Difficile à dire ce que sera le moteur de recherche de l’année 2010… Mais un constat est aujourd’hui évident : les pages de résultats des moteurs sont quasi identiques à celles que l’on voyait il y a 10 ans… Je vois trois voies (entre autres) intéressantes d’amélioration des moteurs dans un proche avenir :
- Une nouvelle interface utilisateur qui sorte des « 10 liens par page » dont Google est un peu prisonnier aujourd’hui.
- L’aide à la saisie de mots clés, qui est encore le chaînon manquant entre notre cerveau et le formulaire de recherche des moteurs.
- La recherche sociale de type Wikia Search, qui donne la possibilité à une communauté d’améliorer les résultats du moteur.
8 février 2008
Olivier Andrieu, webmestre d’abondance.com, est spécialiste du référencement sur Internet. Auteur de nombreux ouvrages, il vient de publier « Réussir son référencement Web » chez Eyrolles.
Commentaires récents