Référencement naturel — 05 octobre 2007 — 4 commentaires
Audit du site : identifier les points bloquants et repérer les éléments à optimiser

Après l’audit sémantique du site, on s’intéressera à la structure du site pour repérer les éventuels facteurs bloquants au référencement. Liens javascript, redirections sauvages, balises no-index placées par inadvertance sont autant de points à surveiller…

A ce stade, on survolera le site y compris son code source pour vérifier qu’aucun facteur bloquant au référencement et à l’indexation du site n’est présent. Voici une liste de points à surveiller :

  • Utilisation de javascript pour les liens : on vérifiera que les liens présents dans le site sont bien des liens simples en HTML (liens en dur) afin que les robots parcours le site le plus simplement possible. Si l’utilisation de javascript est obligatoire pour x ou y raison, on doublera les liens javascript par des liens HTML compris dans des balises ‹noscript› ‹/noscript› !
  • Balises no-index : on vérifiera également que des balises meta no-index n’ont pas été glissées sur le site. En effet certaines personnes n’ayant pas de notions en référencement peuvent trouver de bonnes raisons à insérer ce type de balise : économiser les serveurs… On vérifiera de la même façon le fichier robots.txt !
  • Redirections sauvages : toutes les redirections via Meta refresh devront être supprimées, on préférera les redirections serveurs (s’il s’agit d’une redirection permanente on utilisera une redirection de type 301 et s’il s’agit d’une redirection temporaire une redirection de type 302).
  • Site entièrement en flash : Un site entièrement en flash aura du mal à se positionner dans les moteurs de recherche, on utilisera le flash que pour les parties du site nécessaires. La navigation sera quand à elle en HTML classique pour que les moteurs puissent parcourir l’ensemble des pages.
  • Utilisation de frame : on évitera d’avoir recours aux frames pour structurer le site. En effet, la page étant ainsi constituée de plusieurs fichiers, les robots auront du mal à bien prendre en compte ce type de contenu.

On pourra interroger le moteur de recherche Google avec la fonction site:www.monsite.com pour voir si le site en question est bien indexé, si aucune page ou très peu de pages le sont, on fera d’autant plus attention à surveiller les facteurs bloquants cités ci-dessus !

Après avoir checker les points bloquants, on s’intéressera à la façon dont les éléments sont hiérarchisés dans le site : dossier, fichier, structure des pages (template), hiérarchisation du contenus… On repérera à ce moment les éléments à modifier.

Liens utiles : 36 critères d’accessibilité qui comptent pour le référencement, haro sur les facteurs bloquants, facteurs bloquants : 18 façons de rater son référencement.

Sommaire : Conseils et astuces pour réussir son référencement.
Post suivant : Balise Title.
Pour suivre cette liste plus facilement, vous pouvez vous abonnez au flux RSS du blog !

Articles recommandés

L'auteur

Sylvain Lembert

Depuis 2004 dans le webmarketing, j’ai pu mettre en place des campagnes e-marketing dans des domaines variés. J’ai participé aux référencements de marques reconnues et mis en place la stratégie de communication on-line d’un assureur. J’ai également élaboré une stratégie de search marketing au niveau européen et été responsable de l’acquisition via Facebook pour un groupe de média social. Je suis aujourd'hui consultant webmarketing, n'hésitez pas à me contacter pour vos projets de communication on-line.

 


4 Commentaires

  1. Trouver les points bloquants pour le crawl sur un site est délicat car cela revient à chercher ce que les moteurs n’ont pas pu indexer !
    En plus d’une méthode de détection systématique des points bloquants, on peut :
    – faire un crawl du site pour récupérer les URLs des différentes zones
    – rechercher des URLs repérées sur le site et situées dans des "zones suspectes" et vérifier si elles ont été récupérées dans le crawl ou pas.

    Sinon, les redirections meta-refresh (surtout à l’entrée du site) sont gênantes, mais les spiders les suivent. Par contre, les redirections JS sont à bannir surtout dans les zones sensibles.

    A éviter aussi les menus déroulants tout en JS et placés dans un script externe à la page.

  2. des concepts qui datent du web 1.0, bref rien d’intéressant.

  3. Comme je le disais dans le premier post : Pas de grandes nouveautés dans cette série, celle-ci a plus pour objectif de donner les bases du référencement… Les techniques plus pointues étant abordées au fil du temps et de l’actualité.

  4. merci pour le tuyau sur les redirections 301.

    Fred.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>