Référencement naturel - Audit du site : identifier les points bloquants et repérer les éléments à optimiser - 5 octobre 2007

Audit du site : identifier les points bloquants et repérer les éléments à optimiser

Sylvain Lembert Fondateur Webmarketing & co'm

Après l’audit sémantique du site, on s’intéressera à la structure du site pour repérer les éventuels facteurs bloquants au référencement. Liens javascript, redirections sauvages, balises no-index placées par inadvertance sont autant de points à surveiller…

A ce stade, on survolera le site y compris son code source pour vérifier qu’aucun facteur bloquant au référencement et à l’indexation du site n’est présent. Voici une liste de points à surveiller :

  • Utilisation de javascript pour les liens : on vérifiera que les liens présents dans le site sont bien des liens simples en HTML (liens en dur) afin que les robots parcours le site le plus simplement possible. Si l’utilisation de javascript est obligatoire pour x ou y raison, on doublera les liens javascript par des liens HTML compris dans des balises ‹noscript› ‹/noscript› !
  • Balises no-index : on vérifiera également que des balises meta no-index n’ont pas été glissées sur le site. En effet certaines personnes n’ayant pas de notions en référencement peuvent trouver de bonnes raisons à insérer ce type de balise : économiser les serveurs… On vérifiera de la même façon le fichier robots.txt !
  • Redirections sauvages : toutes les redirections via Meta refresh devront être supprimées, on préférera les redirections serveurs (s’il s’agit d’une redirection permanente on utilisera une redirection de type 301 et s’il s’agit d’une redirection temporaire une redirection de type 302).
  • Site entièrement en flash : Un site entièrement en flash aura du mal à se positionner dans les moteurs de recherche, on utilisera le flash que pour les parties du site nécessaires. La navigation sera quand à elle en HTML classique pour que les moteurs puissent parcourir l’ensemble des pages.
  • Utilisation de frame : on évitera d’avoir recours aux frames pour structurer le site. En effet, la page étant ainsi constituée de plusieurs fichiers, les robots auront du mal à bien prendre en compte ce type de contenu.

On pourra interroger le moteur de recherche Google avec la fonction site:www.monsite.com pour voir si le site en question est bien indexé, si aucune page ou très peu de pages le sont, on fera d’autant plus attention à surveiller les facteurs bloquants cités ci-dessus !

Après avoir checker les points bloquants, on s’intéressera à la façon dont les éléments sont hiérarchisés dans le site : dossier, fichier, structure des pages (template), hiérarchisation du contenus… On repérera à ce moment les éléments à modifier.

Liens utiles : 36 critères d’accessibilité qui comptent pour le référencement, haro sur les facteurs bloquants, facteurs bloquants : 18 façons de rater son référencement.

Sommaire : Conseils et astuces pour réussir son référencement.
Post suivant : Balise Title.
Pour suivre cette liste plus facilement, vous pouvez vous abonnez au flux RSS du blog !

S'abonner à la newsletter
Laisser un commentaire
Newsletter
Abonnez-vous et recevez le meilleur du marketing digital
En bonus : recevez gratuitement notre guide pour réussir son blog
  • Guide des bonnes pratiques sur Twitter

    9.90

    Découvrez toutes les bonnes pratiques pour réussir sur Twitter !

    Découvrir
  • Guide des bonnes pratiques sur Google+

    9.90

    Ce guide sera l’occasion d’appréhender les bonnes pratiques à mettre en place pour tirer profit de Google+ et gagner en visibilité.

    Découvrir
  • Pack bonnes pratiques Twitter et Google+

    12.90

    Grâce à ce pack, bénéficiez d’un tarif réduit pour nos deux ebooks.

    Découvrir

4 commentaires pour l'article “Audit du site : identifier les points bloquants et repérer les éléments à optimiser

  1. Trouver les points bloquants pour le crawl sur un site est délicat car cela revient à chercher ce que les moteurs n’ont pas pu indexer !
    En plus d’une méthode de détection systématique des points bloquants, on peut :
    – faire un crawl du site pour récupérer les URLs des différentes zones
    – rechercher des URLs repérées sur le site et situées dans des "zones suspectes" et vérifier si elles ont été récupérées dans le crawl ou pas.

    Sinon, les redirections meta-refresh (surtout à l’entrée du site) sont gênantes, mais les spiders les suivent. Par contre, les redirections JS sont à bannir surtout dans les zones sensibles.

    A éviter aussi les menus déroulants tout en JS et placés dans un script externe à la page.

  2. Comme je le disais dans le premier post : Pas de grandes nouveautés dans cette série, celle-ci a plus pour objectif de donner les bases du référencement… Les techniques plus pointues étant abordées au fil du temps et de l’actualité.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *