Le top 5 des problèmes de profondeur... et leurs solutions SEO

La profondeur d’une page, en SEO… qu’est-ce que c’est ? Dans notre quotidien au sein de l’agence, nous étudions régulièrement la structure d’un site web, c’est-à-dire la profondeur d’une page correspond au nombre de clics nécessaires pour atteindre cette page depuis la page d’accueil, en utilisant le chemin le plus court. Par exemple, une page reliée depuis la page d’accueil sera à profondeur 1…

La profondeur d’une page, en SEO… qu’est-ce que ça n’est pas ?

Elle n’est pas à confondre avec la notion de profondeur de page mentionnée dans les outils de Web Analytics, qui se rapporte à la visite d’un utilisateur et à la séquence de pages qu’il a vues au cours de cette visite. Dans ce contexte précis, la profondeur d’une page est le nombre de clics qu’il a fallu à l’utilisateur pour atteindre la page.

Parcours certifiant Webmarketing

Pourquoi devriez-vous vous en soucier ?

Les pages profondes ont un PageRank moins élevé (ou aucun PR) et sont moins susceptibles d’être crawlées par les robots des moteurs de recherche. Cela signifie que les robots sont moins susceptibles de les découvrir, et s’ils les ont découvertes, ils sont moins susceptibles de revenir les explorer pour vérifier si elles sont toujours là et si elles ont changé. Il est bien entendu que le fait qu’elles soient crawlées ne signifie pas que ces pages vont être positionnées dans les moteurs de recherche, mais c’est un prérequis.

Ce qu’il faut retenir, c’est que les pages profondes sont moins susceptibles d’être positionnées dans les moteurs de recherche.

Comment savoir si on a un problème de profondeur?

Voici quelques exemples de graphes de répartition de la profondeur à l’échelle du site, qui montrent qu’il y a un problème.

Exemple d’un graphique de BOTIFY.

Dans l’exemple ci-dessus, les profondeurs 11 et au-delà sont cumulées, mais nous pouvons voir que le site va jusqu’à la profondeur 18. D’un clic sur l’icône en haut à droite, nous obtenons un tableau de données, que nous pouvons trier selon la colonne profondeur pour voir les pages les plus profondes en premier.

Exemple 2 :

À noter : la profondeur est artificiellement augmentée d’un niveau puisque la page d’accueil générale du site est redirigée vers la page d’accueil locale d’un pays.

Exemple :

À qui la faute ?

  1. La pagination
  2. Les filtres de navigation
  3. Des paramètres de tracking dans les urls
  4. Des urls mal formées
  5. Un lien perpétuel

Dans le premier exemple ci-dessus, le problème de profondeur est causé par des filtres.

Dans le second, il est généré par des urls mal formées, certaines d’entre elles créant par ailleurs un lien perpétuel.

Dans le 3ème, on a une combinaison de pagination profonde, de paramètres de tracking et de filtres multiples.

Regardons ces principales causes d’un peu plus près, et voyons comment localiser et gérer ces problèmes.

1) La pagination

Quoi ?

Toute longue liste paginée. Encore pire avec toute combinaison des facteurs suivants :

  • Une très longue liste ;
  • Un petit nombre d’éléments par page ;
  • Un système de pagination qui ne permet pas de cliquer plus de quelques pages plus bas dans la liste (à part la dernière page). Imaginez qu’il y ait 50 pages, et que vous ne puissiez avancer que de 3 ou 5 pages à la fois : la liste fait déjà 10 à 16 clics de profondeur !

Où ?

Dans des listes qui présentent le contenu principal du site : des produits, des articles, etc., ou dans d’autres listes qui ne viennent pas forcément immédiatement à l’esprit, comme les listes de contenu généré par les utilisateurs (évaluations de produits, commentaires sur des articles).

C’est grave ?

  1. Le pire des cas : une partie du contenu clé du site est trop difficile à atteindre, les robots ne le verront pas !

Ce sera le cas si ces longues listes sont le seul chemin d’accès à une partie du contenu clé. Par exemple, des produits qui ne sont listés nulle part ailleurs, donc ne figurent dans aucune autre liste plus courte – une zone de recherche interne au site aidera les utilisateurs à trouver du contenu, mais elle ne sera d’aucune utilité pour les robots.

Vous saurez si c’est le cas en explorant les pages les plus profondes dans l’URL Explorer (cliquez sur l’une des profondeurs max dans le graph) et en vérifiant si elles incluent des produits (ajoutez un filtre sur l’URL pour ne voir que vos pages produit).

  • Du contenu inutile pollue votre contenu de qualité, vous ne devriez pas laisser les robots le voir !

L’autre cas de figure, c’est que ces pages profondes soient principalement constituées de contenu inutile (au sens SEO : inutile pour le référencement) :

  • La pagination de très longues listes, peu ou pas segmentées (du type “voir tout”, sans critère) qui présentent du contenu (produits, articles…) que l’on peut trouver ailleurs, dans des listes plus courtes, qualifiées selon des critères précis ;
  • La pagination qui présente du contenu qui n’est pas clé pour le trafic organique (comme les commentaires utilisateurs sur les articles).

Une petite partie de ce contenu a peut-être un certain potentiel de trafic, la question est de savoir comment détecter ce contenu de plus haute qualité (quelques idées dans le cas de contenu généré par les utilisateurs : le fait que d’autres utilisateurs aient trouvé un commentaire utile, le nombre de réponses, une taille minimale pour les commentaires…). Une fois identifié, ce contenu devrait être placé plus haut dans la structure du site.

Que faire ?

  1. Si les listes profondes sont le seul chemin menant à du contenu important, vous devrez travailler la structure de navigation du site : ajouter des catégories plus fines, de nouveaux types de filtres (attention aux filtres, voir le point 2), etc. pour créer de nouvelles listes plus courtes qui – abracadabra ! – vont aussi créer de nouvelles pages cibles pour le trafic organique middle tail. Vous pouvez aussi lister davantage d’éléments par page, mettre dans chaque page des liens vers un plus grand nombre d’autres pages (pas seulement sur les 3 ou 5 pages suivantes, mais sur les 10 suivantes, et sur les multiples de 10 par exemple).

Vérifiez que vous avez ajouté des balises et à vos liens de pagination. Cela n’a pas d’impact sur la profondeur, mais aide les robots à bien comprendre le séquencement des pages.

  • Si les pages profondes sont surtout des pages de basse qualité / inutiles, les recommandations dépendent des volumes et des proportions :

Est-ce qu’il y en a beaucoup, comparé à votre contenu de qualité, celui de votre cœur de métier ?

  • Oui : vous devriez vous assurer que les robots n’explorent pas ces pages. Elles exercent une mauvaise influence sur l’image de votre site et, même si les robots ne crawlent qu’une petite partie de votre contenu profond, ces pages pourraient générer un gaspillage significatif de ressources de crawl, qui seraient mieux exploitées sur du contenu de qualité ;
  • Non : vous pouvez les laisser. Ce petit nombre de pages profondes ne sera sûrement pas beaucoup crawlé – dans ce cas, cela correspond précisément à vos attentes. Vous avez probablement d’autres priorités en matière de SEO.

2) Trop de filtres de navigation

Quoi ?

Si la navigation, appelée aussi les « facettes » de votre site inclut des filtres qui sont accessibles aux moteurs de recherche, et si ces filtres sont combinables à volonté, alors les robots n’arrêtent pas de trouver de nouvelles combinaisons de filtres au fur et à mesure qu’ils découvrent des pages, et cela génère une profondeur et un volume important de pages.

Où ?

Dans tout système de navigation à filtres multiples qui crée de nouvelles pages (par opposition à un rafraîchissement Ajax de la même page).

C’est grave ?

Cela peut devenir préoccupant très rapidement étant donné que le volume est exponentiel. Quelques combinaisons de filtres ont un potentiel de trafic organique, mais la plupart n’en ont pas, en particulier ceux qui génèrent l’essentiel du volume de pages.

Que faire ?

La bonne pratique consiste à limiter systématiquement les liens (crawlables par les robots) vers les listes filtrées à un seul filtre, ou deux simultanés, pas plus. Par exemple, si vous avez un site de vente de vêtements, avec des filtres par type / marque / couleur, vous pouvez autoriser les combinaisons systématiques de deux filtres. Dans ce cas, type + marque (“jeans” + “diesel”), type + couleur (“robe” + “rouge”) ou marque + couleur (“UGG” + “beige”). Si vous savez qu’une combinaison de davantage de filtres à un certain potentiel de trafic (“t-shirt”+ “noir” + “GStar”), un lien peut être ajouté manuellement, mais il ne faut surtout pas activer toutes les combinaisons de 3 filtres (ce qui créerait par exemple “Armani” + “bottes” + “jaune”, qui n’a probablement pas de potentiel de trafic et pourrait bien être une liste vide).

3) Des paramètres de tracking dans les urls

Quoi ?

Un paramètre de tracking (comme « ?source=cettepage ») qui est ajouté à l’URL pour refléter la navigation de l’utilisateur. Cela peut créer un très grand nombre d’urls (toutes les combinaisons: toutes les pages de provenance possible, pour toutes les pages avec tracking), voire un nombre infini d’urls si les paramètres peuvent être combinés pour suivre le chemin complet (c’est alors un piège à robots).

Où ?

Par exemple dans un bloc “produits similaires” ou “articles connexes”, où les liens vers les autres produits ou articles contiennent un paramètre pour savoir de quelle page l’utilisateur venait (à ne pas confondre avec les paramètres de tracking de publicités ou de campagnes d’emails: ici, nous parlons de tracking systématique des liens internes à un site).

C’est grave ?

Oui. Les paramètres de tracking créent une grande quantité de contenu dupliqué, et il s’agit de duplicatas de pages importantes, puisque vous voulez les traquer !

Que faire ?

Passez le paramètre derrière un “#” à la fin de l’URL, où il ne changera donc pas l’URL (et pas dans un paramètre d’URL derrière un “?”, qui fait partie de l’URL). Redirigez les urls avec paramètre(s) de tracking vers la version de l’URL sans tracking.

4) Des urls mal formées

Quoi ?

Certaines pages comportent des liens mal formés qui génèrent de nouvelles pages, alors qu’ils devraient pointer vers des pages existantes.

Les liens mal formés renvoient souvent un statut code http 404 (Page non trouvée). Mais il est également fréquent qu’une URL mal formée renvoie une page qui semble normale pour l’utilisateur. Typiquement, dans ce cas, les liens mal formés incluent tout de même un identifiant qui est utilisé pour construire la page normalement. Les problèmes les plus fréquents sont entre autres :

  • Un élément de l’URL manquant, souvent la partie lisible pour l’internaute

par exemple http://www.mywebsite.com/products/_id123456.html

au lieu de http://www.mywebsite.com/products/product-description_id123456.html

  • Des éléments répétés dans l’UR par exemple

Home

Où ?

N’importe où sur le site.

C’est grave ?

Cela dépend du volume. C’est pire lorsque les urls mal formées renvoient un status code http 200 (OK), puisqu’on a alors potentiellement un grand nombre de duplicatas, et probablement des duplicatas de contenu clé.

Que faire ?

Remplacez les liens mal formés par les liens corrects sur le site.
Redirigez les urls mal formées vers l’URL correcte (redirections permanentes http 301) ou renvoyez un status code http 404 (Page non trouvée), puisque les robots vont continuer à crawler ces pages pendant un certain temps.

Quoi ?

Tout lien présent sur toutes les pages d’un template donné qui génère toujours une nouvelle URL.

Où ?

L’exemple classique est celui du bouton “jour suivant” ou “mois suivant” dans un calendrier. Certaines urls mal formées ont aussi le même effet (si un élément est ajouté à l’URL à chaque fois que l’on a une nouvelle page).

L’impact sur la structure du site est similaire à celui d’une pagination, en pire: on ne peut avancer que d’une page à la fois et c’est sans fin.

C’est grave ?

Cela dépend là aussi du volume (est-ce que ces pages créent à leur tour d’autres pages, en plus du fil infini ?) et du caractère stratégique ou non du template des pages créées.

Que faire ?

Dans le cas d’un bouton “suivant” perpétuel : implémentez une valeur de fin (dans l’exemple du calendrier, cela pourrait être le dernier jour qui comporte un événement).

Les urls mal formées sont traitées dans la section 4.

A propos de l’auteur

Mathieu Chapon : Fondateur de l’agence SEO Search Foresight, nous accompagnons avec passion les sites web à remonter dans les pages de résultat de Google. Connue pour notre approche technique et Data Driven, notre agence propose des analyses et recommandations dans les sujets techniques et sémantiques qui permettent à nos équipes de fournir des recommandations qui font le succès de nos clients.

LinkedIn