La navigation d’un site web est l’un de ses points critiques tant sur le plan SEO que pour l’ergonomie. La navigation invite et permet au visiteur de se déplacer dans le site, de découvrir l’étendue des thématiques abordées par ce site et y accéder.
Elle permet donc au visiteur de trouver les contenus et donne un signal d’importance des pages aux moteurs de recherche.
En effet, les moteurs de recherche seront guidés par la navigation pour comprendre les degrés d’importance des pages dans la structure du site web. Les pages majeures étant généralement présentes dans la navigation, les crawlers des moteurs de recherche iront plus souvent vérifier la mise à jour d’une page présente dans la navigation, que celle d’un article relié uniquement depuis une page profonde.

Toutefois la navigation d’un site ne s’opère par uniquement par la navigation principale. Il existe plusieurs éléments de navigation utilisés couramment, presqu’en standard selon les types de sites.
Voici une sélection de ces navigations destinées à servir aussi bien le référencement naturel et payant que l’expérience utilisateur.

Le menu de navigation principale

Privilégiez une navigation via des liens hypertexte standards en HTML. L’objectif est de simplifier le crawl du site par les moteurs de recherche.
Aussi, cela exclu les navigations conditionnées à la validation d’un formulaire, au support du JavaScript ou de l’Ajax non référençable, au technologies type Flash ou Applet Java, aux sessions, ou encore à l’acceptation de cookies.
Ces dernières techniques restent toutefois valables lorsque vous ne souhaitez pas référencer les pages proposées dans ce type navigation. Il s’agit alors de techniques d’obfuscation de liens censées éviter leur détection et donc leur crawl par les robots d’exploration. En théorie ces techniques sont à éviter, mais il existe de nombreux cas où il est difficile de faire autrement.

Le menu de navigation principale doit proposer une hiérarchie cohérente, dont les libellés coïncident au contenu des rubriques.
L’objectif étant d’assurer un accès évident et logique d’un contenu général à un contenu spécifique.

Assurez-vous également de disposer d’un volume important de contenus pour créer une rubrique. C’est un risque fort de déception pour votre lecteur que de lui fournir une page d’atterrissage pauvre en contenus. Et si vous avez peu de contenu, autant essayer de les raccrocher à une rubrique proche que de créer dans votre arborescence une branche morte.

Des solutions telles que celle de Botify proposent :

  • d’analyser la structure de votre site et des logs serveur
  • d’identifier les pages inutiles pour le SEO
  • d’évaluer le taux de crawl des pages utiles (SEO) et celui des pages inutiles
  • de vérifier que vos pages les plus importantes sont celles qui reçoivent le plus de liens
  • d’évaluer le nombre de pages par dimension ou typologie de pages, etc.

En bref, il existe des solutions permettant de trouver les éventuelles failles de votre structure pour votre référencement naturel qui vous permettront d’adapter votre navigation au crawl des robots d’exploration des moteurs de recherche.

Privilégier une faible profondeur de site

Dans l’idéal, fixez-vous un maximum de 3 pages entre la page d’accueil et la page la plus profonde du site. Plus un élément est enfoui dans la structure de votre site, plus il est considéré comme faiblement important.
La profondeur étant donc un signal fort de l’importance du contenu, je vous recommande vivement de limiter la profondeur de la structure du site web.

Le menu de navigation secondaire

Dans le cas d’une structure de site riche, variée et importante, il peut s’avérer nécessaire d’ajouter une ou plusieurs navigations secondaires. C’est le cas notamment lorsque vos rubriques contiennent des sous-rubriques abordant des articles par sujets plus finement regroupés.
L’un des objectifs de la navigation secondaire est de créer des pages vous permettant de positionner votre site sur des expressions plus fines qu’une expression générique.

Comme pour la navigation principale et tous les liens que vous souhaitez utiliser pour optimiser votre référencement naturel, veillez à ne recourir qu’à des liens hypertexte standard en HTML (donc pas de technologie JavaScript, ni Ajax, ni Flash, ni Applets, …).
Cette navigation secondaire est aussi un moyen pour optimiser le maillage ou linking interne du site web.
Un exemple standard consiste à ajouter un bloc de type A lire aussi, Vous aimerez aussi ou encore Sommaire du dossier sur des pages ne proposant pas déjà un accès direct à ces contenus.

La variation des ancres est un élément bénéfique au SEO, puisqu’elle permet de travailler plusieurs expressions proches, synonymes et variantes pour une même page.

Non seulement, le maillage est affiné et renforce la pertinence de vos contenus avec le sujet qu’ils abordent, mais il contribue à la stratégie de rétention de l’internaute. Car, le visiteur est incité à consommer des contenus supplémentaires sur votre site web, ce qui diminue le taux de rebond et favorise l’augmentation du nombre de pages vues.

Les navigations à facettes

La recherche ou navigation par facettes consiste à proposer une navigation additionnelle par la sélection de critères. Cette navigation est alors basée sur la sélection de filtres dits facettes.
L’utilisateur n’a donc plus à identifier la bonne catégorie pour trouver un produit qu’il cherche, mais il doit préciser les caractéristiques recherchées.
Vous l’aurez pressenti, ce type de navigation est plutôt approprié aux sites de type commerce en ligne, faisant appel à une base de données de critères, qu’aux sites média exposant des articles.

Le fil d’Ariane

Le fil d’Ariane ou chemin de fer constitue un élément ergonomique de votre site web.

Qu’est-ce que le fil d’Ariane

Il permet à l’utilisateur de savoir où il se situe par rapport à la page d’accueil. Le fil d’Ariane renvoie également un signal supplémentaire de hiérarchie des pages aux moteurs de recherche.
Le fil d’Ariane présente donc la hiérarchie descendante depuis la page d’accueil jusqu’au contenu en cours de consultation. Chaque libellé d’un niveau hiérarchique permettant d’accéder à la page relative.

Ci-dessous un exemple typique de fil d’Ariane :
Accueil > Rubrique > Sous-rubrique > Libellé du contenu

En valorisant et en renforçant la structure de site web, le fil d’Ariane contribue au maillage interne du site, puisqu’il notifie l’arborescence de la rubrique de la navigation principale, à rubrique de navigation secondaire, jusqu’à l’article.
Bien positionné, c’est-à-dire généralement en haut de page, il indique immédiatement au visiteur l’étape, le niveau de profondeur dans lequel il se trouve sur le site.

Le fil d’Ariane est donc un élément représentatif de l’architecture du site web et de la façon dont les contenus sont organisés qui favorise le référencement naturel et rassure l’internaute quant à l’objectif de la page actuelle.

Pour plus d’information quand à sa mise en place, Schema.org propose un balisage du fil d’Ariane supporté par Google.

Le fichier sitemap.xml et le plan du site

A ne pas confondre, le fichier sitemap.xml et le plan du site sont deux éléments différents et ont des objectifs distincts.

Fichier sitemap.xml

Le fichier sitemap est au format XML et se destine aux robots d’exploration des moteurs de recherche.
Il indique aux moteurs de recherche les différentes typologies de contenus (pages, média, etc.), leur importance selon le gestionnaire du site ainsi que la fréquence d’exploration désirée pour chacun d’eux.

La page du plan du site

Cette page propose des liens hypertexte standard en HTML permettant au visiteur d’avoir une vision globale du site s’il se perd ou souhaiterait trouver des pages spécifiques que vous n’auriez pas pu placer dans la navigation principale ou secondaire. L’objectif est également de simplifier le crawl des moteurs de recherche.
La mise en place d’une page “Plan de site” formée de liens A donnant accès directement ou indirectement à l’ensemble des contenus significatifs du site est un standard du web.

Le fichier robots.txt

Ce fichier ne constitue pas à proprement dit un élément de navigation sur le site pour l’utilisateur. Mais son objectif est de contrôler le crawl et l’indexation du site par les moteurs de recherche.
Google et les autres moteurs de recherche conseillent de mettre en place un fichier robots.txt à la racine du site et d’y renseigner son contenu à l’aide des directives robots.txt.
Vous pouvez l’utilisez pour limiter le crawl de votre site à certains robots connus et en exclure d’autres, ce qui économisera votre bande passante.

Il est possible de coupler ce fichier à la balise meta robots qui sera alors insérée dans la partie head des pages que vous ne souhaitez pas faire suivre ou indexer par les moteurs de recherche.

<head>...<meta name="robots" content="noindex,nofollow" />...</head>

Il est également possible de fournir directement une entête http X-Robots-Tag pour indiquer aux moteurs de recherche de ne pas indexer une page.

Gérer les erreurs de navigation

Vous avez défini des règles de navigation, mais votre site a évolué.
Des pages sont dupliquées ? Des pages qui étaient disponibles auparavant ne le sont plus aujourd’hui, sauf depuis les moteurs de recherche peut-être ou d’autres sites encore ?

Corriger ces erreurs au plus tôt évite de perdre l’internaute et les moteurs de recherche. Voici mes pistes pour gérer les erreurs de navigation.

Page d’erreur 404

Passez périodiquement un crawl avec Xenu ou Screaming Frog par exemple pour détecter les pages en erreur 404, les redirections inutiles ou récursives.
Une ancienne URL renvoie un code http 404 et vous ne disposez plus de contenu similaire ou proche ? Adoptez le code http 410 au lieu de 404 pour renvoyer un signal indiquant aux moteurs de recherche de ne plus prendre en compte l’URL.
Vous n’envoyez plus de signal négatif, contrairement au code http 404.

Pour rappel

Code http 404 : la page n’existe plus, mais il est possible que le webmaster puisse la remettre à disposition. C’est un signal négatif pour le moteur de recherche (le site génère des erreurs).
Code http 410 : la page est supprimée et il n’existe pas de ressource la remplaçant. C’est un signal neutre (une page a été supprimée et vous la déclarez supprimée).

Les redirections

Attention aux redirections inutiles et récursives, elles alourdissent votre fichier .htaccess ou la liste des directives de redirections de votre serveur.
Or les redirections ont un impact négatif sur le temps d’accès aux pages.

Vérifiez périodiquement vos logs et listes de redirections à suivre pour vérifier lesquelles vous pouvez supprimer. Vous allègerez ainsi les traitements de votre serveur, ce qui lui sera bénéfique.

La duplication de contenu

Véritable plaie aussi bien pour l’internaute que pour le SEO, la duplication de contenu doit être traitée au plus tôt.
Si le recours à une analyse régulière (avec Xenu ou Screaming Frog) permet d’identifier les contenus dupliqués, Google Webmaster Tools ou Bing Webmaster Tools vous indiquent également les pages concernées.

Vous pouvez soit procéder à une redirection permanente, en ajoutant un code http 301 aux pages sources vers les pages de destination, soit ajouter une balise canonical indiquant aux moteurs de recherche l’URL référente.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Fill out this field
Fill out this field
Veuillez saisir une adresse de messagerie valide.
Vous devez accepter les conditions pour continuer

La modération des commentaires est activée. Votre commentaire peut prendre un certain temps avant d'apparaître.

Menu