Qui dit SEO, dit audit SEO, car avant de savoir ce qu’il faut faire, il faut avoir analyser le pourquoi, anticiper l’impact et les effets de bord sur le référencement naturel du site, mais aussi sur les aspects d’expérience utilisateur.
En bref, l’audit établit un état des lieux, ce qui permet d’avoir une vision globale du site et du chantier SEO qui l’attend.
Cette analyse permet de confronter les objectifs du site aux efforts que le gestionnaire du site est prêt à consentir.

Au fil de l’audit, vous retrouverez les préconisations du guide SEO, puisqu’il s’agit des points cruciaux.

La préparation de l’audit SEO

Lors de la réalisation d’un audit, on peut être tenté de plonger directement dans l’analyse des données.
Mais comme tout travail bien réalisé, il nécessite un minimum de planification des étapes et du temps pour les réaliser sans que rien n’échappe à votre analyse.

L’une des premières étapes consiste à explorer l’intégralité du site, car même et surtout si on connaît un site, on a forcément oublié une section du site qui peut avoir son importance.

Pour la phase d’exploration du site, je vous invite de consulter la liste de logiciels de crawl indiquée dans les outils SEO.

Le crawl du site vous permet de vous assurer de l’accessibilité de toutes vos pages, de schématiser la structure du site pour que chaque contenu même très profond se trouve à 2 voire 3 clics maximum de la page d’accueil, de vérifier que vos redirections sont bien effectuées, …

Mais ce niveau d’information ne suffit pas. Pour approfondir l’analyse, il va falloir recourir aux Google Webmaster Tools et Bing Webmaster Tools.

L’analyse SEO

L’analyse SEO de base peut se diviser en cinq parties relatives à l’accessibilité, à l’indexabilité, aux facteurs sur la page, aux facteurs hors page et l’analyse de la concurrence.

L’accessibilité

Si les moteurs de recherche ne peuvent pas accéder à votre site, c’est comme s’il n’existait pas. Et à moins de dépenser ponctuellement dans des actions de publicités ou dans l’achat ou la location d’adresses mail, les visiteurs non plus ne sauront pas que vous existez.

C’est la raison principale pour laquelle, quelles que soient vos contraintes techniques ou graphiques, vos pages doivent être accessibles.

Le fichier robots.txt

Le fichier robots.txt est utilisé pour limiter le périmètre d’accès à votre site des robots des moteurs de recherche.

Assurez-vous dans un premier temps de la volonté réelle de bloquer les pages indiquées.
Et vérifiez également la présence des règles empêchant l’accessibilité aux pages indésirables.

Google Webmaster Tools permet de vérifier les URL des pages bloquées par le fichier robots.txt.

La balise Meta Robots

La balise Meta robots est utilisée pour indiquer aux robots des moteurs de recherche s’ils sont autorisés à indexer une page spécifique et suivez les liens.

Les codes HTTP

Les moteurs de recherche et les utilisateurs ne peuvent pas accéder au contenu de votre site si vous avez des URL qui renvoient des codes d’erreur (codes d’état HTTP compris entre 4xx et 5xx).

Au cours de la phase d’exploration du site, vous aurez identifié et corrigé les URL en erreur. Si la page de l’URL cassée n’est plus disponible, redirigez l’URL vers la page la plus appropriée.

En parlant de redirection, assurez-vous que le code HTTP des redirections est 301 et non des redirections 302 (temporaires), des balises Meta refresh ou encore des redirections en JavaScript.

Le Sitemap XML

Le Sitemap XML fournit l’intégralité des URL accessibles de votre site aux robots des moteurs de recherche, leur assurant de trouver facilement toutes les pages du site.

Les points à vérifier:

  • Le sitemap est bien formé et répond aux critères de Google;
  • Le sitemap a bien été soumis dans le Google Webmaster Tools;
  • Si des pages trouvées dans le Sitemap n’ont pas été trouvées par le crawl, il s’agit de pages orphelines qu’il faudra recatégoriser;

L’architecture de votre site

De l’architecture de votre site dépend l’importance accordée à une page. Plus la page est profonde, moins elle est censée avoir d’importance.
Aussi privilégiez une structure plate, c’est-à-dire proposant un maximum de 3 niveaux maximum de la page d’accueil du site pour accéder à la page la plus profonde.

Assurez-vous que les pages importantes se trouvent bien dans un niveau hiérarchique important de l’architecture du site.

La vitesse de chargement du site

Sur internet, les utilisateurs sont encore plus impatients qu’ailleurs. Si votre site prend trop de temps à charger, ils partiront. Il en est de même pour les robots d’exploration, dans le sens où n’ayant qu’un temps fixe imparti pour chaque typologie de site, plus votre site sera rapide plus le robots sera en mesure d’explorer de pages.

L’indexabilité

Maintenant que vous avez identifié les pages que les moteurs de recherche sont autorisés à accéder, vous devez déterminer combien de ces pages sont effectivement indexées.

La commande “Site:”

La plupart des moteurs de recherche disposent d’une commande “site:” permettant de rechercher du contenu sur un site web spécifique. Vous pouvez utiliser cette commande pour obtenir une estimation approximative du nombre de pages indexées par un moteur de recherche donné.

Attention, cette commande permet de suivre une tendance de façon ponctuelle, il ne s’agit en aucun cas d’une donnée exacte.

Vous pouvez également vous référer à l’état de l’indexation dans la section état de santé de votre compte Google Webmaster Tools.

Cette donnée vous permet de constater que:

  • Tout va bien, si le nombre de pages de l’index correspondent approximativement à celui du Sitemap;
  • Le site génère du contenu dupliqué, si le nombre de pages de l’index est plus grand que celui du Sitemap;
  • Le site a un problème d’accessibilité, si le nombre de pages de l’index est plus petit que celui du Sitemap

Ces points devraient vous être confirmés dans la partie état de l’indexation (onglet Affichage avancé) de Google Webmaster Tools.
Le nombre de pages dupliquées ou assimilées apparaissent sous le label pages non sélectionnées, c’est-à-dire les URL de votre site qui redirigent vers d’autres pages ou URL dont le contenu est très similaire à celui d’autres pages.

Vérifiez également dans le Google Webmaster Tools les messages et notifications de Google. Il vous informe en cas de pénalisation de votre site web ou des causes éventuelles des erreurs.

Pénalités d’un moteur de recherche

Imaginons que votre gestionnaire de contenu croise un trop grand nombre de paramètres dans les URL et génèrent subitement des dizaines de milliers de pages.
Google peut considérer cela comme une technique frauduleuse et pénaliser votre site.

Après vous être assuré que la pénalité ne vient pas en fait d’une erreur dans le robots.txt ou dans une balise meta robots, corrigez le problème au plus vite.
Une fois l’erreur réparée, envoyez une demande de réexamen de votre site.

Les facteurs de classement on page

Ce sont les caractéristiques des pages de votre site qui influent sur leur classement des les résultats de recherche des moteurs.

En règle général, il est préférable se se consacrer à l’analyse globale du site, toutefois, l’analyse au niveau d’une page est utile pour identifier des opportunités et cas spécifiques d’optimisation.

URL

Profondeur, pertinence des mots clés avec le contenu attendu… Je vous invite à consulter la section règles de construction d’une URL du guide de démarrage SEO.

Le contenu

Google n’a cesse de répéter: le contenu est roi.
Pour s’assurer que le contenu du site audité respecte un minimum de critères bénéfiques au référencement naturel, nous allons étudier le contenu des pages.

Pour étudier le contenu d’une page, vous avez différents outils SEO à votre disposition.
L’approche la plus simple consiste à voir une copie du cache de Google de la page dans sa version en texte seul ou dans les Google Webmaster Tools dans la partie Explorer comme Google dans la section état de santé de votre compte.

Quels que soient les outils que vous utilisez, voici les questions à se poser en analysant le contenu:

  • Le contenu est-il assez riche? Un texte de 300 mots (on parle généralement d’un feuillet pour 1 500 signes) semble un minimum pour aborder un sujet en apportant une information riche et personnelle;
  • Le contenu est-il apprécié par la cible? La satisfaction du lectorat peut par exemple se mesurer au travers du taux de rebond, puis par un focus sur la typologie des pages consultées après la page d’entrée;
  • Le contenu aborde-t-il le sujet par les mots clés ciblés dans les premières lignes ou mieux les premiers paragraphes? Imagineriez-vous lire un article dans lequel vous ne trouveriez dans aucune phrase un terme relatif à votre recherche?
  • Le contenu est-il un remplissage d’espace vide contenant des mots clés? Des fournisseurs de contenu peu scrupuleux n’hésite pas à rédiger des textes au kilomètre, contenus dénués de toute valeur et bourrés de mots clés. Attention la technique conduit généralement à une dégradation de la qualité globale, notamment par l’image que vous donnez de votre site à votre lectorat; fournissez éventuellement moins de contenus, mais de meilleur qualité sera plus rentable;
  • Le contenu est-il bien orthographié? Contient-il des fautes de grammaire ou encore de ponctuation? Il en va de votre crédibilité professionnelle;
  • Le contenu est-il facilement lisible? Microsoft Word vous donne un moyen de tester la lisibilité de votre contenu ou encore Textalyser et Readability Score;

Le code HTML

Le consortium W3 qui spécifie le standard HTML propose un outil de validation du code HTML pour votre site.
Cela ne coûte rien de proposer un site respectant les standards du web, et facilitant ainsi l’affichage sur les navigateurs principaux.
En partant du principe que cela impacte l’expérience utilisateur, on peut estimer que la validation apporte un signal positif au référencement et a contrario un code HTML non valide peut nuire.

Dans le doute, et pour simplifier la maintenance de votre site, il est préférable de proposer un code validé par le W3.

Les titres

Un titre de page est sa caractéristique la plus identifiable.
C’est ce qui apparaît en premier dans les résultats des moteurs de recherche, et c’est souvent la première chose que les gens remarquent et dont ils se servent pour se rassurer en cas de doute sur l’endroit où ils se trouvent. Ainsi, le titre est extrêmement important.

Les éléments à vérifier reprennent ceux énumérés dans la section optimisation on page du guide de démarrage SEO:

  • Le titre est-il succinct? Pas plus de 70 caractères, c’est ce qu’affiche Google. Le reste étant coupé. Et plus le titre est court plus il pourra être relayé sur les réseaux sociaux (dont la limite est pour Twitter 140 caractères);
  • Le titre décrit-il efficacement le contenu de la page? Utilisez un titre convaincant qui se rapporte directement à l’objet de votre contenu;
  • Le titre contient le mot ciblé? Le titre est l’un des plus forts facteurs de classement on page. Assurez-vous que les titres contiennent le mots clé ciblé en tout début de la balise title;
  • Le titre est-il sur-optimisé? Comme indiqué ci-dessus le titre est l’un des éléments le plus fort dans le référencement naturel. Ne vous tirez pas une balle dans le pied.

Assurez-vous que les titres des pages soient uniques. Retrouvez les erreurs détectées dans les améliorations HTML de Google Webmaster Tools.

Les titre d’en-tête

Assurez-vous que chaque page dispose d’un titre H1. Cet élément contribue également à renforcer le mot clé ciblé qu’il contient.

Les facteurs de classement Off-Page

Les facteurs de classement hors page sont des signaux envoyés aux moteurs de recherche sur la popularité, la fiabilité, le voisinage et l’engagement social d’un site. Tous ces signaux sont générés par des sources externes.

Popularité

Les sites les plus populaires ne sont pas toujours les plus utiles, mais leur popularité leur permet d’influencer et de toucher plus de gens. Une forte popularité permet d’assurer un trafic stable.

Lors de l’évaluation popularité de votre site, voici quelques points à analyser :

  • La popularité de votre site lui apporte quel volume de trafic?
  • La popularité du site web se situe où par rapport à celle de ses concurrents?
  • Quelles sont les pages qui reçoivent des backlinks? Ces liens viennent-ils de site eux-même populaires?

Fiabilité

La fiabilité d’un site web est une mesure très subjective, car tous les individus ont leur propre niveau d’interprétation de la confiance. Pour éviter ces préjugés personnels, il est plus facile d’identifier un comportement qui est communément acceptée comme étant indigne de confiance.

Google prend en compte les listes noires de sites web recensés comme logiciels malveillants ou générant du spam.
Netcraft ou Stop Badware sont recommandés par Google.
Suivre leurs préconisations vous permet d’éviter de vous retrouver dans le cas où votre site web est considéré comme logiciel malveillant ou diffuseur de spam, ce qui se traduirait par un message d’alerte – qui les incitera à ne pas consulter votre site – informant les visiteurs de Google de l’éventualité d’un risque sur votre site, avant qu’ils n’accèdent à votre site.

L’impact est immédiat et vous perdez rapidement en fiabilité pour les moteurs de recherche et les internautes.

Pour la partie spam, si vous utilisez des techniques de cloacking – en présentant des pages optimisées aux moteurs de recherche et des pages différentes aux visiteurs -, cessez cette pratique et ajoutez du contenu de qualité sur votre site.

Les backlinks ou voisinage entrant

La qualité de votre site est en partie déterminée par la qualité des sites qui y font référence. Ainsi, il est extrêmement important d’analyser le profil de backlink de votre site et d’identifier les possibilités d’amélioration.

Vous trouverez de nombreux outils permettant d’analyser vos backlinks, comme Ahrefs et Majestic SEO.

Voici quelques points à analyser:

  • Les backlinks proviennent-ils de sites variés ou principalement d’un même site?
  • La variation des ancres de vos backlinks; diversifier le texte des ancres qui pointent sur vos pages permet de renforcer la sémantique du mot clé ciblé;

L’engagement social

Internet devient de plus en plus social. Aussi, Google prend en compte la capacité de votre site à générer des mentions et à créer des conversations sociales.
Les tweets / retweets, Like, +1 et autres compteurs de réseaux sociaux sont intégrés dans l’analyse de l’engagement social de votre site.

Sur ce point, ce sont les landing pages qui seront analysées.

Analyse de la concurrence

En répétant les étapes pour les sites de vos concurrents, vous identifiez leurs forces et faiblesses.

Il vous reste à rassembler les informations de cet audit SEO et à leur donner sens pour indiquer vos préconisations pour améliorer le référencement naturel du site web de votre auditoire.

Menu