La présence de problèmes techniques d'un site web annihilera tous autres efforts d'optimisation.

Un audit technique SEO se compose d’un audit SEO On-Page (vision micro) et d’un audit technique (vision macro de votre site web).
Ce dernier est primordial, car il permet de détecter certains problèmes techniques qui peuvent nuire à votre classement dans les résultats organiques des moteurs de recherches ou pire, le rendre invisible à ces derniers.
Par conséquent, il est primordial qu’il soit effectué avant tout autre optimisation, que cela soit sur le On-Page, le contenu éditorial ou l’expérience utilisateur (UX).
Sans cela, tous vos efforts de référencement n’obtiendront pas ou peu les résultats escomptés.

L’audit technique fait partie avec l’audit SEO On-Page du référencement On-site

Tous mes rapports d’audits techniques seront accompagnés de recommandations personnalisées que vous-même ou votre prestataire informatique mettront en place afin d’optimiser l’exploration et l’indexation de votre site internet par les moteurs de recherche.

Sommaire

Qu'est-ce qu'un audit technique ?

Un audit technique explore et analyse, d’un point de vue structurel, votre site internet pour :

  • Mettre en évidence les éventuels freins à votre référencement naturel.
  • Mettre en exergue les facteurs bloquants qui dégraderaient l’expérience utilisateur. 
  • Obtenir une meilleure position dans les pages de résultats de Google (SERP).

Il va vérifier, en quelque sorte, la santé technique de votre référencement.
Une fois réalisé, vous pourrez analyser chaque page de votre site web (vitesse de chargement, Responsive Design, ergonomie, analyse sémantique, …) via un audit SEO On-Page, pour optimiser votre référencement organique.

Audit technique : Liste de 9 facteurs à vérifier

Un bon positionnement de votre site web dans les résultats naturels de Google dépend, entre autres choses, d’un certain nombre de facteurs techniques tel que l’explorabilité, l’indexabilité, la rapidité, la sécurité, la navigabilité, …

L’audit technique de votre site web va vérifier une liste de 9 facteurs techniques les plus importants qui pourraient être préjudiciables à votre classement.   

1. Vérification du fichier robots.txt

La première chose à vérifier, est de savoir si votre site internet peut être exploré par les robots d’indexation, appelés aussi bots, spiders ou crawlers (GoogleBot, BingBot, …), des moteurs de recherche.
Pour se faire, il faudra aller contrôler votre fichier robots.txt, qui se trouve à la racine de votre site web.
Ce dernier indique aux bots ce qu’ils ont le droit ou non d’explorer (pages, fichiers, médias, …) sur votre site.
Si les bots ne trouvent pas ce fichier, ils vont, de fait, tout explorer sans aucune restriction.

Si votre site est fait sous le CMS WordPress, vous trouverez simplement ce fichier en tapant dans votre navigateur le nom de domaine et en rajoutant /robots.txt.
(Par exemple : https://nomdedomaine.fr/robots.txt)

Fichier Robots txt

Le fichier robots-txt se décompose toujours comme ceci :

  • User-agent : est le nom du bot. Ici en l’occurrence,  « * » signifie tous les robots d’explorations.
  • Allow : autorise l’exploration par le ou les bots du fichier cité.
  • Disallow : interdit l’exploration par le ou les bots du fichier cité, en l’occurrence, dans l’exemple, le dossier wp-admin.

Si vous voulez que le bot explore ou non tout votre site internet, il faudra juste mettre « / » après Allow ou Disallow.

Pour créer ou modifier un fichier robots txt, vous avez 2 possibilités :

  • Le faire manuellement.
  • Passer par un plugin SEO.

Personnellement, je vous conseille, pour une question de simplicité, de passer par un plugin SEO tel que Yoast SEO.
Il faudra juste aller dans :

  • Les réglages de Yoast.
  • Cliquer sur « Outils ».
  • Ouvrir l’éditeur de fichiers robots-txt.
  • Créer ou modifier le fichier.
  • Cliquez sur « Enregistrer »
Yoast SEO - Éditeur du fichier robots txt

Petit conseil, car cela arrive plus souvent que l’on pense : Pensez à décocher la case « Demander aux moteurs de recherche de ne pas indexer ce site » dans vos réglages WordPress.

WordPress - Onglet visibilité pour les moteurs de recherche

2. Vérification de l'indexation de vos pages web

Après avoir contrôler que votre site internet est explorable par les bots des moteurs de recherche, il convient de vérifier si vos pages web sont bien indexées.

Il existe 2 manières simples de vérification :

  • Via la syntaxe « site: ».
  • Via la Search Console de Google.

Via la syntaxe "site:"

La manière la plus simple de vérifier le nombre de vos pages web indexées est d’utiliser la syntaxe « site: ».

Dans la barre de recherche de Google, tapez la requête « site:nomdedomaine » . 
Par exemple site:bernard-sperandio.fr

Cela vous indiquera le nombre total de pages indexées par Google pour le nom de domaine tapé, ainsi que le détail de ses pages. 
A savoir que cela n’est pas aussi précis que dans la Search Console.

Syntaxe "site:"

Via la Google Search Console

La manière la plus précise de contrôler le nombre de vos pages web indexées est d’aller dans le rapport de couverture dans la Search Console de Google.

Dans ce rapport, est indiqué quelles pages de votre site internet sont indexées par Google et quelles pages ont généré une erreur ou un avertissement.
Pour faciliter sa compréhension, Google l’a accompagné d’une frise chronologique et l’a dispatché en 4 onglets :

  • Erreur : vos pages sont non indexées pour une raison quelconque (erreur 404, erreur 500, robots txt, …).
  • Valides mais avec des avertissements : vos pages sont indexées, mais comportent des erreurs.
  • Valides : vos pages sont indexées.
  • Exclues : ce sont des pages que vous avez volontairement voulu ne pas indexer.

Le plus important, dans le cas présent, est l’onglet « Valides ».

Rapport de couverture Search Console

3. Vérification du contenu HTTPS

HTTPS - Protocole de transfert hypertextuel sécurisé

Avoir un site internet sécurisé en HTTPS (acronyme de HyperText Transfer Protocol Secure ou en français protocole de transfert hypertextuel sécurisé) est indispensable en 2020 car :

  • Google annonce clairement dans son navigateur Chrome que le site visité n’est pas sécurisé.
  • Cela évitera un énorme taux de rebond surtout si le navigateur utilisé est Chrome.
  • C’est un critère de pertinence dans l’algorithme de classement de Google.

Pour reconnaître une page sécurisée sur la plupart des navigateurs, c’est d’une simplicité enfantine :

  • L’URL commence par https:// au lieu de http://.
  • Un petit cadenas fermé est présent devant l’URL.
  • En cliquant sur le petit cadenas, vous pouvez savoir le certificat SLL utilisé.

Un certificat SSL (Secure Sockets Layer) est un certificat numérique, délivré par une autorité de certification, qui authentifie l’identité d’un site internet et sécurise les échanges d’informations en les cryptant à l’aide de la technologie SSL.
Autrefois coûteux, les certificats SLL pour les plus performants d’entre eux ne coûtent plus que quelques dizaines d’euros.
Il y en a même un, gratuit, qui est très populaire et largement suffisant pour 90% des sites internet, le certificat SSL/TLS Let’s Encrypt

Si vous décidez de créer votre site web prochainement, passez de suite en HTTPS.
Si vous avez déjà un site et qui est en http, il faudra le migrer en https en effectuant les tâches suivantes :

  • Acheter et installer le certificat SSL sur les serveurs de votre hébergeur (OVH, O2switch, …).
  • Faire des redirections 301 de toutes vos URLs (images, articles, pages, fichiers, ..) de http// vers https//.
  • S’assurer que les liens canoniques pointent bien vers des pages en https.
  • Vérifier que vos pages https soient bien explorables et indexables. (blocage par le fichier robots.txt ou par des balises Méta noindex).
  • Vérifier votre contenu mixte (images, scripts et fichiers css non sécurisés qui déclencheront un message d’avertissement dans les navigateurs).
  • Mettre à jour Google Analytics (modification de la propriété).
  • Mettre à jour Google Search Console (ajout du nouvelle propriété).
  • Soumettre un nouveau fichier sitemap XML avec les URLs en https.
  • Vérifier vos liens internes (maillage interne).
  • Mettre à jour le maximum de liens entrants (backlinks).

4. Vérification du sitemap XML

Un sitemap XML (également appelé plan de site XML) est un fichier qui répertorie toutes les URLs que vous désirez que les moteurs de recherche indexent.
Cela aidera ces derniers à :

  • Comprendre la structure interne de votre site internet.
  • Faciliter l’exploration de votre site web.
  • Indexer plus rapidement votre nouveau contenu textuel.
  • Trouver et indexer toutes les pages de votre site même les plus profondes.
  • Optimiser votre budget crawl.

Pour être efficient, un plan de site XML doit :

  • Inclure que les versions canoniques de vos URLs.
  • Inclure toutes les pages mises à jour.
  • Ne pas inclure les URLs «noindex».
  • Être envoyé à la Search Console de Google.

Création d'un sitemap XML sur un site WordPress

Si vous avez un site sous WordPress, il n’y a rien de plus simple pour créer un plan de site XML. Cela se passe dans votre plugin SEO, tel que Yoast SEO. Il faut :
  • Aller dans votre tableau de bord WordPress.
  • Aller dans les réglages généraux de Yoast SEO.
  • Cliquer sur « fonctionnalités ».
  • Activer le plan de site XML.
  • Enregistrer les modifications.
Et voilà, votre sitemap XML est créé. Il ne restera plus qu’à le configurer selon votre choix.
Yoast SEO - Sitemap XML

Pour vérifier votre sitemap XML, il suffit de taper son adresse dans votre navigateur, et qui se présente comme ceci : « votrenomdesite.fr/sitemap_index.xml ».
(bien sûr, remplacez votrenomdesite.fr par l’url de votre site).

En cliquant sur les fichiers d’index, vous aurez les détails des URLs.

XML Sitemap

Ajout de votre sitemap XML dans la Search Console

Après avoir créé votre sitemap XML via Yoast, il faut désormais le soumettre à Google pour qu’il en prenne compte.
Pour cela, il faut :

  • Aller dans le tableau de bord de la Search Console.
  • Aller dans la section « Index » et sélectionnez « Sitemaps ».
  • Un champ « Ajouter un sitemap » est présent : saisissez votre URL du sitemap XML.

Il ne reste plus qu’à attendre quelques jours que Google le vérifie et le prenne en compte.

Ajout sitemap XML - Search Console

Vérification de votre sitemap XML dans la Search Console

Quelques jours ont passé et Google a pris en compte votre sitemap XML.
Vous pourrez savoir :

  • URL envoyées : est la date d’envoi des URLs par le fichier à Google.
  • Dernière lecture : est la dernière date de lecture du fichier par le moteur de recherche.
  • État : Indique si l’opération s’est bien effectuée (ou non).
  • URL découvertes  :est le nombre d’URLs que Google a découvert dans votre fichier.

Il ne reste plus qu’à vérifier si tout est correct.
Pour cela, il faut ouvrir le rapport de couverture d’indexation de votre plan de site XML en cliquant sur le pictogramme tout à droite du tableau « Sitemaps envoyés ». 

Sitemap XML - Google Search Console

La couverture d’indexation du sitemap XML s’affiche.
Logiquement, le nombre d’URLs découvert doit correspondre au nombre que Google a indexé dans son rapport de couverture de votre site internet.  
À défaut, il y a un problème qu’il faudra résoudre.

Couverture indexation sitemap XML - Search Console
Rapport de couverture Search Console

5. Vérification des liens cassés

Il est important pour votre référencement naturel, mais aussi pour l’expérience utilisateur que votre site internet ne comporte aucun lien cassé (également appelé lien mort) que cela soit des liens sortants ou pire des liens internes.

Pour vérifier l’état de vos liens externes et de votre maillage interne, vous pouvez utiliser ce petit outil, gratuit, qui fonctionne très bien : Brokenlinkcheck.

6. Vérification des balises Meta noindex

Les balises Meta noindex sont des balises HTML qui permettent d’indiquer aux moteurs de recherche de ne pas indexer une page.

Elles sont placées dans la section « head » de votre page web et se présentent comme ceci :.

Balise Meta noindex

La première ligne indique à tous les moteurs de recherche de ne pas indexer cette page.
La deuxième ligne indique à Google uniquement de ne pas indexer cette page.
La troisième ligne indique à BING uniquement de ne pas indexer cette page.

Pour vérifier si votre balise noindex est bien configurée, cela se passe encore dans la Search Console
Il faut :

  • Taper l’URL de la page concernée dans la barre de recherche.
  • Cliquer sur le bouton « Tester l’URL en direct ».
Test URL en direct - Google Search Console

Si un message « Google a accès à celle URL » s’affiche, cela signifie que votre balise meta noindex n’est pas configurée correctement.
Par contre, si le message « Exclue par la balise noindex », cela signifie que votre balise fonctionne parfaitement.

7. Vérification de la structure de votre site

La structure de votre site internet doit être simple, logique et peu profonde.

Elle doit permettre à :

  • L’internaute de trouver facilement et rapidement l’information (ou contenu) désirée.
  • Google d’explorer facilement 100% des pages de votre site, même les plus profondes.

Il faudra que vous vous assurez que la profondeur d’exploration de votre site soit < 3 clics.
Cela veut dire, que les pages les plus importantes de votre site ne doivent pas être à plus de 3 clics de votre page d’accueil.

Il faudra également vérifier votre maillage interne afin qu’il n’existe pas sur votre site internet des pages orphelines.
Ces dernières sont des pages qui ne reçoivent aucun lien venant d’autres pages de votre site web.

8. Vérification des redirections

Une redirection est l’action de rediriger l’internaute et les moteurs de recherche, vers une URL différente de l’URL source, et cela, de façon automatique et transparente.

Il existe plusieurs types de redirections, mais dans le cas présent, seules 2 vous intéressent :

  • La redirection 302 qui est temporaire.
  • La redirection 301 qui est permanente.

Évitez si possible la redirection 302 car elle ne transférera pas de jus de lien (Link juice) à la nouvelle page.

Évitez aussi les longues chaines de redirection (>5) car :

  • Cela peut empêcher les robots d’indexations (bots) de suivre la chaîne.
  • Vous perdez du «jus de lien» à chaque redirection.
  • Il y a un risque de redirections cassées.

9. Vérification du contenu dupliqué

Google n’apprécie pas le contenu dupliqué (appelé aussi duplicate content), mais ne vous pénalisera pas directement.
Avec l’aide de son filtre Google Panda, il considérera votre contenu (dupliqué) comme étant de faible qualité et ne le positionnera pas, de fait, dans les premières positions dans ses pages de résultats de recherche (SERP). 

La duplication de contenu se trouve généralement au niveau :

  • De votre nom de domaine.
  • De vos balises. 
  • De votre contenu interne.
  • Des sites externes.

Contenu dupliqué au niveau de votre nom de domaine

Il est impératif qu’une seule et unique adresse de votre site internet soit consultable par les internautes.

Prenons comme exemple que vous possédez plusieurs adresses pour un même site web :

  • http://votrenomdedomaine.fr
  • http://www.votrenomdedomaine.com
  • https://votrenomdedomaine.fr
  • https://www.votrenomdedomaine.com.

Si vous laissez comme tel, et que les internautes puissent accéder à votre site internet par une de ses 4 adresses, cela est du contenu dupliqué.
Pour supprimer ce duplicate content, il faudra choisir une seule adresse (qui sera la version canonique) et tous les autres devront être redirigées (redirection 301) vers cette dernière.

Pour vérifier si les redirections de domaines sont bien effectuées, vous pouvez utiliser ce petit outil, gratuit, très efficace : redirect-checker.

Contenu dupliqué au niveau des balises

Google aime bien l’unicité d’information.
À défaut, il aura du mal à savoir quelle page de votre site web classer dans ses résultats.
Rappel : « une page web = 1 mot-clé ».

Pour cela, devront être uniques sur tout votre site internet :

  • Les balises Title.
  • Les balises Meta-description.
  • Les balises H1.

Contenu dupliqué au niveau interne

Pour la même raison que précédemment, vous ne devez pas avoir 2 pages de votre site web qui traitent, même partiellement, du même sujet.
C’est ce que l’on appelle dans le monde du SEO (Search Engine Optimization), la « cannibalisation des mots-clés ».
La conséquence directe est que Google privilégiera une page au détriment de l’autre.

L’utilisation de balises canoniques (balise canonical) est une excellente option pour éviter le duplicate content pour des pages au contenu très similaire, par exemple, vous êtes le propriétaire d’un site E-commerce et vous avez une page d’enceinte Bluetooth avec des couleurs différentes.
En les utilisant, vous indiquez à Google quelle est la page principale (canonique) et les autres pages, les variations. 

Pour vérifier si vous avez du contenu dupliqué, partiel ou total au niveau interne de votre site web, vous pouvez utiliser ce petit outil gratuit, Siteliner.

Contenu dupliqué de sites externes

Le contenu en externe est le contenu qu’un internaute peut trouver sur votre site, mais aussi sur d’autres sites web. 
Google et tous les autres moteurs de recherche (Bing, Yahoo, Qwant, Ecosia, DuckDuckGo, …) n’aime pas le contenu dupliqué en interne, mais surtout déteste le contenu en externe, car il ne sait pas qui est l’auteur original de la page.

Pour vérifier si des sites web ont copié partiellement ou pire intégralement votre contenu, vous pouvez utiliser ce petit outil gratuit : Copyscape.

Quels sont les outils SEO nécessaires pour un audit technique de site web ?

Outils SEO

Comme tout audit de référencement, que cela soit du SEO On-page, du SEO Off-Page, un audit technique de site nécessite obligatoirement d’être équipé d’outils SEO.

Bien entendu, il existe une multitude d’outils gratuits ou d’applications gratuites, les célèbres extensions Chrome pour le référencement SEO, mais beaucoup d’entre-elles ne valent pas plus que leur prix.

Pour auditer votre site sérieusement et surtout efficacement, il vous faudra acquérir des outils d’analyse puissants et complets, mais qui nécessitent, malheureusement, un abonnement payant.  

De nombreux outils SEO payants existent sur le marché pour réaliser un audit technique de site web, et sont utilisés par les professionnels du référencement web (agences SEO ou consultants SEO) selon les préférences de chacun.
Personnellement, dans le cadre de mes prestations de référencement naturel, pour analyser un site internet d’un point de vue purement technique, j’utilise : 

  • Sitebulb.
  • Screaming Frog.
  • Semrush.
  • Copyscape.
  • Google Search Console.
  • Google Analytics.

Améliorer votre référencement technique, cela vous intéresse ?

Vous désirez optimiser le référencement technique de votre site web afin d’être mieux positionner dans les résultats des moteurs de recherche.
Demandez-moi un audit technique. 

C’est gratuit et sans engagement !