1) La balise title
C’est la balise visible dans la page des moteurs de recherche, elle est donc visible pour les internautes. Il est important de ne pas faire d’erreur sur cette balise car c’est elle qui va servir au référencement naturel et donc au positionnement. Pour optimiser cette balise, il est important de respecter un nombre de caractère maximum afin que celle-ci ne soit pas tronquée. Il est recommandé de ne pas dépasser les 65 caractères, et de privilégier l’usage des minuscules. Il est donc important de vérifier que toutes les pages d’un site ont une balise title, qu’il n’y ait pas de titre en double, et que les titres ne soient ni trop courts (moins de 30 caractères) ni trop long.
2) Les balises H1 et H2
La balise H1 correspond au plus gros titre d’une page, il doit être unique pour chaque site internet. La balise H2 correspond aux titres qui viennent dissocier chaque partie d’une page, ce sont des titres de césure. Lors d’un audit, il est important de faire les mêmes vérifications que pour les balises title.
3) La balise meta description
La balise meta description correspond à la courte description qui suit le titre d’un site lorsqu’une requête est faite sur les moteurs de recherche. Elle doit respecter certaines règles bien précises pour garder toutes ses propriétés de référencement naturel. Elle doit résumer le contenu qui se trouve sur votre page, se limiter à 156 caractères, être bien structurée, avoir du sens, et contenir des mots-clés du sujet de votre page.
4) La profondeur des pages
La profondeur des pages correspond au nombre de clic qu’il est nécessaire de faire depuis la homepage pour arriver jusqu’à la page désirée. Plus il y a de nombre de clic, plus la marge sera profonde. Il est recommandé de ne pas aller au-delà des 4 clics.
5) La pagination
La pagination d’un site permet de créer des sous-pages de contenu lorsqu’il y en a beaucoup (par exemple les sites e-commerce avec des nombreux produits pour chaque catégorie). Plus précisément, c’est une technique d’organisation du contenu en plusieurs pages dynamiques. Pour vérifier que la pagination d’un site soit optimisée en terme de référencement, il est recommandé de bien mesurer la pertinence de celui-ci à l’aide d’un crawler et d’un analyseur de logs.
6) Le fil d’Ariane
Le fil d’ariane permet d’indiquer à l’utilisateur et aux robots où ils se trouvent selon le plan du site. Il a une grande importance pour les robots qui se servent de ce code pour se repérer sur le site. Le fil d’ariane a une grande importance pour le SEO, car il permet de réduire le taux de rebond en guidant les visiteurs sur un site internet. Il permet également de faire des liens en arborescence, ce qui contribue au maillage interne. Il est donc important durant un audit de vérifier que le fil d’ariane est présent et pertinent sur un site.
7) La structure des urls
L’url des pages web, ce sont les les liens qui vont apparaître sur les pages des moteurs de recherche, il est donc très important que ces urls soient optimisées. Lors d’un audit, il faut dans un premier temps vérifier que les urls respectent le format ASCII. Les fichiers au format ASCII (American Standard Code for Information Interchange) sont des fichiers textes qui permettent à un document d’être reconnu et lu facilement par n'importe quelle plateforme ou le système d'exploitation. Si les urls ne sont pas conforment, il faudra alors les convertir en ASCII.
8) La balise canonical
C’est un tag qui se trouve dans le code HTML et qui indique aux robots des moteurs de recherche qu’une page web est la version principale afin de la différencier d’un contenu proche ou dupliqué. Cette balise n’est pas à négliger et permettra d’éviter que Google ne détecte du contenu dupliqué. Il faudra donc veiller à ce que cette balise soit placée sur toutes les pages de contenu dupliqué d’un site (ainsi les robots ne perdront pas de temps à analyser cette page et iront directement sur la page principale).
9) L’optimisation des images
Une image trop lourde est une image qui ralenti un site internet. Il est donc important de les alléger au maximum, mais également de renseigner leur attribut ALT afin de confirmer à Google que l’image a bien un lien avec le contenu de la page.
10) Les vérifications d’indexation
a) Le fichier robots.txt :
Les fichiers robots.txt permettent d’indiquer aux robots de Google les pages web que vous ne souhaitez pas voir indexées ni crawlées. Pour vérifier que ce fichier a été mis en place et qu’il contient bien les pages souhaitées, il suffit de taper l’url du site dans la barre de recherche du navigateur, et de terminer l’url par « /robots.txt ».
b) Les fichiers sitemap :
Les fichiers sitemap sont la plupart du temps des fichiers xml qui indiquent aux robots Google les pages qu’il est préférable de crawler en priorité afin de les indexer. La vérification de ces fichiers pourra se faire via Google Search Console, dans la rubrique « Sitemap ».
c) Les rapports d’erreurs Google Search Console :
Les données accessibles via Google Search Console sont des indicateurs clés dans l’audit d’un site, notamment d’un point de vue SEO. Google Search Console analyse les données d’un site et communique des informations sur son référencement. Il est donc important de s’attarder sur les erreurs que l’outils a pu relever sur un site internet.