
Audit SEO technique. Les 9 facteurs clés expliqués + Erreurs communes
Temps de lecture 12min
Apprendre le SEO >> SEO technique
Pourquoi se lancer dans l’audit SEO technique ? Assurer une meilleure visibilité et être compétitif
Les 4 avantages de l’optimisation technique SEO
L’audit SEO technique est le complément indispensable à ta stratégie de mots-clés et netlinking. Parce que sans lui, tes pages peuvent rester ou totalement invisibles (non indexées) aux visiteurs, ou bien moins performantes en termes de vitesse de chargement de site et de visibilité. Impactant donc aussi tes positions, et par conséquent tes chances d’avoir des clics, du trafic et des conversions.
- Repérer les problèmes invisibles à l’oeil nu, et souvent, à l’analyse des outils SEO en ligne
- Améliorer son référencement naturel par la résolution des soucis d’indexation et de crawl
- Booster l’expérience utilisateur par des pages accessibles et plus rapides
- Et si tu as des campagnes SEA: l’optimisation technique SEO, tout comme le contenu, joue aussi sur le score qualité des campagnes
Comment faire un audit SEO technique ? 9 étapes clés
- 1. Indexation (accessibilité visiteurs)
- 2. Crawl (accessibilité du site)
- 3. Vitesse chargement site
- 4. Schema markup
- 5. Java Script pour SEO
- 6. Structure site et navigation
- 7. SEO international : hreflangs
- 8. Paramètres et filtres (E-commerce)
- 9. Sécurité
Tu veux booster ton référencement maintenant ? Apprends-en plus sur notre audit SEO technique, avec conseils prêts à utiliser.
Ton site est-il accessible pour les robots ? Robots.txt, sitemaps et meta tags
Un audit SEO technique sur l’accessibilité du site pour les robots te dira si et quelles sections / pages du site sont en effet scannées par les robots des moteurs. Sans ça, tu ne verras pas les erreurs d’indexation et les blocages de crawl, qui empêchent tout simplement tes pages d’être visibles par les visiteurs dans les résultats Google, le point de départ de toute interaction avec le site. Rien que ça.
Défi : savoir ce qui est et ce qui n’est pas accessible pour les robots et à l’indexation.
Comment faire ?
Lancer un crawl avec l’outil Screaming Frog, par exemple. C’est un outil qui donne plein d’infos techniques sur chaque page, avec des filtres faciles à utiliser. On relève d’abord le ratio des pages non-indexées vs indexées.
On regarde ensuite les fichiers robots.txt et sitemap : S’assurer qu’ils sont correctement configurés, sans erreurs de syntaxe. Que les URLs à indexer (et uniquement elles) sont dans la sitemap. Que le fichier Robots ne bloque aucun fichier, section ou URL utile.
Erreur dans le Robots.txt : scripts JS et CSS bloqués
Lors de l’audit SEO technique sur un site E-commerce, on voit que des éléments animés (JS) ne s’affichent pas sur une page, qui en plus ne décolle pas dans les rankings malgré son optimisation on-page.
Solution : on examine le fichier Robots.txt, et on s’aperçoit qu’une directive Disallow bloque l’accès à certains scripts JS. Il suffit de supprimer cette ligne Disallow. Ton Robots.txt ne doit pas contenir de Disallow pour les scripts JS et CSS qui participent au rendement de la page, pour laisser les robots explorer le fonctionnement de ton site, et pouvoir rendre ses pages correctement ! Une page mal affichée renvoie une mauvaise expérience utilisateur, et peut impacter négativement les positions de référencement naturel.
L’indexation : la mise en ligne des pages sur les résultats de recherche
C’est la suite logique du premier point : une fois que les pages sont crawlées et rendues (phase Processing : file d’attente Render, puis HTML rendu), sont-elles indexées ? Pour compliquer un peu les choses, toutes les URLs d’un site ne sont pas bonnes à indexer. Fais-toi donc d’abord une liste de ce que tu veux mettre à dispo des visiteurs dans les résultats, et ce qui n’a rien à y faire (comme des pages dupliquées, sans contenu ou aux infos sensibles).
Goal ultime :
Avoir dans les résultats Google uniquement les pages de valeur, bien optimisées SEO, et celles utiles à l’expérience utilisateur (comme l’accès direct à leur compte ou login, ex.).
Solution :
Pour faire l’audit SEO technique des pages indexées, utilise surtout la Search console et la commande directement dans la barre de recherche Google site:tondomaine.com.
Ce qu’on analyse : Pages indexées, gestion des erreurs 404 et codes de réponses (soft 404, 3xx, 5xx), contenus dupliqués. En parallèle avec le trafic : y a-t-il des baisses ou hausses anormales, qui pourraient révéler ou des pages dupliquées ou trop de pages bloquées à l’indexation.
Le rapport Indexation de la Search console, une ressource gratuite et puissante pour voir :
– Les codes de réponse : les erreurs 404, soft 404 et 500, qui sont des pages vues comme inexistantes (4xx), pas intéressantes (soft 404) ou inaccessibles (en raison d’un souci externe, le serveur. 5xx) par Google et amènent les visiteurs à des impasses. A corriger seulement si l’impact est négatif sur le trafic et l’expérience utilisateur.
– Les contenus dupliqués ou insuffisants : les pages dans la section “canonique utilisé par Google différent de celui défini”. D’autres pages que tes canoniques (tes pages au contenu original, que tu veux avoir dans les SERPs) sont données aux visiteurs.
Indexation : Erreur commune vue dans l'audit SEO technique
Un des soucis majeurs pour beaucoup : un trafic qui stagne, ne décolle pas ou décline. Parfois, c’est un problème d’indexation, plus ou moins simple à repérer et résoudre.
Cas 1 lors d’un audit SEO technique : dans le rapport Indexation de Search console : ratio de pages non indexées en hausse, avec un nombre très élevé (ratio de +30%) de “Canonique utilisé par Google différent du canonique défini”. Beaucoup de pages produits non éligibles à l’indexation, et remplacées par une même page, en raison de contenu dupliqué.
Recommendation : analyser au cas par cas l’importance de ces pages produits. Prioriser les pages clés, et les rendre uniques (contenu, metas titre et description, H1s, liens internes) afin qu’elles soient reconnues comme utiles, et ainsi être indexées.
Cas 2, courant et simple à résoudre : des pages bien optimisées SEO n’apparaissent pas dans l’index.
Constatation: balise No-index présente sur ces URLs. Il suffit donc d’enlever la balise.
Vitesse de chargement site : les Core Web Vitals
Surtout sur mobile, les utilisateurs sont de moins en moins patients. Une page chargeant en plus de 3 secondes a plus de risques de perdre de suite les visiteurs. Si tes concurrents sont plus rapides, une vitesse de chargement lente peut aussi indirectement mener à une perte de positions sur Google. Si tu vois une baisse inexpliquée de trafic et des impressions par exemple, pense à faire un petit audit SEO technique de la vitesse de chargement !
Défi : quels sont les blocages pour la performance de la vitesse de chargement de site, au niveau global, mais aussi pour tes pages clés ? Comment suis-je placé(e) face à mes top compétiteurs ?
Que regarder : Lors de l’audit SEO technique, on se pose ces questions :
- – Quels CWV sont dans le rouge, et à soigner en priorité
- – Quels sont les blocages ? Les plus communs à beaucoup de sites : éléments bloquants l’affichage du contenu (rendering blocking) comme des fichiers JS et CSS, images non optimisées ralentissant le site, TBT (total blocking time) ralenti par des fichiers lourds et mal placés (JS, CSS)
- – Comment les prioriser selon leur impact sur la vitesse de chargement du site et leur difficulté à résoudre
Ce sont des conseils techniques, il faut donc soit se mettre au jargon, soit faire appel à un consultant SEO ou un développeur.
Chez The indigo cactus, on utilise aussi Chrome dev tool et GT Metrix de l’audit SEO technique, pour visualiser les graphiques waterfalls: de précieuses infos en ressortent, comme le déroulement de chargement de chaque fichier, avec son poids, sa priorité dans la pipeline, et le temps de process. Tu vois alors les fichiers les plus lourds, répartis par type (images, HTML, JS, CSS).
Outils SEO technique :
Screaming frog, Semrush et surtout Page Speed Insights te donnent des infos sur la vitesse au niveau page, avec des conseils.
Chrome developer tool, tabs Network et Performance (Core Web Vitals maintenant intégrés), te laisse voir le déroulement du chargement en temps réel : l’ordre et le temps de chargement de chaque script ou fichier.
SEO et Java Script - cet animal à apprivoiser
Une mauvaise gestion du JavaScript peut ralentir le chargement de tes pages, affecter l’indexation des contenus et nuire à l’expérience utilisateur. Résultat : du contenu qui se perd, jusqu’à des pages clés qui n’apparaissent pas sur les moteurs de recherche. Si les robots peuvent lire le JS, ils ne le voient pas aussi vite que le HTML : ils scannent d’abord le HTML brut (le squelette du code du site) lors du crawling, puis découvrent le contenu ou liens JS pendant le rendering. Ces éléments sont ensuite stockés avant d’être lus puis indexés.
Qu’importe le type de site : du moment que tu utilises un CMS, Java Script est un invité que l’on retrouve dans chaque cas, rien qu’à cause des plugins. Et si tu as un site E-commerce, l’audit SEO technique du Java Script est incontournable. Pour voir si certains contenus, sections du site ou éléments critiques comme les formulaires, sont accessibles à Google et aux utilisateurs.
Défi : les scripts JS sont-ils bien placés dans le code ? Sont-ils optimisés (taille, quantité) ? Les éléments importants sont-ils accessibles sans JS (pour être vus à temps par les robots) ?
Comment faire l’audit SEO technique du Java Script ?
- – Dans Chrome dev tool > désactiver JS (clic sur les 3 points en haut à droite > Run command > Disable JS) et rafraichir la page – tous les éléments fonctionnent-ils ? (liens, boutons JS, menus hamburgers)
- – Dans Rich result tool > Inspect URL > chercher éléments JS clés dans le HTML rendu (ce que voit Google in fine). Si tu les vois : ils sont identifiés puis rendus normalement dans le HTML par les robots.
- – Regarder si messages d’erreur JS, dans la meme section
- – Utiliser un outil de crawl avec option de crawl JS pour voir les contenus et éléments bloqués
- – Dans Page speed insights ou chrome dev : repérer les scripts les plus lourds, qui bloquent le chargement (TBT), qui n’ont pas de tag Defer ou Async (pour les scripts inutiles au début du chargement. Scripts non critiques)


Test de parité JS et erreur commune : liens JS ignorés
Exemple d’audit SEO technique sur une marketplace B2C à base de NextJS (javascript) : test de parité entre le code brut HTML et le code rendu après exécution du Java Script. On désactive le JS dans Chrome dev tool, et on se rend compte que certains liens sur les pages produits ne fonctionnent plus. En cherchant ces liens dans le HTML rendu, dans Rich reult tool, on ne les retrouve pas. Ces liens de cross-selling, renvoyant vers des produits similaires, sont tagués avec des balises < span>. Ils ne sont donc pas pris en compte par les robots, et ne sont pas rendus dans le HTML brut. Du contenu qui peut échapper à l’indexation.
Recommandations pour une meilleure implémentation : installer les liens dans le code brut HTML, avec des balises classiques HTML < a href>< /a>.
La structure et navigation du site
Comment l’architecture du site est construite ? Suit-elle la logique sémantique et la priorisation des produits/services ? Tout cela a aussi un impact sur le référencement naturel : plus la structure et navigation sont claires et adaptées au site et ses mots-clés, plus le scan par les robots est facilité. Et mieux ils comprennent de quoi il s’agit.
Défi : la navigation et la structure des URLs est-elle logique par rapport à mes mots-clés et services/produits principaux ? Puis-je réduire le nombre de clics nécessaires pour atteindre les pages importantes ?
Que regarder pendant l’audit SEO technique ?
Screaming frog te donne l’arborescence du site : notre conseil est de la télécharger et la copier dans ton doc audit SEO technique, dans une tab séparée, pour repérer de suite l’organisation des sections du site, les possibles pages orphelines (dans la partie “Profondeur” sur Screaming frog) et le nombre d’étages dans ton arborescence.
Profondeur et hiérarchie des URLs : tes pages clés sont-elles entre 0 et 3 clics de profondeur, depuis la page d’accueil ?
Y a-t-il des pages orphelines, qui ne sont rattachées à aucune section et se baladent donc sans possibilité d’être trouvées par les visiteurs sur le site ?
Des pages clés pas vraiment mises en valeur : Erreur de structure révélée par l'audit SEO technique
Exemple d’audit SEO technique sur un site de services (leads generation) : arborescence étudiée depuis Screaming frog, en repérant la profondeur des URLs clés, ayant les mots-clés importants (donc services phares). Certaines de ces URLs à fort potentiel et optimisées on-page, stagnent dans les rankings.
Constatation : elles sont enfouies à +3 clics dans le menu et ne sont pas accessibles sur la page d’accueil. Elles reçoivent aussi peu de liens internes depuis les pages hautes dans l’arborescence. Elles ne sont donc pas vraiment montrées comme dignes d’intérêt aux robots, ni aux visiteurs.
Suggestion d’optimisation technique SEO : remanier la navigation pour mettre les pages les plus importantes à moins de 3 clics de portée. En intégrer au contenu de la home page, pour mettre en valeur ces services. Revoir la distribution des liens internes pour faire de ces pages à la fois des récepteurs et des points d’envoi de liens vers du contenu hautement similaire.
Le SEO international : les Hreflangs
Si tu as un site multilingue, et que les pages ne sont pas codées selon leur langue, pays ou région, elles peuvent atterrir dans les SERPs du mauvais pays, ou renvoyer la mauvaise langue.
Le SEO international est un point vraiment incontournable lors d’un audit SEO technique pour un site à plusieurs langues ou pays cibles. Pour les hreflangs, il y a plusieurs conditions à connaître pour qu’ils soient bien écrits dans le code. Ils sont placés dans la “head” du site.
Défi : s’assurer que les hreflangs sont bien construits, et qu’il n’y a pas de risque de duplicatas ou d’erreurs d’affichage des pages dans chaque pays/langue voulu. Le site est-il bien structuré en sous-dossiers (à préférer au sous-domaine) pour chaque langue ?
Méthode pour auditer les hreflangs:
- La syntaxe des liens hreflangs est-elle bien faite ? Elle se structure avec le lien de la page elle-meme (self-reference), chaque URL miroir (ses doublons dans toutes les autres langues de ton site), puis le code Langue-pays et l’URL X-default (la page par défaut que tu veux renvoyer aux visiteurs, en cas de souci. On prend ici la langue principale du site.). Exemple:
Ici encore, tu peux utiliser Screaming frog, qui a une section dédiée, avec le nombre de balises manquantes ou mal faites.
Regarder directement dans le code, avec le clic droit “voir code source” te montre sans détours la présence ou non, et la syntaxe, de tes hreflangs.
Pour vérifier automatiquement la validité des balises: l’extension chrome hreflang Tag Checker ou l’outil Merkle. Le mieux étant bien entendu de combiner ça avec un audit SEO technique manuel de la syntaxe de tes balises Hreflangs.
Le SEO technique est un aspect parfois oublié, qui joue pourtant, dans ce monde digital de plus en plus influencé par l’IA, un rôle crucial.
Le Schema markup : porte d’entrée pour les résultats IA et résultats riches
Le balisage Schema, parfois oublié, est un outil puissant pour gagner plus de place sur les pages Google, en étant éligible aux résultats riches : caroussels d’images, pack local … Chez nous, elles font partie intégrante de l’audit SEO technique.
Défi : les pages ont-elles des données structurées SEO ? Et sont-elles appropriées au contenu, placées au bon endroit et bien formatées, évitant des pénalités ?
Solution : On regarde dans le code HTML, puis on utilise l’outil Rich result de Google pour vérifier la validité des données et les modifier dans l’éditeur pour voir directement les changements !
Paramètres et filtres : essentiels pour l’audit SEO technique d’un E-commerce
L’audit SEO technique des URLs à paramètres et filtres : à ne pas oublier surtout si tu as un site E-commerce. Ces URLs, souvent générées par les CMS, permettent de trier ou filtrer les produits (par prix, taille, couleur, etc.). Pour ton référencement naturel, elles peuvent poser des problèmes techniques si elles ne sont pas bien gérées.
D’abord, le fameux contenu dupliqué : plusieurs URLs différentes mènent à des pages similaires, voire la même page. L’exemple de ce filtre pour voir seulement les produits les plus populaires :
https://mucknbrass.com/collections/best-sellers?sort_by=best-selling.
Cette URL sera vue, par Google, comme exactement la même que la page originale sans filtre https://mucknbrass.com/collections/best-sellers.
D’autre part, ces URLs peuvent surcharger le budget de crawl, surtout si un grand nombre d’entre elles est indexé inutilement. Analyser ces URLs permet d’identifier les doublons, de bloquer celles inutiles via un fichier robots.txt, ou de les gérer avec des balises canonical.
Défi : quelles URLs à paramètres ont un impact négatif sur le budget crawl et l’indexation ? Puis-je supprimer certains filtres ou paramètres ? Quels paramètres optimiser et comment (blocages robots.txt, no-index, canonique, ou opportunité de nouveau contenu unique ?)
Comment faire ?
- – Avec screaming frog ou autre crawler, repère toutes les URLs à paramètres (qui contiennent “?”)
- – Examine tes fichiers logs (search console) : y a-t-il beaucoup d’URLs à paramètres crawlées ?
- – Regarde le rapport d’indexation Search console, pour voir si les paramètres sont indexés
- – Ouvre Google Analytics (GA4) pour voir si ces URLs ont du trafic, des conversions …
Avec ces infos : on analyse pendant l’audit SEO technique, au cas par cas, comment traiter ces URLs, si elles méritent ou non de rester indexées, crawlées. Si on peut en faire des pages indépendantes, si elles ont une très bonne performance et utilité pour les visiteurs. Ou bien si l’on peut supprimer des filtres et paramètres sans valeur !
Les en-têtes de sécurité
Il s’agit de vérifier les basiques tout comme des aspects plus avancés : le protocole HTTPS, l’ergonomie sur mobile et les headers sécurité.
Défi : protéger le site contre les attaques communes sur le web, surtout pour les sites E-commerce et collectant des données sensibles. Assurer une bonne expérience sur mobile.
Comment faire ? On utilise le fichier .htaccess pour installer des en-têtes de sécurité qui bloquent certaines attaques. C’est une optimisation technique SEO qui doit se faire sur un site test avant, car ca peut “casser” le site parfois. Il faut savoir ce qu’on fait, le mieux étant de confier cela à un consultant SEO ou un développeur.
Quelques en-têtes les plus communes :
- Strict-Transport-Security: pour forcer l’usage de HTTPS lors du chargement de la page
- X-Content-Type-Options: bloque le mécanisme de reniflage MIME
- X-Frame-Options: Une autre attaque courante consiste à abuser des iframes, des sections d’une page web dans lesquelles d’autres pages web peuvent être affichées.
- Cache-Control:
Il précise la durée pendant laquelle les informations d’une page web doivent être conservées dans la mémoire cache d’un navigateur. Il n’est pas souhaitable qu’un navigateur conserve des informations financières provenant d’un site bancaire, par exemple.
Outils d’audit SEO technique:
- le site securityheaders. Tu obtiens un score de sécurité, avec des suggestions d’améliorations.
- L’extension Link redirect trace t’affiche les en-têtes présentes sur ton site.

Ton site mérite d’être vu ! Pour ça, l’audit SEO technique est la meilleure manière de repérer maintenant les opportunités d’amélioration. Pour booster ta visibilité face aux concurrents. Et gagner en conversions.