AI Labs Audit

Document généré le

Bien vue par les IA, mais votre site technique freine votre progression.

+19 pts vs audit précédent

Action prioritaire : +1 pts en 30 min — Bloquer les bots d'entraînement dans robots.txt

Visibilité IA
B+
84/100 +27
GEO Technique
C+
59/100
AEO Readiness
A
87/100
Métriques principales
6 en hausse 0 en baisse 0 stables
Score de Visibilité
+27.6
84%
84.4%
Taux de Présence
+65.0
96%
96.7%
Part de Voix IA
+2.7
77%
77.7%
Position Moyenne
+0.1
66%
2.0
Sentiment
+4.6
69%
6.9/10
Couverture Thématique
+3.3
96%
96.7%
Radar Sectoriel
Votre empreinte IA comparée à votre secteur
AI Labs Audit
Audit précédent
Évolution dans le temps
Métriques techniques
SSR / Crawlabilité IA
87
SSR: 90%
Robots.txt: 60%
Acces IA: 100%
llms.txt: 100%
Framework: Next.js
Entity Health Check
33
Wikidata: 0
Propriétés: 0
Schema.org: 100
sameAs: 33
Qualite des mentions

Pas de données — lancez un nouvel audit

Citation Readiness
43
Sources: 50
Stats: 0
Experts: 0
Densité fact.: 48
Paragraphes: 29
Questions H2: 25
Rép. directes: 80
Source Authority
49%
Owned: 232 Tiers: 237
ailabsaudit.fr (21) averi.org (10) arxiv.org (10)
Brand Safety
77%
45 erreur(s) factuelle(s)
[claude-haiku-4.5] brand not recognized
[gemini-2.0-flash-001] brand not recognized
Score Natif vs Web
80.8% Score
Score sans Internet
Ce que les IA savent de vous par défaut
VS
Web +0.4
81.2% Score
Score avec Internet
Ce que les IA trouvent en cherchant
Excellent ! Les IA vous connaissent très bien, avec ou sans recherche web. Votre marque a une forte empreinte dans les données d'entraînement.
Détail par modèle IA
Modèle IA Score Sentiment Position Taux de mention
Claude Haiku 4.5 NATIF
6.9/10
7.4
#1.9
100.0%
Gpt 5:Online WEB
6.5/10
6.8
#2.2
96.7%
Gemini 2.0 Flash 001:Online WEB
6.8/10
6.8
#1.8
96.7%
Gemini 2.0 Flash NATIF
6.8/10
6.7
#2.0
96.7%
Claude Haiku 4.5:Online WEB
6.9/10
6.8
#1.8
96.7%
Gpt 5 NATIF
6.3/10
6.8
#2.5
93.3%
Analyse par Section GEO Scores détaillés par catégorie de prompts
S1 — Visibilité & Notoriété
4/4 catégories testees
7.2/10
Connaissance de marque
7.8/10
8.1
100%
+5.2
Couverture thématique
6.3/10
5.9
83%
+3.8
Empreinte digitale
6.9/10
7.2
100%
+4.2
Visibilité multilingue
7.9/10
8.2
100%
+5.9
S3 — Sentiment & Perception
3/3 catégories testees
5.8/10
Sentiment général
5.4/10
5.8
100%
+3.3
Réputation & Image
5.6/10
5.6
100%
+3.8
Gestion de crise
6.5/10
6.2
100%
+4.1
S4 — Positionnement Concurrentiel
5/5 catégories testees
7.4/10
Comparaison directe
6.9/10
8.1
100%
+4.2
Duel concurrentiel
7.6/10
7.8
100%
+4.7
Classement & Top N
7.6/10
7.9
100%
+4.9
Alternatives & Substituts
6.7/10
6.3
100%
+4.5
Différenciation
8.1/10
8.3
100%
+5.6
S5 — Intentions de Recherche
8/8 catégories testees
7.0/10
Direct / Navigationnel
7.5/10
8.1
100%
+5.1
Informatif
7.6/10
6.7
100%
+6.1
Comparatif
6.6/10
7.7
100%
+4.1
Transactionnel
7.4/10
7.6
100%
+5.0
Intentionnel ciblé
7.4/10
8.0
100%
+4.8
Local & Géographique
6.5/10
6.7
100%
+4.1
Vocal & Conversationnel
7.5/10
8.2
100%
+5.2
Résolution de problèmes
5.8/10
5.9
100%
+3.5
S6 — Parcours Client & Recommandation
5/5 catégories testees
6.4/10
Recommandation IA
7.5/10
7.6
100%
+5.3
Ciblage par persona
7.0/10
7.3
100%
+4.7
Micro-moments client
3.0/10
8.5
17%
+2.3
Matching business
6.8/10
7.2
100%
+4.7
Intentions d'achat avancées
7.7/10
8.0
100%
+5.8
Fichiers de visibilité IA (AEO)
robots.txt
Présent
26.4 KB
Bots IA :
  • GPTBot
  • OAI-SearchBot
  • ChatGPT-User
  • ClaudeBot
  • Claude-SearchBot
  • PerplexityBot
  • Google-Extended
  • Applebot-Extended
  • meta-externalagent
sitemap.xml
Présent
857 URLs
Sitemap index (5 sous-sitemaps)
llms.txt
Présent
7.9 KB
llms-full.txt
Présent
71.9 KB
Scan vue bot IA — 10 pages analysees avec User-Agent GPTBot (home + 3 FAQ, 2 blog, 2 guide, 2 random)
AQA
Standard
3 Q&A enrichies — trouve sur 4/10 pages
3 datees 3 sourcees 3 changelog
Pour passer a FULL :
- author credentials (jobTitle, affiliation) on each question
Schema FAQ
Présent
trouve sur 10/10 pages
FAQPage: 28 questions
HowTo: 4 etapes
Article BlogPosting BreadcrumbList FAQPage HowTo ItemList
OpenGraph
5/5
trouve sur 10/10 pages — 100% de couverture complete (>=4/5 tags)
+5 bonus (dates, auteur)
RSS Feed
Absent
Aucun flux RSS ou Atom détecté.
Aucun <link rel="alternate"> RSS/Atom sur 10 pages.
Checklist GEO complète Optimisation pour les moteurs IA génératifs
Contenu recupere via : Vue Chrome (utilisateur) | Fiabilite 100%
92% GEO
Accessibilité IA
100%
Entite & Schema
100%
Citabilite du contenu
100%
Autorité & Confiance
67%
Fraicheur & Signaux
67%
A
Note
Accessibilité IA
Robots.txt autorise les IA — tous les crawlers IA autorises
Le fichier robots.txt contrôle quels bots peuvent explorer votre site. S'il bloque les crawlers IA (GPTBot, ClaudeBot...), votre contenu ne sera jamais indexé par les moteurs IA génératifs.
Bots IA : GPTBot OAI-SearchBot ChatGPT-User ClaudeBot Claude-SearchBot PerplexityBot Google-Extended Applebot-Extended meta-externalagent
Actions à réaliser
  • Vérifier que le fichier robots.txt est accessible à /robots.txt (HTTP 200)
  • Vérifier l'absence de blocage global User-agent: * / Disallow: /
  • Vérifier que GPTBot n'est PAS dans une directive Disallow
  • Vérifier que ClaudeBot n'est PAS dans une directive Disallow
  • Vérifier que Claude-SearchBot est autorisé
  • Vérifier que OAI-SearchBot est autorisé
  • Vérifier que PerplexityBot est autorisé
  • Vérifier que Google-Extended est autorisé
  • Vérifier que Applebot-Extended n'est pas bloqué
  • S'assurer que les répertoires de contenu public (/blog/, /services/, /about/) sont accessibles
Comment vérifier
Relancer un audit AI Labs Audit avant/après modification. Vérifier dans les logs serveur l'apparition de requêtes des bots IA dans les 2-4 semaines suivant la modification. Tester manuellement avec curl -A "GPTBot" https://votresite.com/.
Sitemap.xml accessible — 857 URLs
Le sitemap aide les crawlers IA à découvrir toutes vos pages importantes. Sans sitemap valide, certaines pages risquent de ne jamais être indexées par les IA.
857 URLs — Index (5 sitemaps)
Actions à réaliser
  • Vérifier que /sitemap.xml retourne un HTTP 200
  • Vérifier que le sitemap est référencé dans robots.txt via Sitemap: https://votresite.com/sitemap.xml
  • Vérifier que le XML est valide (pas d'erreurs de parsing)
  • Vérifier que les balises <lastmod> sont présentes sur chaque URL
  • Vérifier que les dates <lastmod> correspondent aux vraies dates de mise à jour
  • Vérifier qu'il n'y a pas d'URLs en erreur (404, 500) dans le sitemap
Comment vérifier
Vérifier dans Google Search Console l'état d'indexation du sitemap. Surveiller les logs serveur pour les accès au sitemap par les bots IA.
Fichier llms.txt — 7.9 KB
Le fichier llms.txt est un standard émergent qui aide les IA à comprendre rapidement votre site. Il fournit un résumé structuré de votre activité et de vos pages clés.
7.9 KB
Actions à réaliser
  • Créer un fichier /llms.txt à la racine du site
  • Ajouter un titre H1 avec le nom de l'entreprise
  • Ajouter un blockquote de résumé (2-3 phrases décrivant l'activité)
  • Lister les pages clés avec URL et description courte (accueil, services, à propos, tarifs, FAQ, blog)
  • Respecter le format Markdown valide
  • Tester l'accessibilité avec curl https://votresite.com/llms.txt
  • Optionnel : créer aussi un fichier /llms-full.txt avec le contenu complet
Comment vérifier
Surveiller les logs serveur pour les accès au fichier llms.txt. Note : l'impact direct n'est pas encore prouvé, c'est un signal de préparation IA.
HTTPS activé
HTTPS est un prérequis de confiance pour tous les moteurs IA. Un site sans HTTPS est considéré comme non fiable et sera rarement cité comme source.
Actions à réaliser
  • Vérifier que le site est accessible en HTTPS
  • Vérifier que le certificat SSL est valide et non expiré
  • Vérifier que la redirection HTTP → HTTPS est en place (301 permanent, PAS 302)
  • Vérifier qu'il n'y a pas de contenu mixte (ressources HTTP sur pages HTTPS)
  • Vérifier que les URLs internes utilisent toutes HTTPS
Comment vérifier
Test immédiat via navigateur ou curl -I https://votresite.com. Le certificat doit être valide.
Pas de WAF bloquant
Un WAF (Web Application Firewall) trop restrictif peut bloquer les crawlers IA comme GPTBot ou ClaudeBot, empêchant l'indexation de votre contenu par les moteurs IA.
Bot IA accepté — HTTP 200
Aucun WAF/CDN connu détecté
Server: nginx
Actions à réaliser
  • Tester l'accès au site avec le user-agent GPTBot : curl -A "GPTBot/1.0" → doit retourner 200
  • Tester avec ClaudeBot : curl -A "ClaudeBot/1.0" → doit retourner 200
  • Tester avec PerplexityBot : curl -A "PerplexityBot" → doit retourner 200
  • Si Cloudflare : vérifier que "Bot Fight Mode" n'est pas en mode agressif
  • Si Cloudflare : vérifier dans AI Crawl Control que les crawlers IA souhaités sont sur "Allow"
  • Vérifier les règles WAF custom : aucune règle ne doit bloquer les user-agents contenant "bot" de manière générique
  • Vérifier qu'il n'y a pas de challenge CAPTCHA renvoyé aux bots IA
  • Vérifier que les règles WAF et les paramètres AI Crawl Control ne se contredisent pas
Comment vérifier
Refaire les tests curl après modification. Surveiller dans les analytics Cloudflare les requêtes des bots IA : elles doivent passer en "Allowed".
Données structurées
Schema.org (JSON-LD) — Article, BlogPosting, BreadcrumbList, FAQPage, HowTo, ItemList, Organization, VideoObject, WebSite
Les données structurées Schema.org aident les IA à comprendre le contenu et le contexte de vos pages. C'est un signal fort pour être cité comme source fiable.
Types: Article BlogPosting BreadcrumbList FAQPage HowTo
Actions à réaliser
  • Ajouter un script JSON-LD Organization sur la page d'accueil (nom, url, logo, description, contactPoint, sameAs)
  • Ajouter un script JSON-LD WebSite sur la page d'accueil
  • Ajouter un script JSON-LD Article ou BlogPosting sur chaque article de blog
  • Ajouter un script JSON-LD FAQPage sur les pages contenant des FAQ
  • Ajouter un script JSON-LD BreadcrumbList pour la navigation fil d'Ariane
  • Ajouter un script JSON-LD Person sur les pages auteur/équipe
  • Pour les pages service/produit : ajouter Product ou Service avec Offer
  • Valider chaque schema avec le Rich Results Test de Google
  • Vérifier que le JSON-LD est rendu côté serveur (SSR), pas injecté via JavaScript client
Comment vérifier
Valider via les outils Google. Relancer un audit AI Labs Audit et comparer le score Données structurées.
Balises Open Graph — 5/5
Les balises Open Graph améliorent la compréhension de vos pages par les IA et les réseaux sociaux. Elles fournissent titre, description et image structurés.
5/5 tags requis
Actions à réaliser
  • Vérifier la présence de og:title sur toutes les pages (distinct par page)
  • Vérifier la présence de og:description (complémentaire au title)
  • Vérifier la présence de og:image avec une image de qualité (1200x630px recommandé)
  • Vérifier la présence de og:image:alt avec un texte descriptif
  • Vérifier que og:url pointe vers l'URL canonique
  • Vérifier la présence de og:type (website pour l'accueil, article pour les articles)
  • Pour les articles : ajouter article:published_time et article:modified_time
  • Ajouter aussi les Twitter Card tags (twitter:card, twitter:title, twitter:description, twitter:image)
  • Tester le rendu avec Facebook Sharing Debugger et LinkedIn Post Inspector
Comment vérifier
Tester le partage d'une URL sur LinkedIn/Facebook/Twitter et vérifier que le preview est correct et complet.
Balise canonical
La balise canonical évite le contenu dupliqué et aide les crawlers IA à indexer la bonne version de chaque page.
Actions à réaliser
  • Vérifier que chaque page contient une balise <link rel="canonical" href="...">
  • Vérifier que le canonical est auto-référentiel (pointe vers la même page)
  • Vérifier la cohérence entre canonical, og:url et l'URL réelle
  • Vérifier que les canonicals ne pointent pas vers des 404 ou des redirections
  • Vérifier que les pages avec paramètres UTM ont un canonical vers la version propre
  • Vérifier que le protocole est cohérent (tout en HTTPS)
Comment vérifier
Crawler le site avec Screaming Frog ou un outil similaire et vérifier la colonne "Canonical" pour détecter les incohérences.
dateModified dans schema
Les IA privilégient le contenu récent. La propriété dateModified dans les schemas JSON-LD signale que votre contenu est à jour.
Actions à réaliser
  • Ajouter "dateModified" dans tous les scripts JSON-LD de type Article/BlogPosting
  • Ajouter "datePublished" si absent
  • Vérifier que dateModified est plus récent que datePublished
  • Afficher la date de mise à jour visiblement sur la page ("Mis à jour le...")
  • Mettre à jour le <lastmod> correspondant dans le sitemap.xml
  • Mettre en place un processus de mise à jour régulière (au minimum trimestrielle)
Comment vérifier
Valider le JSON-LD avec le Rich Results Test. Relancer l'audit AI Labs Audit et vérifier que le critère passe au vert.
Qualité du contenu
Balise title optimisée — AI Labs Audit — Plateforme GEO...
Le title est le premier signal lu par les IA pour comprendre le sujet d'une page. Un title unique, descriptif et de bonne longueur maximise vos chances d'être cité.
Actions à réaliser
  • Chaque page a un <title> unique
  • Longueur entre 30 et 60 caractères
  • Contient le mot-clé principal ou le sujet de la page
  • Pas de title générique ("Accueil", "Page", nom de domaine seul)
  • Cohérent avec le H1 de la page
  • Pas de duplication avec d'autres pages du site
  • Inclut le nom de marque (en fin de title, après un séparateur)
Comment vérifier
Crawler le site et extraire tous les titles. Vérifier l'unicité et la longueur. Suivre l'évolution du CTR dans Google Search Console.
Meta description présente
La meta description fournit un résumé structuré aux IA. Une description informative et unique par page augmente vos chances d'être sélectionné comme source.
Actions à réaliser
  • Chaque page a une meta description
  • Longueur entre 120 et 160 caractères
  • Contenu informatif et descriptif (pas du marketing creux)
  • Unique par page
  • Contient une réponse directe ou un résumé actionnable
  • Inclut un appel à l'action implicite quand pertinent
Comment vérifier
Crawler le site pour vérifier la couverture. Suivre le CTR dans Google Search Console.
Section FAQ / FAQPage
Les questions-réponses structurées sont le format préféré des IA pour extraire de l'information. Une FAQ bien structurée avec schema FAQPage maximise vos chances d'être cité.
Actions à réaliser
  • Identifier les 5-10 questions les plus fréquentes des clients/prospects
  • Rédiger des réponses directes, factuelles, en 2-4 phrases chacune
  • Intégrer la section FAQ sur les pages clés (services, tarifs, accueil)
  • Utiliser des balises <h2> ou <h3> pour chaque question
  • Implémenter le schema FAQPage en JSON-LD avec les paires question/réponse
  • Valider le schema via le Rich Results Test
  • Rédiger les questions en langage naturel conversationnel
Comment vérifier
Valider le schema FAQPage. Tester les questions dans ChatGPT, Claude et Perplexity pour voir si le site apparaît dans les réponses.
Hiérarchie H1→H2→H3
Une hiérarchie de titres logique aide les IA à comprendre la structure de votre contenu. Chaque section H2 doit être auto-suffisante et extractible par un LLM.
H1:1 H2:3 H3:10 H4:4
Actions à réaliser
  • Chaque page a un seul H1 décrivant le sujet principal
  • Les H2 structurent les sections principales
  • Les H3 détaillent les sous-sections
  • Pas de saut de niveau (pas de H1 → H4 directement)
  • Les headings sont descriptifs et auto-explicatifs
  • Pas de headings utilisés pour du styling
  • Chaque section H2 est relativement auto-suffisante (extractible seule par un LLM)
Comment vérifier
Utiliser un outil d'audit SEO (Screaming Frog, Semrush) pour valider la structure des headings.
Contenu suffisant (2000+ mots) — 4240 mots
Les pages avec moins de 2000 mots sont rarement citées par les IA. Un contenu substantiel avec données chiffrées et exemples concrets augmente votre crédibilité.
4240 mots
Actions à réaliser
  • Vérifier le nombre de mots du contenu principal sur chaque page (hors navigation, footer)
  • Les pages sous 2000 mots doivent être enrichies ou consolidées
  • Pas de pages "en construction" ou placeholder
  • Les pages de service doivent avoir au minimum 500 mots de contenu substantiel
  • Inclure des données chiffrées, des exemples concrets, des cas d'usage
  • Éviter le contenu générique ou dupliqué d'autres sources
Comment vérifier
Compter les mots des pages clés. Relancer l'audit pour vérifier que le critère passe au vert.
Blog / Actualités
Un blog régulier avec du contenu expert augmente votre autorité aux yeux des IA. Les articles longs et spécialisés sont les plus susceptibles d'être cités.
Actions à réaliser
  • Créer une section Blog ou Actualités sur le site
  • Publier un premier article de fond sur votre domaine d'expertise
  • Chaque article doit avoir : auteur nommé, date de publication visible, schema Article/BlogPosting, 800+ mots, images avec alt text
  • Définir un rythme de publication (minimum 1 article/mois)
  • Couvrir les questions que se posent les clients (format "guide", "comparatif", "comment faire")
  • Mettre en place des liens internes entre articles et pages de services
  • S'assurer que les articles sont indexés dans le sitemap
Comment vérifier
Suivre le trafic organique sur la section blog. Tester régulièrement les sujets couverts dans ChatGPT/Claude/Perplexity pour voir si le site est cité.
Autorité & Confiance
Page À propos
Une page À propos détaillée renforce votre crédibilité (E-E-A-T). Les IA l'utilisent pour comprendre qui vous êtes et décider de vous citer comme source fiable.
Actions à réaliser
  • La page est accessible depuis la navigation principale ou le footer
  • Contient l'historique de l'entreprise (date de création, fondateurs)
  • Contient les informations légales vérifiables (SIRET, adresse, forme juridique)
  • Décrit la mission, les valeurs, le positionnement
  • Mentionne les certifications, labels, partenariats
  • Contient au minimum 400 mots de contenu substantiel
  • Schema Organization implémenté avec les mêmes informations
  • Photos de l'équipe ou des locaux (preuve d'existence réelle)
Comment vérifier
Demander à ChatGPT, Claude et Perplexity "Qu'est-ce que [nom entreprise] ?" et vérifier si les informations retournées correspondent à la page À propos.
Biographies / Expertise
Les IA valorisent le contenu écrit par des experts identifiables avec leurs qualifications. Des biographies détaillées renforcent les signaux E-E-A-T.
Actions à réaliser
  • Chaque auteur de contenu a une biographie sur le site
  • La bio contient : nom complet, poste, domaine d'expertise, parcours résumé
  • Mention de certifications, diplômes, ou années d'expérience
  • Photo professionnelle
  • Lien vers le profil LinkedIn
  • Schema Person implémenté (name, jobTitle, description, sameAs, worksFor)
  • Les articles de blog affichent le nom et la bio de l'auteur
  • Pas de contenu publié sous "Admin" ou "L'équipe" sans attribution
Comment vérifier
Vérifier que le schema Person est valide. Tester "[nom expert] + [domaine]" dans les IA pour voir si l'expertise est reconnue.
Réseaux sociaux liés — twitter, linkedin
Numero d'immatriculation visible
Email et telephone de contact visibles
Nom du dirigeant ou responsable identifie
Fraicheur & Signaux
Pas de meta noai
La balise <meta name="robots" content="noai"> bloque l'utilisation de votre contenu par les IA. Si elle est presente, votre site est invisible pour les moteurs IA generatifs.
Actions à réaliser
  • Verifier l'absence de <meta name="robots" content="noai"> dans le <head>
  • Verifier l'absence du header HTTP X-Robots-Tag: noai
  • Si present, le retirer pour permettre l'indexation IA
Comment vérifier
L'audit automatique detecte la presence de la balise noai et du header X-Robots-Tag.
Flux RSS ou Atom
Un flux RSS ou Atom signale aux crawlers IA que votre site publie du contenu regulierement. Les IA comme Perplexity et OAI-SearchBot utilisent les flux pour decouvrir le contenu frais. Le contenu de moins de 30 jours recoit 3.2x plus de citations.
Actions à réaliser
  • Ajouter un <link rel="alternate" type="application/rss+xml"> dans le <head>
  • S'assurer que le flux est accessible (HTTP 200, XML valide)
  • Inclure au minimum les 10 derniers articles/pages modifies
  • Verifier que chaque item a une date <pubDate> ou <updated>
Comment vérifier
La section AEO du dashboard detecte automatiquement la presence d'un flux RSS ou Atom.
Balisage AQA (AI Question Answer)
AQA est un standard ouvert qui enrichit vos FAQ avec des metadonnees pour les IA : date par question, source par reponse, historique des modifications. Les IA citent en priorite les contenus avec provenance verifiable.
Actions à réaliser
  • Implementer le balisage AQA Basic sur vos pages FAQ (dates + sources)
  • Ajouter dateCreated et dateModified sur chaque question
  • Ajouter une citation (source URL) sur chaque reponse
  • Declarer le conformanceLevel dans le bloc Article
  • Valider avec le validateur AQA: github.com/sarsator/aqa-specification
Comment vérifier
La section AEO du dashboard detecte automatiquement la presence et le niveau AQA (Basic/Standard/Full).
Contenu mis a jour recemment
Le contenu mis a jour dans les 90 derniers jours est priorise par les IA. Le contenu de moins de 30 jours recoit 3.2x plus de citations. Apres 13 semaines sans mise a jour, le contenu perd en eligibilite de citation.
Actions à réaliser
  • Verifier que dateModified est present dans le Schema.org JSON-LD
  • Mettre a jour les pages cles au moins tous les 90 jours
  • Ajouter des statistiques actuelles (annee en cours) dans le contenu
  • Maintenir un blog avec des publications regulieres
Comment vérifier
Le module Citation Readiness v2 evalue automatiquement la fraicheur du contenu (score freshness).
Diagnostic Sitemap & llms.txt
Sitemap.xml Index (4 sitemaps) via robots.txt
URLs
634
Avec lastmod
634
Ancienneté moy.
68 jours
Sub-sitemaps :
sitemap-pages.xml 105 URLs
sitemap-blog.xml 232 URLs
sitemap-glossaire.xml 510 URLs
sitemap-vitrine.xml 2 URLs
sitemap-videos.xml 8 URLs
4 URLs en double entre sub-sitemaps
Pages stratégiques absentes: AI Labs Audit, Auditez la visibilité de vos clients sur ChatGPT, Gemini & Perplexity et encore plus
634 URLs indexees
3 pages stratégiques absentes
Anciennete moyenne: 67.5 jours
llms.txt + llms-full.txt
Pages référencées
41
Tokens
960
Titre
AI Labs Audit
Pages suppl. (full)
+691 pages
Sitemap hors llms
603
41 pages référencees
960 tokens
llms-full.txt: 691 pages supplementaires
603 pages du sitemap absentes de llms.txt
Plan d'actions recommandé 6 actions
Progression du plan d'actions
0 Fait 0 6 0%
1 haute priorité 2 moyenne priorité
Bloquer les bots d'entraînement dans robots.txt

Vous autorisez les bots d'entraînement (GPTBot training, CCBot, etc.) à utiliser votre contenu gratuitement. Bloquez-les tout en gardant search et retrieval autorisés.

Priorité moyenne Optimisation GEO ⚡ Rapide Impact fort
+1.0 pts · 30min
Mentionner le directeur de publication

Le directeur de publication n'est pas mentionné. Obligation légale et signal E-E-A-T.

Priorité basse Présence ⚡ Rapide Impact faible
+0.4 pts · 15min
Vérifier et corriger les liens sameAs

Vérifier que tous les liens sameAs dans le Schema.org pointent vers des pages valides et actives.

Priorité moyenne Optimisation GEO ⚡ Rapide Impact moyen
+0.6 pts · 30min
Créer un flux RSS

Les IA comme Perplexity utilisent les RSS pour détecter du contenu frais rapidement.

Priorité basse Optimisation GEO ⚡ Rapide Impact moyen
+0.6 pts · 30min
Afficher le numéro d'immatriculation

Le SIREN/SIRET n'est pas visible. Les IA associent la transparence légale à la fiabilité.

Priorité basse Présence ⚡ Rapide Impact faible
+0.4 pts · 30min
Créer ou enrichir la page Wikipedia/Wikidata

Si la marque est suffisamment notable, créer une page Wikipedia avec des sources vérifiables. Sinon, enrichir l'entrée Wikidata.

Priorité haute Connaissance native 🏗️ Projet Impact fort
+1.4 pts · 5.0h