Panel de control
AI Labs Audit
Última auditoría: 17/04/2026 05:06SSR / Rastreabilidad IA
Verificación de Entidad
Qualite des mentions
Sin datos — ejecute una nueva auditoría
Preparación para Citación
Source Authority
Brand Safety
Puntuación sin Internet
Lo que las IAs saben de ti por defectoPuntuación con Internet
Lo que las IAs encuentran al buscar| Modelo de IA | Puntuación | Sentimiento | Cargo | Tasa de mención |
|---|---|---|---|---|
|
Claude Haiku 4.5
NATIF
|
6.9/10 |
7.4
|
#1.9 |
100.0%
|
|
Gpt 5:Online
WEB
|
6.5/10 |
6.8
|
#2.2 |
96.7%
|
|
Gemini 2.0 Flash 001:Online
WEB
|
6.8/10 |
6.8
|
#1.8 |
96.7%
|
|
Gemini 2.0 Flash
NATIF
|
6.8/10 |
6.7
|
#2.0 |
96.7%
|
|
Claude Haiku 4.5:Online
WEB
|
6.9/10 |
6.8
|
#1.8 |
96.7%
|
|
Gpt 5
NATIF
|
6.3/10 |
6.8
|
#2.5 |
93.3%
|
S1 — Visibilité & Notoriété
4/4 categorías probadasS2 — Autorité & Confiance (E-E-A-T)
5/5 categorías probadasS3 — Sentiment & Perception
3/3 categorías probadasS4 — Positionnement Concurrentiel
5/5 categorías probadasS5 — Intentions de Recherche
8/8 categorías probadasS6 — Parcours Client & Recommandation
5/5 categorías probadas- GPTBot
- OAI-SearchBot
- ChatGPT-User
- ClaudeBot
- Claude-SearchBot
- PerplexityBot
- Google-Extended
- Applebot-Extended
- meta-externalagent
- Verificar que el archivo robots.txt es accesible en /robots.txt (HTTP 200)
- Verificar la ausencia de bloqueo global User-agent: * / Disallow: /
- Verificar que GPTBot NO está en una directiva Disallow
- Verificar que ClaudeBot NO está en una directiva Disallow
- Verificar que Claude-SearchBot está autorizado
- Verificar que OAI-SearchBot está autorizado
- Verificar que PerplexityBot está autorizado
- Verificar que Google-Extended está autorizado
- Verificar que Applebot-Extended no está bloqueado
- Asegurarse de que los directorios de contenido público (/blog/, /services/, /about/) sean accesibles
Ejecutar una auditoría AI Labs Audit antes/después de los cambios. Verificar en los logs del servidor la aparición de solicitudes de bots de IA en las 2-4 semanas posteriores a la modificación. Probar manualmente con curl -A "GPTBot" https://susitio.com/.
- Verificar que /sitemap.xml devuelve un HTTP 200
- Verificar que el sitemap está referenciado en robots.txt mediante Sitemap: https://susitio.com/sitemap.xml
- Verificar que el XML es válido (sin errores de análisis)
- Verificar que las etiquetas <lastmod> están presentes en cada URL
- Verificar que las fechas <lastmod> corresponden a las fechas reales de actualización
- Verificar que no hay URLs con error (404, 500) en el sitemap
Verificar en Google Search Console el estado de indexación del sitemap. Monitorear los logs del servidor para los accesos al sitemap por parte de los bots de IA.
- Crear un archivo /llms.txt en la raíz del sitio
- Agregar un título H1 con el nombre de la empresa
- Agregar un blockquote de resumen (2-3 frases describiendo la actividad)
- Listar las páginas clave con URL y descripción corta (inicio, servicios, acerca de, tarifas, FAQ, blog)
- Respetar el formato Markdown válido
- Probar la accesibilidad con curl https://susitio.com/llms.txt
- Opcional: crear también un archivo /llms-full.txt con el contenido completo
Monitorear los logs del servidor para los accesos al archivo llms.txt. Nota: el impacto directo aún no está comprobado, es una señal de preparación para IA.
- Verificar que el sitio es accesible mediante HTTPS
- Verificar que el certificado SSL es válido y no ha expirado
- Verificar que la redirección HTTP → HTTPS está configurada (301 permanente, NO 302)
- Verificar que no hay contenido mixto (recursos HTTP en páginas HTTPS)
- Verificar que todas las URLs internas utilizan HTTPS
Prueba inmediata mediante navegador o curl -I https://susitio.com. El certificado debe ser válido.
nginx- Probar el acceso al sitio con el user-agent GPTBot: curl -A "GPTBot/1.0" → debe devolver 200
- Probar con ClaudeBot: curl -A "ClaudeBot/1.0" → debe devolver 200
- Probar con PerplexityBot: curl -A "PerplexityBot" → debe devolver 200
- Si usa Cloudflare: verificar que "Bot Fight Mode" no está en modo agresivo
- Si usa Cloudflare: verificar en AI Crawl Control que los crawlers de IA deseados están en "Allow"
- Verificar las reglas WAF personalizadas: ninguna regla debe bloquear genéricamente los user-agents que contengan "bot"
- Verificar que no se devuelve un desafío CAPTCHA a los bots de IA
- Verificar que las reglas WAF y la configuración de AI Crawl Control no se contradigan entre sí
Repetir las pruebas curl después de los cambios. Monitorear en las analíticas de Cloudflare las solicitudes de bots de IA: deben aparecer como "Allowed".
- Agregar un script JSON-LD Organization en la página de inicio (name, url, logo, description, contactPoint, sameAs)
- Agregar un script JSON-LD WebSite en la página de inicio
- Agregar un script JSON-LD Article o BlogPosting en cada artículo del blog
- Agregar un script JSON-LD FAQPage en las páginas que contengan FAQ
- Agregar un script JSON-LD BreadcrumbList para la navegación de migas de pan
- Agregar un script JSON-LD Person en las páginas de autor/equipo
- Para las páginas de servicio/producto: agregar Product o Service con Offer
- Validar cada schema con el Rich Results Test de Google
- Verificar que el JSON-LD se renderiza del lado del servidor (SSR), no inyectado mediante JavaScript del cliente
Validar mediante las herramientas de Google. Ejecutar una auditoría AI Labs Audit y comparar la puntuación de Datos estructurados.
- Verificar la presencia de og:title en todas las páginas (único por página)
- Verificar la presencia de og:description (complementario al título)
- Verificar la presencia de og:image con una imagen de calidad (1200x630px recomendado)
- Verificar la presencia de og:image:alt con un texto descriptivo
- Verificar que og:url apunta a la URL canónica
- Verificar la presencia de og:type (website para la página de inicio, article para los artículos)
- Para los artículos: agregar article:published_time y article:modified_time
- Agregar también las etiquetas Twitter Card (twitter:card, twitter:title, twitter:description, twitter:image)
- Probar la visualización con Facebook Sharing Debugger y LinkedIn Post Inspector
Probar el compartido de una URL en LinkedIn/Facebook/Twitter y verificar que la vista previa sea correcta y completa.
- Verificar que cada página contiene una etiqueta <link rel="canonical" href="...">
- Verificar que el canonical es autorreferencial (apunta a la misma página)
- Verificar la coherencia entre canonical, og:url y la URL real
- Verificar que los canonicals no apuntan a errores 404 o redirecciones
- Verificar que las páginas con parámetros UTM tienen un canonical hacia la versión limpia
- Verificar que el protocolo es coherente (todo en HTTPS)
Rastrear el sitio con Screaming Frog o una herramienta similar y verificar la columna "Canonical" para detectar inconsistencias.
- Agregar "dateModified" en todos los scripts JSON-LD de tipo Article/BlogPosting
- Agregar "datePublished" si está ausente
- Verificar que dateModified es más reciente que datePublished
- Mostrar la fecha de actualización de forma visible en la página ("Actualizado el...")
- Actualizar el <lastmod> correspondiente en el sitemap.xml
- Implementar un proceso de actualización regular (al menos trimestralmente)
Validar el JSON-LD con el Rich Results Test. Ejecutar una auditoría AI Labs Audit y verificar que el criterio pase a verde.
- Cada página tiene un <title> único
- Longitud entre 30 y 60 caracteres
- Contiene la palabra clave principal o el tema de la página
- Sin title genérico ("Inicio", "Página", nombre de dominio solo)
- Coherente con el H1 de la página
- Sin duplicación con otras páginas del sitio
- Incluye el nombre de marca (al final del title, después de un separador)
Rastrear el sitio y extraer todos los titles. Verificar la unicidad y la longitud. Seguir la evolución del CTR en Google Search Console.
- Cada página tiene una meta description
- Longitud entre 120 y 160 caracteres
- Contenido informativo y descriptivo (no marketing vacío)
- Única por página
- Contiene una respuesta directa o un resumen accionable
- Incluye una llamada a la acción implícita cuando sea pertinente
Rastrear el sitio para verificar la cobertura. Seguir el CTR en Google Search Console.
- Identificar las 5-10 preguntas más frecuentes de los clientes/prospectos
- Redactar respuestas directas, factuales, de 2-4 frases cada una
- Integrar la sección FAQ en las páginas clave (servicios, tarifas, inicio)
- Utilizar etiquetas <h2> o <h3> para cada pregunta
- Implementar el schema FAQPage en JSON-LD con los pares pregunta/respuesta
- Validar el schema mediante el Rich Results Test
- Redactar las preguntas en lenguaje natural conversacional
Validar el schema FAQPage. Probar las preguntas en ChatGPT, Claude y Perplexity para verificar si el sitio aparece en las respuestas.
- Cada página tiene un solo H1 que describe el tema principal
- Los H2 estructuran las secciones principales
- Los H3 detallan las subsecciones
- Sin saltos de nivel (no pasar de H1 a H4 directamente)
- Los encabezados son descriptivos y autoexplicativos
- Sin encabezados utilizados para estilización
- Cada sección H2 es relativamente autosuficiente (extraíble individualmente por un LLM)
Utilizar una herramienta de auditoría SEO (Screaming Frog, Semrush) para validar la estructura de los encabezados.
- Verificar el conteo de palabras del contenido principal en cada página (excluyendo navegación, pie de página)
- Las páginas con menos de 2000 palabras deben ser enriquecidas o consolidadas
- Sin páginas "en construcción" o de marcador de posición
- Las páginas de servicios deben tener al menos 500 palabras de contenido sustancial
- Incluir datos numéricos, ejemplos concretos y casos de uso
- Evitar el contenido genérico o duplicado de otras fuentes
Contar las palabras de las páginas clave. Ejecutar la auditoría nuevamente para verificar que el criterio pase a verde.
- Crear una sección Blog o Noticias en el sitio
- Publicar un primer artículo en profundidad sobre su área de experiencia
- Cada artículo debe tener: autor nombrado, fecha de publicación visible, schema Article/BlogPosting, 800+ palabras, imágenes con alt text
- Definir un ritmo de publicación (mínimo 1 artículo/mes)
- Cubrir las preguntas que se hacen los clientes (formato "guía", "comparativa", "cómo hacer")
- Implementar enlaces internos entre artículos y páginas de servicios
- Asegurarse de que los artículos estén indexados en el sitemap
Seguir el tráfico orgánico en la sección del blog. Probar regularmente los temas cubiertos en ChatGPT/Claude/Perplexity para ver si el sitio es citado.
- La página es accesible desde la navegación principal o el pie de página
- Contiene el historial de la empresa (fecha de creación, fundadores)
- Contiene información legal verificable (número de registro, dirección, forma jurídica)
- Describe la misión, los valores, el posicionamiento
- Menciona las certificaciones, sellos, asociaciones
- Contiene al menos 400 palabras de contenido sustancial
- Schema Organization implementado con la misma información
- Fotos del equipo o de las instalaciones (prueba de existencia real)
Preguntar a ChatGPT, Claude y Perplexity "¿Qué es [nombre de la empresa]?" y verificar si la información devuelta corresponde a la página Acerca de.
- Cada autor de contenido tiene una biografía en el sitio
- La biografía contiene: nombre completo, cargo, área de experiencia, resumen de trayectoria
- Mención de certificaciones, títulos o años de experiencia
- Foto profesional
- Enlace al perfil de LinkedIn
- Schema Person implementado (name, jobTitle, description, sameAs, worksFor)
- Los artículos del blog muestran el nombre y la biografía del autor
- Sin contenido publicado bajo "Admin" o "El equipo" sin atribución
Verificar que el schema Person es válido. Probar "[nombre del experto] + [campo]" en las IA para ver si la experiencia es reconocida.
- Enlaces a redes sociales presentes en el sitio (pie de página o página de contacto)
- Todos los enlaces son funcionales (sin errores 404 o perfiles eliminados)
- Los perfiles están activos (última publicación hace menos de 3 meses)
- El nombre de marca es coherente entre el sitio y todos los perfiles
- Schema Organization con la propiedad sameAs listando todos los perfiles
- Mínimo 2 redes activas (LinkedIn es la más importante en B2B)
- Los perfiles enlazan de vuelta al sitio web
Verificar la coherencia del Knowledge Panel de Google para la marca. Validar el schema Organization.
- Identificar su numero de registro segun su pais (NIF/CIF, SIREN, Company Number, KVK, etc.)
- Anadirlo en la pagina de Aviso Legal
- Verificar que el numero esta en texto claro (no en una imagen)
Verificar que el numero de registro es visible como texto en el aviso legal.
- Anadir un email de contacto en el footer o pagina de contacto
- Anadir un numero de telefono
- Asegurarse de que estan en texto claro
Verificar la presencia de enlaces mailto: y/o tel: en el sitio.
- Anadir el nombre completo del director en el aviso legal
- Especificar su cargo
- Idealmente: anadir marcado Schema.org Person
Verificar que el nombre del director aparece en el aviso legal.
- Verificar ausencia de <meta name="robots" content="noai">
- Si presente, eliminarlo
La auditoria automatica detecta la etiqueta noai.
- Agregar <link rel="alternate" type="application/rss+xml"> en el <head>
- Asegurarse de que el feed sea accesible
La seccion AEO del dashboard detecta automaticamente los feeds RSS o Atom.
- Implementar el marcado AQA Basic en sus paginas FAQ
- Validar con el validador AQA
La seccion AEO del dashboard detecta automaticamente la presencia y nivel AQA.
- Verificar que dateModified esta presente en Schema.org
- Actualizar paginas clave al menos cada 90 dias
El modulo Citation Readiness v2 evalua automaticamente la frescura del contenido.
Vous autorisez les bots d'entraînement (GPTBot training, CCBot, etc.) à utiliser votre contenu gratuitement. Bloquez-les tout en gardant search et retrieval autorisés.
Le directeur de publication n'est pas mentionné. Obligation légale et signal E-E-A-T.
Verificar que todos los enlaces sameAs en el Schema.org apunten a páginas válidas y activas.
Les IA comme Perplexity utilisent les RSS pour détecter du contenu frais rapidement.
Le SIREN/SIRET n'est pas visible. Les IA associent la transparence légale à la fiabilité.
Si la marca es suficientemente notable, crear una página Wikipedia con fuentes verificables. Si no, enriquecer la entrada Wikidata.