Módulos IA Funcionalidades Pasos Precios FAQ Blog Tutorial Vídeos Glosario Sobre nosotros Agencias
SEO Técnico

Robots.txt

El archivo robots.txt es un archivo de texto en la raíz de un sitio web que indica a los robots de exploración qué páginas pueden o no explorar, incluyendo los crawlers de las IA.

¿Qué es el archivo Robots.txt?

El archivo robots.txt es un archivo de texto estándar situado en la raíz de un sitio web que comunica a los crawlers las directivas de acceso. Es lo primero que consultan Googlebot, GPTBot y los demás crawlers.

Robots.txt y crawlers IA

  • GPTBot: Crawler de OpenAI para ChatGPT
  • ClaudeBot: Crawler de Anthropic para Claude
  • PerplexityBot: Crawler de Perplexity AI
  • Google-Extended: Crawler de Google para Gemini
  • Bytespider: Crawler de ByteDance (TikTok)

Configuración recomendada

# Autorizar los crawlers IA
User-agent: GPTBot
Allow: /

User-agent: ClaudeBot
Allow: /

User-agent: PerplexityBot
Allow: /

# Sitemap
Sitemap: https://example.com/sitemap.xml

Errores comunes

  • Bloquear todos los bots: También bloquea los crawlers IA
  • Olvidar los crawlers IA: Si GPTBot está bloqueado, ChatGPT no indexa su contenido

Robots.txt y AI Labs Audit

El Score GEO verifica automáticamente su robots.txt y le alerta si crawlers IA están bloqueados.