Módulos IA Funcionalidades Pasos Precios FAQ Blog Tutorial Vídeos Glosario Sobre nosotros Agencias
Técnica

Token

Un token es la unidad básica procesada por un LLM: una palabra, una parte de palabra, un carácter o un símbolo. "Optimización" puede descomponerse en "Optim" + "ización" (2 tokens). Los LLM tienen límites de contexto expresados en tokens (128K tokens para GPT-4o). Comprender los tokens ayuda a estructurar los contenidos para que sean procesados eficientemente por las IA.

Cómo funciona la tokenización

Palabras comunes = 1 token: "El", "es", "para", "the", "and".

Palabras largas = varios tokens: "Anticonstitucionalidad": descompuesta en varias partes.

Regla aproximada: 1 token ≈ 4 caracteres o ≈ 0,75 palabras en inglés.

Límites de contexto

ModeloContexto
GPT-3.54K - 16K
GPT-4o128K
Claude 3.5 Sonnet200K
Gemini 1.51M

Tokens y visibilidad AEO

El RAG extrae pasajes limitados en tokens. Contenidos estructurados con bloques autónomos facilitan la extracción de pasajes relevantes.

Para ir más lejos

Descubra nuestro artículo en profundidad sobre este tema

Leer artículo