IA Features Fonctionnalités Tarifs FAQ Blog Glossaire
Technique

Token

Un token est l'unité de base traitée par un LLM : un mot, une partie de mot, un caractère ou un symbole. "Optimisation" peut être découpé en "Optim" + "isation" (2 tokens). Les LLM ont des limites de contexte exprimées en tokens (128K tokens pour GPT-4o). Comprendre les tokens aide à structurer ses contenus pour qu'ils soient traités efficacement par les IA.

Comment fonctionne la tokenisation

Mots courants = 1 token : "Le", "est", "pour", "the", "and".

Mots longs = plusieurs tokens : "Anticonstitutionnellement" : découpé en plusieurs morceaux.

Règle approximative : 1 token ≈ 4 caractères ou ≈ 0.75 mot en anglais.

Limites de contexte

ModèleContexte
GPT-3.54K - 16K
GPT-4o128K
Claude 3.5 Sonnet200K
Gemini 1.51M

Tokens et visibilité AEO

Le RAG extrait des passages limités en tokens. Des contenus structurés avec des blocs autonomes facilitent l'extraction de passages pertinents.

Pour aller plus loin

Découvrez notre article détaillé sur ce sujet

Guide AEO