Das Context Window (Kontextfenster) ist die maximale Textmenge (gemessen in Token), die ein Sprachmodell auf einmal verarbeiten kann, einschließlich Eingabe und Ausgabe.
Was ist das Context Window?
Das Context Window (Kontextfenster) stellt die maximale Informationsmenge dar, die ein Sprachmodell in einer einzigen Interaktion "sehen" und verarbeiten kann. Es wird in Token gemessen (etwa 4 Zeichen pro Token im Englischen). Alles, was dieses Limit überschreitet, ist für das Modell schlichtweg unsichtbar.
Aktuelle Context-Window-Größen
- GPT-4o: 128.000 Token (~96.000 Wörter)
- Claude 3.5 Sonnet: 200.000 Token (~150.000 Wörter)
- Gemini 1.5 Pro: 1.000.000 Token (~750.000 Wörter)
Auswirkungen auf die Leistung
- Lange Konversationen: Die ersten Nachrichten "fallen" im Laufe der Zeit aus dem Fenster heraus
- Dokumentenanalyse: Große Dokumente passen möglicherweise nicht vollständig hinein
- Kosten: Je voller das Context Window, desto höher die Kosten pro Anfrage
Context Window und AILabsAudit
Wenn Sie AILabsAudit über MCP mit einem KI-Assistenten nutzen, bestimmt die Größe des Context Windows, wie viele Audit-Daten gleichzeitig analysiert werden können. Modelle mit großen Fenstern (Claude, Gemini) ermöglichen die Analyse ganzer Kundenportfolios in einer einzigen Konversation.