Módulos IA Funcionalidades Pasos Precios FAQ Blog Tutorial Vídeos Glosario Sobre nosotros Agencias
Técnica

Temperatura (parámetro LLM)

La temperatura es un parámetro que controla el grado de creatividad y aleatoriedad en las respuestas de un LLM. Una temperatura baja (0.1-0.3) produce respuestas previsibles y factuales. Una temperatura alta (0.8-1.0) genera respuestas más variadas y creativas, pero potencialmente menos fiables. Este parámetro influye indirectamente en la manera en que las IA mencionan las marcas.

Funcionamiento técnico

Temperatura baja (0.1-0.3): Las palabras más probables se favorecen fuertemente. Respuestas coherentes, repetitivas, "seguras".

Temperatura media (0.5-0.7): Equilibrio entre previsibilidad y variedad.

Temperatura alta (0.8-1.0): Distribución más plana. Respuestas sorprendentes, creativas, a veces incoherentes.

Temperatura y visibilidad de las marcas

Con temperatura baja: El modelo menciona las marcas "estadísticamente dominantes" — las más frecuentes en sus datos.

Con temperatura alta: El modelo puede mencionar alternativas menos conocidas.

Variabilidad: La misma pregunta puede producir respuestas diferentes con marcas diferentes.

Para las auditorías de visibilidad

Cuando audita su visibilidad, fije una temperatura baja (0.2-0.3) para obtener resultados reproducibles. Las interfaces de usuario (ChatGPT, Claude) utilizan generalmente 0.7.

Para ir más lejos

Descubra nuestro artículo en profundidad sobre este tema

Leer artículo