La temperatura es un parámetro que controla el grado de creatividad y aleatoriedad en las respuestas de un LLM. Una temperatura baja (0.1-0.3) produce respuestas previsibles y factuales. Una temperatura alta (0.8-1.0) genera respuestas más variadas y creativas, pero potencialmente menos fiables. Este parámetro influye indirectamente en la manera en que las IA mencionan las marcas.
Funcionamiento técnico
Temperatura baja (0.1-0.3): Las palabras más probables se favorecen fuertemente. Respuestas coherentes, repetitivas, "seguras".
Temperatura media (0.5-0.7): Equilibrio entre previsibilidad y variedad.
Temperatura alta (0.8-1.0): Distribución más plana. Respuestas sorprendentes, creativas, a veces incoherentes.
Temperatura y visibilidad de las marcas
Con temperatura baja: El modelo menciona las marcas "estadísticamente dominantes" — las más frecuentes en sus datos.
Con temperatura alta: El modelo puede mencionar alternativas menos conocidas.
Variabilidad: La misma pregunta puede producir respuestas diferentes con marcas diferentes.
Para las auditorías de visibilidad
Cuando audita su visibilidad, fije una temperatura baja (0.2-0.3) para obtener resultados reproducibles. Las interfaces de usuario (ChatGPT, Claude) utilizan generalmente 0.7.