Una alucinación IA designa una respuesta falsa o inventada generada por una IA con apariencia de certeza. El modelo afirma hechos inexistentes, inventa fuentes o atribuye citas a personas que nunca las han pronunciado. Para las marcas, las alucinaciones representan un riesgo de desinformación y un desafío de reputación.
Por qué las IA alucinan
Lagunas en los datos de entrenamiento: El modelo rellena los huecos con extrapolaciones plausibles pero falsas.
Confusión entre entidades: El modelo mezcla información sobre entidades similares.
Presión de la coherencia: El modelo privilegia una respuesta fluida antes que admitir su ignorancia.
Tipos de alucinaciones
Alucinaciones factuales: Fechas erróneas, estadísticas inventadas.
Fuentes inventadas: Estudios o artículos que no existen.
Citas fabricadas: Atribución de declaraciones nunca realizadas.
Reducir el riesgo de alucinaciones
- Multiplicar las fuentes fiables sobre su información clave
- Mantener una coherencia informativa en la web
- Monitorizar lo que las IA dicen de usted mediante auditorías regulares
- El RAG reduce (pero no elimina) las alucinaciones