Blog

😵‍💫 Alucinaciones… ¿o creatividad? 💡

Este artículo de Xavier Vinaixa Roselló, publicado el 14 de enero de 2026, propone una revisión fundamental de la percepción de las “alucinaciones” en la inteligencia artificial (IA). El autor argumenta que lo que comúnmente se cataloga como un error crítico en modelos de lenguaje extensos (LLM) —como inventar datos o citas— podría ser, en realidad, la manifestación de su creatividad y el mecanismo por el cual generan novedades.

La creatividad mecánica de la IA y la termodinámica
temperatura

La creatividad mecánica de la IA y la termodinámica

El texto establece un paralelismo entre la creatividad mecánica de la IA y la termodinámica, utilizando el concepto de temperatura en la función softmax del modelo.

  1. Temperatura baja (Frío): El sistema se vuelve determinista, eligiendo la opción más probable estadísticamente (orden absoluto). Esto produce resultados precisos pero aburridos.
  2. Temperatura alta (Calor): Se inyecta energía y estocasticidad al sistema, permitiendo que el modelo “salve” opciones menos probables. Esta desviación controlada del camino estadísticamente óptimo es la que genera la novedad, ya sea etiquetada como “error” (dato falso) o como “creatividad” (asociación inusual).
Alucinación de redes profundas
generar

Alucinación de redes profundas

  1. El autor señala que eliminar la capacidad de alucinar equivaldría a limitar la capacidad generativa, ya que el ruido neuronal es necesario incluso para el cerebro humano. Como prueba, se cita el trabajo de David Baker, ganador del Premio Nobel de Química de 2024, por diseñar proteínas de novo mediante la “alucinación de redes profundas”, demostrando que el error (la invención de moléculas inexistentes) es una herramienta para expandir el conocimiento.

En el arte, artistas como Refik Anadol ya exploran esta estética del caos a través de sus series machine hallucinations.

La alucinación es el precio de la originalidad
serendipia

La alucinación es el precio de la originalidad

La conclusión principal es que la IA generativa debe ser vista como una máquina de serendipia y no como una enciclopedia infalible. La búsqueda de la verdad absoluta es contraproducente para la novedad. En síntesis, la alucinación es el precio de la originalidad, tal como afirmó Andrej Karpathy: en los modelos generativos, la alucinación es una feature, no un bug.

Este sitio está registrado en wpml.org como sitio de desarrollo. Cambia a una clave de sitio de producción en remove this banner.