Estudio advierte: La IA puede inducir alucinaciones y delirios en usuarios humanos
La IA puede inducir alucinaciones y delirios en usuarios humanos

La IA generativa puede inducir alucinaciones y delirios en usuarios humanos

Cuando confiamos habitualmente en la inteligencia artificial generativa para pensar, recordar y narrar, podemos llegar a alucinar con ella. Este fenómeno va más allá de los errores fácticos que estos sistemas producen ocasionalmente, según un nuevo estudio que analiza cómo las interacciones humano-IA pueden generar creencias erróneas, recuerdos distorsionados y pensamientos delirantes.

La doble función de los chatbots

La investigación de Lucy Osler, de la Universidad de Exeter, identifica lo que denomina la "doble función" de la IA conversacional:

  • Herramientas cognitivas que nos ayudan a pensar y recordar
  • Interlocutores aparentes que parecen compartir nuestro mundo

"La naturaleza conversacional y de acompañamiento de los chatbots les permite proporcionar una sensación de validación social", explica el Dr. Osler. "Esto hace que las falsas creencias se sientan compartidas con otra persona y, por lo tanto, más reales".

Psicosis inducida por IA

El estudio analiza casos reales en los que sistemas de IA generativa se convirtieron en una parte distribuida de los procesos cognitivos de personas con diagnóstico clínico de pensamiento delirante y alucinaciones. Estos casos se denominan cada vez más comúnmente "psicosis inducida por IA".

"Cuando la IA introduce errores en el proceso cognitivo distribuido, o cuando sustenta, afirma y profundiza en nuestros propios pensamientos delirantes y autonarrativas, podemos alucinar con ella", afirma el Dr. Osler.

Validación de realidades alternativas

La investigación revela mecanismos preocupantes:

  1. La IA generativa toma nuestra propia interpretación de la realidad como base para construir conversaciones
  2. Las falsas creencias no solo se confirman, sino que se arraigan y crecen sustancialmente
  3. La combinación de autoridad tecnológica y afirmación social crea un entorno ideal para que los delirios persistan y florezcan

"Interactuar con la IA generativa está teniendo un impacto real en la comprensión de las personas sobre lo que es real y lo que no", advierte el estudio.

Terreno fértil para teorías conspirativas

Los sistemas de IA ofrecen características distintivas que los hacen especialmente preocupantes:

  • Accesibilidad inmediata y diseño afín mediante algoritmos de personalización
  • Validación incondicional de narrativas de victimización, derecho o venganza
  • Ausencia de límites que una persona humana eventualmente establecería

"Las teorías de la conspiración podrían encontrar un terreno fértil para crecer", señala el Dr. Osler, "con compañeros de IA que ayuden a los usuarios a construir marcos explicativos cada vez más elaborados".

Atractivo para personas vulnerables

Esta dinámica puede ser especialmente atractiva para quienes:

  • Se sienten solos o socialmente aislados
  • Se sienten incapaces de hablar de ciertas experiencias con otros
  • Buscan una presencia sin prejuicios y emocionalmente receptiva

Los compañeros de IA ofrecen lo que puede percibirse como una alternativa más segura que las relaciones humanas.

Limitaciones fundamentales de la IA

El estudio señala una preocupación más profunda: "Los sistemas de IA dependen de nuestras propias versiones de nuestras vidas. Simplemente carecen de la experiencia corporal y la integración social en el mundo para saber cuándo deben seguirnos la corriente y cuándo contradecirnos".

Como posibles soluciones, el Dr. Osler sugiere:

  • Protección más sofisticada en el diseño de sistemas
  • Verificación de datos integrada
  • Menor adulación en las respuestas de la IA

Estas medidas podrían minimizar la cantidad de errores que la IA introduce en las conversaciones y ayudar a verificar y cuestionar las propias aportaciones del usuario.