Chatbots de IA agravan condiciones mentales según investigación internacional
Un estudio publicado en la prestigiosa revista Acta Psychiatrica Scandinavica ha revelado evidencias alarmantes sobre los riesgos que representan los chatbots de inteligencia artificial para personas con enfermedades mentales. La investigación, dirigida por el profesor Søren Dinesen Østergaard de la Universidad de Aarhus, analizó los historiales médicos electrónicos de casi 54.000 pacientes con trastornos psicológicos.
Consecuencias negativas documentadas
Los investigadores identificaron múltiples casos donde el uso de chatbots de IA parece haber tenido efectos perjudiciales significativos. Entre las principales consecuencias observadas se encuentran:
- Agravamiento de delirios en pacientes con trastornos psicóticos
- Posible empeoramiento de episodios maníacos en trastorno bipolar
- Aumento de la ideación suicida en personas con depresión
- Exacerbación de trastornos alimentarios
"Esto respalda nuestra hipótesis de que el uso de chatbots de IA puede tener consecuencias negativas significativas para las personas con enfermedades mentales", afirmó el profesor Østergaard, quien lidera el grupo de investigación responsable del estudio.
Mecanismo de validación peligrosa
Según los investigadores, el problema fundamental radica en la tendencia inherente de los chatbots de IA a validar las creencias del usuario. "Es obvio que esto es muy problemático si un usuario ya padece un delirio o está en proceso de desarrollarlo", explicó Østergaard. "De hecho, parece contribuir significativamente a la consolidación de, por ejemplo, delirios de grandeza o paranoia".
Solo la punta del iceberg
El estudio muestra un claro aumento a lo largo del tiempo en el número de registros médicos que mencionan el uso de chatbots de IA con consecuencias potencialmente perjudiciales. Østergaard advierte que probablemente están viendo solo una fracción del problema real.
"Parte del aumento que observamos probablemente se deba a un mayor conocimiento de la tecnología por parte del personal sanitario. Esto es positivo, porque me temo que el problema es más común de lo que la mayoría cree. En nuestro estudio, solo estamos viendo la punta del iceberg", señaló el investigador.
Escepticismo sobre terapia con IA
Aunque algunos pacientes utilizan chatbots de IA de manera constructiva para comprender sus síntomas o combatir la soledad, Østergaard se muestra escéptico sobre su uso terapéutico.
"Puede que exista potencial en relación con la psicoeducación y la psicoterapia, pero esto debe investigarse en ensayos controlados con el mismo rigor que se aplica a otras formas de tratamiento. No me impresionan los ensayos realizados hasta la fecha", afirmó.
Falta crítica de regulación
El estudio destaca una importante carencia en la regulación de la tecnología de chatbots de IA. "Actualmente, las propias empresas son las que deben decidir si sus productos son lo suficientemente seguros para los usuarios. Creo que ahora tenemos pruebas suficientes para concluir que este modelo es simplemente demasiado arriesgado", advirtió Østergaard.
El investigador comparó la situación actual con la evolución de las redes sociales: "Han pasado 20 años desde que las redes sociales alcanzaron un alcance global, y solo en el último año los países han comenzado a regular para contrarrestar las consecuencias negativas. En mi opinión, esta historia se está repitiendo con los chatbots de IA".
Iniciativa global para guías de uso seguro
Paralelamente, investigadores de la Universidad de Birmingham lideran un programa global para crear la primera guía definitiva para navegar de forma segura por la información sanitaria en chatbots con IA. La iniciativa, anunciada en una carta publicada en Nature Health, busca desarrollar la Guía del Usuario de Chatbots de Salud.
El Dr. Joseph Alderman, profesor clínico del Instituto Nacional de Investigación en Salud y Atención de la Universidad de Birmingham, explicó: "El uso de chatbots de propósito general para la atención médica ya no es una posibilidad hipotética futura; es una realidad actual. Ignorar este cambio deja al público expuesto a un panorama de información arriesgado sin ayuda".
Riesgos identificados por los expertos
El equipo de investigación destaca varios peligros importantes asociados con las interacciones con chatbots de salud:
- Imprecisión médica: La IA proporciona orientación médica plausible pero incorrecta
- Efecto de la cámara de eco: Los modelos optimizados para la amabilidad pueden simplemente reflejar las creencias existentes del usuario
- Sesgo algorítmico: La IA puede reforzar los sesgos sociales que exacerban las desigualdades sanitarias
- Privacidad de datos: Amenazas a la seguridad y confidencialidad de la información sanitaria personal
Los investigadores concluyen que, aunque el estudio no establece una relación causal directa, las evidencias son suficientes para recomendar extrema precaución en el uso de chatbots de IA por personas con trastornos mentales graves y para exigir regulaciones más estrictas a nivel internacional.



