Estudio de Oxford advierte: IA en salud ofrece datos imprecisos y riesgos para pacientes
IA en salud: riesgos por datos imprecisos en consultas médicas

Estudio de Oxford advierte riesgos del uso de IA para consultar temas de salud

Una investigación publicada en la revista Nature Medicine destaca que persiste una brecha significativa entre las promesas de la inteligencia artificial y su aplicación real en el ámbito de la salud. Los modelos de lenguaje de gran escala (LLM), desarrollados con IA para analizar lenguaje natural, pueden representar un peligro para las personas que buscan orientación médica, ya que frecuentemente ofrecen datos imprecisos o inconsistentes.

Evaluación de la capacidad de la IA en diagnósticos médicos

El estudio, liderado por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria de la Universidad de Oxford, evaluó si los LLM podían ayudar a los ciudadanos a identificar con precisión afecciones como resfriados comunes, anemia o cálculos biliares. Para testar esta capacidad, los autores realizaron un ensayo aleatorio con casi 1.300 participantes, quienes debían identificar condiciones de salud y recomendar acciones a seguir en escenarios detallados por médicos.

Los resultados fueron contundentes: los participantes que usaron IA no tomaron mejores decisiones que aquellos que confiaron en métodos tradicionales, como buscar en internet o su propio juicio. Esto desafía la propuesta de algunos proveedores de salud a nivel mundial, que han sugerido los LLM como herramientas para evaluaciones preliminares antes de acudir a un médico.

Brecha entre rendimiento teórico y uso práctico de la IA

El equipo descubrió fallos importantes en la comunicación bidireccional entre humanos y LLM. Por un lado, los participantes a menudo proporcionaban información incompleta o insuficiente a los modelos. Por otro lado, los LLM generaban información engañosa o errónea, mezclando consejos buenos y malos en sus recomendaciones.

"Diseñar pruebas robustas para los modelos de lenguaje es clave para entender cómo podemos aprovechar esta nueva tecnología", asegura Andrew Bean, autor principal e investigador doctoral en el Oxford Internet Institute. La interacción con humanos supone un reto incluso para los mejores modelos, lo que resalta la necesidad de desarrollar sistemas de IA más seguros y útiles.

Advertencias sobre la implementación de IA en atención médica

Los autores del estudio advierten que, al igual que los ensayos clínicos para nuevos medicamentos, los sistemas de IA deberían probarse en el mundo real antes de ser implementados en la atención directa al paciente. Rebecca Payne, médica de cabecera y líder del estudio, señala: "A pesar de toda la expectativa, la IA simplemente no está lista para asumir el papel del médico."

Los pacientes deben ser conscientes de que consultar a un modelo de lenguaje sobre sus síntomas puede ser peligroso, ya que pueden surgir diagnósticos erróneos y no reconocer cuándo se necesita ayuda urgente. El estudio concluye que los LLM actuales no están preparados para su uso en contextos médicos sensibles, enfatizando la importancia de la supervisión humana en decisiones de salud.