Grok, la IA de X, difunde desinformación sobre bombardeo a escuela en Irán
Grok difunde desinformación sobre ataque a escuela en Irán

Grok, la IA de X, difunde desinformación sobre bombardeo a escuela en Irán

La inteligencia artificial Grok, propiedad de la plataforma X (anteriormente Twitter), ha sido señalada por difundir información falsa al acusar a medios de comunicación como la agencia EFE de compartir contenido engañoso sobre el bombardeo contra una escuela primaria en Minab, Irán. Sin embargo, múltiples verificadores de datos han confirmado la autenticidad de las imágenes publicadas por los medios.

El análisis que desmiente a Grok

Un exhaustivo análisis georreferencial realizado por El Sabueso, junto con verificaciones de organizaciones como Maldita.es, EFE Verifica y Verificat, demuestra que las fotografías difundidas por la agencia EFE corresponden efectivamente al ataque aéreo ocurrido el 28 de febrero contra una escuela para niñas en territorio iraní. Este ataque dejó un saldo trágico de más de cien estudiantes fallecidas.

Los verificadores utilizaron diversas metodologías para confirmar la veracidad del material:

  • Geolocalización precisa que ubica las imágenes en Minab, Irán
  • Búsqueda inversa en Google Lens que no encontró publicaciones anteriores de las fotografías
  • Comparación con videos de periodistas locales y la agencia iraní Mehr
  • Análisis arquitectónico que descarta que correspondan a otros eventos

La respuesta engañosa de Grok

Cuando usuarios de X preguntaron a Grok sobre la veracidad de las imágenes compartidas por EFE, el modelo de inteligencia artificial respondió falsamente que los clips correspondían a un ataque en un centro escolar de Kabul, Afganistán, en mayo de 2021. Esta afirmación ha sido completamente desmentida por los verificadores.

"No es cierto que las imágenes de un edificio en ruinas tras un bombardeo fueron grabadas en Kabul, Afganistán, en 2021", aclaró la agencia EFE en respuesta a las acusaciones basadas en las consultas a Grok.

Diferencias arquitectónicas clave

El análisis comparativo revela diferencias fundamentales entre ambos escenarios:

  1. La escuela en Kabul presentaba una fachada de color naranja
  2. El edificio afgano tenía un solo piso y mostraba una zanja en el suelo
  3. La estructura dañada en Minab presenta características arquitectónicas distintas
  4. La distribución espacial y elementos como árboles circundantes no coinciden

Patrón de desinformación sistemática

Este no es un caso aislado de desinformación por parte de Grok. El modelo de IA ha mostrado un patrón recurrente de compartir información falsa en diversos contextos:

  • Durante protestas en Estados Unidos contra redadas migratorias
  • Tras el tiroteo masivo en Bondi Beach, Australia, en diciembre de 2025
  • En consultas sobre eventos durante la guerra entre Israel e Irán en 2025

La naturaleza probabilística de los modelos de lenguaje

Ernesto Villegas, ingeniero en sistemas computacionales especializado en Inteligencia Artificial Aplicada, explica que los modelos de lenguaje como Grok son probabilísticos y no garantizan veracidad en sus afirmaciones.

"Lo que hay que entender es que los modelos de inteligencia artificial no son buscadores de información, son generadores de contenido con base en patrones estadísticos", señala Villegas. "Estas herramientas no saben contrastar hechos en tiempo real ni entienden de procesos de verificación".

El especialista enfatiza la importancia de contrastar la información generada por IA con fuentes confiables y verificadores profesionales, ya que estos modelos priorizan la coherencia textual sobre la precisión factual.