Videos falsos generados con IA sobre guerra con Irán inundan las redes sociales
Desde que el gobierno estadounidense confirmó sus ataques en el conflicto de Medio Oriente, que involucra a Estados Unidos e Israel contra Irán iniciado el 28 de febrero, han circulado ampliamente en plataformas como X (antes Twitter) videos dudosos que muestran explosiones violentas en espacios cerrados. Aunque estos materiales parecen reales a simple vista, en realidad son falsos, ya que fueron creados utilizando inteligencia artificial, según análisis detallados.
Cuatro videos virales con miles de compartidos
Se identificaron cuatro videos que se volvieron virales, acumulando más de cinco mil compartidas en redes sociales. Tras una exhaustiva búsqueda de fotogramas en Google, se determinó que tres de ellos presentan indicios claros de haber sido generados con IA. El cuarto video podría ser el único real, pero los tres anteriores fueron analizados fotograma por fotograma, concluyendo que son falsificaciones.
Uno de estos videos incluso llegó a republicarse en varios reportes de prensa oficiales, lo que subraya la rapidez con que la desinformación se propaga en medios digitales.
Inconsistencias que revelan la falsedad
El análisis de los videos creados con inteligencia artificial destaca varias inconsistencias técnicas:
- En una escena de pocos segundos, se utilizó material real extraído de un video de casi un minuto publicado en noviembre de 2025 por la cadena estatal iraní SNN, correspondiente a un conflicto diferente ocurrido cinco meses después de la guerra de los 12 días entre Irán e Israel.
- Se observaron deformidades en las manos de dos personas que aparecen en el material, un error común en generaciones de IA.
- Dos pantallas de computadoras permanecieron intactas luego de una explosión, un detalle físicamente improbable.
- En otra secuencia, los logos en los uniformes de los agentes no corresponden a los de la Guardia Revolucionaria Islámica, indicando una falta de autenticidad.
Anomalías en comportamientos y fisonomías
En otro de los videos falsos, se muestra a personas dentro de cubículos de oficina que no reaccionan a una explosión, ni ellas ni su equipo de cómputo sufren daño alguno. Además, la fisonomía de una de las personas cambia drásticamente de un segundo a otro, con alteraciones como el crecimiento del brazo, la nariz y la espalda, lo que evidencia la manipulación mediante IA.
Estos hallazgos resaltan los desafíos crecientes en la lucha contra la desinformación en conflictos internacionales, donde la tecnología permite crear contenido convincente pero falso que puede influir en la opinión pública y en coberturas mediáticas.



