Durante varios días han circulado videos generados por inteligencia artificial, escenas sacadas de videojuegos y clips manipulados digitalmente como si fueran grabaciones inéditas del conflicto
El actual conflicto entre Irán e Israel ha dado lugar a una oleada de desinformación visual en redes sociales. Videos manipulados, imágenes generadas por inteligencia artificial (IA) y escenas extraídas de videojuegos están circulando como si fueran registros auténticos de lo que ocurre en el terreno.
Cazadores detectó y desmintió varias piezas que fueron publicadas desde el 13 de junio en X y TikTok, principalmente. Lo siguiente es un registro de cada uno de los contenidos desmentidos y por qué no corresponde considerarlo evidencia real del conflicto.
23 de junio
«Hongo nuclear» fue creado con Inteligencia Artificial
En redes sociales como Facebook, X (antes Twitter) y TikTok, se viralizó un videoclip que supuestamente muestra un ataque israelí a las instalaciones nucleares de Arak en Irán. Sin embargo, diversos usuarios en X y cuentas de verificación confirmaron que el video fue generado con inteligencia artificial. Aunque el video fue eliminado de la cuenta en TikTok de su creador, siguen circulando versiones similares del mismo contenido en las plataformas digitales.
El video aún puede encontrarse en las cuentas de Instagram y YouTube de su autor, donde se aclara expresamente: “No es real, lo produje con inteligencia artificial”. En Venezuela, una cuenta llamada Polianalítica —que ya ha difundido contenido desinformante anteriormente— también publicó este material como si fuera auténtico.
20 de junio
Falso incendio en Tel Aviv
Desde el 13 de junio circula en redes sociales una imagen que mostraría un gran incendio en el centro de Tel Aviv, Israel, tras un supuesto contraataque iraní. La imagen se difundió rápidamente en plataformas como X, TikTok, Instagram, Facebook y YouTube, y fue compartida tanto por usuarios comunes como por cuentas que se describen como medio digital. En Venezuela fue replicada por uno de los principales propagandistas del gobierno oficialista.
Sin embargo, la pieza podría ser una imagen alterada o generada con Inteligencia Artificial. La Oficina Económica y Cultural de Israel en Taipei, Taiwán, confirmó a un medio local de verificación que no hubo ningún incendio de esa magnitud en Tel Aviv y que la imagen no corresponde a un hecho real. Además, el incendio no fue reseñado por ningún medio de comunicación confiable.
Un reporte de NBC del mismo 13 de junio muestra escenas de la capital israelí y una de ellas coincide con la toma de los edificios, pero no hay señales del fuego que muestra la imagen viral. Incluso, una cuenta en X que publica contenido relacionado con el ejército iraní publicó una foto de la misma zona con el mensaje “hemos llegado”, donde solo se ve humo entre los edificios, sin rastro de incendio.
Mediante la herramienta Hive Moderation, el medio de verificación Malaespina determinó que la imagen tiene una probabilidad de 81% de haber sido creada o modificada con el uso de Inteligencia Artificial.
19 de junio
Falso video de cohete iraní fue replicado por cuentas venezolanas
Un video que aparenta mostrar un lanzamiento de cohete desde Irán fue difundido por Globovisión y Polianalítica, pero en realidad fue creado con Inteligencia Artificial (IA) generativa. El material no proviene de canales oficiales iraníes, sino de decenas de cuentas falsas que se hacen pasar por perfiles militares. Desde el 15 de junio circula en redes sociales y ha sido replicado por portales venezolanos sin verificar su autenticidad.
El video presenta múltiples señales de ser sintético: pantallas con letras ubicadas fuera del alcance humano, un cohete suspendido sin soporte visible, enfoque perfecto en todos los planos, colores saturados y manchas que aparecen y desaparecen. Sin embargo, el indicio más evidente es que el cohete cambia de tamaño a lo largo del video, lo que apunta a una imagen generada artificialmente.
Este tipo de contenido forma parte de una tendencia creciente de propaganda digital pro-Irán creada con IA. Las cuentas que lo comparten suelen publicar otros videos similares y son citadas por medios venezolanos como si fueran noticieros oficiales iraníes, cuando en realidad son perfiles falsos dedicados a distribuir desinformación.
18 de junio
Falsa imagen del Mossad destruido
Circuló en redes una imagen que muestra, supuestamente, la sede del Mossad destruida tras un ataque iraní el 16 de junio. Aunque fue compartida por medios como Telesur, en realidad proviene de un video publicado en TikTok dos días antes del supuesto ataque. El contenido fue generado completamente con inteligencia artificial, algo que incluso está indicado en el propio video original.
La imagen tiene señales claras de manipulación como nombre oficial mal escrito. El cartel en el edificio dice “Mosad”, con una sola “s”, un error poco probable si se tratara de una escena real en Israel. El nombre correcto del Instituto de Inteligencia israelí se escribe “Mossad” y en hebreo aparece como “המוסד”.
17 de junio
Difunden como ataque al Mossad un video grabado en China
Un video ha circulado con la afirmación falsa de que muestra la sede del Mossad en llamas, supuestamente tras un ataque iraní. Sin embargo, el contenido no fue grabado en Israel ni en el contexto actual del conflicto. En realidad, las imágenes corresponden a un incendio ocurrido el pasado miércoles 11 de junio en un estacionamiento de motocicletas en Chongqing, una ciudad ubicada al suroeste de China. El clip fue publicado por cuentas de propagandistas venezolanos.
16 de junio
Falso bombardeo en centro financiero de Tel Aviv
Circuló un video que aparenta mostrar la destrucción del centro financiero de Tel Aviv en medio del conflicto entre Irán e Israel. Sin embargo, se trata de una animación generada con inteligencia artificial (IA) y no de imágenes reales captadas en terreno. El material incluye la misma marca de agua que otros videos falsos que ya fueron verificados y desmentidos desde el inicio del conflicto, el pasado 12 de junio.
El clip se ha viralizado especialmente entre cuentas de usuarios venezolanos, y una de las publicaciones ya supera los 2.800 reposteos en X (antes Twitter). El video presenta múltiples señales de manipulación digital como edificios con estructuras deformadas y polvo que no se disipa.
Irán no lanzó misiles desde Tabriz el 13 de junio
En X (antes Twitter) circuló un video del supuesto lanzamiento de misiles por parte de Irán desde la región de Tabriz, como respuesta directa a la ofensiva israelí del 13 de junio. La publicación viral es una descontextualización.
Las imágenes corresponden al ataque masivo lanzado por Irán el 1 de octubre de 2024, luego del asesinato de líderes clave, entre ellos Ismail Haniyeh (Hamás), Hassan Nasrallah (Hezbolá) y el general iraní Abbas Nilforoushan. Medios como Reuters, Infobae y BBC documentaron ampliamente ese episodio.
El video resurgió el 13 de junio, tras reportes de nuevas explosiones en territorio iraní que se atribuyen a un nuevo ataque de Israel.
Fue compartido principalmente por cuentas que se presentan como “agencias de noticias” especializadas en Oriente Medio, pero que no tienen respaldo editorial ni estándares de verificación. Además, la grabación fue amplificada por figuras vinculadas al oficialismo venezolano, como Roi López Rivas, representante del gobierno de Nicolás Maduro ante la Red Global de Verificación de Datos (GFCN), una supuesta red de fact-checkers con vínculos con Rusia.
15 de junio
Otro “derribo de F-35” falso: es un clip de videojuego
Un video publicado por la cuenta oficial de la Embajada de Irán en Caracas y replicado por propagandistas venezolanos afirma mostrar el derribo de un avión F-35 israelí. Pero el audiovisual no es auténtico.
El clip fue publicado originalmente en Facebook el 6 de junio, una semana antes del inicio de los ataques. La cuenta que lo creó se especializa en subir contenido generado desde simuladores militares como DCS World y War Thunder. No es una grabación real del conflicto.
14 de junio
Irán no derribó un F-35 israelí: el video es una simulación
Circuló un video sobre una arremetida de Irán derribando un avión F-35 israelí, pero la pieza no es real. Se trata de una animación publicada en YouTube el 18 de mayo de 2025, antes del inicio del conflicto. Según el canal que lo publicó, es una simulación militar que representa a un avión Su-57 enfrentándose a un sistema de misiles SAM. Nada tiene que ver con la guerra actual.
El desmentido también fue publicado por el medio Dintent Data de la India.
Video del supuesto bombardeo nocturno es generado por IA
Un clip que supuestamente muestra un bombardeo nocturno de Irán a Israel fue fabricado con inteligencia artificial generativa. La propia cuenta de TikTok que lo subió por primera vez lo aclara en su descripción. A pesar de ello, el video se viralizó fuera de contexto como si fuese real.
Este tipo de contenidos tiende a explotar el impacto visual para generar desinformación.
Arma III e IA generativa: escenas de videojuegos son usados para desinformar
Muchos de los videos que están circulando en redes sobre el conflicto entre Irán e Israel no son reales: fueron creados con IA o extraídos del videojuego militar Arma III. Los difunden tanto cuentas que simpatizan con el gobierno israelí como aquellas que apoyan a Irán.
Aunque tienen apariencia “realista”, estos clips no documentan hechos verdaderos, sino que son recreaciones ficticias sacadas de contexto.
Otro video falso creado con IA circula entre cuentas venezolanas
Un nuevo video viral, promovido en X por cuentas venezolanas afines al gobierno oficialista, muestra una supuesta escena de destrucción tras un bombardeo iraní en Israel, pero también es falso. El video fue creado por una cuenta de TikTok llamada “Resistencia IA”, que publica contenido sintético de forma sistemática.
Al revisar el video en alta resolución, se observan elementos que confirman su falsedad: escombros flotando, polvo que no se disipa y estructuras que colapsan de forma incoherente.
Funcionarios iraníes no están huyendo en jets privados
Otro video engañoso afirma mostrar a funcionarios del gobierno iraní huyendo en jets privados. Pero el clip original fue publicado en YouTube el 9 de julio de 2023, mucho antes del conflicto actual. Además, los autos que se ven llegando a los aviones fueron insertados digitalmente. Se trata de una manipulación digital.
Este bulo fue impulsado por cuentas en X que difunden desinformación de forma regular, como la de Eduardo Menoni y el portal web La Derecha Diario.
Cazadores de Fake News investiga a detalle cada caso, mediante la búsqueda y el hallazgo de evidencias forenses digitales en fuentes abiertas. En algunos casos, se usan datos no disponibles en fuentes abiertas con el objetivo de reorientar las investigaciones o recolectar más evidencias.