El uso de esta herramienta para la divulgación de bulos marcaría un precedente que podría restar credibilidad a quienes la utilicen con propósitos genuinos
El modelo de inteligencia artificial generativa multimodal desarrollado por Google DeepMind, Veo 3, está siendo usado para crear supuestos noticieros que publican noticias falsas o sensacionalistas sobre Venezuela y otros países, o descontextualizan aquellas que son reales para impulsar y amplificar la desinformación.
Veo 3 es capaz de generar, a partir de una serie de instrucciones escritas previamente y suministradas al asistente virtual Gemini, videos con alto nivel de realismo, coherencia narrativa y reproducir audio nativo con diálogos sincronizados. Lo anterior hace que la calidad de los videos los hagan considerablemente creíbles, haciendo probable que un usuario no entrenado considere que el contenido es genuino y producido por alguna fuente creíble.
En ocasiones es posible detectar algunos indicios típicos de los videos generados con esta herramienta, especialmente aquellos creados con la suscripción más económica del servicio. Entre estos indicios figuran la duración máxima de sus segmentos o la disposición horizontal de los videos generados.
Debido a esto, es importante conocer cómo detectar contenidos falsos o engañosos creados con Veo 3 y así disminuir el riesgo de ser víctima de desinformación.
Señales para identificar un falso noticiero creado con Veo 3
Cazadores de Fake News realizó una búsqueda de cuentas en la red social TikTok que han publicado videos con elementos que coinciden con los creados con Veo 3, y detectó que cinco cuentas hicieron uso de esta herramienta para difundir desinformación.
Una de las cuentas detectadas, @ultimas_noticias_ve, afirma ser de un portal web de noticias y resalta del resto por la gran cantidad de videos con indicios de haber sido generados con el uso de la herramienta Veo 3. La cuenta ha publicado decenas de contenidos desinformadores sobre varios temas de interés en Venezuela, de tipo político, sobre el tipo de cambio del dólar-bolívar, el costo de la gasolina o sobre eventos por desastres naturales.
Para analizar la existencia de posibles patrones que aparecen tras la generación de contenidos con Veo 3 por este tipo de falsos noticieros, se analizó una muestra de 71 videos publicados por @ultimas_noticias_ve, obteniendo los siguientes resultados:
- Los 71 videos tienen segmentos de ocho segundos, o con ese periodo de tiempo
- En 60 casos (83%) utilizan ventanas en formato de video horizontal
- En 16 casos (22%) se suplanta la identidad de un medio de comunicación
- En 59 casos (83%) apareció hablando un reportero/host creado con IA
- En 34 casos (83%) se usó un matiz sensacionalista en la narración
- En 10 casos (14%) usan clips de redes sociales como material de apoyo
- En 7 casos (9%) descontextualizan o distorsionan declaraciones oficiales
- En 47 casos (66%) tienen “artefactos” (palabras mal escritas, logos o mapas mal dibujados)
También pudo constatarse que los falsos presentadores y reporteros que aparecen narrando las noticias en estos videos, tienen una dicción parcialmente mecanizada, sin inflexiones vocales y con poca o ninguna naturalidad.
En el caso de los avatares femeninos se identificó que al menos dos usan una voz casi idéntica.
En cuanto a los avatares masculinos, se identificaron voces y acentos distintos en la misma persona e, incluso, en el mismo video, un indicio claro de que quienes hablan no son personas reales.
Con respecto a la desinformación detectada, la cuenta publicó un video que descontextualiza un balance del ministro de Defensa de Venezuela, Vladimir Padrino López, sobre los trabajos de recuperación del Hospital Militar Carlos Arvelo, de Caracas asegurando que Estados Unidos bombardeó el lugar, cuando en realidad el ministro usó una metáfora de “misiles” para hablar de las sanciones de EE.UU.
En otro bulo sobre Padrino López se asegura que el ministro padece cáncer de estómago y, supuestamente, el gobierno venezolano tendría listo su sucesor en el cargo. Portales de verificación aclararon que la información es falsa.
Problemas de acceder a información veraz en un mundo con Veo 3
Como ha sucedido con otros productos de las herramientas de Inteligencia Artificial Generativa, los clips creados con Veo 3 pueden ser usados tanto para generar contenidos informativos, como para aumentar el problema de la desinformación.
Por ejemplo, Cazadores de Fake News y otras organizaciones de verificación alrededor del mundo, detectaron recientemente algunos videos desinformadores con indicios de haber sido creados con Veo 3 en los que, supuestamente, mujeres israelíes piden perdón a los iraníes por el presunto genocidio por parte de gobierno israelí, al cual le exigen que “detenga la guerra”.
La difusión de noticieros generados con esta herramienta también podría suponer otro problema: restar credibilidad a quienes usen esta tecnología con fines auténticamente informativos y hasta con propósitos de seguridad física y digital, debido a que el público puede tender a creer que todos los contenidos generados con inteligencia artificial no son confiables y contienen desinformación.
Pero el uso de herramientas de inteligencia artificial no en todos los casos es malicioso.
En el caso de Venezuela, por ejemplo, medios de comunicación han impulsado proyectos que emplean avatares creados con inteligencia artificial para evadir la censura por parte del gobierno y al mismo tiempo velar por la integridad de sus profesionales. Este es el caso de la Operación Retuit, que usó dos avatares de inteligencia artificial, la Chama y el Pana, para difundir información clave durante los meses posteriores a la elección presidencial en Venezuela del 28 de julio de 2024. Más recientemente, el medio digital El Pitazo presentó una iniciativa similar: un resumen de noticias llamado “Así está la vaina”, presentado también por dos avatares: “El Catire” y “La China”.
Operación Retuit, “Así está la vaina” y los videos de falsos noticieros en redes sociales son ejemplos de que la IA generativa puede ser usada por cualquier persona con todo tipo de objetivos, por lo que el llamado es a los usuarios a verificar siempre la fuente de alguna noticia que pueda parecer real.
Además, basar la detección en errores, artefactos o indicios —como los segmentos de 8 segundos en videos creados con Veo 3— podría volverse insuficiente en pocos meses, porque la tecnología evoluciona y corrige esas fallas.
Pese a los esfuerzos de medios y verificadores, la clave está en mejorar hábitos informativos: acudir a fuentes confiables, contrastar datos y exigir etiquetado claro cuando se utilice tecnología basada en inteligencia artificial.
Cazadores de Fake News investiga a detalle cada caso, mediante la búsqueda y el hallazgo de evidencias forenses digitales en fuentes abiertas. En algunos casos, se usan datos no disponibles en fuentes abiertas con el objetivo de reorientar las investigaciones o recolectar más evidencias.