Conflicto entre India y Pakistán:

Conflicto entre India y Pakistán: Cómo un vídeo Deepfake lo hizo mainstream

 9 de mayo de 2025 India Código abierto en breve- publicado por anónimo en 

India y Pakistán han estado intercambiando golpes a raíz de un ataque militante contra turistas en Cachemira administrada por la India el mes pasado.

El 7 de mayo, India dijo que había lanzado ataques con misiles en Pakistán y Cachemira administrada por Pakistán. Pakistán, que niega cualquier participación en el ataque de abril contra los turistas, la mayoría de los cuales eran indios, afirmó haber derribado drones y aviones indios.

Se han presentado reclamaciones y contrademandas de huelgas y ataques en curso de ambas partes. Algunos han sido difíciles de verificar de forma inmediata e independiente, creando un vacío que ha permitido la propagación de la desinformación.

Por ejemplo, el 8 de mayo, un video deepfake del presidente estadounidense Donald Trump que parecía declarar que "destruiría Pakistán" fue rápidamente desacreditado por verificadores de hechos indios. Por lo tanto, su impacto fue mínimo.

Sin embargo, no se puede decir lo mismo de otro vídeo deepfake visto por Bellingcat y, en el momento de la publicación, al menos un medio paquistaní.

El vídeo alterado había sido compartido en X (anteriormente Twitter) casi 700.000 veces en el momento de la publicación y pretende mostrar a un general del ejército paquistaní, Ahmed Sharif Chaudhry, diciendo que Pakistán había perdido dos de sus aviones.



Una captura de pantalla de un vídeo de X (anteriormente) Twitter que afirmaba falsamente mostrar un vídeo de un general paquistaní afirmando que dos aviones pakistaníes habían sido derribados. Más tarde se agregó una nota de la comunidad al vídeo en X detallándolo como un "deepfake generado por IA". Sin embargo, varias compañías de medios indias ya habían captado y corrieron la historia, incluidos grandes medios como NDTV. Otros medios de comunicación establecidos que presentaron citas de las imágenes alteradas en su cobertura incluyen The Free Press Journal, The Statesman y Firstpost. Bellingcat pudo desacreditar el vídeo encontrando otro clip de la misma conferencia de prensa del año pasado. El vídeo confirma que se agregó un audio diferente sobre el metraje original, con los labios de Chaudhry que parecen sincronizarse con el audio alterado. La posición de los micrófonos, la posición de Chaudhry en relación con las banderas y sus movimientos son idénticos. Ambos vídeos se cortan a la audiencia, que también es la misma. Puedes ver el vídeo publicado en Facebook en 2024 aquí y el vídeo manipulado publicado en X aquí. Mohammed Zubair, cofundador de la organización india de verificación de hechos Alt News, le dijo a Bellingcat que la desinformación y la desinformación se encuentran comúnmente en las redes sociales indias. Pero si bien puede ser bastante fácil para los verificadores de hechos capacitados desacreditar un deepfake donde se recicla un video antiguo y se manipula el audio, a Zubair le preocupaba que el público común simplemente presionara el botón de compartir debido a su atractivo emocional. "En realidad es muy preocupante porque parece muy convincente", dijo. 

 Bellingcat se puso en contacto con NDTV, The Free Press Journal, The Statesman y Firstpost sobre los detalles de esta historia, pero no recibió una respuesta antes de la publicación. NDTV y The Statesman más tarde eliminaron sus informes sin aclaraciones. Sin embargo, los expertos advierten que vídeos como estos actúan como una advertencia de los peligros continuos y en evolución de la desinformación. Rachel Moran, investigadora de investigación senior del Centro para un Público Informado de la Universidad de Washington, le dijo a Bellingcat que la velocidad con la que se pueden crear y publicar dichos vídeos trae un nuevo desafío. "En tiempos de crisis, el entorno de la información ya está confuso mientras tratamos de distinguir los rumores de los hechos a toda velocidad", dijo Moran. "El hecho de que ahora tengamos videos falsos de alta calidad en la mezcla solo hace que este proceso sea más agotante, menos seguro y puede distraernos de información verdadera importante". 


 Corrección: Este artículo fue modificado el 9 de mayo para aclarar que el vídeo de Facebook de Chaudhry se publicó en 2024 y no en 2025. 

TRADERA ARANET (PINE GAP)  es una organización sin fines de lucro y la capacidad de llevar a cabo nuestro trabajo depende del amable apoyo de los donantes individuales. Si desea apoyar nuestro trabajo, puede hacerlo aquí. También puedes suscribirte a nuestro canal PINE GAP aquí. Suscríbete a nuestro boletín y síguenos en Bluesky aquí y Mastodon aquí.

Publicar un comentario

0 Comentarios

Bienvenido

Por motivos de seguridad de la información que se publica en la página se creó esta opción donde los usuarios tendrán que registrarse o iniciar sesión con un seudónimo y una clave.

Nota: No se deben usar nombres reales ni claves reales. Ejemplos válidos: seudónimo "ClayPlay", clave "2547g@", "jhgd@12", etc.

Tampoco fotos reales, puedes subir cualquier imagen.

Al salir, tu perfil se elimina sin dejar rastro en los servidores.