Bogotá.- Un lugar sombrío en internet esconde miles de vídeos pornográficos donde las protagonistas son famosas como Taylor Swift o Mila Kunis. A pesar de que en las imágenes aparezcan sus rostros, el cuerpo no es el suyo. Como muñecas, fueron creadas con inteligencia artificial, con un «software» que reemplazó la cara de una actriz porno por la de las artistas.
Se tratan de «deepfakes», creaciones digitales hechas con algoritmos que aprenden a base de la repetición y que después de codificar decenas de imágenes de rostros desde diferentes ángulos pueden sustituir la cara y la voz de una persona por la de otra.
No tienen por qué ser perniciosos, se usan también en la industria del cine o en la publicidad, pero la compañía Sensity AI estima que entre el 90 % y el 95 % de todos los «deepfakes» en línea son pornografía no consensual y alrededor del 90 % incluye a mujeres.
SILENCIAR A MUJERES LÍDERES
En ese patio trasero virtual, la gran mayoría de usuarios anónimos utiliza las caras de actrices o cantantes famosas. Aun así, las víctimas también son políticas o activistas.
Efe recibió en noviembre un «deepfake» de la activista Greta Thunberg que mostraba a la joven de 18 años gesticulando y bailando desnuda. El video estaba circulando en Brasil por WhatsApp e iba acompañado de un mensaje que la acusaba de «estar probando nuevas tácticas en contra del cambio climático».
Con una búsqueda en internet, Efe encontró el video de la actriz original a quien habían reemplazado la cara por la de Thunberg.
Catalina Moreno, de Fundación Karisma, organización colombiana que trabaja en la promoción de los derechos humanos en el mundo digital, señala que este tipo de «deepfakes» buscan «silenciar, evitar que haya mujeres visibles y en debates públicos».
En el caso de Thunberg, añade la experta, el «deepfake» quiere «cuestionar si su activismo en medioambiente es creíble teniendo en cuenta que hay un video circulando de ella desnuda» y «dejar su discurso en un segundo plano, quitarle interés a la lucha que está adelantando».
La periodista de investigación india Rana Ayyub explica en un artículo cómo, tras criticar a la India por una violación en Cachemira de una niña de 8 años, empezó a circular un «deepfake» pornográfico en el que aparecía su rostro y por el que sufrió ciberacoso en las redes.
Las consecuencias a la larga, añade, fueron problemas mentales y autocensura.
La ONU se pronunció sobre el caso pidiéndole al Gobierno indio que la protegiera del ciberacoso, pero no hubo ninguna repercusión para los autores.
Los videos falsos además pueden poner en riesgo la vida de hombres en países donde la homosexualidad está criminalizada, en algunos con pena de muerte.
CHILE Y COLOMBIA VIGILANTES
El experto en ciberseguridad Juan David Cardona confirma a EFE la presencia de «deepfakes» en América Latina y revela que los Gobiernos en Chile y Colombia, países con elecciones el pasado diciembre y en mayo de 2022, respectivamente, monitorean las redes en busca de ataques en contra de políticas.
Sobre todo, al ser una tecnología que en los últimos años ha cogido carrerilla y es posible crearla con una aplicación en el móvil.
A pesar de que los «deepfakes» generados con programas gratuitos no son perfectos, para desprestigiar a una mujer basta con que sean verosímiles.
Utilizar como arma la sexualidad de las mujeres no es nuevo. Un informe de la violencia política en redes sociales en Ecuador recoge el testimonio de una política a la que anunciaron como prostituta en una página web y adjuntaron su teléfono. En el anuncio habían utilizado su foto de campaña.
AL ALCANCE DE CUALQUIERA
Para generar «deepfakes» se necesitan grandes cantidades de imágenes y videos desde diferentes ángulos, por eso hasta ahora era difícil utilizarlas en contra de mujeres anónimas. Aun así, ya existen aplicaciones que analizan fotografías de mujeres y con inteligencia artificial las desnudan en pocos minutos.
Sensity AI encontró en 2020 un chatbot de Telegram que había desnudado al menos a 100.000 mujeres. Por su parte, un estudio impulsado por el Parlamento europeo para abordar los «deepfakes» en la política europea señala que las aplicaciones están diseñadas con sesgos de género.
La investigación apunta que no hay regulación en la mayoría de países del mundo y recoge los ejemplos de los estados de EE.UU. de Virginia, Texas y California, los primeros en ese país en impulsar leyes sobre «deepfakes».
Cardona insiste en la importancia de que las grandes empresas tecnológicas tomen cartas sobre el asunto y detengan el flujo de estos videos en sus plataformas. A pesar de que tanto la web pornográfica PornHub y Twitter prohibieran los «deepfakes» porno, EFE Verifica comprobó que cada día se cuelgan en esas plataformas centenares.
Algunas empresas han desarrollado programas para identificar «deepfakes», pero no están al alcance del usuario. Por eso, es importante conocer algunos consejos para determinar si se encuentra delante de un «deepfake», como fijarse en si las gesticulaciones o la voz sufren retrasos, si el color de la piel entre la cara y el cuerpo coinciden, o si la fuente de la que provienen las imágenes es confiable y pública.