x

Robo de rostros para hacer vídeos pone en peligro la seguridad de las personas en línea

Al principio se trató de otra app para entretenerse, sin embargo, la práctica ha ganado gran popularidad, provocando que el desarrollo de la inteligencia artificial permita crear imágenes falsas que no parecen ser artificiales.

Imagen sin descripción

SANTO DOMINGO.- ¿Te imaginas ver tu cara en un vídeo que nunca grabaste, haciendo cosas que nunca hiciste? Pues aunque te resulte difícil de creer, es posible a través del robo de identidad con inteligencia artificial. O sea que este tipo de alteraciones no se realizan solamente con fotografías.

Tan dañina como una pandemia, por el daño que puede ocasionar a la imagen de sus víctimas, ahora está la fiebre la tecnología conocida como deepfake, que ha activado una alerta en todo el mundo, representando un peligro y atentado contra la seguridad e identidad de las personas en línea y está muy de moda en las redes sociales y todo internet.

La difusión de los llamados ‘UltraFalsos’, que más que entretener se emplean con la intención de engañar a la gente y suplantar sus identidades, son usados cada vez más para cometer delitos informáticos, debido a las facilidades que dan diversas plataformas y aplicaciones que pueden descargarse de manera gratuita.

¿Qué son los deepfakes?

Los deepfakes son videos creados y/o modificados gracias a la inteligencia artificial y se conoce como ‘aprendizaje profundo’ (deep learning), con la finalidad de que se parezcan a la persona original. Esta, permite generar imágenes falsas desde cero e incluso alterar audios para crear ‘clones de voz’, con los que se controla las declaraciones del creador del deepfake.

Esta técnica, que crea montajes hiperrealistas que manipulan el rostro de las personas, tuvieron su auge en el año 2017, cuando utilizando herramientas de aprendizaje automático e inteligencia artificial, se logró reemplazar un contenido, en este caso, la imagen de celebridades para uso pornográfico.

Un video de la actriz Jennifer Lawrence donde se mezclaba su voz y cuerpo con el actor Steve Buscemi, hizo saltar las alarmas de la veracidad que estaba adquiriendo la tendencia, y el potencial de engaño que podría existir para manipular o generar contenido visual atentando contra la intimidad y privacidad de las personas.

En 2019 un informe de la compañía Sensity, firma especializada en ciberseguridad, reveló que el 96% de las deepfake existentes en internet eran de contenido pornográfico sin consentimiento y afectaban directamente a mujeres en general.

Al principio se trató de otra aplicación para la diversión, sin embargo, la práctica ha tomado gran protagonismo, provocando que en menos de seis años el desarrollo de la inteligencia artificial posibilite la creación de imágenes falsas indistinguibles de la realidad.

A inicios del 2021 han circulado por las redes sociales videos de personas con rostros de personajes famosos y lo más sorprendente es la increíble semejanza de la imagen artificial con la cara del personaje. Y aunque resulte imposible de creer, estos videos son creados a través de una técnica que crea video montajes hiperrealistas que manipulan el rostro de las personas y que cualquier persona puede realizar con un poco de tiempo y concentración.

Pero el problema radica en que este tipo de técnicas han activado las alarmas de las instituciones de seguridad, pues muchas veces los delincuentes se aprovechan de los usuarios para robarles información personal, engañarlos y, en muchos casos, cometer ilícitos. Incluso el FBI ha lanzado una alerta y una serie de recomendaciones para proteger la privacidad de los usuarios y detectar programas sospechosos.

Otros expertos advierten que con estos videos se están cometiendo todo tipo de ciberdelitos. El principal es la suplantación de la identidad de las figuras públicas, principalmente de Hollywood, ya sea para robar información para realizar operaciones financieras fraudulentas, o para hacer montajes de contenidos pornográficos.

Investigadores de la Universidad de Londres, también hicieron la advertencia y aseguran que la técnica es en la actualidad el delito de inteligencia artificial más grave y preocupante en la lucha contra el crimen.

Origen del problema

Los deepfakes aparecieron por primera vez en 2017, uno de los años del boom de las fake news. El usuario de reddit /r/deepfakes publicó sus primeras creaciones pornográficas utilizando algoritmos y librerías de imágenes de libre acceso con resultados muy reales que no daban rastro de una modificación artificial.

En sincronía con la aparición de TikTok y las apps de envejecimiento o rejuvenecimiento facial, la técnica de este usuario anónimo se popularizó y pronto surgió la primera app abierta para incorporar un rostro cualquiera a un video existente.

Comenta con facebook