La problemática de los Deepfakes

480

El fenómeno del deepfake y el auge de las inteligencias artificiales generativas y los grandes modelos de lenguaje como DALL-E o ChatGPT están permitiendo crear identidades y supuestas personas digitales cada vez más realistas. Discernirlas de un humano real será cada vez más complicado.

Los deepfakes son vídeos, imágenes o audios en los que alguien, ayudado de un modelo de IA, ha sustituido elementos que identifican a una persona —su rostro y su voz, por ejemplo— para crear una escena que nunca ha existido. El estado del arte de este fenómeno progresa tanto que ya hay IA capaces de actuar de forma casi autónoma recreando o sustituyendo rostros.

A expertos en ciberseguridad lo que les preocupa cada vez más es qué sucederá cuando llegue ese punto de inflexión en el que ni los humanos ni sus herramientas serán capaces de distinguir adecuadamente un deepfake de lo un vídeo real. En palabras del propio Alonso, la tarea de “detectar” a estos “replicantes digitales” no es “nada sencilla”.

En 2019, ciberdelincuentes robaron 220.000 euros a una firma británica de energía tras un ataque con la conocida técnica del fraude del CEO. Pero en este caso los asaltantes suplantaron a un directivo no solo mediante un correo electrónico: usaron una IA para mimetizar la voz de un directivo encargando una transferencia por esa cantidad a un supuesto proveedor húngaro.

Solo 2 años después se conoció otro hecho similar. Criminales informáticos habían clonado la voz de un empresario para orquestar un robo mucho más cuantioso: ordenaron a un banquero hongkonés la transferencia de más de 32 millones de euros para una supuesta inversión que acabó siendo falsa. El banquero se lo creyó todo: la voz era idéntica a la del empresario, que conocía.

Los fines de los deepfakes, como se decía, no tienen por qué ceñirse a estafas o robos a través de la red. Algunos revisten más gravedad. Pueden intentar influir en la opinión pública —hay imágenes deepfake de un falso arresto de Donald Trump.

La tecnología para prevenir deepfakes evoluciona, pero no consigue ser tan eficaz como la que generan esas imágenes fake. Lo cuenta la propia Ángela Barriga, recordando cómo en 2019 grandes tecnológicas se asociaron y a través de su organización Partnership on AI —fundada por Meta, Microsoft, Google, entre otras— lanzaron un “desafío” a la comunidad tecnológica.

El desafío no era otro que intentar crear el detector de deepfakes definitivo. El equipo que mayor tasa de eficacia logró en aquel desafío —que duró de 2019 a 2020— logró una del 82%. Cuando los convocantes del desafío arrojaron su modelo detector contra una base de datos más compleja —que bautizaron como black box—, su tasa de eficacia se desplomó al 65%.

BUSINESS INSIDER (11/04/2023)

Más información aquí

Si te resultó útil...Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Email this to someone
email