El caso Taylor Swift nos vuelve a recordar el problema que tenemos con los deepnudes

La reciente publicación de imágenes de la cantante Taylor Swift de contenido pornográfico, modificadas con herramientas de inteligencia artificial, trae de nuevo a la palestra el problema que supone actualmente, no solo la generación de contenido fraudulento creíble, sino también el problema que supone principalmente para las mujeres que se use su imagen sin permiso en este tipo de contenido.

Peligrosos antecedentes

La utilización de imágenes de personalidades famosas en actitudes comprometedoras no es algo nuevo, ya que llevamos muchos años observando casos. Si echamos la vista atrás recordaremos casos destacados como la filtración de fotos y vídeos privados de actrices como Scarlett Johansson o Jennifer Lawrence. No obstante, en estos casos estamos hablando de la difusión de imágenes reales que fueron robadas a estas actrices, por lo que no hubo modificación alguna del contenido.

El problema llega cuando, haciendo uso de herramientas de retoque fotográfico o, más recientemente, herramientas apoyadas con inteligencia artificial, se utilizan imágenes públicas de estas personalidades para modificarlas y hacer que se muestren en situaciones eróticas o directamente pornográficas. Este es el caso de Taylor Swift, quien hace unos días observó con preocupación cómo la red X (anteriormente conocida como Twitter) se llenaba de imágenes suyas modificadas para que apareciese desnuda.

¿Qué ha pasado entre los incidentes acontecidos hace más de 10 años y los más recientes? Por un lado, hemos de tener en cuenta que anteriormente se necesitaba acceder a los servicios donde las víctimas guardaban sus fotos privadas para poder robarlas y exponerlas públicamente. Sin embargo, en la actualidad tan solo hace falta tener acceso a alguna de las muchas imágenes públicas que alguien famoso tiene publicadas en redes sociales o en webs de todo tipo para entrenar un modelo de IA que permita modificarlas e incluso generar vídeos.

Además, no debemos olvidar que los vídeos pornográficos deepnude hace ya bastantes años que existen y se distribuyen en webs y plataformas con contenido para adultos, lo que significa que el problema actual viene no tanto de la evolución de esta tecnología (que también), sino del acceso a la misma por parte de cualquiera que disponga de un dispositivo como su smartphone para acceder a las herramientas que actualmente están disponibles.

Peligros actuales del mal uso de la IA con los deepnudes

Como cada vez que se populariza una tecnología disruptiva, a pesar de que sus aplicaciones pueden suponer un importante avance, siempre hay quien encuentra la forma de usarla con fines maliciosos. Lamentablemente, el uso de herramientas apoyadas con IA para generar imágenes y vídeos falsos no es algo que sufran únicamente los famosos, y cada vez más estamos viendo casos donde principalmente mujeres son víctimas de este tipo de violencia, incluso por parte de sus compañeros de estudios o trabajo.

No hace falta buscar mucho entre los titulares de los últimos meses para encontrar casos como el de Almendralejo o Barcelona. El problema es que esos casos solo serán la punta del iceberg, ya que la creación de estos deepnudes ya se están normalizando como nueva forma de ciberacoso y es muy probable que veamos nuevos casos en los próximos meses.

Y si pensamos en las posibilidades que se abren al mundo de los cibercriminales, el panorama es realmente preocupante. Pensemos, por ejemplo, en los clásicos correos de sextorsión, donde alguien nos envía un email diciendo que nos ha estado espiando y grabando mientras consumíamos material pornográfico y nos amenaza con difundirlo entre nuestros familiares y conocidos si no le pagamos una cantidad de dinero.

A día de hoy, estos correos no tienen demasiado éxito, pero si los delincuentes los acompañan de imágenes modificadas que parezcan reales, puede que más víctimas cedan al chantaje. Esto, de hecho, no es una suposición sino algo de lo que, agencias como el FBI ya han alertado hace unos meses, por lo que se trata de una posibilidad muy real a la que tenemos que prestar la atención que se merece.

Conclusión

No sería justo culpar a la inteligencia artificial de los problemas que hemos comentado en este artículo ya que esto es culpa exclusivamente de los que hacen un mal uso de esta potente herramienta. No obstante, no debemos ignorar los desafíos a los que nos enfrentamos actualmente y a los que nos enfrentamos en el futuro, aprovechando lo que ya sabemos para desarrollar medidas que limiten el impacto de los deepnudes y, sobre todo, educando para que no se tome esta actividad delictiva como un juego por parte de los menores.

Josep Albors

ESET presenta su nuevo Programa de Canal para impulsar el crecimiento y la competitividad de sus distribuidores