Espacio publicitario

Los “deepfakes”: una amenaza contra las mujeres

La creación de pornografía a través de IA comienza a convertirse en una epidemia

  • Diario El Universal

02/06/2024 06:00 am

A finales de 2023 fuimos testigos de un hito en la historia tecnológica, uno que tendrá enormes repercusiones en la vida de todos en los años por venir. Fue cuando hizo su presentación en sociedad la inteligencia artificial, algo que parecía de ciencia ficción y que de pronto llegaba a nuestras vidas.

Ha pasado poco tiempo y la humanidad continúa fascinada ante sus sorprendentes alcances. ¿Cuánto falta para encontrarnos con medicamentos diseñados por IA; con materiales, máquinas, tejidos, alimentos y tantas cosas buenas? El futuro tocaba el timbre y se veía bien bonito; otros tantos veían, esperanzados, como su trabajo se facilitaba.

Sin embargo, algunas voces se levantan alertando sobre los riesgos que esta tecnología representa, porque, como lo hemos dicho en otras oportunidades, para todo invento que haga bien siempre habrá alguien que encuentre los mecanismos para hacer el mal. Los pesimistas no tardaron en tener la razón y sus pesadillas comenzaron a hacerse realidad. Apenas comenzamos a ver el lado oscuro detrás de la IA.

Lobo con piel de cordero
Para comprender su impacto inicial debemos tomar en cuenta el momento: tras la pandemia, justo cuando hacían falta buenas noticias, y la promesa de un mundo más fácil y justo venía detrás de la IA.

Llegaron chatbots como ChatGTP, Perplexity y otros, con la intención de facilitar trabajos rutinarios, crear cuentos y novelas, hacer hojas de cálculo, páginas web y un sinfín de tareas. Los buscadores comenzaron a brindar conocimientos a una solicitud. Stable Diffusion, Midjourney y cientos de aplicaciones dan a millones de usuarios la capacidad de “crear” arte.

Aclaramos que consideramos que no hay tecnología mala, todo depende de quien la use y sus objetivos. Así la promesa de agilizar, facilitar y estimular, también fue utilizada para piratear, falsificar, estafar y engañar. De repente, el lobo se quitaba la piel de cordero.

De pronto vimos al papa Francisco vestido por Balenciaga y a Donald Trump y a Vladímir Putin esposados. Aparecieron avatares humanos indistinguibles de sus pares reales, entrábamos en los tiempos de no saber qué es realidad y qué es creación digital. Se presentaban los deepfakes.

Las víctimas habituales
La tecnología hizo fácil clonar rostros en cuerpos que no les pertenecían y convertirlos en marionetas para que hicieran cosas que nunca habrían hecho, como pornografía, o cualquier otra cosa.

Como en una serendipia maldita, en vez de los efectos favorables, de pronto nos encontramos con colegiales españoles creando pornografía digital; miles de mujeres mexicanas se vieron como protagonistas de material de adultos con un twist preocupante: ninguna de las protagonistas había participado en los videos o fotos. Todo era producto digital creado por IA. De pronto había una plaga de deepfakes pornográficos por el mundo.

Videos creados por IA con imágenes de mujeres desconocidas, pero también de famosas como Scarlett Johansson o Taylor Swift, inundaron chats de Internet y la red social X con material pornográfico. A pesar de que mucho de ese material se eliminó y se suspendieron cuentas, el mal ya estaba hecho.

Pornificación de las mujeres
La “pornificación” de mujeres utilizando inteligencia artificial se ha disparado en los últimos meses, reportan medios. Según un estudio realizado en Estados Unidos por Home Security Heroes (HSH), el 48% de los hombres reconocía haber visto pornografía falsa al menos una vez. Y el 74% de los usuarios que interactuaron con ese material no se sentía culpable por consumirlo, lo que sugiere que este tipo de contenido se ha convertido en una práctica aceptada y normalizada entre las preferencias de adultos.

“Las preocupaciones sobre el uso indebido de los deepfakes se ha centrado en el riesgo de que se manipulen elecciones o se altere opinión pública; inclusive el riesgo de que se creen falsos positivos contra enemigos políticos y amenacen la seguridad nacional han dominado el debate sobre los deepfakes. El problema es que, según un estudio, se han dejado de lado los verdaderos daños causados ​​por los deepfakes sexuales, que son los más comunes”, señala el informe de HSH.

Sensity AI, una empresa que monitorea los deepfakes en línea, descubrió que apenas 35 políticos se encontraban entre las miles de víctimas de esta tecnología. En su informe “The State of Deepfakes 2019 Landscape, Threats, and Impact”, encontraron que 96% de los deepfakes eran sexuales no consensuados, y 99% de ellos tenía a mujeres como objetivo.

Pero la situación se complica mucho más cuando se observa que hay un mercado para la producción de este tipo de materiales: un video de deepfake puede hacerse por apenas 65 dólares descubrió una investigación de la cadena norteamericana de noticias NBC.

Agrupaciones feministas advierten que se trata de una forma relativamente nueva de desplegar la violencia de género, aprovechando la inteligencia artificial para explotar, humillar y acosar a las mujeres despojándolas de su autonomía sexual.

Hoy no hace falta casi nada para hacer películas, solo tomar fotos que las víctimas han colgado en las redes sociales.

Niños en la mira: los deepfakes y la pedofilia
El problema se complica cuando se combinan los deepfakes con la pedofilia, sobre todo luego de que estudios realizados por la Universidad de Edimburgo determinaran que más de 300 millones de niños y adolescentes fueron sometidos a algún tipo de explotación y abuso sexual en línea.

Las autoridades de Estados Unidos y otros países han emprendido campañas contra la pedofilia y el abuso sexual infantil, sin embargo, se ha demostrado que el problema se mantiene a pesar de los operativos. Ahora con la capacidad de crear material pornográfico con solo una computadora y avatares virtuales, el camino se hace más difícil.

Recientemente fue detenido un hombre con más de 13 mil imágenes hiperrealistas de abuso infantil creadas con Stable Diffusion, solo uno de los miles de creadores de pornografía infantil. El reloj está contando y las víctimas continúan sumándose.

Siguenos en Telegram, Instagram, Facebook y Twitter para recibir en directo todas nuestras actualizaciones
-

Espacio publicitario

Espacio publicitario

Espacio publicitario

DESDE TWITTER

EDICIÓN DEL DÍA

Espacio publicitario

Espacio publicitario