IImagínese descubrir que alguien tomó una foto suya de Internet y la superpuso a una imagen sexualmente explícita disponible en línea. O aparece un vídeo que te muestra teniendo sexo con alguien que nunca has conocido.

Imagínese preocuparse de que sus hijos, su pareja, sus padres o sus colegas vean esto y crean que realmente es usted. Y que tus frenéticos intentos de eliminarlo de las redes sociales sigan fracasando, y el falso “tú” siga reapareciendo y multiplicándose. Imagínese darse cuenta de que estas imágenes podrían permanecer en línea para siempre y descubrir que no existen leyes para procesar a las personas que las crearon.

Para muchas personas en todo el mundo, esta pesadilla ya se ha hecho realidad. Hace unas semanas, la pornografía deepfake no consensuada se cobró a la estrella pop más grande del mundo como una de sus víctimas, y la plataforma de redes sociales X impidió a los usuarios buscar al cantante luego de una proliferación de imágenes deepfake explícitas.

Sin embargo, Taylor Swift es sólo una de las innumerables mujeres que sufren esta experiencia humillante, explotadora y degradante.

Últimos años Estado de los deepfakes El informe reveló que la pornografía deepfake se multiplicó por seis en el año hasta 2023. Como era de esperar, las mujeres fueron las víctimas en el 99% de los casos registrados.

La tecnología ahora permite crear un video deepfake de 60 segundos a partir de una única imagen clara en menos de 25 minutos, sin costo alguno. A menudo se utilizan imágenes tomadas de cuentas privadas de redes sociales, todos los días. Más de 100.000 imágenes inventadas sexualmente explícitas. y los videos están difundidos por la web. Enlaces de referencia a las empresas que proporcionan estas imágenes. aumentó 2,408% año tras año.

Te Puede Interesar:   Los movimientos profundos del manto ayudan a explicar las misteriosas protuberancias de la Tierra | Ciencia

No hay duda de que la pornografía deepfake no consensuada se ha convertido en una creciente crisis de derechos humanos. Pero, ¿qué medidas se pueden tomar para impedir que esta industria en auge siga robando identidades y destruyendo vidas?

Taylor Swift es una de las últimas víctimas de los deepfakes. Fotografía: M Anzuoni/Reuters

Gran Bretaña está por delante de Estados Unidos al criminalizar el intercambio (pero no la creación) de deepfakes y tiene alguna legislación diseñada para brindar una mayor responsabilidad a los motores de búsqueda y las plataformas de usuario a usuario. Pero la legislación no va lo suficientemente lejos.

Y todavía no existe tal protección en los EE.UU., aunque Se presentó en el Senado un proyecto de ley bipartidista. el mes pasado, lo que permitiría a las víctimas demandar a quienes participan en la creación y distribución de dichas imágenes.

Si bien introducir una regulación para penalizar la producción y distribución sexual no consensuada de deepfakes es obviamente crucial, no sería suficiente. Todo el sistema que permite a estas empresas debe verse obligado a asumir la responsabilidad.

Los expertos en imágenes creadas con inteligencia artificial (IA) coinciden en que para frenar la proliferación de deepfakes sexuales se necesitan empresas de redes sociales, motores de búsqueda y empresas de pagos que procesen transacciones -así como empresas que proporcionen nombres de dominio, seguridad-. y los servicios de computación en la nube – deberían afectar a las empresas que crean vídeos deepfake donde más les duele: en sus billeteras.

Te Puede Interesar:   Perdí contacto con mi hermano. ¿Es demasiado tarde para ponerse en contacto? | Familia

Sophie Compton es una de las fundadoras de #MiImagenMiElección campaña contra las imágenes deepfake y directora de Another Body, un documental de 2023 que sigue a estudiantes que buscan justicia después de ser víctimas de pornografía deepfake no consensuada. Para ella, los motores de búsqueda juegan un papel fundamental para desactivar este abuso.

Sin embargo, según el profesor Hany Farid, experto en imágenes digitales forenses de la Universidad de California, Berkeley, es poco probable que todas las partes que ganan dinero indirectamente con el falso abuso de mujeres tomen medidas. Su “bancarrota moral” significará que seguirán haciendo la vista gorda ante esta práctica en nombre de las ganancias, a menos que se vean obligados a hacer lo contrario, afirma.

Como experta en igualdad de género, también tengo claro que aquí hay algo más profundo y sistémico en juego.

Mi investigación ha puesto de relieve que las empresas de inteligencia artificial y las escuelas de ingeniería dominadas por hombres parecen incubar una cultura que fomenta una profunda falta de empatía con respecto a la difícil situación de las mujeres en línea y el impacto devastador que los deepfakes sexuales tienen en los sobrevivientes. Esto conlleva poco entusiasmo en la lucha contra la creciente industria de imágenes sexuales no consentidas.

Te Puede Interesar:   'Extremadamente impresionante': los resultados del ensayo de inyección para el melanoma entusiasman a los médicos | Cáncer
El FBI ha advertido sobre la manipulación de imágenes para realizar “sextorsión”, pero la creación de deepfakes no consensuados aún no es un delito en Estados Unidos. Fotografía: Stefani Reynolds/AFP/Getty

Un informe reciente reveló que la discriminación de género es un problema creciente en la industria tecnológica fuertemente dominada por hombres, donde Las mujeres representan el 28% de los profesionales tecnológicos en EE.UU.y un simple 15% de los trabajos de ingeniería.

Cuando entrevisté a Compton sobre su trabajo en la industria de la agresión sexual no consensuada, habló de haber sido testigo de la constante subyugación de las mujeres en foros en línea frecuentados por estudiantes de ingeniería que trabajan en tecnología de inteligencia artificial y de cómo las mujeres a las que siguió en su documental hablaban de «bromas constantes». sobre pornografía”. , gente que pasa mucho tiempo online, en 4chan, y definitivamente una sensación de menospreciar la normalidad y a las mujeres”.

Todo esto crea la sensación de que, como estas imágenes no son reales, no se ha hecho ningún daño. Sin embargo, esto no podría estar más lejos de la verdad. Necesitamos urgentemente servicios de apoyo a las supervivientes y sistemas de respuesta eficaces para bloquear y eliminar los deepfakes sexuales no consensuados.

En el tiempo que ha llevado leer este artículo, se habrán subido a Internet cientos de nuevas imágenes o vídeos no consensuados de mujeres, que podrían destruir vidas, y no se está haciendo nada para detenerlo.

Las tecnologías de IA generativa tienen el potencial de permitir el abuso de las mujeres a una escala y velocidad sin precedentes. Miles de mujeres necesitan ayuda ahora. Si los gobiernos, los reguladores y las empresas no actúan, la magnitud del daño infligido a las mujeres en todo el mundo será inmensa.

Luba Kassova es una ponente, periodista y consultora sobre igualdad de género

1 comentario en «Los hermanos tecnológicos deben darse cuenta de que la pornografía deepfake arruina vidas y la ley tiene que ponerse al día | Luba Cassova»

Deja un comentario