Mujeres en alerta: advierten uso de IA para creación de 'deepfakes'

En México, se han reportado casos en los que se manipulan imágenes de estudiantes para venderlas.

|
Mujeres en alerta: advierten uso de IA para creación de 'deepfakes'. (Foto: Canva/Composición Sipse)
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram

Las mujeres se enfrentan a una triste realidad donde las ‘deepfakes’ creadas por la inteligencia artificial (IA) exponen sus cuerpos sin ropa ante el mundo a través de las redes sociales y otras plataformas.

Algo similar ocurrió con una joven de 27 años, quien al entrar a su cuenta de Instagram descubrió un mensaje con fotos en las que reconocía su rostro pero no su cuerpo, ya que había sido desnudada a través de IA.

Pese a no haber mensajes escritos, fue suficiente ver su intimidad vulnerada para inquietarse, por lo que decidió no responder.

Se trata del único caso de ese tipo, hasta el momento, recibido por el Consejo Ciudadano para la Seguridad y Justicia de la Ciudad de México, por lo que se le dio asesoría para evitar una posible extorsión o fraude con el uso de esas fotos y la canalizaron al Ministerio Público.

El Frente Nacional para la Sororidad, a través de sus redes, ha recibido cinco casos en los que se ha usado la Inteligencia Artificial para generar contenidos sexuales de mujeres, dos de ellas universitarias.

Les han dado contención emocional, se han borrado los contenidos, pero ante la posibilidad de enfrentar un proceso jurídico han desistido para no ser sobreexpuestas, compartió Olimpia Coral, cofundadora del Frente e impulsora de la Ley Olimpia.

Esos casos se suman a las ocho estudiantes del Instituto Politécnico Nacional (IPN) que denunciaron penalmente a Diego ‘N’ en octubre pasado por el mismo delito.

"Se estima que hay muchos más casos. Hoy simplemente se baja la aplicación, puedes manipular esta información cualquier persona con Wi-fi, un teléfono inteligente podría hacer explotación del cuerpo de una mujer", dijo.

La Ley Olimpia permite castigar esas agresiones, tanto producción como difusión de contenido sexual no autorizado por la persona, pero se requiere que además de las autoridades las empresas digitales asuman su responsabilidad y actúen para evitarlo, señaló.

Eso tiene que contemplarse en las propuestas de ley de ciberseguridad en redes sociales que no sólo deben tocar el tema económico, sino de los derechos de las mujeres, puntualizó.

Mientras la información de los que generan esos contenidos sea reservada y no se pueda obtener como dato de prueba, refirió, no será posible detener la explotación sexual digital de mujeres.

"No necesitas tener el cuerpo físico de una persona para explotarla", aseveró.

En 2019 la empresa de ciberseguridad DeepTrace detectó, mediante el estudio The state of deepfakes, que el 96 por ciento del total de deepfakes en línea son de contenido pornográfico no autorizado.

"¿Te imaginas un día levantarte y ver tu foto de perfil alterada con IA para explotarla sexualmente?", cuestionaron alumnas del IPN tras descubrir que un compañero reunía fotos de mujeres para manipularlas y crear contenidos sexuales y venderlos.

Una alumna halló una tableta de Diego ‘N’ que contenía más de 166 mil fotos además de miles de videos que eran transformados con inteligencia artificial (IA) para generar contenido sexual y comercializarlo.

Aunque son miles las víctimas, entre estudiantes del IPN y de otros lugares, sólo ocho universitarias mantienen un proceso judicial en contra de Diego ‘N’.

"Fue algo en la virtualidad que ha mermado sus estudios, su capacidad sentimental, psicológica, su seguridad, ellas han presentado trastornos psicológicos, ansiedades, consecuencias, incluso, físicas", mencionó Coral.

La pugna de las víctimas es visibilizar que aunque se trata de una práctica virtual el daño es real.

"La violencia digital contra las mujeres y niñas causa graves daños y sufrimientos psicológicos, físicos, sexuales y/o económicos", señala la ONU Mujeres.

Con información de Reforma

Lo más leído

skeleton





skeleton