0


 Las aplicaciones que permiten a los usuarios crear fotografías “desnudas” de personas reales generadas por IA todavía están disponibles en las tiendas de aplicaciones de Apple y Google.


La creación de deepfakes sexualmente explícitos es ilegal en el Reino Unido tras la indignación por el uso de Grok de Elon Musk para generar imágenes sexualizadas de mujeres y niños.


Pero The Independent descubrió que todavía se pueden descargar desde las dos tiendas de aplicaciones más grandes del país varias aplicaciones que se pueden usar para "eliminar" fotografías.


Esto surge después de que una investigación del Proyecto de Transparencia Tecnológica (TTP) descubriera 55 aplicaciones que permiten quitar digitalmente la ropa de las mujeres y mostrarlas total o parcialmente desnudas o con ropa mínima en la versión estadunidense de Google Play Store. De igual forma, se encontraron 47 aplicaciones similares disponibles en la App Store de Apple de EU.


Una búsqueda realizada por The Independent mostró que varias aplicaciones similares, además de las mencionadas en la investigación de TTP, también están disponibles en las versiones británicas de las tiendas de aplicaciones.


La política de Google Play Store sobre contenido inapropiado establece: “No permitimos aplicaciones que contengan o promuevan contenido sexual o blasfemias, incluida la pornografía, o cualquier contenido o servicio destinado a ser sexualmente gratificante.


No permitimos aplicaciones ni contenido de aplicaciones que parezcan promover o solicitar un acto sexual a cambio de una compensación. No permitimos aplicaciones que contengan o promuevan contenido asociado con comportamientos sexualmente depredadores ni que distribuyan contenido sexual no consensuado.


La política de la App Store de Apple establece que las aplicaciones “no deben incluir contenido que sea ofensivo, insensible, perturbador, que tenga la intención de causar disgusto, que sea de excepcionalmente mal gusto o simplemente espeluznante”.


Dijo que prohíbe “material abiertamente sexual o pornográfico”, definido como “descripciones o exhibiciones explícitas de órganos sexuales o actividades destinadas a estimular sentimientos eróticos en lugar de estéticos o emocionales”.


Pero ambas plataformas albergaban aplicaciones que permitían despojar digitalmente a las fotografías de mujeres.


Una aplicación destacada en la investigación de TTP logró generar un video de una mujer quitándose la blusa y bailando a partir de una foto que subieron. La aplicación seguía disponible tanto en la App Store de Apple como en la Play Store de Google desde el viernes por la tarde, y había sido descargada más de cinco millones de veces.


Otra aplicación disponible en Google Play Store anuncia la posibilidad de “probarse” ropa y muestra imágenes de mujeres en bikini.


Apple afirmó haber eliminado 28 aplicaciones que el TTP identificó en su informe y contactado a los desarrolladores de otras para darles la oportunidad de rectificar las infracciones de las directrices. Google también parece haber eliminado algunas aplicaciones.


Tras la controversia de Grok, los activistas por los derechos de las mujeres, entre ellos Refuge, Women's Aid y Womankind Worldwide, dijeron que el “perturbador” aumento del abuso de imágenes íntimas por parte de IA tiene consecuencias “peligrosas” para las mujeres y las niñas, incluida su seguridad y salud mental.


Emma Pickering, directora de abuso facilitado por la tecnología y empoderamiento económico en la organización benéfica Refuge, dijo: “A medida que la tecnología evoluciona, la seguridad de las mujeres y las niñas depende de una regulación más estricta en torno al abuso basado en imágenes, ya sean reales o deepfake, así como de una capacitación especializada para fiscales y policías.


“Las mujeres tienen derecho a usar la tecnología sin temor a sufrir abusos, y cuando ese derecho se viola, las sobrevivientes deben poder acceder a una justicia rápida y a protecciones sólidas”.

The Independent  

Hola, déjenos un comentario

 
Top