LA ONG HUMANOS VS INTELIGENCIA ARTIFICIAL ALERTA SOBRE UNA I.A. QUE DESNUDA CHICAS.




ClotOff genera la imagen falsa sin ningún tipo de salvaguarda 

("esta imagen es falsa", por ejemplo).

Solo se limita a colocar una marca de agua sobre

la imagen falsa generada con el logo de la empresa.

Una nueva amenaza se cierne sobre las mujeres y en particular sobre las chicas más jóvenes e incluso las niñas. La Inteligencia Artificial de la empresa ClotOff genera imágenes falsas en la cual una señorita aparece desnudda a partir de una foto normal, por ejemplo en una plaza. A partir de al menos 12 episodios de este tipo, ocurridos en las provincias de Tucumán, Jujuy, Misiones y Cordoba; la ONG Humanos vs Inteligencia Artificial, ha lanzado el alerta por el peligro de la situación. Los abusos también han tenido lugar, con la misma I.A. en Lille, Francia, Burgos, España y Guadalajara, México. 

"Hace dos años fundamos en Suiza la ONG Humanos vs Inteligencia Artificial, la primera organización de este tipo en el mundo. Nuestra idea fue impulsar un tipo de regulación para esa nueva tecnología, disruptiva y a la vez peligrosa, que poco a poco se instala en nuestro planeta. Sin embargo no pensábamos que íbamos a tener que defender a niñas y adolescentes que asisten impávidas a la publicación de sus fotos, completamente desnudas, en chats de WhatsApp. Las fotos son falsas, a partir de imágenes reales y tan comunes que demuestran que cualquiera está en riesgo. Mientras tanto la empresa ClothOff, solo se limita a colocar una marca de agua sobre la imagen sin siquiera señalar que se trata de una imagen 'fake'", dijo Javier Miglino, abogado experto en Seguridad y Fundador de la ONG Humanos vs Inteligencia Artificial.

Dos chicas intentaron suicidarse. No entienden el daño que han causado.

"En apariencia y según los testimonios que hemos recogido, al menos 12 chicas fueron atacadas con esta Inteligencia Artificial en todo el país hasta ahora. Una de ellas en Tucumán se tomó una tableta completa de Clonazepam de la madre para suicidarse. Otra chica en Misiones quiso tirarse bajo un camión en la Ruta 14. Por fortuna en ambos casos intervinieron los padres y las chicas están recuperándose pero no podemos afirmar ni mínimamente que están bien. Los compañeros de estudio que bajaron la App de ClothOff y usaron la Inteligencia Artificial para desnudarlas, no saben el daño que han hecho", dijo Miglino.

La empresa ClothOff se 'lava las manos' con el uso de las imágenes:

"Parte del Equipo Multidisciplinario Internacional de la ONG Humanos vs Inteligencia Artificial se comunicó con la empresa ClothOff, proveedora del software. Nos indicaron que 'no se responsabilizan del uso que se le vaya a dar a las imágenes que se generan (como por ejemplo extorsionar a alguien). El internauta "es el responsable de no usar la aplicación para fines ilegales o no autorizados" dice concretamente la web que no acepta responsabilidades judiciales de lo que se pueda hacer con su tecnología', lo que nos deja más preocupados aún", dijo Miglino.

ClothOff declara que no conserva imágenes:

Preguntados sobre qué hacen con las imágenes que se suben o se construyen en la página, previo a generar el contenido, nos han manifestado que no almacenan ningún tipo de dato. Esto da a entender que una vez se ha usado la imagen de entrada en la IA se elimina de su base de datos.

Alertamos a las empresas Pornhub, Xvideos y Xhamster:

"Igualmente alertamos a los sitios pornográficos más conocidos del mundo, como Pornhub, Xhamster y XVideos; rogándoles que no indexen las fotos de estas niñas argentinas o las españolas, francesas o mexicanas. Si bien nos garantizaron que seres humanos se ocupan del rastreo de imágenes abusivas o falsas y que de ese modo podían garantizarnos que nunca serían indexadas en los sitios, muy poco más podemos hacer, mientras situaciones similares se suman en otras partes de Europa, América Latina y Asia", dijo Miglino.

El correo de Humanos vs Inteligencia Artificial:

"A todo efecto y en caso de abusos con I.A. pueden denunciarlo al correo: humansvsia@proton.me Haremos la investigación pertinente con reserva de identidad", concluyó Miglino.

ClotOff génère la fausse image sans aucun type de sauvegarde

("cette image est fausse", par exemple).

Il se limite à placer un filigrane sur la fausse image générée avec le logo de l'entreprise.

La police espagnole a ouvert une enquête après que des images de jeunes filles, modifiées grâce à l'intelligence artificielle pour se déshabiller, ont été envoyées dans une ville du sud du pays.

Un groupe de mères d'Almendralejo, dans la région d'Estrémadure, a rapporté que leurs filles avaient reçu des images d'elles-mêmes dans lesquelles elles apparaissaient nues.

L'une des mères, Miriam, a contacté le Dr Javier Miglino, fondateur de la première ONG de la planète qui travaille déjà contre les abus de l'IA. Dans le monde entier. L'ONG Humans vs Artificial Intelligence a pu interviewer via Zoom la mère désespérée qui lui a expliqué la situation qui, comme c'est la première du genre à se produire, personne ne peut proposer de solution.

Les témoignages des victimes:

Les filles concernées affirment que quelqu'un avait utilisé une application pour prendre des photos d'elles dans lesquelles elles apparaissaient nues.

Ils ne comprennent pas les dégâts qu'ils ont causés.

"Bien que la police ait identifié certains des jeunes qui pourraient être impliqués dans la production des images, l'âge des auteurs (12 à 15 ans) rend impossible toute poursuite pénale en Espagne. Cependant, les dommages qu'ils ont causés à les filles, d'autant plus que ce ne sont que des jeunes filles entre 12 et 14 ans et que tout cela se passe dans une petite ville où tout le monde se connaît. Les mères nous demandent de l'aide car elles ne savent pas quoi faire ni quoi Au moment où j'écris cette déclaration, des courriels arrivent indiquant que la même chose s'est produite en Italie, en France, en Corée du Sud et au Mexique", a déclaré le Dr Javier Miglino, expert en droits de l'homme et en éthique et fondateur de l'ONG Humans vs. Intelligence artificielle.

Nous appelons à la solidarité:

"Ceux et ceux qui ont accès au personnel qui travaille sur les sites pornographiques les plus connus au monde, comme Pornhub, Xhamster et les réponses dans ce cas et en plus, il y aurait des situations similaires dans d'autres parties de l'Europe, Amérique latine et Asie", a conclu Miglino.

ClothOff déclare qu'il ne conserve pas les images:

Lorsqu'on leur a demandé ce qu'ils faisaient des images téléchargées ou construites sur la page, avant de générer le contenu, ils nous ont répondu qu'ils ne stockaient aucun type de données. Cela implique qu'une fois l'image d'entrée utilisée dans l'IA, elle est supprimée de sa base de données.

Ce qui ne nous laisse pas du tout sereins, car il faut leur faire confiance.


ClotOff generates the fake image without any type of safeguard

("this image is fake", for example).

It is limited to placing a watermark on the fake image generated with the company logo.

The Spanish Police opened an investigation after images of girls, altered with artificial intelligence to remove their clothes, were sent to a city in the south of the country.

A group of mothers from Almendralejo, in the Extremadura region, reported that their daughters had received images of themselves in which they appeared naked.

One of the mothers, Miriam, contacted Dr. Javier Miglino, Founder of the first NGO on the planet that is already working against the abuses of A.I. Worldwide. The NGO Humans vs Artificial Intelligence was able to interview via Zoom with the desperate mother who explained the situation, which as it is the first of its kind to occur, no one can offer a solution.

The testimonies of the victims:

The affected girls say that someone had used an application to make images of them in which they appeared to be naked.

They don't understand the damage they have caused.

"Although the Police identified some of the young people who could be involved in the production of the images, the age of the authors (12 to 15 years) makes it impossible to prosecute them criminally in Spain. However, the damage they have done to the girls , especially taking into account that they are just young ladies between 12 and 14 years old and all this happens in a small town where everyone knows each other. The mothers ask us for help because they don't know what to do or what they are facing. As I write this statement they are emails arriving stating that the same thing has happened in Argentina, France, South Korea and Mexico," said Dr. Javier Miglino, Expert in Human Rights and Ethics and Founder of the NGO Humans vs Artificial Intelligence.

We call for solidarity:

"Those who have access to staff who work on the most well-known pornographic sites in the world, such as Pornhub, Xhamster and responses in this case and on top of that, there would be similar situations in other parts of Europe, Latin America and Asia," Miglino concluded.

The ClothOff company 'washes its hands' with the use of images:

Part of the International Multidisciplinary Team of the NGO Humans vs Artificial Intelligence contacted the company ClothOff, provider of the software. They told us that they are not responsible for the use that will be given to the images that are generated (such as extorting someone). The Internet user "is responsible for not using the application for illegal or unauthorized purposes," the website specifically says that it does not accept judicial responsibility for what can be done with its technology.

ClothOff declares that it does not preserve images:

When asked what they do with the images that are uploaded or built on the page, prior to generating the content, they told us that they do not store any type of data. This implies that once the input image has been used in the AI, it is deleted from its database.


ClotOff genera la imagen falsa sin ningún tipo de salvaguarda 

("esta imagen es falsa", por ejemplo).

Solo se limita a colocar una marca de agua sobre

la imagen falsa generada con el logo de la empresa.

Una nueva amenaza se cierne sobre las mujeres y en particular sobre las chicas más jóvenes e incluso las niñas. La Inteligencia Artificial de la empresa ClotOff genera imágenes falsas en la cual una señorita aparece desnudda a partir de una foto normal, por ejemplo en una plaza. A partir de al menos 12 episodios de este tipo, ocurridos en las provincias de Tucumán, Jujuy, Misiones y Cordoba; la ONG Humanos vs Inteligencia Artificial, ha lanzado el alerta por el peligro de la situación. Los abusos también han tenido lugar, con la misma I.A. en Lille, Francia, Burgos, España y Guadalajara, México. 

"Hace dos años fundamos en Suiza la ONG Humanos vs Inteligencia Artificial, la primera organización de este tipo en el mundo. Nuestra idea fue impulsar un tipo de regulación para esa nueva tecnología, disruptiva y a la vez peligrosa, que poco a poco se instala en nuestro planeta. Sin embargo no pensábamos que íbamos a tener que defender a niñas y adolescentes que asisten impávidas a la publicación de sus fotos, completamente desnudas, en chats de WhatsApp. Las fotos son falsas, a partir de imágenes reales y tan comunes que demuestran que cualquiera está en riesgo. Mientras tanto la empresa ClothOff, solo se limita a colocar una marca de agua sobre la imagen sin siquiera señalar que se trata de una imagen 'fake'", dijo Javier Miglino, abogado experto en Seguridad y Fundador de la ONG Humanos vs Inteligencia Artificial.

Dos chicas intentaron suicidarse. No entienden el daño que han causado.

"En apariencia y según los testimonios que hemos recogido, al menos 12 chicas fueron atacadas con esta Inteligencia Artificial en todo el país hasta ahora. Una de ellas en Tucumán se tomó una tableta completa de Clonazepam de la madre para suicidarse. Otra chica en Misiones quiso tirarse bajo un camión en la Ruta 14. Por fortuna en ambos casos intervinieron los padres y las chicas están recuperándose pero no podemos afirmar ni mínimamente que están bien. Los compañeros de estudio que bajaron la App de ClothOff y usaron la Inteligencia Artificial para desnudarlas, no saben el daño que han hecho", dijo Miglino.

La empresa ClothOff se 'lava las manos' con el uso de las imágenes:

"Parte del Equipo Multidisciplinario Internacional de la ONG Humanos vs Inteligencia Artificial se comunicó con la empresa ClothOff, proveedora del software. Nos indicaron que 'no se responsabilizan del uso que se le vaya a dar a las imágenes que se generan (como por ejemplo extorsionar a alguien). El internauta "es el responsable de no usar la aplicación para fines ilegales o no autorizados" dice concretamente la web que no acepta responsabilidades judiciales de lo que se pueda hacer con su tecnología', lo que nos deja más preocupados aún", dijo Miglino.

ClothOff declara que no conserva imágenes:

Preguntados sobre qué hacen con las imágenes que se suben o se construyen en la página, previo a generar el contenido, nos han manifestado que no almacenan ningún tipo de dato. Esto da a entender que una vez se ha usado la imagen de entrada en la IA se elimina de su base de datos.

Alertamos a las empresas Pornhub, Xvideos y Xhamster:

"Igualmente alertamos a los sitios pornográficos más conocidos del mundo, como Pornhub, Xhamster y XVideos; rogándoles que no indexen las fotos de estas niñas argentinas o las españolas, francesas o mexicanas. Si bien nos garantizaron que seres humanos se ocupan del rastreo de imágenes abusivas o falsas y que de ese modo podían garantizarnos que nunca serían indexadas en los sitios, muy poco más podemos hacer, mientras situaciones similares se suman en otras partes de Europa, América Latina y Asia", dijo Miglino.

El correo de Humanos vs Inteligencia Artificial:

"A todo efecto y en caso de abusos con I.A. pueden denunciarlo al correo: humansvsia@proton.me Haremos la investigación pertinente con reserva de identidad", concluyó Miglino.





ONG HUMANOS vs INTELIGENCIA ARTIFICIAL