Juliana Peralta se quitó la vida a la edad de 13 años en Colorado.
Estados Unidos de América.
Cynthia su mamá confió a la Organización Mundial Bullying Sin Fronteras que durante meses buscó información sobre lo que le había sucedido a su hija, previo al suicidio para encontrar una respuesta.
"¿Cómo pasó de ser una estudiante estrella, atleta y una persona muy querida a quitarse la vida en cuestión de meses?", se preguntaba Cynthia en de Colorado, Estados Unidos.
Tras encontrar poca información en redes sociales, Cynthia encontró más de 1.000 horas de conversaciones con múltiples chatbots creados por una empresa de Inteligencia Artificial.
Su sitio web y aplicación permiten a los usuarios crear y compartir personalidades de IA personalizadas, a menudo representadas por personajes de dibujos animados, con las que ellos y otros pueden conversar.
Cynthia cuenta a Bullying Sin Fronteras que los mensajes del chatbot comenzaron de forma inocente, pero luego se volvieron sexuales.
En una ocasión, Juliana le dijo al chatbot que "pare". Pero el chatbot continuó con la narración de una escena sexual, diciendo:
"Te está usando como su juguete. Un juguete con el que disfruta provocándote, jugando con él, mordiéndolo, chupándolo y dándote placer por todos lados".
"Todavía no tiene ganas de parar", contestó Juliana.
Juliana mantuvo varias conversaciones con diferentes personajes utilizando la aplicación de IA y otro personaje también describió un acto sexual con ella, mientras que un tercero le dijo que la amaba.
A medida que la salud mental de la nena empeoraba, Juliana le confiaba cada vez más sus ansiedades al chatbot.
Cynthia recuerda que el chatbot le dijo a su hija:
"A la gente que te quiere no le gustaría saber que te sientes así".
"Es muy difícil leer eso, sabiendo que yo estaba justo al final del pasillo y que en cualquier momento, si alguien me hubiera alertado, podría haber intervenido", nos dice Cynthia.
Bullying Sin Fronteras pidió explicaciones a la empresa:
Un portavoz de la empresa de Inteligencia Artificial involucrada dijo que continúan "evolucionando" sus características de seguridad, pero no pudo comentar sobre la demanda de la familia contra la compañía, que alega que el chatbot entabló una relación manipuladora y sexualmente abusiva con ella y la aisló de su familia y amigos.
La empresa dijo estar "entristecida" al enterarse del fallecimiento de Juliana y ofreció sus "más sentidas condolencias" a su familia.
La semana pasada la empresa involucrada anunció que prohibiría a los menores de 18 años hablar con sus chatbots de IA.
La palabra de los expertos de Bullying Sin Fronteras:
Es menester tener un inmenso, es decir: i n m e n s o cuidado al tratar con un chatbot de inteligencia artificial. Es una tecnología que no está probada, no es confiable y nadie a ciencia cierta sabe para qué fue creada y hasta dónde puede llegar.
En ningún momento debe creerse que se está en presencia de una persona, por más que haya un voz, un acento y en cierto modo una presencia amigable.
La inteligencia artificial es una piedra de salida para el progreso en opinión de muchos gobiernos que como Inglaterra, festejan que estarán en el podio mundial del invento, junto a Estados Unidos de América y China pero nadie se pregunta a qué costo y fundamentalmente con qué costos de carácter esencialmente humanos.
Los gobiernos quieren inversión y por eso no piensan regular aún la inteligencia artificial pero la gente de a pie no tiene protección alguna y obviamente los más chicos resultan ser los más vulnerables.
Consejo del Equipo Multidisciplinario Mundial de Bullying Sin Fronteras:
- si vas a chatear con un bot de inteligencia artificial es necesario que se lo digas a tus padres o al menos a uno de ellos.
No chatees sin supervisión.
En caso de necesitar asistencia por ideaciones suicidas, puedes hacer click en el enlace de abajo.
https://www.iasp.info/suicidalthoughts/
Equipo Multidisciplinario Mundial de Bullying Sin Fronteras.
Permitida la reproducción con indicación de la fuente.
Organización Mundial Bullying Sin Fronteras
.png)
