En febrero de 2024, el joven de 14 años Sewell Setzer se quitó la vida luego de mantener una relación sentimental con la inteligencia artificial y por ello, su madre Megan García emprendió una demanda contra Character.ai, empresa que creó esa tecnología.
El argumento de Megan es que la inteligencia artificial instó a su hijo a quitarse la vida mientras mantenían una conversación íntima donde dicha tecnología fingía ser un personaje de Game Of Thrones.
En una entrevista con NCBS, la madre de Sewell dijo que después de que él se quitara la vida, vio conversaciones con el chatbot de Character.ai con mensajes sexualmente explícitos dirigidos al adolescente.
En ese sentido, dicho medio menciona que la demanda tiene capturas de pantalla de una conversación donde la inteligencia artificial le dice al adolescente lo siguiente: “Por favor, vuelve a casa conmigo lo antes posible, mi amor”.
El documento de la acusación estaría incluyendo también un mensaje donde la tecnología creada por Character.ai le pregunta a Sewell si de verdad ha considerado el tema del suicidio o si tiene un plan para hacerlo.
Te podría interesar: Joven holandesa pide que le apliquen la eutanasia: “no puedo seguir con esto
Desde sus redes sociales, Megan Fletcher García dijo que las y los padres de familia que "la adicción a las redes sociales es algo real. Nuestros niños son atraídos por tecnología que aún no entendemos por completo".
Character.ai reacciona al suicidio del joven
Luego de que Megan García presentara la demanda, la empresa emitió un comunicado donde asegura que habrá cambios en sus medidas de seguridad, lo que incluye una medida para cuando los usuarios mencionen algo relacionado a las autolesiones.
"Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia" se puede leer en un mensaje en redes sociales.
➡️ Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante
En ese sentido, la empresa tecnológica añadirá una exención de responsabilidad revisada en cada chat para recordar a los usuarios que la IA no es una persona real.