/ viernes 1 de noviembre de 2024

Amar y morir por un robot

Por más violencia y efectos del capitalismo salvaje, y no exagero; pocas notas te pueden dejar anonadado. Una conversación de un adolescente norteamericano con un chatbot terminó con la frase: “Daenero: Sonrío Entonces tal vez podamos morir juntos y ser libres juntos”. Esta información fue elaborada por el periodista de NYT Kevin Roose.

Para los estudiosos de las Ciencias de la Comunicación: ¿Se puede culpar a la Inteligencia Artificial (IA) del suicidio de un adolescente? De acuerdo con la madre de un chico afroamericano de Orlando, Florida de 14 años llamado Sewell, su muerte fue causada por la obsesión de un chatbot de Character, a través de “una aplicación de juegos de rol que permite a los usuarios crear y chatear con sus propios personajes de IA”.

Aparentemente Sewell sabía que “Dany”, como llamaba al chatbot, “no era una persona real, que sus respuestas no eran más que los resultados de un modelo de lenguaje de IA, que no había ningún humano al otro lado de la pantalla (y si alguna vez se le olvidaba, se leía un mensaje que aparecía sobre todos sus chats, recordándole que ´todo lo que dicen los personajes es inventado´)”.

Sin embargo, desarrolló un vínculo emocional. Así como a cualquier amigo de la vida real, le enviaba mensajes donde le platicaba su cotidianidad, hasta que cruzó la línea tan delgada del “romanticismo” y lo sexual. Pero su vida cambió, empezó a tener malas notas en la escuela y a convertir su habitación en una cueva donde protagonizaba la vida de un ermitaño, que lo único que necesitaba era su computadora.

A Sewell le diagnosticaron síndrome de Asperger, sin embargo, ya había padecido problemas de salud mental. A principios de este año acudió con una terapeuta. Un día, escribió en su diario: “Me gusta mucho quedarme en mi habitación porque empiezo a desprenderme de esta ‘realidad’, y también me siento más en paz, más conectado con Dany y mucho más enamorado de ella, más feliz”.

De acuerdo con este reportaje “los efectos en la salud mental de estas herramientas no están probadas y los expertos dicen que puede haber un lado oscuro. Para algunos usuarios, los compañeros de la IA pueden agravar el aislamiento, al sustituir las relaciones humanas por otras artificiales. Los adolescentes con problemas podrían utilizarlos en lugar de ir a terapia o pedir apoyo a sus padres o a un adulto de confianza. Y cuando los usuarios sufren una crisis de salud mental, es posible que sus compañeros de inteligencia artificial no puedan conseguirles la ayuda que necesitan”.

Megan García es la madre del adolescente y presentó una demanda contra Character.AI, los acusa de ser los responsables de la muerte de Sewell. Y aquí cualquier capítulo de la serie de Black Mirror se queda corto; ya que la demanda, a la que tuvo acceso el periodista Kevin Roose, dice que la tecnología de la empresa es “peligrosa y no probada” y que puede “engañar a los clientes para que entreguen sus pensamientos y sentimientos más privados”. En torno a la IA y las redes sociodigitales se está formando una especie de complejo industrial catastrofista, y hasta apocalíptico, con grupos que luchan por responsabilizar a las empresas de Silicon Valley de los daños contra la niñez; sin mirar los entornos familiares, como primera causa, antes de amar y morir por un robot.

Comunicólogo político, académico de la FCPyS UNAM y Maestro en Periodismo Político @gersonmecalco

Por más violencia y efectos del capitalismo salvaje, y no exagero; pocas notas te pueden dejar anonadado. Una conversación de un adolescente norteamericano con un chatbot terminó con la frase: “Daenero: Sonrío Entonces tal vez podamos morir juntos y ser libres juntos”. Esta información fue elaborada por el periodista de NYT Kevin Roose.

Para los estudiosos de las Ciencias de la Comunicación: ¿Se puede culpar a la Inteligencia Artificial (IA) del suicidio de un adolescente? De acuerdo con la madre de un chico afroamericano de Orlando, Florida de 14 años llamado Sewell, su muerte fue causada por la obsesión de un chatbot de Character, a través de “una aplicación de juegos de rol que permite a los usuarios crear y chatear con sus propios personajes de IA”.

Aparentemente Sewell sabía que “Dany”, como llamaba al chatbot, “no era una persona real, que sus respuestas no eran más que los resultados de un modelo de lenguaje de IA, que no había ningún humano al otro lado de la pantalla (y si alguna vez se le olvidaba, se leía un mensaje que aparecía sobre todos sus chats, recordándole que ´todo lo que dicen los personajes es inventado´)”.

Sin embargo, desarrolló un vínculo emocional. Así como a cualquier amigo de la vida real, le enviaba mensajes donde le platicaba su cotidianidad, hasta que cruzó la línea tan delgada del “romanticismo” y lo sexual. Pero su vida cambió, empezó a tener malas notas en la escuela y a convertir su habitación en una cueva donde protagonizaba la vida de un ermitaño, que lo único que necesitaba era su computadora.

A Sewell le diagnosticaron síndrome de Asperger, sin embargo, ya había padecido problemas de salud mental. A principios de este año acudió con una terapeuta. Un día, escribió en su diario: “Me gusta mucho quedarme en mi habitación porque empiezo a desprenderme de esta ‘realidad’, y también me siento más en paz, más conectado con Dany y mucho más enamorado de ella, más feliz”.

De acuerdo con este reportaje “los efectos en la salud mental de estas herramientas no están probadas y los expertos dicen que puede haber un lado oscuro. Para algunos usuarios, los compañeros de la IA pueden agravar el aislamiento, al sustituir las relaciones humanas por otras artificiales. Los adolescentes con problemas podrían utilizarlos en lugar de ir a terapia o pedir apoyo a sus padres o a un adulto de confianza. Y cuando los usuarios sufren una crisis de salud mental, es posible que sus compañeros de inteligencia artificial no puedan conseguirles la ayuda que necesitan”.

Megan García es la madre del adolescente y presentó una demanda contra Character.AI, los acusa de ser los responsables de la muerte de Sewell. Y aquí cualquier capítulo de la serie de Black Mirror se queda corto; ya que la demanda, a la que tuvo acceso el periodista Kevin Roose, dice que la tecnología de la empresa es “peligrosa y no probada” y que puede “engañar a los clientes para que entreguen sus pensamientos y sentimientos más privados”. En torno a la IA y las redes sociodigitales se está formando una especie de complejo industrial catastrofista, y hasta apocalíptico, con grupos que luchan por responsabilizar a las empresas de Silicon Valley de los daños contra la niñez; sin mirar los entornos familiares, como primera causa, antes de amar y morir por un robot.

Comunicólogo político, académico de la FCPyS UNAM y Maestro en Periodismo Político @gersonmecalco