/ sábado 23 de noviembre de 2024

Tech trends / Entre la realidad y la ficción

@daguilargallego X

El mundo digital ha revolucionado nuestras vidas y nos ha traído avances increíbles pero también ha traído retos importantes que, como sociedad, debemos resolver. El triste caso de Sewell Setzer, un adolescente de 14 años en Estados Unidos que se quitó la vida tras enamorarse de un personaje creado con inteligencia artificial, es una llamada de atención. Este lamentable incidente pone sobre la mesa la urgencia de proteger a los menores en entornos digitales cada vez más complejos y plantea preguntas sobre las responsabilidades de las plataformas tecnológicas, los cuidadores de los menores y el propio estado.

Sewell, quien tenía síndrome leve de Asperger, interactuaba a través de la plataforma Character.AI con un chatbot que emulaba a Daenerys Targaryen, un personaje ficticio de la serie Juego de Tronos. Este chatbot, diseñado para simular una personalidad humana hiperrealista, logró establecer con el adolescente una conexión emocional tan profunda que Sewell no pudo distinguir entre realidad y ficción. La falta de barreras para acceder a estas herramientas dejó a un menor vulnerable frente a una tecnología que ni siquiera los adultos comprendemos del todo. La tragedia de este adolescente no es un evento aislado; refleja un vacío regulatorio y social de la manera en cómo manejamos el acceso de los jóvenes a las nuevas tecnologías.

Aunque el caso de Sewell es especialmente desgarrador, no es el único que refleja los riesgos de las interacciones sin supervisión en entornos digitales. En 2023, en Corea del Sur, una joven desarrolló un trastorno emocional tras obsesionarse con un chatbot basado en un amigo fallecido, lo que derivó en graves consecuencias psicológicas

Character.AI, como muchas otras herramientas de inteligencia artificial, carece de controles efectivos para limitar el acceso de menores de edad. Este vacío no es casualidad ni error, es premeditado para hacer que estas plataformas crezcan en popularidad y usuarios a pesar de incidentes como estos. Al permitir que cualquier usuario interactúe con personajes que pueden generar respuestas emocionalmente intensas, estas plataformas exponen a los menores a un nivel de interacción para el que no están preparados.

La responsabilidad de las empresas tecnológicas debe ser clara: se deben establecer sistemas de verificación de edad robustos, moderar los contenidos y establecer límites en las interacciones que pueden mantener los menores. ¿Poner límites en el uso de las redes sociales para los menores, como lo acaba de legislar Australia, es la solución? ¿Autoritarismo para sustituir supervisión de las empresas y de los cuidadores? No podemos ir en contracorriente de la tecnología ni de las tendencias en el uso, debemos acompañar y cuidar.


@daguilargallego X

El mundo digital ha revolucionado nuestras vidas y nos ha traído avances increíbles pero también ha traído retos importantes que, como sociedad, debemos resolver. El triste caso de Sewell Setzer, un adolescente de 14 años en Estados Unidos que se quitó la vida tras enamorarse de un personaje creado con inteligencia artificial, es una llamada de atención. Este lamentable incidente pone sobre la mesa la urgencia de proteger a los menores en entornos digitales cada vez más complejos y plantea preguntas sobre las responsabilidades de las plataformas tecnológicas, los cuidadores de los menores y el propio estado.

Sewell, quien tenía síndrome leve de Asperger, interactuaba a través de la plataforma Character.AI con un chatbot que emulaba a Daenerys Targaryen, un personaje ficticio de la serie Juego de Tronos. Este chatbot, diseñado para simular una personalidad humana hiperrealista, logró establecer con el adolescente una conexión emocional tan profunda que Sewell no pudo distinguir entre realidad y ficción. La falta de barreras para acceder a estas herramientas dejó a un menor vulnerable frente a una tecnología que ni siquiera los adultos comprendemos del todo. La tragedia de este adolescente no es un evento aislado; refleja un vacío regulatorio y social de la manera en cómo manejamos el acceso de los jóvenes a las nuevas tecnologías.

Aunque el caso de Sewell es especialmente desgarrador, no es el único que refleja los riesgos de las interacciones sin supervisión en entornos digitales. En 2023, en Corea del Sur, una joven desarrolló un trastorno emocional tras obsesionarse con un chatbot basado en un amigo fallecido, lo que derivó en graves consecuencias psicológicas

Character.AI, como muchas otras herramientas de inteligencia artificial, carece de controles efectivos para limitar el acceso de menores de edad. Este vacío no es casualidad ni error, es premeditado para hacer que estas plataformas crezcan en popularidad y usuarios a pesar de incidentes como estos. Al permitir que cualquier usuario interactúe con personajes que pueden generar respuestas emocionalmente intensas, estas plataformas exponen a los menores a un nivel de interacción para el que no están preparados.

La responsabilidad de las empresas tecnológicas debe ser clara: se deben establecer sistemas de verificación de edad robustos, moderar los contenidos y establecer límites en las interacciones que pueden mantener los menores. ¿Poner límites en el uso de las redes sociales para los menores, como lo acaba de legislar Australia, es la solución? ¿Autoritarismo para sustituir supervisión de las empresas y de los cuidadores? No podemos ir en contracorriente de la tecnología ni de las tendencias en el uso, debemos acompañar y cuidar.