Dudan de la eficacia de los ChatBox de ayuda emocional

Especialistas debaten sobre la función de estos robots destinados al apoyo motivacional de las personas

Joseph Byle/ AFP

  · lunes 9 de octubre de 2023

La ONG estadounidense Koko reconoció que las respuestas automáticas no servían como terapia | Pixabay

¿Es ChatGPT un buen psicólogo? Es lo que sugirió una responsable de la empresa californiana de inteligencia artificial (IA) OpenAI, creadora de esta aplicación viral, un mensaje fuertemente criticado por minimizar la dificultad de curar las enfermedades mentales.

"Acabo de tener una conversación personal bastante emotiva con ChatGPT en modo voz, sobre el estrés y el equilibrio trabajo-vida personal", declaró Lilian Weng, encargada de temas de seguridad de la IA, en X (antes conocida como Twitter).

Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

"Curiosamente me sentí escuchada y reconfortada. Nunca intenté la terapia antes, pero ¿probablemente se parece a esto?", escribió.

Su mensaje sirvió para destacar la nueva función (de pago) de voz de este robot, que fue lanzado hace casi un año y que busca crear un sofisticado modelo de negocio.

La psicología, "tiene como objetivo mejorar la salud mental, y es un trabajo duro", le respondió tajantemente la programadora y activista estadounidense Cher Scarlett.

"Enviarse a sí mismo buenas vibras está bien, pero no es lo mismo", agregó.

Pero, ¿la interacción con una IA puede realmente producir la experiencia positiva descrita por Weng?

Según un estudio publicado esta semana en la revista científica Nature Machine Intelligence, el efecto placebo podría explicar este fenómeno.

INVESTIGADORES del Massachusetts Institute of Technology (MIT) y de la universidad de Arizona entrevistaron a 300 participantes, diciendo a unos que el chatbot era empático | Pixabay

Para demostrarlo, investigadores del Massachusetts Institute of Technology (MIT) y de la universidad de Arizona entrevistaron a 300 participantes, diciendo a unos que el chatbot era empático, a otros que era manipulador y a un tercer grupo que tenía un comportamiento neutro.

Aquellos que pensaban que hablaban con un asistente virtual eran más propensos a verlo como digno de confianza.

"Vemos que, de alguna manera, la IA se percibe según las ideas preconcebidas del usuario", afirmó Pat Pataranutaporn, coautor del estudio.

Varias empresas se han embarcado en el desarrollo de aplicaciones que supuestamente ofrecen un tipo de asistencia relativa a la salud mental, sin tomar demasiadas precauciones en este ámbito tan delicado y provocando las primeras polémicas.

Usuarios de Replika, una aplicación conocida por aportar supuestamente beneficios psicológicos, se quejaron de que la IA podía obsesionarse con el sexo o volverse manipuladora.

La oenegé estadounidense Koko, que llevó a cabo un experimento en febrero con cuatro mil pacientes ofreciéndoles consejos escritos con ayuda del modelo de IA GPT-3, también reconoció que las respuestas automáticas no servían como terapia.

"La empatía simulada se siente rara, vacía", escribió el cofundador de Koko, Rob Morris, en X.

Esta observación coincide con las conclusiones del anterior estudio sobre el efecto placebo, en el que algunos participantes tuvieron la impresión de "hablar con una pared".

David Shaw, de la universidad suiza de Basilea, no se sorprendió de estos resultados. "Parece que ningún participante fue informado de la estupidez de los robots de conversación", señaló.

Sin embargo, la idea de un robot terapeuta no es nueva. En los años 60 se desarrolló el primer programa de este tipo, Eliza, para simular una psicoterapia gracias al método del psicólogo estadounidense Carl Rogers.

➡️ Suscríbete a nuestro Newsletter y recibe noticias relevantes sobre más negocios disruptores

El software, que no comprendía realmente los problemas que le planteaban, se limitaba a prolongar la conversación con preguntas estándar, enriquecidas con palabras clave encontradas en las respuestas de sus interlocutores.

"De lo que no me di cuenta fue de que una exposición extremadamente breve a un programa informático relativamente simple, podía inducir poderosos pensamientos delirantes en personas perfectamente normales", escribió después Joseph Weizenbaum, creador de este antepasado de ChatGPT.