/ lunes 9 de octubre de 2023

Dudan de la eficacia de los ChatBox de ayuda emocional

Especialistas debaten sobre la función de estos robots destinados al apoyo motivacional de las personas

¿Es ChatGPT un buen psicólogo? Es lo que sugirió una responsable de la empresa californiana de inteligencia artificial (IA) OpenAI, creadora de esta aplicación viral, un mensaje fuertemente criticado por minimizar la dificultad de curar las enfermedades mentales.

"Acabo de tener una conversación personal bastante emotiva con ChatGPT en modo voz, sobre el estrés y el equilibrio trabajo-vida personal", declaró Lilian Weng, encargada de temas de seguridad de la IA, en X (antes conocida como Twitter).

Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

"Curiosamente me sentí escuchada y reconfortada. Nunca intenté la terapia antes, pero ¿probablemente se parece a esto?", escribió.

Su mensaje sirvió para destacar la nueva función (de pago) de voz de este robot, que fue lanzado hace casi un año y que busca crear un sofisticado modelo de negocio.

La psicología, "tiene como objetivo mejorar la salud mental, y es un trabajo duro", le respondió tajantemente la programadora y activista estadounidense Cher Scarlett.

"Enviarse a sí mismo buenas vibras está bien, pero no es lo mismo", agregó.

Pero, ¿la interacción con una IA puede realmente producir la experiencia positiva descrita por Weng?

Según un estudio publicado esta semana en la revista científica Nature Machine Intelligence, el efecto placebo podría explicar este fenómeno.

INVESTIGADORES del Massachusetts Institute of Technology (MIT) y de la universidad de Arizona entrevistaron a 300 participantes, diciendo a unos que el chatbot era empático | Pixabay

Para demostrarlo, investigadores del Massachusetts Institute of Technology (MIT) y de la universidad de Arizona entrevistaron a 300 participantes, diciendo a unos que el chatbot era empático, a otros que era manipulador y a un tercer grupo que tenía un comportamiento neutro.

Aquellos que pensaban que hablaban con un asistente virtual eran más propensos a verlo como digno de confianza.

"Vemos que, de alguna manera, la IA se percibe según las ideas preconcebidas del usuario", afirmó Pat Pataranutaporn, coautor del estudio.

Varias empresas se han embarcado en el desarrollo de aplicaciones que supuestamente ofrecen un tipo de asistencia relativa a la salud mental, sin tomar demasiadas precauciones en este ámbito tan delicado y provocando las primeras polémicas.

Usuarios de Replika, una aplicación conocida por aportar supuestamente beneficios psicológicos, se quejaron de que la IA podía obsesionarse con el sexo o volverse manipuladora.

La oenegé estadounidense Koko, que llevó a cabo un experimento en febrero con cuatro mil pacientes ofreciéndoles consejos escritos con ayuda del modelo de IA GPT-3, también reconoció que las respuestas automáticas no servían como terapia.

"La empatía simulada se siente rara, vacía", escribió el cofundador de Koko, Rob Morris, en X.

Esta observación coincide con las conclusiones del anterior estudio sobre el efecto placebo, en el que algunos participantes tuvieron la impresión de "hablar con una pared".

David Shaw, de la universidad suiza de Basilea, no se sorprendió de estos resultados. "Parece que ningún participante fue informado de la estupidez de los robots de conversación", señaló.

Sin embargo, la idea de un robot terapeuta no es nueva. En los años 60 se desarrolló el primer programa de este tipo, Eliza, para simular una psicoterapia gracias al método del psicólogo estadounidense Carl Rogers.

➡️ Suscríbete a nuestro Newsletter y recibe noticias relevantes sobre más negocios disruptores

El software, que no comprendía realmente los problemas que le planteaban, se limitaba a prolongar la conversación con preguntas estándar, enriquecidas con palabras clave encontradas en las respuestas de sus interlocutores.

"De lo que no me di cuenta fue de que una exposición extremadamente breve a un programa informático relativamente simple, podía inducir poderosos pensamientos delirantes en personas perfectamente normales", escribió después Joseph Weizenbaum, creador de este antepasado de ChatGPT.


¿Es ChatGPT un buen psicólogo? Es lo que sugirió una responsable de la empresa californiana de inteligencia artificial (IA) OpenAI, creadora de esta aplicación viral, un mensaje fuertemente criticado por minimizar la dificultad de curar las enfermedades mentales.

"Acabo de tener una conversación personal bastante emotiva con ChatGPT en modo voz, sobre el estrés y el equilibrio trabajo-vida personal", declaró Lilian Weng, encargada de temas de seguridad de la IA, en X (antes conocida como Twitter).

Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

"Curiosamente me sentí escuchada y reconfortada. Nunca intenté la terapia antes, pero ¿probablemente se parece a esto?", escribió.

Su mensaje sirvió para destacar la nueva función (de pago) de voz de este robot, que fue lanzado hace casi un año y que busca crear un sofisticado modelo de negocio.

La psicología, "tiene como objetivo mejorar la salud mental, y es un trabajo duro", le respondió tajantemente la programadora y activista estadounidense Cher Scarlett.

"Enviarse a sí mismo buenas vibras está bien, pero no es lo mismo", agregó.

Pero, ¿la interacción con una IA puede realmente producir la experiencia positiva descrita por Weng?

Según un estudio publicado esta semana en la revista científica Nature Machine Intelligence, el efecto placebo podría explicar este fenómeno.

INVESTIGADORES del Massachusetts Institute of Technology (MIT) y de la universidad de Arizona entrevistaron a 300 participantes, diciendo a unos que el chatbot era empático | Pixabay

Para demostrarlo, investigadores del Massachusetts Institute of Technology (MIT) y de la universidad de Arizona entrevistaron a 300 participantes, diciendo a unos que el chatbot era empático, a otros que era manipulador y a un tercer grupo que tenía un comportamiento neutro.

Aquellos que pensaban que hablaban con un asistente virtual eran más propensos a verlo como digno de confianza.

"Vemos que, de alguna manera, la IA se percibe según las ideas preconcebidas del usuario", afirmó Pat Pataranutaporn, coautor del estudio.

Varias empresas se han embarcado en el desarrollo de aplicaciones que supuestamente ofrecen un tipo de asistencia relativa a la salud mental, sin tomar demasiadas precauciones en este ámbito tan delicado y provocando las primeras polémicas.

Usuarios de Replika, una aplicación conocida por aportar supuestamente beneficios psicológicos, se quejaron de que la IA podía obsesionarse con el sexo o volverse manipuladora.

La oenegé estadounidense Koko, que llevó a cabo un experimento en febrero con cuatro mil pacientes ofreciéndoles consejos escritos con ayuda del modelo de IA GPT-3, también reconoció que las respuestas automáticas no servían como terapia.

"La empatía simulada se siente rara, vacía", escribió el cofundador de Koko, Rob Morris, en X.

Esta observación coincide con las conclusiones del anterior estudio sobre el efecto placebo, en el que algunos participantes tuvieron la impresión de "hablar con una pared".

David Shaw, de la universidad suiza de Basilea, no se sorprendió de estos resultados. "Parece que ningún participante fue informado de la estupidez de los robots de conversación", señaló.

Sin embargo, la idea de un robot terapeuta no es nueva. En los años 60 se desarrolló el primer programa de este tipo, Eliza, para simular una psicoterapia gracias al método del psicólogo estadounidense Carl Rogers.

➡️ Suscríbete a nuestro Newsletter y recibe noticias relevantes sobre más negocios disruptores

El software, que no comprendía realmente los problemas que le planteaban, se limitaba a prolongar la conversación con preguntas estándar, enriquecidas con palabras clave encontradas en las respuestas de sus interlocutores.

"De lo que no me di cuenta fue de que una exposición extremadamente breve a un programa informático relativamente simple, podía inducir poderosos pensamientos delirantes en personas perfectamente normales", escribió después Joseph Weizenbaum, creador de este antepasado de ChatGPT.


Política

Hermano de AMLO será el próximo secretario de Gobierno de Tabasco

El gobernador electo de Tabasco, Javier May, nombró como secretario de Gobierno de su gabinete a José Ramiro 'Pepín' López Obrador, hermano de AMLO

Sociedad

Chris se debilita y huracán Beryl se acerca a península de Yucatán

Chris ya es una baja presión remanente que se ubica en Puebla, provocando fuertes lluvias en 10 estados del país

Finanzas

Afores transfieren 24,239 mdp al Fondo de Pensiones para el Bienestar

Los recursos provienen de más de 2.2 millones de cuentas inactivas en las Afores, con lo que se pretende alcanzar un monto inicial de 44 mil 894 mdp

Finanzas

Analistas privados ven crecimiento de 2% para México en 2024: Banxico

Los analistas consultados por Banxico indicaron que los factores que podrían obstaculizar el crecimiento del PIB son problemas de gobernanza y las condiciones económicas internas

Sociedad

Tendrán que pasar 286 años para lograr la equidad de género en la diplomacia: ONU

Maria Noel Vaeza, representante de ONU-Mujeres para America Latina, dijo que a pesar de los avances, la paridad de género en la diplomacia es aún difícil de alcanzar

Mundo

Tribunal Supremo le da inmunidad parcial a Trump en caso del asalto al Capitolio

La decisión supone una victoria para Trump, pues evitará comparecer ante otra Corte antes de los comicios presidenciales del 5 de noviembre