Un responsable de la empresa californiana de Inteligencia Artificial (IA) OpenAI, asomó la posibilidad de que ChatGPT pudiera fungir como un buen psicólogo.
«Acabo de tener una conversación personal bastante emotiva con ChatGPT en modo voz, sobre el estrés y el equilibrio trabajo-vida personal», declaró Lilian Weng, encargada de temas de seguridad de la IA, a finales de septiembre en la red social X.
«Curiosamente me sentí escuchada y reconfortada. Nunca intenté la terapia antes, pero ¿probablemente se parece a esto?», apuntó.
El mensaje pretendía destacar las nuevas funciones de voz de la actualización del chatbox que fue lanzado y que busca calar en el mercado, en medio de la entrada de nuevos competidores en el segmento de la IA.
Las reacciones al mensaje de Weng no tardaron en llegar. Cher Scarlett, programadora y activista estadounidense, señaló que «la psicología tiene como objetivo mejorar la salud mental y en un trabajo duro».
Ahora, ¿la interacción con una IA puede producir la experiencia descrita por Weng?.
Esta semana se publicó un estudio en la revista científica Nature Machine Intelligence, sobre el efecto placebo que podría explicar este fenómeno.
Los investigadores del Massachusetts Institute of Technology (MIT) y de la universidad de California, entrevistaron a 300 participantes; le dijeron a unos que el procesador de texto era empático, a otros que era manipulador y a un tercer grupo que tenía un comportamiento neutro.
Los que recibieron información sugestionados por la idea de que el asistente virtual era considerado, eran más propensos a verlo con confianza. «Vemos que, de alguna manera, la IA se percibe según las ideas preconcebidas del usuario», afirmó Pat Pataranutaporn, coautor del estudio.
Varias empresas se lanzaron al desarrollar aplicaciones que, en teoria, ofrecen un tipo de asistencia a la salud mental, sin tomar demasiadas precauciones en este campo tan delicado.
Una de esas aplicaciones se llama Replika, conocida por aportar, supuestamente, beneficios psicológicos. Recientemente una usuaria señaló que la app podía obsesionarse con el sexo y volverse manipuladora.
En febrero la ONG estadounidense Koko, desarrolló un experimento con 4.000 pacientes, en el que le ofrecía consejos escritos con ayuda de un modelo de IA GPT-3 y reconoció que las respuestas automáticas no servían como terapia.
Los resultados de este estudio coinciden con los de la investigación del efecto placebo, en el que algunos participantes tuvieron la impresión de haber hablado con un pared.
Al especialista David Shaw, de la universidad de Basilea, en Suiza, no le sorprendieron los resultados. «Parece que ningún participante fue informado de la estupidez de los robots de conversación» apuntó.
Aunque parece novedoso, la idea del robot terapeuta no es nueva. En los años 60 se desarrolló el programa Elisa, para simular una psicoterapia con el método del psicólogo estadounidense Carl Rogers.
El sistema que no comprendía los problemas planteados, se limitaba a prolongar la conversación con preguntas estándar preconcebidas, alimentadas de palabras claves que salían de las mismas preguntas de los interlocutores.
Sin embargo, el creador de la criatura, el investigador Joseph Weizenbaum, señaló en una oportunidad que lo que no se dio cuenta, fue que «una exposición extremadamente breve a un programa informático relativamente simple podía inducir poderosos pensamientos delirantes en personas perfectamente normales».