Uno de los usos más polémicos de la inteligencia artificial es la tendencia de usar herramientas como ChatGPT como sustitutos de la terapia psicológica. Si bien esta práctica ha encontrado diversos seguidores que destacan los beneficios de la IA en momentos de crisis o para la autorreflexión, expertos y los mismos desarrolladores han señalado sus limitaciones.
Un ejemplo destacado es el de Shannon McNamara, creadora de contenido y anfitriona del pódcast “FluentlyForward”, quien reveló que suele usar ChatGPT cuando necesita ayuda para procesar pensamientos o buscar soluciones a problemas emocionales.
McNamara mencionó en una entrevista con Newsweek que, aunque las respuestas de la IA son extensas y variadas, le han resultado útiles en su vida diaria. A pesar de reconocer las preocupaciones sobre la privacidad, ella afirma que los beneficios, al menos para ella, superan los riesgos potenciales. “Quizá en cinco años, cuando los robots tomen el control, me arrepentiré de haber sido tan cruda con ChatGPT”, comentó, reflejando un enfoque cauteloso pero práctico.
La principal limitación de la IA en el ámbito terapéutico es su incapacidad para emular la empatía humana y establecer conexiones emocionales auténticas. Si bien ChatGPT y otros modelos de IA pueden generar respuestas que imitan el lenguaje empático, no pueden entender ni responder a las emociones de manera genuina.
Rachel Goldberg, psicoterapeuta y fundadora de Rachel Goldberg Therapy, subraya que “uno de los aspectos más cruciales de una terapia exitosa es la conexión entre el terapeuta y el paciente”. Esta conexión permite a los pacientes sentirse seguros y explorarse a sí mismos, lo cual es esencial para el crecimiento personal.
Casos extremos, como el de un hombre en Bélgica que se quitó la vida después de una interacción con un bot de IA en 2023, ilustran las consecuencias potenciales de depender de estas tecnologías sin supervisión profesional.