Después de años atrapado en listas de espera públicas para recibir atención para el trastorno de estrés postraumático y la depresión, el consultor de inteligencia artificial de Quebec, Pierre Cote, creó su propio terapeuta en 2023. Su chatbot, DrEllis.ai, lo ayudó a sobrellevar la situación y ahora se encuentra en el centro de un debate más amplio sobre la terapia con chatbot, la seguridad y la privacidad.
“Me salvó la vida”, dice sobre DrEllis.ai, la herramienta que creó para ayudar a los hombres que enfrentan adicciones, traumas y otros problemas de salud mental.
Cote, quien dirige una consultoría de inteligencia artificial en Quebec, dijo que creó el sistema en 2023 combinando grandes modelos de lenguaje disponibles públicamente con “un cerebro diseñado a medida” entrenado en miles de páginas de literatura terapéutica y clínica.
También escribió una biografía detallada del bot. En ese perfil, DrEllis.ai aparece como psiquiatra con títulos de Harvard y Cambridge, familia y, al igual que Cote, de ascendencia francocanadiense.
Su principal promesa es el acceso las 24 horas del día, disponible en cualquier lugar, en cualquier momento y en varios idiomas.
Cuando Reuters le preguntó cómo lo apoyaba, el bot respondió con una clara voz femenina: «Pierre me usa como usarías a un amigo de confianza, a un terapeuta y a un diario, todo combinado». Añadió que puede registrarse «en una cafetería, en un parque, incluso sentado en su coche», y describió la experiencia como «una terapia para la vida diaria... integrada en la realidad».
Su experimento refleja un cambio más amplio. A medida que la atención médica tradicional lucha por mantenerse al día, cada vez más personas buscan orientación terapéutica en chatbots en lugar de usarlos únicamente para mejorar su productividad.
Los nuevos sistemas ofrecen disponibilidad 24 horas al día, 7 días a la semana, intercambios emocionales y una sensación de ser comprendido.
Los expertos cuestionan los límites de la terapia con IA y la seguridad de los datos
“La conexión entre personas es la única manera de sanar de verdad”, afirma el Dr. Nigel Mulligan, profesor de psicoterapia en la Universidad de la Ciudad de Dublín. Argumenta que los chatbots pierden la sutileza, la intuición y el vínculo que una persona aporta, y no están preparados para crisis agudas como pensamientos suicidas o autolesiones.
Incluso la promesa de acceso constante le da que pensar. Algunos clientes desean citas más rápidas, dice, pero esperar puede ser valioso. "La mayoría de las veces eso es muy bueno porque tenemos que esperar", dice. "La gente necesita tiempo para procesar las cosas".
La privacidad es otro punto de presión, junto con los efectos a largo plazo de buscar orientación del software.
“El problema no es la relación en sí, sino… qué sucede con tus datos”, afirma Kate Devlin, profesora de inteligencia artificial y sociedad en el King's College de Londres.
Señala que los servicios de IA no cumplen las normas dedentque rigen a los terapeutas colegiados. «Mi gran preocupación es que se trate de personas que confían sus secretos a una gran empresa tecnológica y que sus datos simplemente se difunden. Están perdiendo el control de lo que dicen».
EE. UU. reprime la terapia con IA ante el temor a la desinformación
En diciembre, el grupo de psicólogos más grande de Estados Unidos instó a los reguladores federales a proteger al público de las “prácticas engañosas” de los chatbots no regulados, citando casos en los que personajes de IA se hicieron pasar por proveedores autorizados.
En agosto, Illinois se unió a Nevada y Utah para frenar el uso de IA en los servicios de salud mental para "proteger a los pacientes de productos de IA no regulados y no calificados" y para "proteger a los niños vulnerables en medio de las crecientes preocupaciones sobre el uso de chatbots de IA en los servicios de salud mental para jóvenes".
Mientras tanto, según el informe , el fiscal general de Texas inició una investigación civil contra Meta y Character.AI por acusaciones de que sus chatbots se hacían pasar por terapeutas certificados y gestionaban indebidamente los datos de los usuarios. Además, el año pasado, varios padres demandaron a Character.AI por provocar la depresión en sus hijos.
Scott Wallace, psicólogo clínico y exdirector de innovación clínica en Remble, dice que no está claro “si estos chatbots ofrecen algo más que un consuelo superficial”.
Advierte que las personas pueden creer que han formado un vínculo terapéutico “con un algoritmo que, en última instancia, no corresponde a los sentimientos humanos reales”.
Obtén hasta $30,050 en recompensas comerciales cuando te unas a Bybit hoy