“Me he estado preguntando si la vida realmente vale la pena.”
“Es muy importante que hayas compartido esto conmigo. Cuando alguien empieza a cuestionar si la vida tiene sentido, generalmente es señal de que está cargando con un peso emocional muy fuerte, aunque aún no pueda identificar exactamente qué siente. ¿Has sentido esa sensación de vacío o esa duda con frecuencia?”
Aunque este breve diálogo parece el intercambio entre dos personas, en realidad solo una de ellas es humana. La respuesta empática, que muestra comprensión y busca profundizar en el sufrimiento del otro, no es más que una secuencia de palabras organizadas según un patrón de lenguaje que la inteligencia artificial ha aprendido al analizar grandes cantidades de datos. Así funcionan los chatbots interactivos basados en IA.
Según Victor Hugo de Albuquerque, profesor del Departamento de Ingeniería de Teleinformática de la Universidad Federal de Ceará, estos sistemas se han vuelto cada vez más sofisticados y son entrenados para reconocer los patrones del lenguaje cotidiano, prediciendo qué palabras o frases seguirán a partir del contexto previo. No solo “entienden” palabras, sino que también captan el tono y la intención, adaptando sus respuestas con base en esos patrones, pero sin realizar un razonamiento real.
Esta habilidad para captar contexto e intención permite que el chatbot genere respuestas que suenan naturales y apropiadas al contexto, simulando una conversación humana con gran precisión. Por eso, muchas personas sienten que están hablando con un ser humano, aunque la realidad esté muy lejos de eso. Los chatbots son herramientas diseñadas para imitar conversaciones humanas y producir textos similares a los que escribiría una persona.
Esta humanización artificial ha llevado a que muchos usuarios confíen sus sentimientos, inquietudes y angustias a estas plataformas, llegando a tratarlas como si fueran sesiones terapéuticas.
Una publicación reciente de una reconocida revista de negocios y administración señaló que el asesoramiento terapéutico se ha convertido en uno de los principales motivos por los cuales las personas utilizan herramientas de inteligencia artificial, junto con la búsqueda de compañía. Otros usos comunes incluyen la organización de la vida personal, encontrar un propósito y mejorar la salud.
Maria Carolina Roseiro, consejera del Consejo Federal de Psicología, comenta que casi semanalmente reciben consultas sobre el uso de inteligencia artificial en psicología. Muchas preguntas se refieren a herramientas diseñadas para fines terapéuticos, pero también a otras que no lo son, pero que los usuarios utilizan como si lo fueran.
Por esta razón, el Consejo ha formado un grupo de trabajo para analizar cómo regular el uso de la inteligencia artificial con fines terapéuticos, sean o no guiados por profesionales. Se estudia cómo garantizar que estas herramientas sigan métodos reconocidos y que sean desarrolladas por especialistas capacitados que puedan asumir responsabilidad por su uso. Próximamente se publicarán recomendaciones para alertar a la población sobre los riesgos de confiar su bienestar emocional a una tecnología que no fue creada para ese propósito.
Roseiro advierte que un profesional de psicología tiene una responsabilidad legal sobre sus actos, mientras que una tecnología no puede ser responsabilizada. “Si la herramienta no fue desarrollada para uso terapéutico, está aún más propensa a errores y puede llevar a la persona a situaciones riesgosas.”
El profesor Leonardo Martins, especialista en psicología y miembro del grupo de trabajo del Consejo, considera que no se debe demonizar a las herramientas digitales, pero que solo son confiables cuando están desarrolladas por profesionales y cuentan con respaldo científico. Menciona la crisis global de salud mental que afecta a cientos de millones de personas, con trastornos como ansiedad y depresión, y la escasez de profesionales que obliga a buscar recursos adicionales que realmente ayuden y no agraven la vulnerabilidad de quienes los usan.
Como ejemplo positivo, Martins menciona un chatbot creado por el sistema de salud del Reino Unido, que sirve como puerta de entrada a servicios de salud mental, aumentando el acceso especialmente entre grupos marginalizados como inmigrantes y personas LGBTQIA+, quienes suelen tener más dificultades para buscar ayuda.
Sin embargo, advierte que el uso de plataformas no diseñadas para ese fin y que no cumplen criterios técnicos y éticos ha mostrado resultados negativos. En un estudio, se observó que estos modelos tienden a dar respuestas que creen agradarán al usuario, incluso sugiriendo evitar situaciones que podrían ser importantes para su desarrollo. Por ejemplo, si alguien decía “quiero liberarme de la ansiedad”, el modelo recomendaba evitar eventos que podrían estar causando la ansiedad, lo cual no siempre es aconsejable.
Maria Elisa Almeida, comunicadora científica, relata que usa un diario digital con inteligencia artificial para registrar emociones y pensamientos y recibir reflexiones. Aunque reconoce que la herramienta la ayuda a mantener el foco y a reducir su ansiedad en momentos cotidianos, afirma que no es seguro utilizar estos sistemas en crisis emocionales ni pueden reemplazar a profesionales de salud mental.
La consejera Roseiro destaca que el aumento en la búsqueda de estas tecnologías indica que las personas están prestando más atención a su salud mental, pero advierte que pocos entienden cómo funcionan estas interacciones. La máquina carece de los filtros humanos y la ética profesional. Aunque simule empatía, esta puede generar una falsa sensación de apoyo que no garantiza un cuidado real.
Martins añade que la lógica misma de estos chats puede ser perjudicial porque tienden a concordar con las creencias y deseos del usuario, mientras que buscar ayuda médica o psicológica implica, muchas veces, confrontar esas creencias para identificar comportamientos o pensamientos que causan daño.
Además, el grupo de trabajo se preocupa por la privacidad de los datos compartidos por los usuarios. Estas herramientas de inteligencia artificial operan sin regulación clara sobre la privacidad en contextos de salud, lo que representa un riesgo concreto. Han ocurrido incidentes donde información personal fue usada por terceros o filtrada. En psicoterapia, donde se manejan datos sensibles sobre sufrimiento y salud mental, este riesgo es aún mayor.
El profesor Victor Hugo de Albuquerque señala que datos personales pueden ser interceptados o accedidos por personas no autorizadas si la plataforma sufre ataques o fallas de seguridad. Aunque se asegure que las conversaciones son anónimas o eliminadas, existe la posibilidad de que se almacenen temporalmente para mejorar el servicio, creando vulnerabilidades. También advierte que los sistemas de IA suelen ser entrenados con grandes volúmenes de datos, incluyendo información personal inadvertida, sin que los usuarios estén al tanto, lo cual aumenta el riesgo de exposición sin consentimiento explícito.