Добавить новость
ru24.net
World News
Январь
2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
19
20
21
22
23
24
25
26
27
28
29
30
31

ChatCris, la IA chilena que puede “entender” emociones: los límites y desafíos frente a la salud mental

0

En nuestro país, la salud mental se ha posicionado como una de las problemáticas más urgentes del sistema de salud pública y privada. El reciente estudio Termómetro de Salud Mental en Chile, elaborado por la Asociación Chilena de Seguridad (ACHS) y el Centro UC de Encuestas y Estudios Longitudinales dio a conocer que 1,4 millones de personas viven con síntomas de problemas de salud mental pero que no consultan a especialistas.

En ese escenario surge ChatCris, un asistente virtual concebido para entregar apoyo psicoeducativo y herramientas dirigidas al manejo emocional antes de que las personas accedan a una psicoterapia tradicional. En el marco del Congreso Futuro 2026, en diálogo con Radio y Diario Universidad de Chile, el psicólogo clínico y creador de este chatbot, Cristián Cáceres, explicó la génesis del proyecto.

En el diagnóstico previo, apreciaron junto a la empresa Psicomedica, las barreras más frecuentes entre los chilenos: el costo de las sesiones, la disponibilidad de horarios, la tardanza en la atención y percepciones como el de “no vale la pena” consultar a un profesional.

Cáceres desde 2015 ha trabajado con la Universidad de Chile, la Universidad Católica y la Universidad de Heidelberg en sistemas de evaluaciones automáticas y de retroalimentación de pacientes. “El objetivo era mejorar a los pacientes. Y nos dimos cuenta que cuando hacíamos los ensayos, usábamos población sin diagnóstico, y tenía mejores resultados que los que estaban con diagnóstico. Entonces dijimos, ah, mira, parece que esto ayuda también a las personas que no están con diagnóstico. Entonces empezamos a migrar hacia allá y a dar psicoeducación a las personas que tienen problemáticas y que no tienen acceso”, relató sobre los inicios del proyecto.

Para el psicólogo, el valor de ChatCris radica en su accesibilidad y el enfoque psicoeducativo basado en un modelo cognitivo-conductual: un enfoque breve y directivo que busca ofrecer explicaciones claras y herramientas concretas para trabajar con pensamientos, emociones y conductas. Pero, recalca, sin reemplazar la psicoterapia tradicional.

Aquí pueden acceder a una herramienta que no reemplaza la psicoterapia, no hace psicoterapia, no hace diagnóstico”, insistió, detallando que el chatbot “te dice que te está pasando y te ayuda a resolverlo, te entrega herramientas concretas para resolver esa temática y puede haber un seguimiento, puedes ir sesión por sesión avanzando”.

Pantalla de inicio de ChatCris

La distinción que hace el experto es crucial para entender los límites impuestos al proyecto: ChatCris no busca sustituir la evaluación profesional ni el tratamiento clínico, sino ofrecer un primer espacio de acompañamiento accesible para quienes aún no han dado el paso a una consulta presencial.

“Tu le puedes decir ‘me complican mis relaciones interpersonales’, te va a preguntar varias cosas y te va a dar opciones de cómo manejar las relaciones interpersonales. Por lo tanto, tengas o no tengas definido por alguien un diagnóstico, te puede ayudar”, ejemplificó el psicólogo.

Cómo se entrenó la IA y qué significa “entender emociones”

El desarrollo de la herramienta no fue inmediato ni casual: se inició con algoritmos programados en 2022 que organizaban respuestas estructuradas a partir de evaluaciones predefinidas, todo siempre bajo la mirada de psicólogos expertos en la materia. Por ello, Cáceres enfatizó en la manera en que se entrenó dicha IA.

Definimos tomar la inteligencia artificial y entrenarla como si fuera un psicólogo con 20 años de experiencia, que solo trabajara de un modelo específico que se llama cognitivo conductual, y que le empezamos a decir cómo tenía que hacer esto. Es como si el psicólogo se metió dentro de la máquina y está reproduciendo a este psicólogo con 20 años de experiencia”, contó Cáceres.

El entrenamiento de la inteligencia artificial consistió en todo momento en definir reglas, parámetros y flujos de conversación alineados con este modelo terapéutico. ChatCris no diagnostica, ni prescribe, ni reemplaza el juicio clínico de un profesional humano; lo que hace es conversar con el usuario a partir de lo que éste expresa, guiado por un enfoque estructurado.

 

Respecto de cómo la inteligencia artificial puede “entender” emociones complejas, Cáceres adoptó una postura matizada que combina la comprensión funcional con límites explícitos: “La máquina no es capaz de sentir lo que yo siento, pero sí es capaz de entender lo que te está pasando”.

A modo de ejemplo, detalló que esta inteligencia artificial está entrenada para generar respuestas a las preguntas del usuario de maneras similares a como lo haría un psicoterapeuta. “Si dices que sientes pena, te va a decir, entiendo que estás sintiendo pena, dame más detalles. ¿Cuándo aparece esa pena? ¿Qué piensas cuando tienes esa pena? ¿Qué haces cuando tienes esa pena? Entonces, a través de esas preguntas, va a ir comprendiendo y dándote un traje a la medida de lo que te está pasando. Sí puede entender tus emociones, pero las que estás planteando”, sostuvo.

“Que es lo mismo que hacemos los psicoterapeutas. Alguien llega conmigo y me comenta una situación, y esa situación puede ser muy dolorosa para esa persona pero yo ya la viví y para mi no fue tan dolorosa, pero yo sí puedo colocarme en sus pantalones, puedo llegar a comprender qué es lo que está pasando, que es lo que piensa, y, por lo tanto, qué es lo que podría hacer si sigue esa línea. Es lo mismo que hace la máquina”, apuntó.

Aunque apuntó a esta capacidad para “comprender” en un sentido clínico, Cáceres subrayó en todo momento que hay límites insalvables para una IA: “No ve la mayor cantidad de información que es no verbal. Vale decir, yo te tengo que estar mirando, miro tu cara, tus ojos, tus gestos, y leo eso junto con lo que tú me estás diciendo verbalmente. Esta inteligencia es un chat, solo se alimenta de lo que tu le escribes, esa es su limitancia”.

Los límites y la ética clínica

En diálogo con nuestro medio, el psicólogo aseguró que ante el límite establecido por los desarrolladores del chatbot, este sabe cuando debe sugerir al usuario que acuda con un profesional humano.

Si ve que estos parámetros, que son bien establecidos, no logran resolver, va a decir: ‘no puedo, tienes que ir a una psicoterapia’. Si él detecta que hay algún riesgo, por ejemplo, ‘me preocupa que puedas hacer algo contra tu vida, no podemos seguir conversando, llama a este número ahora y comunícate con personas porque necesitas ayuda’, y no va a seguir conversando hasta que tú le confirmes que pediste ayuda”, aclaró Cáceres.

Humano versus inteligencia artificial imagen referencial

Este enfoque, sostuvo, responde a la preocupación ética central en la psicología: evitar la iatrogenia -hacer más daño que bien-, un riesgo potencial de cualquier intervención terapéutica, incluso digital.

Así, además, resalta que a diferencia de otras IA como ChatGPT, esta plataforma, al ser entrenada por expertos en salud mental, “no hace alucinaciones, porque está delimitado, por lo tanto cuál no sabe, te va a decir no sé, lo que ChatGPT no hace. No tiene lo de ChatGPT que está orientado a satisfacerte, darte una respuesta y comillas decirte lo que quieres”.

Ante estos avances, Cáceres hace frente a los cuestionamientos sobre la “deshumanización” de la atención emocional y adopta una posición conciliadora: reconoce los temores, pero enfatiza el papel complementario de la tecnología en el mundo actual.

No tiene que reemplazar. Tiene que venir a ayudar y complementar. Si las personas se sienten mejor, van a volver a interactuar con sus cercanos. Lo que aquí estamos haciendo es entregarles una herramienta para que mejoren sus síntomas y vuelvan a interactuar”, comentó el experto.

Más allá de su proyecto específico, el psicólogo llama a una reflexión prudente sobre la integración de la IA en salud mental, comparándola con la evolución histórica de la disciplina: errores metodológicos y conceptuales han sido corregidos con el tiempo, y este nuevo contexto tecnológico no es diferente.

Tecnologías en el Congreso Futuro. Dragomir Yankovic/Aton Chile

Accesibilidad, estigma y rol del Estado

Desde la perspectiva del usuario, ChatCris ofrece ventajas claras sobre los primeros pasos hacia la búsqueda de ayuda profesional: disponibilidad 24/7, anonimato, ausencia de horarios y la eliminación del contacto presencial inicial, que para muchos constituye una barrera insuperable.

Te va a ayudar a entender cómo acceder a apoyo psicológico es bueno, y te ayuda y entonces va a motivarte a profundizar y decir ‘bueno, esto tiene límites, entonces puedo ir a un psicólogo ahora y ya tengo mejor claridad de qué es lo que significa’”, señaló Cáceres.

Finalmente, abordó la necesidad de intervención por parte del Estado en este tipo de herramientas. “El Estado debería buscar las mejores opciones para ayudar a la población. ¿Esta es una opción? Sí”, expresó.

“El Estado debería contactar a los que estamos haciendo algo y ver cómo estamos disponibles para ayudar. Va a haber mucha gente que va a poder hacer cosas nuevas y mejores que esta herramienta. La labor del Estado es ayudar a mejorar la calidad de vida de las personas”, cerró.




Moscow.media
Частные объявления сегодня





Rss.plus
















Музыкальные новости




























Спорт в России и мире

Новости спорта


Новости тенниса