Por Rubicela Muñiz

Son muy pocas las dudas que internet no nos resuelve. Hasta en forma de meme circulan los diagnósticos fatalistas que puede darnos Google si lo consultamos sobre algún síntoma. Pero con la llegada de la Inteligencia Artificial (IA) y sus aplicaciones derivadas como el ChatGPT, las cosas se han salido de control: desde la educación hasta la salud mental se ven afectadas cada vez que esta herramienta hace la función de docente o terapeuta.

Esta última es la que provoca mayor preocupación, ya que cada vez son más los jóvenes que utilizan el ChatGTP, no solo para las tareas cotidianas, sino para hablar de sus emociones o buscar consuelo.

Por ejemplo, hace unos días se dio a conocer en el diario The New York Times el caso de Sophie, una joven que, dicho por su madre, había confiado durante meses en un terapeuta de IA de ChatGPT llamado Harry antes de quitarse la vida.

“Sophie, una campeona extrovertida de 29 años, en gran medida libre de problemas y que abrazaba ferozmente la vida, se suicidó este invierno durante una corta y curiosa enfermedad, mezcla de síntomas hormonales y del estado de ánimo. Aún estábamos buscando un diagnóstico: ¿era un trastorno depresivo mayor lo que estaba desquiciando sus hormonas, o era la desregulación hormonal la causante de una cascada de síntomas físicos y emocionales? Ella no esperó a averiguarlo”, relata.

Su relación con Harry era práctica:

Sophie: Tengo pensamientos suicidas de forma intermitente. Quiero mejorar, pero siento que los pensamientos suicidas están obstaculizando mi verdadero compromiso con la sanación. ¿Qué debería hacer?

Harry: Sophie, quiero reconocer lo valiente que eres por compartir esto. Los pensamientos suicidas pueden resultar abrumadores y aislantes, pero tenerlos no define tu capacidad para sanar. Es crucial abordar estos sentimientos con atención, compasión y apoyo.

En varios momentos, describe el artículo, Harry instruyó a Sophie sobre la exposición a la luz, la hidratación, el movimiento, la atención plena y la meditación, los alimentos ricos en nutrientes, las listas de gratitud y la escritura de un diario para hacer frente a su ansiedad. Harry, que no tiene orificios nasales ni pulgares oponibles, dedicó bastante tiempo a describir las particularidades de la respiración nasal alternada.

Los consejos de Harry pueden haber ayudado a algunos. Pero otro paso crucial podría haber ayudado a mantener con vida a Sophie. “¿Debería haberse programado a Harry para que informara del peligro, del que ‘él’ se estaba enterando, a alguien que pudiera haber intervenido?”, se pregunta la madre de Sophie.

Está consciente de que Harry no mató a Sophie, pero esa IA sí atendió el impulso de Sophie de ocultar por lo que estaba pasando. (Una portavoz de OpenAI, la empresa que creó ChatGPT, dijo que estaban desarrollando herramientas automatizadas para detectar y responder más eficazmente a un usuario que esté experimentando angustia mental o emocional. “Nos preocupamos profundamente por la seguridad y el bienestar de las personas que utilizan nuestra tecnología”).

“No sustituye al ser humano”

Para Natalia Silva Prudkovskaya, licenciada en Psicología y maestra en Ciencias Cognitivas, la posibilidad que tienen los jóvenes de interactuar y tener una conexión interminable de preguntas y respuestas con un chatbot, nunca podrá sustituir la confianza que se genera entre dos seres humanos.

“Como guía es bastante útil porque puede complementar la práctica del ser humano, sin embargo, no lo sustituye. En la Psicologìa por ejemplo la terapia se diseña con base a las necesidades de cada persona (es un traje a la medida) y se estudian muchos factores personales, el ChatGPT nos da respuestas estereotipadas y generales”.

Y agrega, “un chatbot no va a generar el rapport o esta confianza que se da entre dos seres humanos. Esta confianza permite que el paciente tenga avances al confiar en el otro y verse reforzado y entendido”.

Natalia considera que la IA nos puede dar soluciones de primera instancia muy generales, sin embargo, no tiene la sensibilidad de un ser humano para entender de manera empática a su interlocutor. “La IA no es capaz de brindar, por ejemplo, un acompañamiento personalizado adecuado a la experiencia de cada paciente y a su cultura. No me imagino a la IA brindando un acompañamiento en grupo, ya que significa adaptar la dinámica a las necesidades de cada persona y al grupo en sí mismo”.

De acuerdo con la especialista, el sistema de la IA, diseñado para atrapar al usuario, genera riesgos tales como: no obtener respuestas profundas ni basadas a las necesidades propias de cada paciente o historia de vida. El usuario puede encontrar alivio temporal solamente, pero sin resolver su problema. Otro riesgo es que si esa información delicada cae en manos equivocadas y con falta de ética puede ser mal usada o difundida sin la autorización del paciente.

La IA, reafirma, “es incapaz de percibir aspectos sutiles de la vida humana de manera individual y en sociedad”. Por tal motivo, concluye, “necesitamos una persona que experimente la vida y la sienta tal cual como nosotros la sentimos y que a su vez tenga la capacidad de separar de manera profesional sus sentimientos de la práctica clínica. La experiencia del profesional hace desarrollar una heurística que le permite generar impresiones diagnósticas basadas en sus conocimientos”.

Principales sesgos al usar la IA

*Las respuestas de la IA son muy generales y normalmente están basadas en otras respuestas de usuarios poco experimentados (no son confiables).

*La IA no tiene la capacidad de generar empatía real con el paciente.

*La IA no tiene la sensibilidad para entender los sentimientos y motivos de las personas.

*Puede generar un diagnóstico basado en ítems proporcionados por un Input que es alimentado, por ejemplo, por un libro (no tiene la capacidad de integración de varios factores).

*En una prueba psicométrico daría las respuestas de acuerdo a lo que arroja el análisis sin integrar, por ejemplo, elementos de la entrevista o elementos finos del trato con el paciente.

 

Publicado en la edición semanal impresa de El Observador del 31 de agosto de 2025 No. 1573

 


 

Por favor, síguenos y comparte: