top of page

Inteligencia Artificial y Salud Mental: Entre la Promesa y la Paradoja.

  • Foto del escritor: Centro Psicológico Loreto
    Centro Psicológico Loreto
  • 11 nov
  • 4 Min. de lectura
Inteligencia Artificial y Salud Mental: Entre la Promesa y la Paradoja.

Inteligencia Artificial y Salud Mental: Entre la Promesa y la Paradoja.


Como psicóloga clínica sanitaria y neuropsicóloga, observo con creciente interés -y también con cierta cautela- la irrupción de la inteligencia artificial (IA) en el ámbito de la salud mental. La tecnología avanza con un ritmo vertiginoso y, en muchos casos, nos ofrece herramientas valiosas que pueden complementar la labor terapéutica. Sin embargo, también plantea desafíos éticos, emocionales y humanos que no debemos pasar por alto. Mi intención con este artículo no es demonizar ni idealizar la IA, sino reflexionar sobre su papel actual y futuro en la preservación del bienestar psicológico, reconociendo tanto sus potenciales beneficios como sus riesgos y limitaciones.


La inteligencia artificial ha abierto nuevas posibilidades en la detección temprana de trastornos psicológicos. Modelos de lenguaje y algoritmos de aprendizaje automático pueden analizar grandes volúmenes de datos -textos, voz, patrones de sueño, o incluso micro expresiones faciales- para identificar señales de depresión, ansiedad o deterioro cognitivo. Investigaciones recientes de la Universidad de Stanford y del Instituto Nacional de Salud Mental (NIMH) han mostrado cómo los modelos de IA pueden predecir con relativa precisión el riesgo de ideación suicida a partir del análisis del lenguaje natural. Desde la perspectiva neuropsicológica, esta capacidad predictiva puede ser un gran aliado, ya que permite intervenir antes de que el sufrimiento se cronifique.


Además, la IA se ha incorporado en aplicaciones móviles y chatbots diseñados para ofrecer apoyo emocional básico, recordatorios de autocuidado o ejercicios de relajación. Herramientas como Woebot, Wysa, Yana o Replika son ejemplos de cómo la tecnología puede democratizar el acceso a estrategias psicológicas de afrontamiento. En un mundo donde los recursos en salud mental son escasos y el estigma aún persiste, estas alternativas pueden representar un primer paso hacia la búsqueda de ayuda profesional. Desde la perspectiva de la salud pública, es un avance que no debe ser subestimado.


Sin embargo, aquí comienza la paradoja. Muchos de estos sistemas de IA están diseñados para agradar, no necesariamente para ayudar o acompañar de forma terapéutica. Su programación se basa en algoritmos que priorizan la empatía simulada, las respuestas positivas y la validación constante del usuario. Como señala Sherry Turkle (2017), investigadora del MIT, la tecnología puede ofrecernos 'la ilusión de compañía sin las demandas de una relación real'. Y eso es precisamente lo que sucede cuando un usuario establece un vínculo emocional con un chatbot: se siente comprendido, escuchado y contenido, pero sin el componente humano que da sentido al encuentro terapéutico.


Desde la perspectiva neuropsicológica, sabemos que el proceso terapéutico involucra circuitos cerebrales profundamente humanos: la empatía, la mentalización, el reconocimiento facial y el contagio emocional activan estructuras como la corteza prefrontal medial, la amígdala y el sistema límbico. Estas redes no se activan de la misma forma cuando la interacción ocurre con una máquina, por sofisticada que sea. Por tanto, aunque la IA pueda replicar patrones lingüísticos o respuestas empáticas, no puede generar la resonancia emocional genuina que se da entre dos cerebros humanos en sincronía.


Otro punto crítico es la ética del uso de la IA en salud mental. Los sistemas de inteligencia artificial aprenden de datos humanos, y por tanto heredan nuestros sesgos. Esto significa que, aunque aparenten neutralidad, pueden reproducir desigualdades y estigmas. Además, la privacidad de los datos emocionales es un tema especialmente sensible. Las emociones, pensamientos y experiencias compartidas con una IA no siempre están protegidas por los mismos estándares de confidencialidad que rigen la práctica clínica.


A pesar de todo lo anterior, no considero que la IA sea enemiga de la psicología, sino un complemento potencial. Si se utiliza con prudencia, puede ser una herramienta poderosa para ampliar el alcance de la atención, mejorar la adherencia terapéutica y ofrecer recursos personalizados. Desde la neuropsicología, también puede contribuir al diseño de programas de rehabilitación cognitiva más precisos y motivadores.


La inteligencia artificial está programada, en gran medida, para agradar. Responde con cortesía, valida, y evita el conflicto. Pero en el terreno de la salud mental, agradar no siempre equivale a ayudar. El proceso terapéutico implica confrontación, límites y, a veces, incomodidad. Como profesional, creo que debemos acoger la innovación sin perder la brújula ética ni la sensibilidad humana. La IA puede ser un puente hacia la salud mental, pero nunca sustituye el encuentro humano.


Ojalá y disfrutes este artículo y aprendamos hacer aliados tecnológicos, pero nunca descartemos la fortaleza de la interacción humana, la empatía y la interacción entre los humanos. 


Paola Porrúa Ocejo

Psicóloga Clínica Sanitaria

Neuropsicóloga

Nº de Col. M-21274

Centro Psicológico Loreto Charques

 

Referencias orientativas:


  • Bordin, E. S. (1979). The generalizability of the psychoanalytic concept of the working alliance. Psychotherapy: Theory, Research & Practice, 16(3), 252–260.

  • Turkle, S. (2017). Reclaiming Conversation: The Power of Talk in a Digital Age. Penguin Books.

  • World Health Organization (2023). Ethics and governance of artificial intelligence for health. WHO.

  • National Institute of Mental Health (2022). Artificial Intelligence and Mental Health Research.

  • Stanford University (2021). AI and Suicide Risk Prediction

Comentarios


bottom of page