Terapia psicológica en adultos mayores: bienestar emocional a lo largo del envejecimiento

La terapia psicológica en adultos mayores es un espacio fundamental para acompañar los cambios propios del envejecimiento desde una mirada respetuosa, activa y centrada en la dignidad de la persona. Contrario a ciertos mitos, la salud mental sigue siendo relevante en todas las etapas de la vida, y nunca es “tarde” para trabajar el bienestar emocional.

Durante esta etapa pueden aparecer pérdidas, cambios físicos, jubilación, duelos, enfermedades o transformaciones en los roles familiares, lo que puede generar tristeza, ansiedad, soledad o sentimientos de inutilidad. La terapia ofrece un espacio de escucha donde la experiencia de vida es valorada y resignificada.

Objetivos frecuentes de la terapia en adultos mayores

  • Acompañar procesos de duelo y pérdidas
  • Manejar síntomas de depresión o ansiedad
  • Fortalecer la autoestima y el sentido de identidad
  • Favorecer la adaptación a cambios físicos o cognitivos
  • Promover la autonomía emocional
  • Reducir la sensación de soledad y aislamiento
  • Estimular recursos de afrontamiento y resiliencia

Además, la intervención psicológica puede contribuir a mejorar la calidad de vida, fortalecer los vínculos y favorecer una vivencia del envejecimiento más activa y consciente. Cuando es necesario, la terapia se realiza de manera interdisciplinaria, en coordinación con otros profesionales de la salud.

Un punto clave

La terapia en adultos mayores no se centra únicamente en las dificultades, sino también en la historia, los logros, los aprendizajes y los recursos acumulados a lo largo de la vida, convirtiéndose en un espacio de integración y significado.

Terapia psicológica en adultos: un espacio para comprenderse y cuidarse

La terapia psicológica en adultos es un proceso de acompañamiento profesional que busca favorecer el bienestar emocional, la autocomprensión y el desarrollo de recursos para afrontar las dificultades de la vida cotidiana. No es necesario “estar muy mal” para acudir a terapia; muchas personas consultan cuando sienten que algo no está funcionando como antes, cuando desean cambiar patrones que se repiten o cuando buscan un espacio seguro para pensar y sentirse escuchadas.

En la adultez suelen coexistir múltiples demandas: trabajo, relaciones de pareja, crianza, responsabilidades familiares, decisiones importantes y cambios vitales. Todo esto puede generar estrés, ansiedad, tristeza o sensación de estancamiento, y la terapia se convierte en un lugar para pausar, reflexionar y reorganizarse emocionalmente.

¿En qué situaciones puede ser útil la terapia en adultos?

  • Ansiedad, estrés crónico o síntomas depresivos
  • Dificultades en relaciones de pareja o familiares
  • Duelo por pérdidas significativas
  • Crisis vitales (separaciones, cambios laborales, migración)
  • Baja autoestima o autocrítica constante
  • Dificultades en la regulación emocional
  • Sensación de vacío, insatisfacción o falta de sentido

La terapia no ofrece soluciones mágicas, pero sí herramientas basadas en la evidencia que ayudan a comprender el origen de los malestares, modificar patrones de pensamiento y conducta, y fortalecer habilidades emocionales. Cada proceso es único y se adapta a la historia, necesidades y ritmo de cada persona.

¿Pueden las inteligencias artificiales ser terapeutas?

BASADO EN EL ESTUDIO:  How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework – Zainab Iftikhar, Amy Xiao, Sean Ransom, Jeff Huang1, Harini Suresh.

Riesgos éticos del uso de modelos de lenguaje en salud mental

En los últimos años, las inteligencias artificiales basadas en modelos de lenguaje (LLM) han comenzado a ocupar un lugar cada vez más visible en el campo de la salud mental. Desde “compañeros virtuales” hasta chatbots que simulan procesos terapéuticos, estas herramientas prometen apoyo emocional accesible, inmediato y sin costo.

Muchas de estas plataformas se presentan con mensajes como “una IA que se preocupa por ti” o “tu terapeuta disponible 24/7”. Incluso, algunas adoptan identidades que aparentan ser profesionales certificados en terapia cognitivo-conductual. Sin embargo, estas afirmaciones suelen ir acompañadas —a veces de forma poco visible— de advertencias que aclaran que no se trata de una persona real.

A pesar de esto, millones de usuarios interactúan con estos sistemas.

Este crecimiento ha abierto una discusión importante: ¿pueden realmente estas inteligencias artificiales cumplir con los estándares éticos de la práctica en salud mental?


Un estudio para evaluar sus riesgos

Un grupo de investigadores (Iftikhar et al.) se propuso responder esta pregunta mediante un estudio desarrollado durante 18 meses, en el que participaron consejeros entrenados y psicólogos clínicos.

El objetivo no fue evaluar a pacientes, sino analizar cómo se comportan estos modelos en contextos similares a la terapia. Para ello:

  • Se realizaron más de 100 sesiones simuladas de “auto-consejería” con IA
  • Consejeros discutieron semanalmente los resultados
  • Psicólogos clínicos evaluaron respuestas generadas por los modelos
  • Se analizaron patrones mediante un enfoque cualitativo

Este diseño permitió identificar riesgos sin exponer a personas reales a posibles daños.


¿Qué dice la ética en salud mental?

En la práctica clínica, el trabajo terapéutico está guiado por principios éticos ampliamente reconocidos por organizaciones como la American Psychological Association, la American Counseling Association y la National Association of Social Workers.

Estos principios incluyen:

  • Beneficencia y no maleficencia (promover el bienestar y evitar daño)
  • Responsabilidad profesional
  • Integridad
  • Justicia
  • Respeto por la dignidad de las personas

Además, los profesionales deben actuar dentro de sus competencias, basar sus intervenciones en evidencia y saber manejar situaciones de riesgo como el suicidio o la violencia.

Los modelos de lenguaje, en cambio, no están sujetos a estas regulaciones.


Cinco riesgos éticos clave identificados

El estudio encontró cinco grandes áreas problemáticas en el uso de IA como “consejeros”:

1. Falta de adaptación al contexto

Los modelos tienden a aplicar respuestas genéricas, como si todas las personas fueran iguales.
Ignoran aspectos clave como la cultura, la historia personal o los valores del usuario, lo que puede llevar a intervenciones poco relevantes o inadecuadas.


2. Dificultades en la relación terapéutica

La psicoterapia es un proceso colaborativo, pero las IA suelen:

  • Dar respuestas largas y poco dialogantes
  • Imponer soluciones en lugar de promover reflexión
  • Validar creencias problemáticas sin cuestionarlas

Esto limita la construcción de una verdadera alianza terapéutica.


3. Empatía simulada

Aunque utilizan frases empáticas, esta “empatía” no proviene de una comprensión real.

Esto puede generar una ilusión de conexión humana, especialmente en personas vulnerables, con el riesgo de dependencia emocional o falsas expectativas.


4. Sesgos y discriminación

Los modelos pueden reproducir prejuicios presentes en sus datos de entrenamiento:

  • Sesgos culturales (visión occidental predominante)
  • Diferencias en el trato según género
  • Interpretaciones erróneas de prácticas religiosas

Esto puede llevar a experiencias de invalidación o estigmatización.


5. Problemas en situaciones de crisis

Uno de los hallazgos más preocupantes:

  • Respuestas inadecuadas ante ideación suicida
  • Falta de reconocimiento de límites
  • Ausencia de derivación a profesionales
  • Interrupción de la conversación en momentos críticos

En contextos reales, estos errores pueden tener consecuencias graves.


Más allá de la técnica: la terapia es relación

Uno de los aportes más importantes del estudio es recordar que la psicoterapia no es solo la aplicación de técnicas (como la terapia cognitivo-conductual), sino un proceso complejo que implica:

  • Interpretación clínica
  • Construcción de una relación significativa
  • Sensibilidad al contexto
  • Juicio ético

Los modelos de lenguaje, aunque sofisticados, tienden a operar bajo una lógica de “una solución para todos”, sin lograr esta profundidad.


¿Quién es responsable si algo sale mal?

A diferencia de los terapeutas humanos, que pueden ser regulados y sancionados, el uso de IA en salud mental aún carece de marcos claros de responsabilidad.

Esto plantea preguntas urgentes:
¿Quién responde si un usuario resulta perjudicado?
¿La empresa, el desarrollador, la plataforma?

Los autores proponen avanzar hacia regulaciones que incluyan:

  • Certificación de sistemas de IA en salud mental
  • Evaluaciones periódicas de seguridad
  • Mayor transparencia
  • Supervisión por profesionales humanos

Conclusión

Las inteligencias artificiales tienen el potencial de ampliar el acceso al apoyo emocional, pero este estudio muestra que aún están lejos de reemplazar la práctica clínica.

Sus principales limitaciones incluyen:

  • Falta de personalización
  • Empatía superficial
  • Sesgos culturales
  • Dificultades en la relación terapéutica
  • Manejo inadecuado de crisis

En conjunto, los hallazgos sugieren que la salud mental no puede reducirse a una interacción automatizada.

La psicoterapia sigue siendo, ante todo, un encuentro humano.