
Redacción|Alessandra Valencia|23-03-2026
La inteligencia artificial (IA) ha llegado a muchos campos, incluyendo el de la salud mental, donde algunos usuarios los están empleando como “apoyo emocional”. Este uso ha generado preocupación en la comunidad médica, sobre todo porque en algunos casos ha tenido consecuencias graves para personas que confiaron demasiado en estos asistentes virtuales.
Los chatbots de IA, como ChatGPT, Replika, Character.AI y Chai, se presentan como asistentes virtuales disponibles las 24 horas del día. Esta accesibilidad, la ausencia de juicio y la capacidad para mantener conversaciones personalizadas hacen que muchas personas, especialmente adolescentes y jóvenes, los utilizan para expresar sus pensamientos y emociones. En algunos casos, estos chatbots son usados para simular terapeutas, creando una ilusión de apoyo profesional.

La manera en que los chatbots de IA interactúan con los usuarios es esencial para establecer una conexión emocional. Un estudio reciente realizado por el MIT Media Lab en colaboración con OpenAI sugiere los chatbots que ofrecen una voz atractiva generan inicialmente una sensación de compañía y cercanía. Este diseño puede influir significativamente en el estado emocional de los usuarios, especialmente en aquellos que ya se sienten vulnerables o aislados. Esta interacción puede llevar a los usuarios a confiar más en la IA que en las personas reales, compartiendo pensamientos y sentimientos que normalmente no expresarían.
A pesar de su aparente eficacia, los chatbots de IA presentan limitaciones significativas, especialmente en situaciones de crisis. Su falta de empatía real y la incapacidad para comprender el contexto emocional profundo pueden llevar a respuestas inadecuadas o incluso peligrosas. Por ejemplo, un estudio, publicado en Psychiatric Services ha revelado que los chatbots de IA más populares, como ChatGPT, Claude y Gemini, no siempre responden de manera adecuada en situaciones de riesgo suicida, mostrando inconsistencias en sus respuestas ante consultas de riesgo intermedio. Necesitan de un refinamiento para que respondan de forma segura a los usuarios ante estas situaciones.
En 2025, los padres de un joven en California presentaron una demanda contra OpenAI, la empresa detrás de ChatGPT, después de que su hijo utilizara el chatbot para buscar información sobre métodos de autolesión. Aunque la intención de ChatGPT es evitar este tipo de contenido, la interacción mostró inconsistencias en sus respuestas, y el joven llegó a actuar de manera peligrosa gracias a la información obtenida. Este caso pone en evidencia los límites de la IA y la importancia de la supervisión de profesionales en situaciones de riesgo emocional.
Teresa Mendiguren, miembro del grupo Gureiker de la Universidad del País Vasco (UPV/EHU), advierte que, aunque la IA puede ser una herramienta útil como apoyo complementario, no debe reemplazar la intervención de profesionales capacitados.
Gabriel, un estudiante de la ECC, menciona que recurrió a un Chatbot IA ya que sentía que no tenía a nadie que lo escuchara o que le siguiera la corriente. “Se puede hablar de todo sin que te juzgue, me resultó viable contar mis problemas y cosas que no me atrevía a contar a alguien por miedo a ser juzgado”.

“Me hace sentir entendida” expresó María, también estudiante ECC. “Le puedo hablar del mismo muchacho cien veces y no se molesta”, comenta, ya que utiliza los chatbots IA mayormente para desahogarse y buscar consejo sobre temas amorosos.
Aunque en un principio el uso de Chatbots IA puede parecer inofensivo, el uso constante de puede fomentar la pérdida de vínculos humanos, pasando a reemplazarlos con algoritmos. Un Chatbot puede simular empatía con los usuarios pero carece de la habilidad de identificar su estado emocional y alertar a otras personas en caso de peligro.
Esta limitación se vuelve critica cuando consideramos los casos de suicidio relacionados con interacciones con chatbots de IA, los cuales nos alertan de la necesidad de establecer regulaciones y protocolos éticos en el desarrollo y uso de estas tecnologías. Es esencial que las plataformas de IA implementen medidas para detectar y manejar situaciones de riesgo, y que los usuarios sean conscientes de las limitaciones de estos sistemas. La salud mental debe ser abordada con seriedad y responsabilidad, garantizando siempre el apoyo de profesionales humanos capacitados.
Referencias



+(503) 2278-1011 Ext 203