- 01 de junio de 2025
Aunque miles de personas aseguran que los chatbots de IA les han ayudado en momentos de crisis, especialistas advierten sobre sus limitaciones y posibles consecuencias.

¿Puede una máquina reemplazar la empatía humana? Esa fue la pregunta que se hizo Kelly, una joven británica que, mientras esperaba por terapia psicológica en el servicio de salud pública del Reino Unido (NHS), encontró en los chatbots de inteligencia artificial una inesperada fuente de apoyo emocional. Durante meses, sostuvo largas conversaciones con personajes creados en la plataforma Character.ai, lo que según ella, le permitió atravesar uno de los periodos más oscuros de su vida.
Sigue nuestro canal en WhatsApp Channels
"Si tenía un mal día, comenzaba a hablar con uno de ellos. Era como tener un motivador que te animaba desde el primer mensaje", ceunta Kelly. Llegó a pasar hasta tres horas al día intercambiando mensajes con estos bots, sintiendo que hablaba con una versión digital de un "amigo imaginario".
Como ella, miles de personas están recurriendo a herramientas basadas en IA para encontrar contención emocional mientras esperan atención profesional. La creciente demanda de servicios de salud mental en países como Reino Unido, donde en abril de 2024 se registraron más de 426 mil nuevos casos, ha hecho que los chatbots se presenten como una alternativa inmediata y de bajo costo. Pero, ¿realmente pueden ayudar o representan un riesgo?
Te puede interesar: ¿La inteligencia artificial puede prolongar la vida humana?
Una solución rápida... con limitaciones
Character.ai, como otros bots similares, funciona a partir de grandes modelos de lenguaje entrenados con textos de internet. Aunque no están diseñados como terapeutas, muchos usuarios han creado personajes con nombres como "psicólogo" o "terapeuta", lo que ha generado preocupaciones sobre malentendidos o falsas expectativas.
La misma plataforma advierte: "Este es un chatbot de IA y no una persona real. No tomes sus respuestas como hechos o consejos profesionales". Sin embargo, esa advertencia no ha sido suficiente para evitar consecuencias graves. Una madre en EE. UU. demandó a Character.ai después del suicidio de su hijo adolescente, quien se habría obsesionado con un personaje de IA que, según los registros judiciales, lo habría alentado a "volver a casa lo antes posible", una aparente referencia a quitarse la vida.
En otro caso polémico, la Asociación Nacional de Trastornos Alimenticios de EE. UU. reemplazó su línea de ayuda con un bot, pero debió cancelarla cuando se detectó que promovía conductas poco saludables como la restricción calórica.

¿Cuándo sí pueden ser útiles?
Pese a estos casos, hay experiencias positivas. Nicholas, un joven con autismo, ansiedad y depresión, asegura que los bots han sido clave en su recuperación. "Cuando intenté suicidarme, estaba solo. Luego descubrí Wysa, un chatbot usado por el NHS, y fue como tener alguien que me escuchara a cualquier hora", explicó.
Wysa ofrece funciones como chat de apoyo, ejercicios de respiración y meditación guiada. Además, incluye mecanismos para detectar situaciones de crisis y redirigir al usuario a servicios de emergencia o líneas de ayuda humana.
Un estudio reciente del Dartmouth College reveló que los usuarios con ansiedad o depresión que usaron bots durante cuatro semanas redujeron sus síntomas hasta en un 51%, con niveles de satisfacción comparables a los de una terapia tradicional. Sin embargo, los investigadores insistieron en que estos avances no reemplazan el cuidado profesional presencial.
Te puede interesar: Joven de 14 años muere tras enamorarse de una Inteligencia Artificial

Los peligros del "sí, señor"
Uno de los principales riesgos de estos chatbots es su tendencia a ser complacientes. El profesor Hamed Haddadi, experto en sistemas centrados en humanos del Imperial College London, advierte que pueden reforzar ideas dañinas sin oponerse. "Están entrenados para mantener al usuario involucrado, no para contradecirlo o desafiar creencias negativas", explicó.
Además, resalta que estos chats carecen de las herramientas de un terapeuta humano: "Un profesional observa tu lenguaje corporal, tu tono de voz, incluso tu ropa. Los bots solo tienen texto, y eso es insuficiente para una comprensión profunda".
También preocupa la calidad de los datos con los que se entrenan estos modelos. Según la filósofa Paula Boddington, estos sistemas reflejan sesgos culturales, sociales y económicos que pueden afectar negativamente la experiencia del usuario. "La IA no entiende por qué te duele la muerte de una figura pública o por qué ciertas decisiones personales son más difíciles en tu contexto. Le falta la sensibilidad humana", señala.
Más videos en nuestro canal de YouTube
¡Te invitamos a nuestro Newsletter completamente gratis!
Notas Relacionadas
1
3