El uso de herramientas de IA para tratar problemas personales puede generar validación de conductas negativas
2026-03-26 - 18:40
En medio del creciente uso de herramientas de inteligencia artificial para resolver dudas cotidianas, también ha emergido una tendencia que preocupa a expertos: su utilización como espacio de desahogo emocional y búsqueda de orientación psicológica. De acuerdo con datos recientes de OpenAI, compañía que opera la herramienta ChatGPT, se han identificado riesgos en la salud mental en aproximadamente el 0,07 % de los usuarios de esta plataforma, lo que equivale al menos a 560.000 personas. La cifra pone sobre la mesa una práctica cada vez más extendida: acudir a sistemas automatizados no solo para resolver preguntas técnicas, sino para hablar de problemas personales, emociones y conflictos internos. Sin embargo, especialistas advierten que este tipo de uso puede resultar contraproducente. Diana Camila Garzón Velandia, profesora de la Facultad de Psicología de la Universidad Católica de Colombia, es enfática en señalar que no es recomendable que las personas jóvenes utilicen herramientas de inteligencia artificial como ChatGPT, Claude o Gemini para tratar asuntos personales o emocionales. Según explica, aunque estas plataformas ofrecen respuestas inmediatas y accesibles, carecen de elementos fundamentales en el abordaje psicológico profesional. Uno de los principales riesgos identificados es lo que la experta denomina “complacencia y validación”. Garzón Velandia explicó que, en algunos casos, la inteligencia artificial puede llegar a justificar conductas poco adaptativas o poco funcionales para las personas. A diferencia de un psicólogo, que no solo identifica patrones y variables comunes, sino que también confronta al paciente cuando es necesario, la IA tiende a evitar ese tipo de intervención crítica. “En algunos casos, la IA puede incluso justificar conductas poco adaptativas para las personas”, advirtió la académica, al tiempo que subrayó que esa ausencia de confrontación puede reforzar comportamientos, creencias o sesgos que resulten perjudiciales. A este panorama se suma la preocupación por el manejo de la información. Según la profesora, el uso ético de los datos es otro punto crítico. Mientras los profesionales de la psicología están sujetos a regulaciones éticas y legales estrictas sobre el tratamiento de información personal, en el caso de la inteligencia artificial no existe una normativa clara en este aspecto. Esto implica que datos sensibles, que no son de dominio público, pueden ser utilizados para entrenar algoritmos o incluso para otros fines no especificados. Además, el manejo de las emociones por parte de estas herramientas es limitado. Los usuarios pueden compartir información profundamente personal, incluyendo contenidos delicados o legalmente sensibles, sin que exista un criterio ético sólido o un juicio adecuado para gestionar esas interacciones. Esto, según los expertos, abre la puerta a posibles prácticas poco éticas en la relación entre usuario y sistema. Pese a estos riesgos, muchos jóvenes continúan recurriendo a la inteligencia artificial como alternativa a la atención psicológica tradicional. Las razones, según Garzón Velandia, son diversas. Por un lado, existe la percepción de que estas herramientas “entienden” a las personas sin juzgarlas, lo que facilita la apertura a cualquier tema de conversación sin temor a la crítica. “Las personas sienten que la IA las entiende y que no las va a juzgar”, señaló la experta. Sin embargo, esta aparente ventaja puede convertirse en un problema, ya que la ausencia de cuestionamiento puede derivar en la validación de conductas o pensamientos que requieren revisión profesional. Otro factor relevante es el acceso a la terapia. La profesora indicó que muchas personas perciben la atención psicológica como costosa o difícil de obtener, tanto en Colombia como en otros contextos. A esto se suma el desconocimiento sobre los distintos enfoques de la psicología, lo que limita la búsqueda de ayuda especializada. En este contexto, los chats basados en inteligencia artificial aparecen como una opción inmediata, gratuita y disponible en cualquier momento. No obstante, esta accesibilidad no sustituye la complejidad del proceso terapéutico. Entre los riesgos más relevantes para la salud mental de los jóvenes, la experta destacó la falta de contexto en las recomendaciones generadas por la IA. Muchas estrategias de regulación emocional, aceptación o tolerancia al malestar requieren una evaluación específica y estructurada, que permita adaptar las intervenciones a cada caso particular. “Al no existir una evaluación estructurada ni una integración adecuada de información objetiva del usuario, las recomendaciones pueden tener vacíos importantes”, explicó Garzón Velandia. Asimismo, influyen factores como las creencias alejadas de la realidad y la falta de autocrítica, especialmente en jóvenes cuyas habilidades de metacognición y regulación emocional aún están en desarrollo. En estos casos, la inteligencia artificial puede no reconocer adecuadamente las necesidades del usuario ni ofrecer estrategias pertinentes.