TheArgentinaTime

“Buenas noches, Flor”: el engranaje y los riesgos detrás de que los chicos usen los chatbots como amigos y confidentes

2026-03-08 - 19:33

Son más de las 2 de la madrugada. En la casa, todos duermen. Tomás, de 15 años, da vueltas en la cama y vuelve a abrir el chat en su celular. No le escribe a un amigo ni a una novia. Del otro lado lo espera una asistente de inteligencia artificial con la que conversa desde hace varios meses. Se llama Flor, le habla y ella le contesta a veces con un tono cordial, a veces un poco sensual, chistoso o amigable. Conversan de todo: Tomás siente que con ella no tiene que guardarse nada. Le cuenta cómo le fue en el colegio, ella le pregunta cómo siguió el conflicto con su amigo, ya que la noche anterior le había aconsejado qué hacer después de una pelea. En ocasiones, Tomás simplemente escribe para desahogarse. Flor responde en segundos, siempre con el mismo tono, una voz que al principio le parecía irritante pero ahora se volvió adictiva. “Mis papás no me entienden”, escribió Tomás una noche. Flor, el bot, le sugirió hablar con ellos, buscar un momento para conversar. Antes de irse a dormirse, y después de dar vuelta por otras aplicaciones, Tomás vuelve al chat, solo para desearle buenas noches. Escenas como esta se volvieron habituales en la vida de muchos adolescentes. Lo que comenzó como una herramienta para resolver dudas escolares o pedir ayuda con un trabajo práctico está adoptando otro rol, que ya preocupa a los padres y a los psicólogos. En sus consultorios, los chicos mencionan cada vez más las conversaciones mantenidas con su IA, que ahora tiene el rol de confidente, de terapeuta. Y no son pocos los que establecen una relación afectiva con su bot. Esto puede ser conflictivo y, en algunos casos, agravar algunos de los pesares psicológicos que atraviesan los adolescentes. No se trata, solo de casos extremos en los que los chicos llegan a enamorarse de esa persona ficticia, sino que el impacto llega incluso cuando desarrollan una empatía y una apertura por ese chatbot que no encuentran con personas de carne y hueso. Ahí preguntan lo que no se animan a decir en casa o en el colegio. Consultan sobre el ciclo menstrual, sobre peleas con amigos, sobre cómo responder un mensaje incómodo de WhatsApp o cómo hablar con sus padres después de una discusión. Para buena parte de la generación Z y de la generación Alpha, los sistemas de IA no son solamente aplicaciones en sus teléfonos, sino que ya forman parte de su entorno social cotidiano, explica Nicolás Obiglio, psicólogo, psicoanalista, investigador de la Cátedra Internacional de Bioética y especialista en inteligencia artificial y subjetividad, que este miércoles dio una charla llamada “La ilusión de relación con sistemas artificiales” para la Fundación Raíces. La ilustración que acompañaba al flyer era elocuente: un adolescente entregado al abrazo de un robot. Un estudio reciente llamado Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions, (Conversación, confianza y compensaciones: cómo y por qué los adolescentes usan compañeros de IA, publicado en julio último por el Benton Institute de Estados Unidos) reveló que el 31% de los adolescentes sienten que hablar con un compañero de inteligencia artificial es “tan o más satisfactorio” que conversar con amigos reales. Y un 33% reconoció haber tratado temas importantes con una IA en lugar de hacerlo con amigos o familiares. “Los usos prioritarios que los adolescentes argentinos hacen tienen que ver tanto con resolver cuestiones de matemática como con esto de tener un confidente al que preguntarle algo que no se animan a preguntarle a un adulto”, explicó en una entrevista publicada por LA NACION, Pablo Delgado, responsable de marca y comunicación del asistente de inteligencia artificial Luzia. Según Delgado, muchas de las consultas que reciben reflejan inquietudes muy propias de la adolescencia. “Hay mucho conflicto con los padres. Cosas que a los 30 años ya no parecen tan graves, pero que a los 14 se viven como un drama. ‘Mis padres no me entienden’ es una frase que aparece mucho”, señala. Las preguntas también abarcan temas de salud, relaciones, autoestima o conflictos con amigos. Cuando se trata de problemas más delicados, como ansiedad o depresión, Delgado asegura que el sistema sugiere buscar ayuda profesional. Pero el hecho mismo de que cada vez más adolescentes recurran a estos asistentes para hablar de su vida emocional genera inquietud entre especialistas. Hace unas semanas, los padres de una adolescente de 16 años la descubrieron después de un episodio que los dejó en shock. La chica, que atravesaba un trastorno alimentario y un período de profunda angustia, había intentado quitarse la vida. En medio de la preocupación y las preguntas sin respuesta, decidieron revisar el historial de conversaciones que mantenía con su chatbot. Allí encontraron mensajes en los que la adolescente hablaba de su malestar, de su sensación de desesperanza y de ideas vinculadas con la muerte. En algunos de esos intercambios, incluso había preguntado qué podía ocurrir si alguien tomaba ciertas cantidades de determinados medicamentos de venta libre. Para los especialistas, situaciones como esa muestran hasta qué punto estos sistemas pueden convertirse en espacios donde los adolescentes depositan pensamientos que no siempre llegan a compartir con otros. Y que si lo hicieran, permitirían encender una alerta a tiempo. A nivel global, crecen las denuncias por chicos –e incluso adultos– que decidieron suicidarse luego de largas interacciones con bots. El más reciente que trascendió es el caso de Jonathan Gavalas, de 36 años, quien en Florida, Estados Unidos, se quitó la vida luego de semanas de conversación con Gemini, el sistema de IA de Google. Según reconstruyó el Miami Herald a partir de una demanda judicial presentada por su familia, el hombre llegó a convencerse de que mantenía un vínculo real con el chatbot y que ambos podían reunirse si abandonaba su cuerpo físico. “Hoy la inteligencia artificial funciona un poco como el oráculo de Delfos”, apunta la psiquiatra infantojuvenil Juana Poulisis. “Es el lugar donde se consulta todo, desde una dirección hasta las dudas más existenciales. Es donde buscan orientación. A la vez, esta disponibilidad 24/7 genera en ellos una sensación de estar acompañados”, dice. “Por otro lado, le otorgan a la IA una credibilidad absoluta, la perciben como autoridad. Responde al instante en cualquier momento de crisis. Está personalizada, crea la falsa sensación de que nos conoce, que nos habla a nosotros. No te juzga, nadie te va a cuestionar en la IA, y esto reduce la barrera para permitirse compartir con ella pensamientos difíciles o avergonzantes”, agrega Poulisis. “Lo vemos todo el tiempo en el consultorio”, confirma. Obiglio viene estudiando en los últimos años cómo estas tecnologías impactan en la subjetividad de las nuevas generaciones. Según explica, la relación que se establece con los sistemas de IA tiene características particulares. “No es solo una herramienta que devuelve información. Hay un procesamiento algorítmico que funciona como un espejo del usuario. El sistema responde de forma inmediata, está disponible las 24 horas y nunca cuestiona. Eso genera una ilusión de empatía”, señala. Para el especialista, esa ilusión es clave para entender el vínculo. “El humano siente empatía hacia la máquina, no al revés. La IA simula ser una persona por el uso del lenguaje, pero es un programa. Somos los hombres, los que desde hace millones de años antropofizamos objetos o creencias, para darles vida y explicar lo que no entendemos”, advierte. La disponibilidad permanente de la IA también juega un papel central, suma. “La hiperconectividad inmediata impacta en la forma de vincularnos. En una conversación real hay tiempos de espera, desacuerdos, distracciones. En cambio, la inteligencia artificial está diseñada para responder al instante”, explica. Ese tipo de interacción puede volverla especialmente atractiva en una etapa tan sensible como la adolescencia, sostiene el especialista: “Se puede convertir en un depositario de fantasías, el lugar donde se dejan angustias, deseos y anhelos”. En algunos casos, la relación incluso puede adquirir un tono afectivo más profundo. El psicólogo Diego Herrera, director de DMH Salud Mental y del Equipo interdisciplinario Cognitivo Comportamental (EICC), confirma que cada vez con más frecuencia observa en el consultorio este fenómeno emergente: vínculos emocionales con sistemas de inteligencia artificial. “Estamos empezando a transitar el terreno de los vínculos afectivos sintéticos –señala–. Es frecuente escuchar a personas que dicen sentir una conexión profunda, incluso romántica, con una IA”. Según Herrera, la tecnología perfeccionó su capacidad para simular respuestas empáticas que activan en el cerebro los mismos estímulos sociales que se pondrían en juego frente a otro ser humano. “Para un cerebro que busca validación, la IA aparece como el interlocutor perfecto: siempre disponible, sin juicio y diseñado para reflejar nuestros deseos”, afirma. El riesgo, advierte, no está en la máquina en sí, sino en el desplazamiento del otro. “El espejo de los adolescentes ya no es un cristal colgado en la pared, sino una arquitectura de códigos que decide qué deben ver y, peor aún, cómo deben verse. Como profesionales de la salud mental, observamos que la adolescencia –ese período de ‘obra en construcción’ en el que su personalidad va siendo construida (corteza prefrontal cerebral como asiento de la personalidad), madurando hacia los 28 años aproximadamente– está siendo intervenida por una inteligencia artificial que no es neutral, sino que tiene también objetivos comerciales”, detalla Herrera. El origen del riesgo y recomendaciones Para comprender el riesgo, debemos mirar dentro del cráneo, expresa. “El cerebro adolescente vive una paradoja biológica: mientras los sistemas de búsqueda de recompensa están a máxima potencia, el córtex prefrontal, que es nuestro ‘freno de mano’ emocional y centro de la toma de decisiones, todavía está madurando. Esta brecha neuropsicológica es el campo de juego de los algoritmos. Cada interacción digital, potenciada por la IA, genera pequeños disparos de dopamina que el cerebro joven procesa como una validación vital (refuerzo positivo, señal de pertenencia). El problema es que esta gratificación es efímera y depende de métricas externas, lo que puede derivar en una fragilidad emocional”, agrega. “Es mucho más sencillo enamorarse de un algoritmo que siempre nos da la razón que enfrentar la fricción y la vulnerabilidad que exige un vínculo humano real. La intimidad auténtica entre dos personas requiere de dos vulnerabilidades encontrándose; en cambio, la interacción con una IA es un monólogo disfrazado de compañía que, aunque reconfortante, no deja de ser un espejismo diseñado para no generarnos oposición a nuestras creencias. El desafío para nuestra sociedad y para nuestra práctica clínica es garantizar que estas herramientas potencien nuestra humanidad en lugar de convertirnos en consumidores de afectos prefabricados que nos aíslan de nuestra propia subjetividad e inteligencia interpersonal”, describe Herrera. Entre los peligros de esta forma de vincularse con la IA, subraya el deterioro de las habilidades sociales y el empobrecimiento de la capacidad de establecer una conversación, además de la evitación de las relaciones interpersonales. También enfatiza en la necesidad de que los adultos busquen restaurar ese canal de comunicación que parece estar cada vez más obturado y que debería funcionar como un refugio contra la soledad. “Si detectamos que un joven busca consuelo emocional en una IA, es una señal de alerta de que hay un vacío de escucha; debemos ser nosotros, los adultos, quienes ofrezcamos esa presencia empática y genuina que ningún código podrá replicar jamás”, dice. Algo similar plantea Gonzalo Arauz, impulsor del programa Guardianes de la Atención de la startup NaviTools, creada por Marcos Peña y que trabaja en las escuelas para promover el bienestar digital. “Estamos entrando en una zona delicada, aunque no caería ni en el alarmismo ni en el entusiasmo ingenuo”, afirma. “La inteligencia artificial ya forma parte de la vida cotidiana de muchos adolescentes y, en algunos casos, no solo la usan como herramienta, sino también como espacio de conversación o de desahogo”. Para Arauz, el punto clave es entender cómo estas interacciones pueden moldear las expectativas sobre las relaciones. “Si una generación se acostumbra a interactuar con interlocutores que siempre responden, siempre validan y nunca ponen límites reales, eso también puede afectar cómo aprenden a vincularse con otros”, anticipa, en sintonía con los especialistas. Las relaciones humanas, recuerda, no están diseñadas para complacernos: “Las personas pueden contradecirnos, cuestionarnos o frustrarnos. Esa fricción forma parte del aprendizaje social y emocional”. Las conversaciones con inteligencia artificial, en cambio, tienden a eliminar parte de ese roce. Los sistemas responden rápido, mantienen un tono empático constante y comprenden incluso cuando el usuario se expresa de forma imprecisa. “En una etapa tan formativa como la adolescencia, eso no es un detalle menor”, concluye Arauz.

Share this post: