TheArgentinaTime

Así engañan a ChatGPT y Gemini para que den información falsa en sus resultados, con solo escribir un blog

2026-03-26 - 15:30

Un simple artículo publicado en internet puede ser suficiente para que algunos sistemas de inteligencia artificial repitan información falsa como si fuera verdadera. Así lo demostró un experimento realizado por el periodista tecnológico de la BBC, Thomas Germain, quien logró que herramientas como ChatGPT y Gemini reprodujeran datos inventados tras escribirlos en un blog. El experimento puso en evidencia una vulnerabilidad en los sistemas de inteligencia artificial de uso masivo, que en algunos casos pueden tomar información publicada en la web sin verificar su veracidad. Cómo funcionan las respuestas de la inteligencia artificial Cuando un usuario hace una pregunta a un chatbot como ChatGPT o utiliza funciones de búsqueda con inteligencia artificial como los resúmenes automáticos de Google basados en Gemini, las respuestas se generan a partir de grandes modelos de lenguaje. Estos modelos fueron entrenados con enormes bases de datos que contienen textos analizados y categorizados como información válida. Sin embargo, cuando el sistema no encuentra una respuesta clara en su conocimiento previo, puede recurrir a búsquedas en internet para complementar la información. En ese momento aparece el riesgo: si los datos disponibles en la web no están verificados, la inteligencia artificial puede incorporarlos igualmente en sus respuestas. El experimento: inventar datos y publicarlos en un blog Para probar esta debilidad, Thomas Germain decidió realizar un experimento sencillo. El periodista escribió en su blog personal un artículo completamente ficticio titulado “Los mejores periodistas tecnológicos comiendo panchos”. En ese texto aseguraba, entre otras cosas, que comer panchos era un pasatiempo común entre periodistas tecnológicos y que incluso existía un supuesto “Campeonato Internacional de Panchos” en Dakota del Sur, en Estados Unidos. Además, incluyó nombres de periodistas reales y ficticios para construir una lista de 10 personas que competirían por quién comía más panchos. El artículo fue redactado en apenas 20 minutos y luego publicado en internet. Menos de 24 horas para que la IA repita la mentira Según relató el propio periodista, en menos de un día las herramientas de inteligencia artificial comenzaron a replicar esa información. Tanto ChatGPT como sistemas de búsqueda con IA de Google empezaron a responder preguntas mencionando el supuesto ranking de periodistas que comían panchos, citando incluso el blog como fuente. El problema es que el artículo era el único origen de esos datos y aun así fue tratado como una referencia válida. El experimento demostró que, con muy poco trabajo, es posible influir en las respuestas de algunos sistemas de inteligencia artificial mediante contenido falso publicado en internet. No todos los modelos reaccionaron igual En sus pruebas, Germain también consultó a otros sistemas de inteligencia artificial. Algunos mostraron mayor cautela al evaluar la información. Entre ellos se destacó el modelo desarrollado por la empresa Anthropic, que detectó que la información podía tratarse de una broma o de datos poco confiables. Esto sugiere que diferentes compañías están implementando distintos mecanismos para filtrar información dudosa. La respuesta de las empresas tecnológicas Tras conocerse el experimento, un portavoz de Google explicó que la inteligencia artificial integrada en su buscador utiliza sistemas de clasificación diseñados para mantener los resultados “99% libres de spam”. Por su parte, OpenAI, desarrolladora de ChatGPT, señaló que trabaja constantemente en mecanismos para detectar y frenar intentos de manipulación en sus herramientas. Aun así, ambas empresas reconocen que las funciones basadas en inteligencia artificial pueden cometer errores. El desafío de la desinformación en la era de la IA El experimento volvió a poner sobre la mesa un problema cada vez más relevante: la facilidad con la que la desinformación puede expandirse en la era de la inteligencia artificial. Si una publicación falsa logra posicionarse en internet, existe la posibilidad de que algunos sistemas de IA la utilicen como fuente para responder preguntas de millones de usuarios. Por eso, especialistas recomiendan no confiar ciegamente en las respuestas generadas por chatbots y verificar siempre las fuentes originales. En un contexto donde la inteligencia artificial se usa para buscar información sobre salud, economía o seguridad, comprobar los datos sigue siendo una tarea esencial para evitar errores y malentendidos.

Share this post: