Un especialista en IA analizó las primeras imágenes del líder supremo iraní y reveló si es actual
2026-03-21 - 10:40
En medio de la escalada en Medio Oriente, la difusión de una supuesta imagen reciente del líder supremo iraní volvió a poner el foco en la veracidad del contenido que circula en redes y medios. En ese contexto, el especialista en inteligencia artificial (IA) Fredi Vivas analizó el material y planteó dudas sobre su actualidad, al tiempo que explicó las diferencias entre desinformación y contenido manipulado con tecnología. Durante una entrevista en LN+, el experto señaló que no existe un método automático infalible para determinar si una imagen es real o no. “No tengo un algoritmo para detectar si la imagen es real”, afirmó, y aclaró que es clave distinguir entre fake news —cuando se reutiliza material fuera de contexto— y los llamados deep fakes, que sí implican el uso de inteligencia artificial para generar contenido falso. Cómo se analiza una imagen en tiempos de IA Vivas explicó que, frente a la proliferación de imágenes y videos que circulan en redes sociales, los investigadores recurren a métodos que combinan tecnología y análisis manual. Según detalló, una de las herramientas disponibles permite subir imágenes a sistemas para obtener información sobre el entorno o posibles ubicaciones. Sin embargo, aclaró que el proceso de verificación es más complejo. “Los especialistas toman los videos, los miran miles de veces para ver el entorno, lo mapean, lo dibujan y lo comparan con plataformas tipo Google Maps”, describió. Este trabajo, que definió como “bastante artesanal”, es hoy una de las principales formas de validar si un contenido es auténtico. En paralelo, advirtió sobre el crecimiento de herramientas capaces de generar escenas hiperrealistas. “Vemos videos de situaciones tremendas donde se puede superponer una explosión en un lugar real. Es totalmente realista, parece una producción de Hollywood”, señaló. Desinformación, redes sociales y el rol del engagement El especialista también apuntó contra la lógica de viralización en plataformas digitales, donde —según indicó— la veracidad del contenido muchas veces queda en segundo plano. “Si es verdad lo que publica la gente en X, no importa. Lo importante es el engagement”, sostuvo. En esa línea, mencionó el caso de Grok, la herramienta de inteligencia artificial de la red social X, impulsada por Elon Musk, y advirtió que los incentivos actuales favorecen la circulación de contenido impactante, incluso cuando no está verificado. “Hay creadores que comparten videos como si fueran reales para conseguir clics”, explicó. La imagen difundida y la “otra guerra” Por su parte, el analista internacional Andrés Repetto aportó otra mirada sobre la imagen del líder supremo iraní, Mojtabah Jamenei, difundida por la televisión estatal de ese país. Según indicó también en LN+, el material presenta características inusuales. Explicó que la imagen incluye una marca negra en una esquina —vinculada al luto por la muerte de dirigentes iraníes—, no tiene sonido y no se conoce la fecha en que fue registrada. “De todas las imágenes que se han difundido, es la primera que veo de estas características”, señaló. Andres Repetto en LN+ Además, subrayó que la aparición del material se da en un contexto donde también circulaban versiones sobre el estado físico del líder. “Se decía que estaba desfigurado, pero nunca lo habíamos visto”, remarcó. Para Repetto, este tipo de contenidos forma parte de una disputa más amplia en el plano comunicacional. “Es la otra guerra, la que se libra a través de la pantalla”, afirmó, en referencia a cómo los distintos actores del conflicto buscan mostrar poder, enviar mensajes políticos y construir relato.