TheArgentinaTime

Decisiones letales: cuando la IA va a la guerra

2026-03-22 - 03:10

Si te avisan que no quedaste seleccionado para un trabajo, ¿sería peor o mejor saber que prefirieron a una máquina? Si un sistema de alerta de terremotos falla, ¿le echarías la culpa al sistema o a quienes lo desarrollaron? ¿Reaccionarías distinto si un acto de discriminación lo cometiera una máquina en lugar de un humano? Son todas preguntas sobre cómo juzgamos las decisiones de las máquinas, que el físico chileno César Hidalgo exploró en un libro de 2021. Hoy se volvieron más urgentes que nunca, porque la IA es protagonista de decisiones de vida o muerte en la guerra en Irán. Los conflictos bélicos siempre fueron laboratorios tecnológicos, y la inteligencia artificial no es la excepción. Ucrania fue, tal vez, el primer gran campo de prueba de drones autónomos y visión computacional. Pero Irán es la primera guerra en la cual un modelo de lenguaje está integrado en el sistema que sugiere objetivos militares en tiempo real. Según el Wall Street Journal, Claude -el modelo de inteligencia artificial de Anthropic- opera dentro de Maven Smart System, la plataforma de inteligencia de Palantir, que fue usada por el Comando Central de los Estados Unidos para analizar blancos y simulación de escenarios de combate. El Washington Post reportó que este sistema permitió atacar mil objetivos en las primeras 24 horas, resolviendo planificaciones que llevaban semanas en operaciones de minutos. Cuando las decisiones letales ocurren a la velocidad de un chat, el rol humano en la cadena de mando se puede volver parecido al de quien aprieta “aceptar” sin leer los términos y condiciones. Hoy, Anthropic y el gobierno de Trump están sumidos en una pelea regulatoria, pero hay una pregunta que va a sobrevivir: ¿Qué personalidad debería tener una IA que va a la guerra? La investigación sobre estas decisiones es reciente e inquietante. Un estudio publicado en 2025 en Scientific Reports, del grupo editorial Nature, hizo un experimento con cadetes de la Real Academia Militar de Bélgica entrenados en derecho humanitario internacional. En un simulador de campo de batalla debían decidir si atacar o no, basándose en imágenes aéreas con puntos de colores: rojos para enemigos, naranjas para civiles. En las situaciones más ambiguas –en las que los expertos militares solo elegían atacar el 20 por ciento de las veces– los cadetes en su mayoría seguían masivamente la recomendación de la IA, fuera cual fuese. Y cuando se les preguntaba cuánta responsabilidad sentían, reportaban sentirse menos responsables cuando había IA de por medio. Obedecer al algoritmo diluía la culpa. Hidalgo había mostrado que tendemos a exculpar a las máquinas, porque no les asignamos intención. Pero eso era antes de que las máquinas conversaran con nosotros, tuvieran nombre y personalidad. Claude fue diseñado con valores explícitos de honestidad y cuidado, con una ética, pero al mismo tiempo fue implantado en un sistema bélico. Hoy, Anthropic y el gobierno de Trump están sumidos en una pelea regulatoria, pero hay una pregunta que va a sobrevivir: ¿Qué personalidad debería tener una IA que va a la guerra? El tema recién empieza y viene para largo. La tecnología no solo apuntala victorias en el campo de batalla, sino también en los negocios asociados. Un ejemplo paradigmático es Eric Schmidt, un ex CEO de Google que hoy asesora al Pentágono y, al mismo tiempo, fundó una startup que fabrica drones kamikaze. No es el único caso en el que negocios, gobierno y tecnología se mezclan. Google, OpenAI, Meta y Anthropic tuvieron cláusulas explícitas en sus términos de uso que prohibían la aplicación militar de sus modelos, pero todas las eliminaron, en silencio, entre 2024 y 2025. Schmidt compara la IA bélica con la energía nuclear: una tecnología que cambia la naturaleza misma del conflicto. Pero la bomba atómica no tenía valores incorporados, ni conversaba con los soldados antes de explotar. Esa es una nueva combinación, bastante explosiva por cierto. La autora es directora de Sociopúblico

Share this post: