TheArgentinaTime

Renunció la jefa de hardware de OpenAI por el acuerdo con el Pentágono

2026-03-09 - 14:23

Caitlin Kalinowski, quien supervisabael área de hardware de ‌OpenAI, anunció su ‌dimisión ⁠el sábado, alegando su preocupación por el acuerdo de la empresa con el Departamento de Defensa estadounidense. En una ​publicación en ⁠las ⁠redes sociales en X, Kalinowski escribió que OpenAI no se tomó ​el tiempo suficiente antes de aceptar implementar sus modelos ‌de IA en las redes cloud clasificadas ​del Pentágono. I resigned from OpenAI. I care deeply about the Robotics team and the work we built together. This wasn’t an easy call. AI has an important role in national security. But surveillance of Americans without judicial oversight and lethal autonomy without human authorization are... — Caitlin Kalinowski (@kalinowski007) March 7, 2026 “La IA tiene ​un papel importante en la seguridad nacional”, publicó Kalinowski. “Pero la vigilancia de los estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son cuestiones que merecían más deliberación de la que recibieron”. Reuters no ​pudo contactar inmediatamente con Kalinowski para recabar sus comentarios, pero ella escribió en ⁠X que, aunque tiene un “profundo respeto” por el director ejecutivo de OpenAI, Sam Altman, ‌y por el equipo, la empresa anunció el acuerdo con el Pentágono “sin definir las salvaguardias”, publicó. “Es ante todo una cuestión de gobernanza”, escribió Kalinowski en una publicación posterior en X. “Son demasiado importantes como para precipitarse en acuerdos o anuncios”. OpenAI dijo al día siguiente ‌de cerrar el acuerdo que este incluye salvaguardias adicionales para proteger sus ⁠casos de uso. La empresa reiteró el sábado que ‌sus «líneas rojas» impiden el uso de su tecnología en ⁠la vigilancia nacional o en armas autónomas. “Reconocemos ⁠que la gente tiene opiniones muy firmes sobre estas cuestiones y seguiremos participando en debates con los empleados, el Gobierno, la sociedad civil y las comunidades de todo el mundo", afirmó la ‌empresa en una declaración ​a Reuters. Kalinowski se incorporó a OpenAI en 2024 tras liderar el desarrollo de hardware de realidad aumentada en Meta Platforms. Anthropic, empresa de riesgo Unos días antes, el jueves, el Pentágono impuso una designación formal de riesgo para la cadena de suministro al laboratorio deinteligencia artificial Anthropic, lo que limita el uso de una tecnología que, según una ‌fuente, se usaba para operaciones militares en Irán. La ‌etiqueta ⁠de “riesgo para la cadena de suministro”, confirmada en un comunicado de Anthropic, entra en vigor de inmediato y prohíbe a los contratistas del Gobierno utilizar la tecnología de Anthropic en su trabajo para el ejército estadounidense. Sin embargo, las empresas pueden seguir utilizando Claude de Anthropic en otros proyectos no ​relacionados con el ⁠Pentágono, según escribió el director ⁠ejecutivo Dario Amodei en el comunicado. Dijo que la designación tiene “un alcance limitado” y que las restricciones solo se aplican al uso de la IA deAnthropic ​en los contratos del Pentágono. “Se aplica claramente solo al uso de Claude por parte de los clientes como parte directa de los contratos con el ‌Departamento de Guerra, no a todo el uso de Claude por parte de los clientes que tienen ​dichos contratos". La designación de riesgo se produce tras una sobre la insistencia de ​la empresa en establecer salvaguardias que, según el Departamento de Defensa, denominado por el Gobierno de Trump como Departamento de Guerra, iban demasiado lejos. En su comunicado, Amodei reiteró que la empresa impugnaría la designación ante los tribunales. En los últimos días, Anthropic y el Pentágono han discutido posibles planes para que el Pentágono deje de utilizar Claude, dijo Amodei en el comunicado del jueves. Ambas partes han hablado de cómo Anthropic podría seguir colaborando con el ejército sin desmantelar sus salvaguardias, añadió. Sin embargo, en una publicación en la red social X el ​jueves por la noche, el director de tecnología del Pentágono, Emil Michael, dijo que no hay ninguna negociación activa delDepartamento de Defensa con Anthropic. Amodei también se disculpó por una nota interna publicada el miércoles por el sitio web de noticias tecnológicas ⁠TheInformation. En la nota, escrita originalmente el viernes pasado, Amodei dijo que a los dirigentes del Pentágono no les gustaba la empresa, en parte porque “no hemos elogiado a Trumpal estilo de un dictador”. La publicación ‌de dicha nota se produjo mientras los inversores de Anthropic se apresuraban a contener el daño causado por la ruptura de la empresa con el Pentágono. El Departamento de Defensa no respondió inmediatamente a las solicitudes de comentarios. La medida supuso una reprimenda extraordinaria por parte de EEUU contra una empresa tecnológica estadounidense que se adelantó a sus rivales a la hora de trabajar con el Pentágono. Se produce en un momento en el que el departamento sigueconfiando en la tecnología de Anthropic para prestar apoyo a operaciones militares, entre ellas las de Irán, según una fuente cercana. Es probable que Claude se esté utilizando para analizar información de inteligencia y ayudar en la planificación operativa. Un portavoz de Microsoft dijo que los abogados ‌de la empresa estudiaron la designación y concluyeron: “Los productos de Anthropic, incluido Claude, pueden seguir estando disponibles para nuestros clientes, excepto para el Departamento de Guerra, a través de plataformas como ⁠M365, GitHub y Microsoft AIFoundry". Microsoft puede seguir colaborando con Anthropic en proyectos no relacionados con la defensa, añadió el portavoz. Amazon, inversor en Anthropic y cliente ‌importante del modelo Claude de la empresa, no respondió inmediatamente a una solicitud de comentarios fuera del horario laboral habitual. Maven Smart Systems de Palantir, ⁠una plataforma de software que proporciona a los ejércitos análisis de inteligencia y objetivos para armas, utiliza múltiples indicaciones y ⁠flujos de trabajo que se crearon utilizando el código Claude de Anthropic, según informó anteriormente Reuters. Anthropic fue la más agresiva de sus rivales a la hora de cortejar a los responsables de la seguridad nacional de EEUU. Sin embargo, la empresa y el Pentágono llevan meses en desacuerdo sobre cómo el ejército puede utilizar su tecnología en el campo de batalla. Este conflicto salió a la luz a principios de este año. Anthropic se ha negado a dar marcha atrás en la prohibición de que su IA Claude se ‌utilice para armas autónomas y la vigilancia masiva en EEUU. El Pentágono ha ​respondido diciendo que debería poder utilizar esta tecnología según sea necesario, siempre que cumpla con la legislación estadounidense. La etiqueta de “riesgo para la cadena de suministro” otorga ahora a Anthropic un estatus que Washington había utilizado hasta ahora para referirse a adversarios extranjeros. EEUU tomó una medida similar para eliminar al gigante tecnológico chino Huawei de las cadenas de suministro del Pentágono. Reuters

Share this post: