Anthropic fue la primera de las tech en aportar e integrar su tecnología en las redes clasificadas del Pentágono, pero se niega a dar capacidad operativa sin límites a la defensa norteamericana a través de Claude, chatbot de lenguaje a gran escala, para que sea utilizado en la vigilancia de ciudadanos o en sistemas armamentisticos autónomos.
Tras una reunión "tensa pero amable" que mantuvieron funcionarios del gobierno y representantes de la compañía, desde Anthropic comunicaron "su agradecimiento por el trabajo del Departamento y agradeció al secretario por su servicio", y agregaron que "continuamos las conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda seguir apoyando la misión de seguridad nacional del gobierno en línea con lo que nuestros modelos pueden hacer de forma fiable y responsable". Pero desde el Pentágono no quedaron satisfechos y exhortaron a Antrhopic a aceptar el uso militar de su tecnología sin restricción alguna, y le pusieron tiempo hasta este viernes para que acepte la “oferta” o se le impondrá la Ley de Producción de Defensa, que le concede al gobierno federal facultades excepcionales para obligar a los privados a que “colaboren” con las necesidades de seguridad nacional. La última vez que el gobierno utilizó este recurso fue durante la pandemia. También advirtieron a las autoridades de Antrhopic a calificarla “como un riesgo para la cadena de suministro, una designación normalmente reservada para empresas de países adversarios que podría perjudicar seriamente la reputación de la compañía y su capacidad para trabajar con el gobierno estadounidense” (La Nación, 25/2).
Desde Anthropic advirtieron que podrían abandonar las negociaciones e incluso se declararon dispuestos a resignar su contrato de U$D 200 millones con el Pentágono, si no se abordan las preocupaciones de la empresa sobre el uso de su tecnología para armas autónomas o vigilancia masiva. El conflicto entre Antrhopic y el Pentágono llegó a su punto ebullición por la utilización de la IA de la empresa en la operación que terminó en el secuestro de Nicolas Maduro el pasado 3 de enero. Los cuestionamientos de los directivos de Antrhopic al uso de manera discrecional de la IA en materia de defensa por el gobierno de EE. UU. se entrelazan con lo acaecido en 2021, cuando Amodei decidió romper su sociedad con Sam Altman, CEO de OpenAI, por divergencias sobre el enfoque de la seguridad de la IA y la gobernanza empresarial.
Concretamente lo que plantea el gobierno estadunidense a través de Hegseth es que los limitantes al uso de la IA de Antrhopic, y de las demas empresas tech, solo puede venir del lado de la ley y no del cercenamiento que pueda realizar la empresa al uso de la IA. Desde el Pentágono salieron a ventilar que otras empresas lideres en el rubro accedieron a las imposiciones del gobierno federal, marcando un contrapunto con la posición adoptada por Antrhopic. Desde la empresa argumentan que las limitaciones no afectarían el trabajo del Departamento.
En un ensayo recientemente publicado por Amodei, titulado “La adolescencia de la tecnología”, el CEO de Antrhopic adopta una posición pendular entre el optimismo y el catastrofismo. Por un lado rechaza el “doomerismo”, subcultura desarrollada en Internet que se caracteriza por un pesimismo extremo y fatalismo respecto al futuro, que centra su mirada en el colapsismo del medio ambiente, el derrotero de la crisis económica y el desarrollo ilimitado de la IA; y por el otro, ensaya una critica a la actual tendencia política y empresarial a minimizar los riesgos y centrarse exclusivamente en las beneficios económicos. (Dario Amodei —La adolescencia de la tecnología)
A pesar de los devaneos filosóficos o existenciales de Amodei, Antrhopic viene colaborando a paso firme con el sistema de defensa norteamericano, el cual destina millonarios recursos para poder llevar adelante una integración de la IA con su sitema de defensa, en una carrera a contrarreloj con China y para poder hacer frente a misiles hipersónicos, que se encuentran por fuera de la capacidad humana de reacción. Entre los países que poseen esta tecnología se encuentran rivales directo de los EE. UU., China, Rusia y Corea del Norte. Al día de hoy EE. UU. solo tiene programas en desarrollo o investigación de este tipo de misiles.
Los recientes conflictos bélicos, como la guerra ruso-ucraniana o el genocidio perpetrado por Israel sobre Gaza, han dado cuenta del lugar estratégico que ocupa el uso de la IA en las conflagraciónes armadas en curso y en las venideras. Un alto oficial del Cuerpo de Inteligencia de las Fuerzas de Defensa de Israel (FDI) declaró, al inicio del genocidio del pueblo de Gaza, que "por primera vez, la inteligencia artificial fue un componente clave y un multiplicador de poder en la lucha contra el enemigo".
Lucas Giannetti
26/02/2026

No hay comentarios.:
Publicar un comentario