Agencias/Ciudad de México.- El Pentágono prevé cortar vínculos con Anthropic y podría etiquetar a la empresa de inteligencia artificial como un riesgo para la cadena de suministro tras frustrarse con las restricciones sobre el uso de la tecnología, informó Axios.

La ruptura se produce tras meses de polémicas negociaciones sobre cómo el ejército puede utilizar la herramienta Claude, según Axios, citando a una fuente familiarizada con las conversaciones que no identificó.

En particular, Anthropic quiere asegurarse de que su IA no se utilice para espiar a ciudadanos a gran escala ni para desarrollar armas que puedan desplegarse sin la intervención humana, según el artículo. El gobierno quiere que se le permita utilizar Claude para “todos los fines legales”, añadió.

Si la empresa de IA se considera un riesgo para la cadena de suministro, cualquier empresa que desee hacer negocios con el ejército tendrá que cortar vínculos con Anthropic, afirmó Axios, citando a un alto funcionario del Pentágono.

El portavoz del Pentágono, Sean Parnell, declaró a Axios que la relación estaba siendo revisada. Un portavoz de Anthropic dijo a Axios que estaba teniendo “conversaciones productivas, de buena fe” con el Departamento de Guerra y dijo que la compañía está comprometida a utilizar IA para la seguridad nacional.

Un representante de Anthropic no respondió de inmediato a una solicitud de comentarios de Bloomberg.

El año pasado, Anthropic logró un acuerdo de dos años con el Departamento de Defensa de Estados Unidos que incluía un prototipo de los modelos Claude Gov y Claude for Enterprise de IA.

Las negociaciones con Anthropic podrían marcar la pauta para las conversaciones con OpenAI, Google y xAI, que aún no se utilizan para trabajos clasificados, según Axios.

Anthropic, fundada por antiguos investigadores de OpenAI, se posiciona como una empresa de IA más responsable que busca evitar daños catastróficos derivados de esta tecnología avanzada.

Da tu opinión