EE.UU. recurrió a Claude, el bot de inteligencia artificial de la empresa Anthropic, en su agresión militar conjunta con Israel contra Irán, pese a la orden reciente del presidente Donald Trump de cesar su uso, informaron este domingo The Wall Street Journal y Axios citando a personas familiarizadas con el asunto.

Las fuentes indican que comandos de todo el mundo, incluido el Mando Central de EE.UU. (USCENTCOM, por sus siglas en inglés) en Oriente Medio, utilizan Claude. En este sentido, detallan que Washington utiliza dicha herramienta para evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla.

Compañía «radical de izquierda y ‘woke'»

Pentágono designa a Anthropic como "riesgo para la seguridad nacional"

El inquilino de la Casa Blanca instó este viernes a todas las agencias federales del Gobierno a que dejaran de utilizar inmediatamente la tecnología de Anthropic, asegurando que se trata de una compañía «radical de izquierda y ‘woke'».

Trump aseguró que desde Anthropic «han cometido un error desastroso al intentar presionar al Departamento de Guerra y obligarlo a obedecer sus términos de servicio» en lugar de la Constitución del país, lo que, según él, pone en peligro la vida de los estadounidenses, las tropas y la seguridad nacional.

En este sentido, ordenó a todas las agencias gubernamentales cesar «inmediatamente» todo uso de la tecnología de Anthropic, añadiendo que habrá un período de transición de seis meses para entidades como el Departamento de Guerra, que «utilizan los productos de esta compañía en diversos niveles».

«No los necesitamos, no los queremos y no volveremos a hacer negocios con ellos […] Más vale que Anthropic se ponga las pilas y colabore durante este período de transición, o utilizaré todo el poder de la Presidencia para obligarlos a cumplir, con las importantes consecuencias civiles y penales que ello conllevaría», advirtió.

  • El Pentágono y Anthropic están inmersos en una disputa sobre los límites que la compañía quiere imponer al uso que la entidad gubernamental hace de su modelo de inteligencia artificial Claude.
  • Anthropic ha rechazado las exigencias del Pentágono de que el modelo esté disponible para «cualquier uso legal», pueda desactivar las medidas de seguridad y permita que se utilice para la vigilancia masiva y el desarrollo de armas autónomas.
  • El Departamento de Defensa amenazó con cancelar su contrato de 200 millones de dólares con la compañía y considerarla un «riesgo para la cadena de suministro», si la empresa no cumplía con la solicitud antes del viernes.
  • El jueves, Anthropic declaró que «prácticamente no ha habido avances» en las negociaciones con el Gobierno y que «no puede cumplir» con sus exigencias. 

Para conocer todos los pormenores de la agresión masiva de Israel y EE.UU. a Irán, lea nuestro MINUTO A MINUTO