Anthropic demanda al Pentágono por conflicto sobre uso de IA en operaciones militares
AI developer Anthropic has challenged the decision to designate the company a “supply-chain risk to national security” Read Full Article at RT.com
La desarrolladora de inteligencia artificial Anthropic presentó una demanda contra el Pentágono y el secretario de Guerra de Estados Unidos, Pete Hegseth, impugnando la decisión de la administración Trump de designar a la empresa como un riesgo para la seguridad nacional y vetar su tecnología en todo el gobierno federal.
La demanda, presentada el lunes en el Tribunal de Distrito de Estados Unidos para el Distrito Norte de California, argumenta que la administración excedió su autoridad legal y tomó represalias contra la empresa por negarse a eliminar salvaguardas que regulan cómo sus sistemas de IA pueden ser utilizados por el ejército.
Anthropic solicita al tribunal que declare ilegales las acciones del gobierno y bloquee las medidas, que según la empresa amenazan con causar un daño "irreparable" a una de las compañías de IA de "crecimiento más rápido" y más "responsable" del mundo.
El conflicto legal surge de la supuesta negativa de la empresa a levantar restricciones que impiden que sus modelos sean utilizados para vigilancia masiva doméstica o armas completamente autónomas.
El 27 de febrero, el presidente de Estados Unidos, Donald Trump, ordenó a las agencias federales dejar de usar la tecnología de Anthropic, acusándola de estar dirigida por "locos de izquierda". Poco después, Hegseth designó formalmente a la empresa como un "riesgo para la cadena de suministro de seguridad nacional", una etiqueta normalmente reservada para empresas vinculadas a adversarios extranjeros.
La administración ha argumentado que la negativa de la empresa a modificar sus modelos para que puedan ser utilizados para "todos los fines militares legales" plantea riesgos operativos al darle a un contratista privado influencia sobre la toma de decisiones en el campo de batalla. La demanda de Anthropic cuestiona esa caracterización, afirmando que las acciones de la administración equivalen a represalias punitivas por un desacuerdo político sobre la gobernanza de la IA.
Anteriormente, la empresa era la única desarrolladora de IA autorizada para implementar modelos de lenguaje extenso en las redes clasificadas del Pentágono, donde su sistema Claude apoyaba el análisis de inteligencia y la planificación operativa bajo contratos valorados en hasta 200 millones de dólares.
Claude también habría desempeñado un papel clave en la planificación y ejecución de la redada dirigida contra el presidente venezolano Nicolás Maduro, así como en los ataques estadounidenses-israelíes a Irán lanzados apenas horas después de que Trump vetara a la empresa.
Bajo la orden de la administración, se instruyó a las agencias federales a eliminar gradualmente la tecnología dentro de seis meses mientras realizan la transición a proveedores alternativos de IA. Anthropic afirmó que la dependencia continua de sus sistemas durante ese período socava la afirmación del gobierno de que la empresa representa una amenaza inmediata para la seguridad.