Hegseth insta al Pentágono a desechar el sistema Claude de Anthropic, pero usuarios militares advierten sobre la complejidad
Hegseth wants Pentagon to dump Anthropic's Claude, but military users say it's not so easy Reuters
El exfuncionario del Departamento de Defensa, Pete Hegseth, ha solicitado públicamente que el Pentágono deje de utilizar el sistema de inteligencia artificial Claude, desarrollado por la empresa Anthropic. Según Hegseth, esta herramienta podría presentar riesgos de seguridad o no alinearse con los objetivos estratégicos de las fuerzas armadas estadounidenses, aunque no se han proporcionado detalles específicos sobre las razones concretas de su postura.
Sin embargo, usuarios militares que emplean actualmente el sistema Claude han señalado que abandonar esta tecnología no sería una tarea sencilla. Argumentan que la integración de Claude en operaciones y procesos del Pentágono ha alcanzado un nivel significativo, lo que dificultaría una transición rápida sin afectar la eficiencia y la continuidad de las misiones. Este punto de vista subraya la dependencia creciente de las instituciones de defensa en soluciones de IA avanzadas.
El debate refleja tensiones más amplias en la adopción de tecnologías emergentes por parte de gobiernos y ejércitos, donde se equilibran consideraciones de innovación, seguridad y viabilidad operativa. Aunque no se han revelado fechas o cifras específicas sobre el uso de Claude en el Pentágono, el caso ilustra los desafíos que enfrentan las organizaciones militares al evaluar y gestionar herramientas de IA en un entorno dinámico y de alto riesgo.