Anthropic filtra código secreto de Claude AI por error humano
Anthropic, respaldada por Amazon, filtró 500.000 líneas de código interno de Claude Code por error humano, exponiendo funciones no lanzadas y datos de rendimiento.
El gigante de IA Anthropic, respaldado por Amazon, ha publicado por error su código interno altamente confidencial, lo que desencadenó una oleada de reescrituras en GitHub y podría infligir daños comerciales catastróficos. El desarrollador del chatbot Claude describió el incidente como un problema de lanzamiento "causado por error humano, no una violación de seguridad", según el sitio de noticias tecnológicas estadounidense VentureBeat el martes.
La filtración involucró más de 500.000 líneas de código vinculadas a Claude Code, el asistente de codificación de IA de Anthropic, que ayuda a los usuarios a escribir y gestionar software mediante comandos de lenguaje natural, según Axios y The Verge. El material incluía funciones no lanzadas, datos de rendimiento y notas de desarrolladores. El código se propagó rápidamente en línea, con versiones colocadas en la plataforma de intercambio de código GitHub y replicadas miles de veces en horas, según Ars Technica y The Verge.
Anthropic actuó para eliminar el material y emitió avisos de retirada, pero ya había sido ampliamente copiado y circulado, según los informes. Según VentureBeat, al exponer los "planos" de Claude Code, la filtración puede haber dado a "malos actores" un "mapa de ruta" para eludir controles de seguridad o engañar a la herramienta para ejecutar comandos ocultos o acceder a datos sin el conocimiento del usuario.
Anthropic fue designada como un "riesgo para la seguridad nacional" por el Secretario de Defensa de EE.UU., Pete Hegseth, en febrero tras desacuerdos con el Pentágono sobre el uso de sus sistemas de inteligencia artificial. Una filtración de datos separada reportada en febrero expuso materiales internos que revelaban detalles del modelo no lanzado de Anthropic, conocido como Claude Mythos, después de que miles de documentos borradores quedaran accesibles en un caché de datos público.