La empresa de inteligencia artificial Anthropic PBC filtró recientemente de manera accidental el código fuente interno de su popular asistente de codificación IA, Claude Code. Este incidente ocurrió durante un proceso de lanzamiento el martes por la noche. La compañía, que tiene la seguridad como núcleo de su marca, ha visto cómo esta filtración ha generado dudas sobre las prácticas de seguridad de los desarrolladores de modelos de IA. Según Bloomberg, Anthropic incluyó por error código que debería haber sido confidencial en una versión pública durante una actualización rutinaria de Claude Code, lo que llevó a la exposición de detalles internos del sistema.
Anthropic explicó posteriormente en un comunicado que la filtración se debió a un "error humano causado por un problema de empaquetado en el lanzamiento" y enfatizó que no se vieron comprometidos datos sensibles de clientes ni credenciales. El contenido filtrado involucra aproximadamente 1,900 archivos y 512,000 líneas de código, centrándose principalmente en el sistema subyacente de Claude Code. Este es el segundo error de seguridad de Anthropic en pocos días, tras un incidente similar anterior, lo que destaca los riesgos que las empresas de IA pueden enfrentar en iteraciones rápidas. La compañía está actuando con urgencia para limitar el impacto de la filtración y ha prometido revisar sus procesos de lanzamiento.


