Anthropic divulge par erreur le code source de l'agent IA Claude : la réputation de sécurité mise à l'épreuve
Anthropic, l'entreprise d'intelligence artificielle, a accidentellement exposé le code source interne de son assistant de codage IA Claude Code. Cet incident remet en question son engagement prioritaire en matière de sécurité, bien que la société affirme qu'il s'agit d'une simple erreur humaine liée à l'emballage des versions.
Anthropic : fuite accidentelle du code source de Claude AI, la réputation de sécurité ébranlée
La société d'IA Anthropic PBC a involontairement divulgué le code source interne de son assistant de codage Claude, soulevant des inquiétudes sur ses pratiques de sécurité. Pourtant axée sur la priorité sécurité, cette erreur humaine liée à un problème de packaging a exposé près de 1 900 fichiers et 512 000 lignes de code. Anthropic affirme qu'il ne s'agit pas d'une vulnérabilité, mais c'est un second incident en quelques jours.
Claude Double ses Abonnements Payants en 2026 et Domine le Classement de l'App Store
Anthropic annonce une croissance significative des utilisateurs de Claude au premier semestre 2026. Selon TechCrunch, le nombre d'abonnés payants a plus que doublé. Cette période coïncide avec une controverse impliquant l'entreprise, tandis que Claude atteignait la tête du classement des applications gratuites sur l'App Store américain.
Claude d'Anthropic : les abonnements payants doublent en 2026, une croissance vigoureuse confirmée
Le nombre d'abonnés payants de Claude, l'assistant IA d'Anthropic, a plus que doublé au premier semestre 2026, une croissance record. Un porte-parole l'a confirmé à TechCrunch, liant cet essor à une pub au Super Bowl, des lancements produits et un conflit public avec le Pentagone. L'app Claude a même dominé les téléchargements sur l'App Store américain.


