L'assistant IA Claude, développé par la société Anthropic, est au cœur d'une controverse concernant la gestion des comptes utilisateurs. Selun un rapport de Forbes, plusieurs utilisateurs ont signalé que leurs comptes avaient été suspendus ou leurs abonnements résiliés silencieusement, sans explication détaillée. Parmi eux, Peter Steinberger, créateur de l'outil tiers populaire OpenClaw et actuellement employé d'OpenAI, a vu son compte personnel suspendu le 10 avril, la raison invoquée étant simplement la « détection d'un signal suspect ». Steinberger a déclaré que cela s'était produit alors qu'il effectuait des tests de compatibilité, après qu'un ingénieur d'Anthropic eut confirmé l'existence d'une faille dans leur système de classification.
Cette vague de suspensions intervient à un moment particulier. Des données antérieures montraient en effet qu'un nombre important d'utilisateurs migraient de ChatGPT vers Claude, en raison de considérations sur ses fonctionnalités et sa fiabilité, avec une augmentation stupéfiante de 1487 % du volume de conversations en mars. Cependant, ces événements de « déplateformisation » ont provoqué un mécontentement important chez les utilisateurs, qui dénoncent un manque de transparence des règles et l'absence de canaux de recours chez les fournisseurs de services d'IA. Un internaute se présentant comme un utilisateur payant intensif a déclaré qu'après avoir payé des frais élevés et avoir été bloqué, il n'avait reçu qu'une réponse générique, sans pouvoir connaître la raison précise de la sanction.


