L'assistant IA Claude, développé par Anthropic, est actuellement au cœur d'une controverse concernant la suspension de comptes utilisateurs. Ce phénomène de « déplateformisation » de l'IA est perçu comme un nouveau défi à l'ère numérique. Le développeur Peter Steinberger a vu son compte personnel suspendu pour « signaux suspects » alors qu'il testait la compatibilité de l'outil tiers OpenClaw, et ce, bien qu'il ait été préalablement informé des vulnérabilités du classificateur du système. Parallèlement, des utilisateurs ordinaires signalent des problèmes similaires. L'un d'eux, se présentant comme un abonné payant de longue date, affirme avoir été banni après une utilisation excessive, malgré le paiement d'une facture représentant 20 fois son abonnement mensuel.
Sur le forum r/Anthropic de Reddit, les publications au titre évocateur comme « Mon abonnement Claude Max a été résilié sans préavis » se multiplient. Les utilisateurs se plaignent de comptes définitivement fermés sans explication, et de prélèvements pouvant atteindre 300 dollars. Cette situation reflète la possibilité que les fournisseurs de services d'IA, dans leur lutte contre les abus, aient recours à des systèmes automatisés entraînant des erreurs de jugement, ce qui suscite des interrogations sur la transparence et l'équité. Ces événements surviennent à un moment où le nombre d'utilisateurs de Claude connaît une croissance rapide, soulignant l'urgence pour les plateformes de revoir leur gouvernance.


