Recientemente, el asistente de IA Claude de Anthropic se ha visto envuelto en una controversia por la suspensión de cuentas de usuarios, y el fenómeno de desplatformización de IA se considera un nuevo desafío en la era digital. El desarrollador Peter Steinberger vio su cuenta personal suspendida por "señales sospechosas" mientras probaba la compatibilidad de la herramienta de terceros OpenClaw, a pesar de que ya conocía las vulnerabilidades del clasificador del sistema. Al mismo tiempo, usuarios comunes han reportado problemas similares, y uno que se describe como un usuario de pago a largo plazo afirmó que, después de un uso excesivo y pagar 20 veces la tarifa mensual, aún fue suspendido.
En el subreddit r/Anthropic de Reddit, han proliferado publicaciones con títulos como "Suscripción a Claude Max cancelada sin previo aviso", donde los usuarios se quejan de que sus cuentas fueron bloqueadas permanentemente sin explicación, e incluso se les cobró hasta 300 dólares. Esto refleja que los proveedores de servicios de IA, al combatir el abuso, pueden emplear sistemas automatizados que conduzcan a juicios erróneos, generando dudas entre los usuarios sobre la transparencia y equidad. El evento ocurre en un momento de rápido crecimiento en la base de usuarios de Claude, subrayando la urgencia de la gobernanza de la plataforma.


