AI 서비스 영역에서 새로운 위험이 나타나고 있습니다: AI 디플랫폼링(플랫폼 퇴출). 이는 금융 분야의 디뱅킹(은행 서비스 중단)과 유사하게, 사용자가 플랫폼에 의해 일방적으로 서비스가 중단되고 합리적인 설명이 제공되지 않는 상황을 의미합니다. <포브스>지의 보도에 따르면 Anthropic의 AI 어시스턴트 Claude에서 최근 여러 건의 사용자 계정 차단 사건이 발생했으며, 이는 업계에서 AI 서비스의 신뢰도와 투명성에 대한 광범위한 관심을 불러일으켰습니다. 이러한 추세는 AI 도구가 점점 더 일상화됨에 따라, 플랫폼의 권력 집중이 사용자에게 예상치 못한 손실을 초래할 수 있음을 시사합니다.
구체적인 사례로, 오스트리아 개발자 Peter Steinberger가 호환성 기능을 테스트하는 동안 그의 개인 Claude 계정이 "의심스러운 신호"를 이유로 일시 정지되었습니다. 그런데 이전에 Anthropic 엔지니어들은 자체 시스템에 결함이 있음을 인정한 바 있습니다. 또한, 스스로를 장기 고급 사용자라고 밝힌 한 개인이 월 요금의 20배를 지불한 후에도 계정이 차단되었습니다. Reddit 포럼에서는 "계정 영구 정지, 300달러 요금 부과 이유 설명 없음"과 같은 논의가 나타나기도 했습니다. 이러한 사건들은 플랫폼의 자동화된 위험 관리 시스템의 허점과 사용자 권리 보호가 직면한 어려움을 부각시킵니다.


