“직접 일을 대신 처리해주는” 개인 AI 에이전트 OpenClaw가 최근 화제다. 이메일, 캘린더 및 외부 서비스에 연결해 사용자의 지시를 실제 작업으로 전환할 수 있다. 일부 콘텐츠 크리에이터들은 몇 주 만에 ‘꿈의 비서’를 구축해 고객 응대, 인보이스 발행 같은 프로세스를 자동 처리하는 등 더 공격적인 활용 사례를 소개하며, 대화에서 실행으로 넘어가는 효율의 도약을 강조했다. 하지만 동시에 이런 에이전트 도구를 둘러싼 논의는 빠르게 ‘위험’으로 옮겨갔다. AI가 단순히 “답변”만 하는 게 아니라 “실행 권한”까지 갖게 되면, 잠재적 영향은 잘못된 정보 출력에 그치지 않고 사용자 데이터와 업무 프로세스에 직접 작용할 수 있기 때문이다.
한 사용자는 칼럼에서 OpenClaw를 중단한 두 가지 큰 이유로 소프트웨어 완성도의 부족과 보안 공백을 꼽았다. ‘완성도 부족’은 시스템이 아직 거칠고, 통제 가능성과 안정성이 충분하지 않다는 점에서 드러난다. 에이전트가 여러 앱을 가로질러 작업을 수행해야 할 때, 사용자는 스크립트를 감사하듯 각 단계의 동작을 명확히 검증하기가 어렵고, 한 번 오류가 나면 그 비용이 크게 확대될 수 있다. 더 핵심적인 것은 보안 문제다. 이런 도구는 이메일, 파일, 결제, 티켓(업무요청) 시스템 등 민감한 리소스에 대한 접근이 필요한 경우가 많아, 권한 설정이 부적절하면 데이터 노출이나 오작동으로 이어질 수 있다. 관련 보도에서도 OpenClaw 같은 자동화 에이전트가 외부 서비스에 광범위하게 연결될 수 있다는 점이 편의성과 위험 사이의 더 날카로운 트레이드오프를 만든다고 지적했다.

