Titikey
뉴스OpenclawOpenClaw 개인 AI 어시스턴트를 끄는 사람이 늘어난 이유: 실행형 에이전트의 리스크

OpenClaw 개인 AI 어시스턴트를 끄는 사람이 늘어난 이유: 실행형 에이전트의 리스크

2026. 3. 23.
Openclaw

“직접 일을 대신 처리해주는” 개인 AI 에이전트 OpenClaw가 최근 화제다. 이메일, 캘린더 및 외부 서비스에 연결해 사용자의 지시를 실제 작업으로 전환할 수 있다. 일부 콘텐츠 크리에이터들은 몇 주 만에 ‘꿈의 비서’를 구축해 고객 응대, 인보이스 발행 같은 프로세스를 자동 처리하는 등 더 공격적인 활용 사례를 소개하며, 대화에서 실행으로 넘어가는 효율의 도약을 강조했다. 하지만 동시에 이런 에이전트 도구를 둘러싼 논의는 빠르게 ‘위험’으로 옮겨갔다. AI가 단순히 “답변”만 하는 게 아니라 “실행 권한”까지 갖게 되면, 잠재적 영향은 잘못된 정보 출력에 그치지 않고 사용자 데이터와 업무 프로세스에 직접 작용할 수 있기 때문이다.

한 사용자는 칼럼에서 OpenClaw를 중단한 두 가지 큰 이유로 소프트웨어 완성도의 부족보안 공백을 꼽았다. ‘완성도 부족’은 시스템이 아직 거칠고, 통제 가능성과 안정성이 충분하지 않다는 점에서 드러난다. 에이전트가 여러 앱을 가로질러 작업을 수행해야 할 때, 사용자는 스크립트를 감사하듯 각 단계의 동작을 명확히 검증하기가 어렵고, 한 번 오류가 나면 그 비용이 크게 확대될 수 있다. 더 핵심적인 것은 보안 문제다. 이런 도구는 이메일, 파일, 결제, 티켓(업무요청) 시스템 등 민감한 리소스에 대한 접근이 필요한 경우가 많아, 권한 설정이 부적절하면 데이터 노출이나 오작동으로 이어질 수 있다. 관련 보도에서도 OpenClaw 같은 자동화 에이전트가 외부 서비스에 광범위하게 연결될 수 있다는 점이 편의성과 위험 사이의 더 날카로운 트레이드오프를 만든다고 지적했다.

위험은 이론에만 머무르지 않는다. 공개 논의에서 한 사용자는 로봇에게 짧은 시간 동안 대량의 오래된 이메일을 삭제하도록 허용한 적이 있다고 말했는데, 이는 “실행”이 가져오는 되돌릴 수 없는 성격을 부각한다. 보안 연구자들도 경고한다. AI 에이전트 제품 자체나 그 기반이 되는 계정 체계가 침해될 경우, 공격자는 기존 권한을 활용해 에이전트를 통해 사용자를 대상으로 조작을 수행하고, 이를 효율적인 ‘자동화 공격 인터페이스’로 바꿔버릴 수 있다. 앞으로 개인 AI 에이전트가 주류로 가기 위해 필요한 것은 단순히 더 강한 성능만이 아니라, 기본값이 더 안전한 설계다. 더 세분화된 권한 제어, 강제 확인 및 롤백(되돌리기) 메커니즘, 추적 가능한 작업 로그, 그리고 고위험 동작에 대한 격리와 속도 제한이 ‘잘 되는 데모’에서 ‘오래 맡길 수 있는 도구’로 나아갈 수 있는지를 좌우할 것이다.