L’agent IA personnel OpenClaw, présenté comme capable de « faire des choses à votre place », s’est récemment fait remarquer : il peut se connecter à l’e-mail, au calendrier et à des services externes afin de transformer des consignes en actions concrètes. Certains créateurs de contenu ont montré des usages plus offensifs — construire en quelques semaines un « assistant de rêve » capable d’automatiser le support client, la facturation, etc. — en mettant en avant le gain d’efficacité du passage de la simple conversation à l’exécution. Mais en parallèle, le débat autour de ce type d’outils s’est vite déplacé vers les risques : lorsque l’IA ne se contente plus de « répondre » et dispose aussi de « droits d’exécution », son impact potentiel ne se limite plus à des informations erronées, et peut agir directement sur les données des utilisateurs et les opérations d’entreprise.
Dans une tribune, un utilisateur explique avoir cessé d’utiliser OpenClaw pour deux raisons principales : un manque de maturité logicielle et des lacunes de sécurité. Par « manque de maturité », il vise surtout un système encore brut, insuffisamment contrôlable et stable : quand l’agent doit enchaîner des actions dans plusieurs applications, il devient difficile pour l’utilisateur de vérifier clairement chaque étape comme on le ferait en auditant un script ; si une erreur survient, son coût peut être amplifié. Plus critique encore, la sécurité : ces outils doivent souvent accéder à des ressources sensibles (e-mails, fichiers, paiements ou systèmes de tickets), et une configuration de droits mal maîtrisée peut entraîner une exposition de données ou des actions non souhaitées. Des articles connexes soulignent aussi que la capacité d’OpenClaw et d’agents d’automatisation similaires à se connecter à de nombreux services externes rend l’arbitrage entre praticité et risque particulièrement tranchant.

