Titikey
AccueilActualitésOpenclawPourquoi certains utilisateurs désactivent l’assistant personnel OpenClaw

Pourquoi certains utilisateurs désactivent l’assistant personnel OpenClaw

23/03/2026
Openclaw

L’agent IA personnel OpenClaw, présenté comme capable de « faire des choses à votre place », s’est récemment fait remarquer : il peut se connecter à l’e-mail, au calendrier et à des services externes afin de transformer des consignes en actions concrètes. Certains créateurs de contenu ont montré des usages plus offensifs — construire en quelques semaines un « assistant de rêve » capable d’automatiser le support client, la facturation, etc. — en mettant en avant le gain d’efficacité du passage de la simple conversation à l’exécution. Mais en parallèle, le débat autour de ce type d’outils s’est vite déplacé vers les risques : lorsque l’IA ne se contente plus de « répondre » et dispose aussi de « droits d’exécution », son impact potentiel ne se limite plus à des informations erronées, et peut agir directement sur les données des utilisateurs et les opérations d’entreprise.

Dans une tribune, un utilisateur explique avoir cessé d’utiliser OpenClaw pour deux raisons principales : un manque de maturité logicielle et des lacunes de sécurité. Par « manque de maturité », il vise surtout un système encore brut, insuffisamment contrôlable et stable : quand l’agent doit enchaîner des actions dans plusieurs applications, il devient difficile pour l’utilisateur de vérifier clairement chaque étape comme on le ferait en auditant un script ; si une erreur survient, son coût peut être amplifié. Plus critique encore, la sécurité : ces outils doivent souvent accéder à des ressources sensibles (e-mails, fichiers, paiements ou systèmes de tickets), et une configuration de droits mal maîtrisée peut entraîner une exposition de données ou des actions non souhaitées. Des articles connexes soulignent aussi que la capacité d’OpenClaw et d’agents d’automatisation similaires à se connecter à de nombreux services externes rend l’arbitrage entre praticité et risque particulièrement tranchant.

Ces risques ne restent pas théoriques. Dans des discussions publiques, certains utilisateurs disent avoir autorisé le bot à supprimer en peu de temps un grand volume d’anciens e-mails, illustrant le caractère irréversible lié à l’« exécution ». Des chercheurs en sécurité avertissent également que si un produit d’agent IA — ou le système de comptes sur lequel il s’appuie — est compromis, un attaquant pourrait exploiter les autorisations existantes pour manipuler l’agent contre l’utilisateur, et en faire une « interface d’attaque automatisée » très efficace. À terme, pour que les agents IA personnels se généralisent, l’enjeu n’est pas seulement d’être plus capables, mais d’être plus sûrs par défaut : un contrôle des permissions plus granulaire, des confirmations obligatoires et des mécanismes de retour arrière, des journaux d’actions traçables, ainsi que l’isolation et la limitation des actions à haut risque détermineront s’ils peuvent passer d’une « démo convaincante » à un outil digne d’une confiance durable.