OpenClaw, au cœur des discussions récentes dans le monde de l’IA, n’est pas un nouveau grand modèle, mais une plateforme d’agents IA : lancée par Peter Steinberger en novembre 2025, elle vise à permettre aux modèles existants de « passer à l’action » dans un environnement réel. Le milieu académique définit un « agent » comme une technologie capable d’exécuter des tâches de manière autonome pour l’utilisateur et de produire des changements concrets dans le monde extérieur ; la particularité d’OpenClaw est de pouvoir être configurée pour offrir à l’agent IA des autorisations plus poussées de contrôle de l’ordinateur.
Sur le plan fonctionnel, les utilisateurs peuvent, via le dialogue, demander à OpenClaw de trier les e-mails, mettre à jour le calendrier, rechercher des fichiers locaux, exécuter des services, ouvrir et piloter d’autres applications, prolongeant ainsi l’IA conversationnelle en workflows capables de s’exécuter dans la durée. Ces discussions ont également ravivé l’attention de l’industrie sur la « sécurité des agents » : par exemple, Cisco, en évoquant des outils de sécurité destinés aux agents IA, souligne que, pour une adoption à grande échelle, les agents IA ont besoin de garde-fous de sécurité et de confidentialité plus robustes afin de réduire les risques liés aux erreurs de manipulation ou aux dépassements de droits.

