El recientemente comentado OpenClaw en el mundo de la IA no es un nuevo gran modelo, sino una plataforma de agentes de IA: lanzada por Peter Steinberger en noviembre de 2025, con el objetivo de que los modelos existentes adquieran la capacidad de “hacer cosas” en entornos reales. En el ámbito académico, se define un “agente” como una tecnología capaz de ejecutar tareas de forma autónoma para el usuario y producir cambios reales en el mundo externo; la característica de OpenClaw es que puede configurarse para ofrecer al agente de IA permisos más profundos de operación del ordenador.
A nivel funcional, los usuarios pueden, mediante conversación, pedir a OpenClaw que organice correos, actualice el calendario, busque archivos locales, ejecute servicios, abra y opere otras aplicaciones, extendiendo así la IA conversacional hacia flujos de trabajo ejecutables de manera continua. Este debate también ha impulsado la atención del sector sobre la “seguridad de los agentes”: por ejemplo, Cisco señaló al hablar de herramientas de seguridad orientadas a agentes de IA que, para su adopción a gran escala, los agentes necesitan protecciones más completas de seguridad y privacidad para reducir los riesgos derivados de errores operativos o acciones fuera de permiso.

