La mise à jour de Claude 3.5 la plus marquante, c’est qu’elle fait passer l’IA de « savoir discuter » à « savoir agir ». Dans la bêta publique, Claude 3.5 peut lire le contenu affiché à l’écran, déplacer le curseur, cliquer sur des boutons et taper dans des champs de saisie pour réaliser des tâches guidées, étape par étape. Ci-dessous, une explication claire (avec un regard d’éditeur) des nouveautés de Claude 3.5, afin de t’aider à juger si ça mérite d’être pris en main tout de suite.
La nouvelle « utilisation de l’ordinateur » de Claude 3.5 : à quoi ça sert
Par « utilisation de l’ordinateur », on entend que tu donnes un objectif à Claude 3.5 et il exécute le flux d’interface comme un humain : il regarde d’abord l’écran, puis décide où cliquer et quoi saisir. C’est particulièrement adapté aux tâches qui nécessitent beaucoup d’étapes, comme remplir des champs un à un dans un back-office web, ou réorganiser des informations d’une page A vers un formulaire B. L’éditeur indique aussi clairement qu’il s’agit encore d’une capacité expérimentale : Claude 3.5 peut parfois « déraper », cliquer au mauvais endroit ou oublier une étape, d’où la nécessité de le recadrer au fil de l’exécution.
Disponibilité : API accessible, intégration multi-plateforme
Pour l’instant, la fonctionnalité d’utilisation de l’ordinateur de Claude 3.5 est proposée en bêta publique via l’API : les développeurs peuvent construire directement sur l’API d’Anthropic. En parallèle, Claude 3.5 est aussi disponible sur Amazon Bedrock et sur Vertex AI (Google Cloud), ce qui facilite l’intégration côté entreprise en s’appuyant sur l’architecture cloud existante. Pour une équipe, cela signifie que Claude 3.5 n’est pas qu’une démo : c’est une capacité qui peut entrer dans un système de workflow pour faire de l’automatisation.

