Anthropic a dévoilé Claude Cowork, une nouvelle fonctionnalité permettant à son IA d’interagir directement avec les fichiers de l’ordinateur d’un utilisateur. Actuellement limité aux utilisateurs MacOS disposant d’un abonnement Claude Max de 100 $/mois, l’outil permet une organisation, une modification et une création de projets basées sur des données locales grâce à l’IA.
Ce que fait Claude Cowork
La fonction principale de Cowork est simple : les utilisateurs accordent à Claude l’accès à un dossier, puis demandent à l’IA via le chat de gérer son contenu. Cela inclut le renommage des fichiers selon des règles personnalisées, le tri des documents et même l’extraction de données pour créer des feuilles de calcul ou d’autres rapports.
Par exemple, un utilisateur disposant d’un répertoire de reçus pourrait demander à Claude de les organiser et de générer automatiquement une feuille de calcul des dépenses. L’IA peut également se connecter à des applications externes via des « connecteurs », lui permettant de créer des présentations ou d’autres projets directement à partir des données. Cowork s’intègre également à une extension Chrome, donnant accès aux tâches basées sur le navigateur.
L’essor de « l’IA agentique »
La décision d’Anthropic reflète une tendance plus large dans le développement de l’IA : le passage à des capacités « agentiques ». Plutôt que de simplement répondre aux invites, ces IA peuvent agir au nom de l’utilisateur, en automatisant des tâches telles que la réservation de voyages, la compilation de rapports ou même la passation de commandes. ChatGPT Agent et Gemini Agent offrent déjà des fonctionnalités similaires.
Selon Felix Rieseberg d’Anthropic, les utilisateurs réutilisaient déjà Claude Code (l’outil de codage de l’IA) pour des tâches quotidiennes comme les taxes et la gestion de fichiers. Cowork est conçu pour rationaliser ce processus.
Problèmes de sécurité et limitations
Anthropic souligne que Claude ne peut pas modifier les fichiers sans accès explicite. Cependant, la fonctionnalité est en version préliminaire (bêta), ce qui signifie que des conséquences inattendues sont possibles. L’entreprise conseille d’utiliser Cowork uniquement avec des données non sensibles.
Plus grave encore, l’IA reste vulnérable aux attaques par « injection rapide », où un code malveillant intégré dans des sites Web pourrait potentiellement détourner Claude et accorder un accès non autorisé aux fichiers locaux. Même si Anthropic prétend avoir construit des défenses, une attaque réussie pourrait exposer des informations sensibles.
L’émergence d’agents IA comme Claude Cowork soulève d’importantes questions sur la sécurité et la confiance des données. À mesure que ces outils deviennent plus puissants, le risque d’actions involontaires ou d’exploitation malveillante ne fera qu’augmenter.
En conclusion, Claude Cowork d’Anthropic représente une étape importante vers une assistance IA plus intégrée et automatisée. Cependant, ses limites actuelles et les risques potentiels pour la sécurité obligent les utilisateurs à procéder avec prudence.
