Les agents IA arrivent

Hubert Guillaud

Ces dernières semaines, des avancées significatives ont été réalisées dans le domaine des agents IA capables d’utiliser des ordinateurs, des services web ou certaines de leurs fonctionnalités de manière autonome. Anthropic a lancé une fonction dédiée. OpenAI préparerait Operator et ChatGPT s’interface déjà avec des applications. Google travaillerait à Jarvis. L’enjeu est de faire sortir l’IA des fenêtres de discussion où elle est assignée, explique Dharmesh Shah, le cofondateur de HubSpot dans sa lettre d’information sur l’IA, Simple.ai. Désormais, elles vont pouvoir accomplir des actions concrètes, sans même avoir besoin d’API dédiées : ces agents vont pouvoir faire ce que chacun d’entre nous peut faire depuis un ordinateur (prendre un rendez-vous, commander quelque chose à notre place, interconnecter des services entre eux…). Pour les développeurs et entrepreneurs, cela signifie que les feuilles de routes de produits IA à venir doivent dès à présent intégrer ces nouvelles capacités, explique l’entrepreneur à ses pairs, qui a déjà lancé une plateforme d’agents IA, prêtes à l’emploi.

Dans sa newsletter, One Useful Thing, le professeur de management et d’innovation, Ethan Mollick, auteur du livre Co-Intelligence, analyse également la promesse des agents intelligents après avoir testé Claude, l’IA d’Anthropic. Que se passe-t-il quand on confie une souris à une IA ? Mollick a fait jouer Claude au jeu du trombone en lui demandant simplement de gagner. Pour Mollick, l’expérience illustre les forces et faiblesses des agents actuels. D’un côté, l’agent a été capable de jouer, de développer une stratégie et de l’exécuter. De l’autre, l’agent se montre facilement têtu, très sensible aux erreurs et au final peu perspicace. Il faut bien plus le guider que laisser en autonomie.

MAJ du 06/12/2024 : Sur son blog, Fred Cavazza revient également sur la nouvelle promesse de l’économie de l’agentivité… en rappelant qu’elle permet de renouveler la promesse des chatbots et de l’IA générative, en perte de vitesse. En faisant le point sur le paysage et ses acteurs, il en souligne également les limites. A savoir, que l’automatisation annoncée va nécessiter l’accord des plateformes et des applications pour que les robots puissent accéder aux services, ce qui n’est pas assuré. Ensuite, que malgré les promesses de simplification, pour l’instant, il n’est pas sûr que la programmation des agents se destine au grand public.

MAJ du 20/12/2024 : Nous devrions élaborer une stratégie de gouvernance avant que les agents ne déferlent sur le monde, estime le consultant Afek Shamir dans TechPolicy. Nous allons passer des chatbots qui peuvent dire n’importe quoi, à des agents capables d’exécuter des instructions malfaisantes. Pour y répondre, les autorités devraient prendre les devants, par exemple en exigeant dès à présent des mécanismes de traçabilité ou des régimes de responsabilité. L’une des idées à mettre en œuvre pourrait être par exemple de créer une infrastructure d’identification des agents ou des procédures de tests préalables à leurs déploiements.

MAJ du 23/12/2024 : Le journaliste Richard Waters du Financial Times s’inquiète du risque d’une rencentralisation sans précédent que fait planer l’arrivée des agents intelligents. Par exemple, App Intents d’Apple cherche à obliger les développeurs à adapter leurs applications pour qu’elles soient compatibles avec l’IA d’Apple, permettant au système d’Apple de fonctionner entre les applications sans que les utilisateurs n’aient besoin de les ouvrir. Quand les IA pourront accéder à vos applications et leurs fonctionnalités, vous n’aurez plus besoin de les utiliser, au risque de voir toutes les applications reléguées au statut de filiales des grands systèmes d’IA, prévient le journaliste. A terme, l’agentivité reposerait sur une poignée d’assistants polyvalents, agissant comme des super-applications, dominant toutes les autres. Le risque de cette concentration sans précédent est bien avant tout celui d’un nouveau défi de régulation.

MAJ du 09/01/2025 : Le Washington Post revient à son tour sur le développement des agents et explique que cette technologie obligera les gens « à exposer une plus grande partie de leur vie numérique aux entreprises, ce qui pourrait entraîner de nouveaux problèmes de confidentialité et de sécurité ». On commence à voir apparaître des premières versions limitées d’agents capables de gérer des tâches telles que les achats en ligne, la réservation d’une visite chez le médecin ou le tri et la réponse aux e-mails. Google a par exemple fait la démonstration de Mariner, un agent IA développé par DeepMind capable d’acheter en ligne les ingrédients d’une recette de cuisine. Le problème, c’est que ces agents peuvent « interprèter parfois le texte rencontré sur une page Web comme des commandes à suivre, même si cela entre en conflit avec les instructions de l’utilisateur ». L’expert en cybersécurité Johann Rehberger a posté une vidéo montrant comment cette vulnérabilité pourrait être exploitée, en envoyant un agent IA utilisant la technologie d’Anthropic sur une page web où il était indiqué de télécharger un logiciel et de lancer, alors qu’il s’agissait d’un virus. Anthropic a déclaré travailler à l’ajout de protections pour se prémunir de telles attaques. Peter Rong, co-auteur d’une étude sur les risques des agents IA, souligne qu’un autre problème est que les agents sont capables de faire des captures d’écran pour lire des informations qui peuvent être sensibles et personnelles, à l’image de Recall de Microsoft, une IA critiquée parce qu’elle créait des enregistrements de tout ce qu’une personne faisait sur son ordinateur. Pour Helen King, responsable de la responsabilité chez DeepMind, ces problèmes de confidentialité ressemblent à ceux qu’a connu Street View à ses débuts, permettant de capturer les visages des passants et a été réglé par la généralisation du floutage. C’est le genre de solutions que DeepMind doit imaginer avant de déployer des outils comme Mariner, précise-t-elle. « Si vous ignorez le côté sécurité et confidentialité des choses, ce genre de solutions est terriblement excitant. Mais je ne vois pas comment nous surmonterons les problèmes de confidentialité qu’ils vont créer », conclut un développeur.

Mise à jour du 16/01/2025 : Pour Gary Marcus, les agents IA arriveront certainement un jour… « Mais pas cette année (ni l’année prochaine, ni celle d’après, et probablement pas cette décennie, sauf dans des cas d’utilisation restreints). Tout ce que nous aurons cette année, ce sont des démos ». Et ces démos seront loin d’être fiables. Vous n’aurez pas d’agents fiables tant que vous aurez des hallucinations et les hallucinations n’ont toujours pas de réponses fiables.

MAJ du 30/01/2025 : OpenAI vient de lancer son agent, Operatorrapporte le NYTimes, capable d’utiliser des sites web de manière autonome, comme de faire des courses ou de réserver une table à un restaurant. Pour accéder aux sites tiers, l’utilisateur doit fournir identifiant et mots de passe au robot lors du dialogue où on lui demande d’accomplir une tâche – le robot ne les stocke pas, précise OpenAI. Pour l’instant, la technologie est expérimentale, explique l’entreprise. Un premier agent IA qui paraît surtout bien modeste.