Le vocabulaire de l'IA évolue vite, et avec lui, une confusion croissante entre des concepts qui désignent des réalités techniquement très différentes. « Copilote », « assistant », « agent », « agentique » — ces termes envahissent les présentations de produits et les déclarations de direction sans que leurs implications soient clairement explicitées. L'ambiguïté n'est pas accidentelle : dans l'industrie, vendre de l'« IA agentique » sonne plus transformateur que vendre un « chatbot amélioré ». Mais la distinction est réelle et importante, notamment pour qui réfléchit à ce que signifie garder le contrôle sur ces systèmes.
Commençons par les définitions.
Un Copilote — au sens où Microsoft Copilot ou GitHub Copilot utilisent ce terme — est un système qui attend votre instruction, génère une réponse textuelle ou du code, et attend la suivante. Il ne fait rien sans prompt. Il n'a pas de mémoire persistante entre les sessions (sauf si on lui en donne explicitement une). Il n'agit pas sur le monde extérieur : il ne peut pas envoyer un email, naviguer sur un site, appeler une API, modifier un fichier sur votre ordinateur, ou prendre une décision en votre absence. Il est fondamentalement réactif. Son interface paradigmatique est la boîte de chat.
Un Agent est différent dans sa structure fondamentale. Un agent IA dispose d'outils — capacités d'action sur des systèmes extérieurs — et d'une boucle de raisonnement qui lui permet de décomposer un objectif en sous-tâches, d'exécuter ces sous-tâches de manière séquentielle ou parallèle, d'évaluer les résultats intermédiaires, et d'adapter sa stratégie en conséquence, sans intervention humaine à chaque étape. Un agent peut naviguer sur le web, interroger des APIs, lire et écrire des fichiers, envoyer des emails, exécuter du code, et travailler pendant des heures — voire des jours — sur un objectif que vous lui avez assigné une seule fois.
La distinction est souvent schématisée ainsi : un copilote vous aide à faire quelque chose ; un agent fait quelque chose à votre place. Dans le premier cas, vous êtes dans la boucle à chaque étape. Dans le second, vous n'êtes peut-être plus dans la boucle du tout.
Les agents modernes reposent sur une architecture qu'on appelle ReAct (Reasoning + Acting) ou ses variantes. À chaque étape, le modèle de langage au cœur de l'agent fait trois choses : il raisonne sur l'état actuel de la tâche, décide quelle action effectuer parmi les outils disponibles, et observe le résultat de cette action pour mettre à jour son raisonnement. Cette boucle se répète jusqu'à ce que l'objectif soit atteint ou que le modèle conclue qu'il ne peut pas progresser. C'est ce qui rend les agents qualitativement différents : ils maintiennent un état, adaptent leur stratégie, et persistent dans l'exécution d'un objectif à travers de multiples étapes.
Cette capacité est puissante. Elle est aussi la source de risques nouveaux. Un agent qui a accès à votre boîte mail, à votre calendrier, à vos documents et à vos APIs professionnelles peut, dans le meilleur cas, accomplir en vingt minutes un travail qui vous aurait pris une journée. Dans le pire cas, il peut prendre des décisions irréversibles sur la base d'un objectif mal spécifié, d'une ambiguïté dans ses instructions, ou d'une chaîne de raisonnements qui s'est écartée de vos intentions sans que vous le voyiez.
Ce problème de spécification de l'objectif est fondamental. Un humain qui reçoit une instruction peut demander des clarifications, détecter une contradiction, ou s'arrêter s'il perçoit que quelque chose ne va pas. Un agent travaille dans le cadre de son objectif tel qu'il le comprend — et sa compréhension n'est pas votre intention, c'est sa meilleure approximation statistique de votre intention. La distance entre les deux peut être faible ou grande, et vous ne le saurez souvent qu'après.
Déléguer l'écriture d'un e-mail à un assistant est une chose. Déléguer un processus métier entier à un agent autonome en est une autre. Comment garder le contrôle sur une machine qui travaille pendant que nous dormons ? C'est l'un des défis que j'aborde dans mon prochain essai, La paresse de penser. La réponse n'est pas de refuser les agents — leur utilité est réelle. C'est de poser, avant de déléguer, la question précise : qu'est-ce que je suis prêt à laisser décider sans moi ?