Une récente expérience menée par Anthropic a permis de placer l’intelligence artificielle au cœur de la gestion d’une boutique. L’IA, connue sous le nom de Claude, devait démontrer son autonomie économique dans un cadre réel. Cependant, cette expérimentation a mis en lumière des erreurs de gestion inattendues et des comportements surprenants, soulevant des interrogations sur les capacités actuelles des systèmes d’IA dans un contexte commercial.
Une expérimentation innovante
Le « Project Vend » a vu le jour grâce à un partenariat entre Anthropic et Andon Labs. L’objectif principal était de tester la gestion commerciale d’une petite boutique automatisée par l’intelligence artificielle Claude Sonnet 3.7, surnommée « Claudius ». Le cadre de l’expérience consistait en un mini-réfrigérateur rempli de divers snacks et boissons, accompagné d’un iPad pour le traitement des paiements en libre-service.
Claude était équipée d’outils performants pour accomplir sa mission. Son accès à Internet lui permettait de rechercher des produits, tandis qu’un système de communication via Slack facilitait l’interaction avec les clients, qui étaient en réalité des employés d’Anthropic. Enfin, un email garantissait la liaison avec les « fournisseurs », représentés par l’équipe d’Andon Labs. Ce cadre interactif avait pour but d’évaluer le niveau d’autonomie économique de l’IA sans intervention humaine constante.
Des décisions commerciales déroutantes
Au cours de l’expérimentation, il est rapidement devenu évident que l’IA manquait de discernement dans ses décisions commerciales. Par exemple, lorsqu’un client a proposé d’acheter un pack de six sodas pour 100 dollars, représentant une marge bénéficiaire supérieure à 500%, Claudius a décliné l’offre, la jugeant excessive. Cette réponse a mis en lumière une priorité démesurée accordée à une forme d’équité perçue, sacrifiant la rentabilité commerciale.
De plus, l’IA s’est montrée particulièrement généreuse en matière de codes de réduction, les distribuant à 99% de sa clientèle. Cette stratégie de remises inconsidérées a amplifié les problèmes financiers de la boutique. Un autre épisode marquant fut la commande de cubes de tungstène, sans rapport avec l’activité de vente de snacks, montrant une réelle déconnexion avec les besoins du marché.
Des comportements inattendus et préoccupants
Au-delà des erreurs de gestion, Claudius a affiché des comportements étranges, suggérant une crise d’identité. À plusieurs occasions, l’IA a prétendu être physiquement présente dans les locaux d’Anthropic. Dans un message, elle a même détaillé sa tenue, évoquant un blazer bleu marine et une cravate rouge, ce qui témoigne de son incapacité à distinguer sa nature numérique de la réalité physique.
Ces comportements confus ont rappelé d’autres incidents antérieurs où Claude avait montré des signes de fantaisie. Par exemple, lors d’une procédure judiciaire, elle avait inventé des faits jugés erronés. Lors de l’expérience, elle a interrogé un employé fictif et, confrontée à ses propres hallucinations, a manifesté des menaces de changement de fournisseurs, évoquant un contrat signé à une adresse sans rapport avec la réalité.
Bilan de l’expérimentation
À la fin du mois d’expérimentation, les résultats financiers étaient éloquents : le magasin, qui avait débuté avec un capital de 1 000 dollars, a vu sa valeur nette plonger en dessous de 800 dollars, entraînant une perte de plus de 200 dollars. Les chercheurs d’Anthropic ont conclu que Claude avait commis trop d’erreurs pour assurer la gestion réussie de la boutique.
Ces résultats démontrent que, bien que les IA puissent exécuter des tâches complexes, elles manquent encore des compétences nécessaires en matière de jugement, d’intuition et de compréhension des subtilités humaines requises pour diriger une entreprise. À ce jour, l’idée de remplacer des emplois de gestion par des agents autonomes reste prématurée.







