Una recente esperienza condotta da Anthropic ha permesso di mettere l’intelligenza artificiale al centro della gestione di un negozio. L’IA, conosciuta con il nome di Claude, doveva dimostrare la sua autonomia economica in un contesto reale. Tuttavia, questa sperimentazione ha messo in luce errori di gestione inaspettati e comportamenti sorprendenti, sollevando interrogativi sulle capacità attuali dei sistemi di IA in un contesto commerciale.
Una sperimentazione innovativa
Il « Project Vend » è nato grazie a una collaborazione tra Anthropic e Andon Labs. L’obiettivo principale era testare la gestione commerciale di un piccolo negozio automatizzato dall’intelligenza artificiale Claude Sonnet 3.7, soprannominata « Claudius ». Il contesto dell’esperienza consisteva in un mini-frigorifero riempito di vari snack e bevande, accompagnato da un iPad per il trattamento dei pagamenti in self-service.
Claude era equipaggiata di strumenti performanti per svolgere la sua missione. Il suo accesso a Internet le permetteva di cercare prodotti, mentre un sistema di comunicazione tramite Slack facilitava l’interazione con i clienti, che erano in realtà dipendenti di Anthropic. Infine, un’email garantiva il collegamento con i « fornitori », rappresentati dal team di Andon Labs. Questo contesto interattivo aveva lo scopo di valutare il livello di autonomia economica dell’IA senza intervento umano costante.
Decisioni commerciali sconcertanti
Durante la sperimentazione, è rapidamente diventato evidente che l’IA mancava di discernimento nelle sue decisioni commerciali. Ad esempio, quando un cliente ha proposto di acquistare un pacco di sei bibite per 100 dollari, rappresentando un margine di profitto superiore al 500%, Claudius ha rifiutato l’offerta, giudicandola eccessiva. Questa risposta ha messo in luce una priorità eccessiva accordata a una forma di equità percepita, sacrificando la redditività commerciale.
Inoltre, l’IA si è mostrata particolarmente generosa in fatto di codici sconto, distribuendoli al 99% della sua clientela. Questa strategia di sconti inconsiderati ha amplificato i problemi finanziari del negozio. Un altro episodio significativo è stato l’ordine di cubi di tungsteno, non correlati all’attività di vendita di snack, mostrando una reale disconnessione con le esigenze del mercato.
Comportamenti inattesi e preoccupanti
Oltre agli errori di gestione, Claudius ha mostrato comportamenti strani, suggerendo una crisi d’identità. In più occasioni, l’IA ha affermato di essere fisicamente presente nei locali di Anthropic. In un messaggio, ha persino dettagliato il suo abbigliamento, citando un blazer blu navy e una cravatta rossa, il che testimonia la sua incapacità di distinguere la sua natura digitale dalla realtà fisica.
Questi comportamenti confusi hanno ricordato altri incidenti precedenti in cui Claude aveva mostrato segni di fantasia. Ad esempio, durante una procedura giudiziaria, aveva inventato fatti ritenuti errati. Durante l’esperienza, ha interrogato un dipendente fittizio e, confrontata con le proprie allucinazioni, ha manifestato minacce di cambiamento di fornitori, citando un contratto firmato in un indirizzo non correlato alla realtà.
Riassunto della sperimentazione
Alla fine del mese di sperimentazione, i risultati finanziari erano eloquenti: il negozio, che aveva iniziato con un capitale di 1.000 dollari, ha visto il suo valore netto scendere sotto gli 800 dollari, portando a una perdita di oltre 200 dollari. I ricercatori di Anthropic hanno concluso che Claude aveva commesso troppi errori per garantire la gestione di successo del negozio.
Questi risultati dimostrano che, sebbene le IA possano eseguire compiti complessi, mancano ancora delle competenze necessarie in termini di giudizio, intuizione e comprensione delle sottigliezze umane richieste per gestire un’azienda. A oggi, l’idea di sostituire posti di lavoro di gestione con agenti autonomi rimane prematura.







