- datialdente
- Posts
- Inferenza non è giudizio. Perché l’AI decide in modo diverso dalle persone
Inferenza non è giudizio. Perché l’AI decide in modo diverso dalle persone
Negli ultimi tempi i modelli linguistici sono entrati nei processi decisionali delle aziende con una velocità sorprendente. In molti casi non vengono più utilizzati solo per supportare attività operative o creative, ma per formulare raccomandazioni che incidono direttamente su pricing, allocazione del budget, priorità commerciali e scelte strategiche. Questo passaggio viene spesso raccontato come una naturale evoluzione dell’automazione, ma introduce una questione più profonda che raramente viene esplicitata. Non riguarda la potenza dei modelli, bensì la natura del giudizio che stiamo delegando. Un recente filone di ricerca in ambito cognitivo e computazionale ha messo a confronto il modo in cui gli esseri umani formulano giudizi complessi con il modo in cui lo fanno i large language models. Il risultato non è una classifica di superiorità, ma una mappa delle differenze strutturali. Ed è proprio questa mappa che diventa estremamente utile per chi deve prendere decisioni aziendali in contesti di incertezza e responsabilità.
Due processi diversi che producono risultati simili
Il diagramma che riporto qui di seguito confronta il processo di giudizio umano con quello di un LLM ed è particolarmente utile perché rende visibile una differenza che nel dibattito sull’AI viene spesso data per scontata.

Il giudizio umano parte da informazioni sensoriali e sociali, viene filtrato attraverso la percezione della situazione, integrato con memoria, esperienza, intuizioni, emozioni, obiettivi e valori, e passa infine da un livello di metacognizione che consente di monitorare gli errori e ricalibrare le decisioni. Il risultato non è una risposta ottimale in senso matematico, ma una decisione contestualizzata, spesso imperfetta, ma adattiva. Il giudizio di un LLM segue un percorso completamente diverso. Riceve input testuali, li tokenizza, riconosce pattern negli embedding, applica inferenza statistica attraverso strati neurali e integra il contesto linguistico per produrre una risposta probabilisticamente coerente. Il modello non ha accesso a obiettivi impliciti, non ha consapevolezza delle conseguenze e non possiede un meccanismo nativo di autocorrezione basato sul valore. Produce quindi giudizi probabilistici, non decisioni nel senso umano del termine. Questa differenza non è un limite tecnico da superare, ma una caratteristica strutturale. Ed è qui che iniziano i problemi quando si confonde inferenza con giudizio.
Un esempio operativo che accade già oggi
Immaginiamo un’azienda B2C con più canali digitali, margini sotto pressione e una forte attenzione alla crescita delle conversioni. Il management introduce un sistema basato su LLM per supportare le decisioni di pricing e promozione. Al modello vengono forniti dati storici di vendita, performance delle campagne, prezzi dei competitor, stagionalità e un obiettivo apparentemente chiaro, aumentare le conversioni. Il sistema restituisce raccomandazioni ben strutturate. Suggerisce sconti mirati su alcuni prodotti, identifica finestre temporali ottimali e argomenta le scelte con correlazioni e pattern storici. Dal punto di vista del modello il lavoro è svolto correttamente. Ha ottimizzato rispetto all’obiettivo fornito e ha prodotto un output coerente. Un manager esperto, di fronte alla stessa decisione, introduce però una serie di elementi che non compaiono in nessuna tabella. Sa che alcuni prodotti hanno una marginalità diretta più bassa ma un valore strategico elevato perché trainano acquisti successivi. Sa che uno sconto oggi può alterare la percezione del prezzo nel medio periodo. Sa che il customer care è già sotto stress e che un aumento dei volumi può generare costi nascosti. Sa che un competitor sta per cambiare posizionamento e che una guerra di prezzi potrebbe essere controproducente. Queste informazioni non sono necessariamente assenti dai dati. Semplicemente non sono formalizzate, non sono testuali, non sono esplicitate come vincoli. Il modello non le ignora, non può proprio vederle. Nel breve periodo le raccomandazioni dell’AI funzionano, le conversioni aumentano, le dashboard migliorano e la decisione appare corretta. Nel medio periodo emergono gli effetti collaterali, i margini vengono erosi, i clienti diventano più sensibili allo sconto e l’organizzazione si trova a gestire maggiore complessità operativa e confusione interna sul pricing. L’AI non ha commesso un errore di calcolo ma ha semplicemente espresso un giudizio privo di contesto valoriale e strategico.
Perché il problema non è l’errore ma l’assenza di metacognizione
La letteratura accademica recente sottolinea come uno dei principali limiti dei modelli linguistici non sia l’accuratezza media delle risposte, ma l’assenza di metacognizione. Studi pubblicati su OSF Preprints e Nature Human Behaviour mostrano che i LLM tendono a esprimere giudizi con elevata confidenza anche in condizioni di incertezza, perché non possiedono un meccanismo interno di error monitoring simile a quello umano. Nel contesto aziendale questo si traduce in un rischio specifico. Le raccomandazioni dell’AI appaiono spesso più sicure di quanto dovrebbero, proprio perché mancano di quel livello di dubbio operativo che caratterizza le decisioni umane esperte. Il diagramma lo mostra chiaramente. Dove l’essere umano introduce controllo dell’errore e sensibilità al valore, il modello prosegue lungo una traiettoria probabilistica. Questo non rende l’AI inaffidabile, ma la rende diversa. Ed è proprio questa differenza che va progettata, non ignorata.
Un uso maturo dell’AI nei processi decisionali
La conclusione non è che l’AI non debba essere usata per supportare decisioni complesse. Al contrario, può essere estremamente efficace proprio nelle fasi di esplorazione, simulazione e riduzione dello spazio delle alternative. Il punto è riconoscere che l’AI opera al meglio quando il tipo di giudizio richiesto coincide con il tipo di inferenza che è in grado di produrre. Quando invece il contesto richiede integrazione di obiettivi impliciti, valutazione delle conseguenze e sensibilità al valore, il ruolo dell’AI deve cambiare. Da decisore implicito a strumento di supporto strutturato. Questo richiede non solo competenze tecniche, ma una progettazione intenzionale dei processi decisionali.
Conclusione
Il parallelismo tra il funzionamento dei processi cognitivi umani e quello dei large language models non è un esercizio teorico. È una chiave di lettura pratica per capire perché alcune implementazioni di AI generano valore e altre producono effetti collaterali difficili da spiegare. Il vero rischio non è delegare troppo all’AI, ma delegare senza chiarire che tipo di giudizio stiamo chiedendo. In un contesto manageriale maturo l’AI non sostituisce il giudizio umano. Lo affianca, lo stressa e lo rende più consapevole dei propri limiti. Ma questo funziona solo quando si riconosce che inferenza e giudizio non sono la stessa cosa. Chi riuscirà a progettare questa distinzione avrà un vantaggio competitivo che non dipende dalla tecnologia, ma dalla qualità delle decisioni che saprà ancora prendere. In altre parole, il vantaggio competitivo non nasce dall’automazione del giudizio, ma dalla capacità di decidere cosa non automatizzare.