- datialdente
- Posts
- L’AI non sostituisce la consulenza, sostituisce quella che non serviva già
L’AI non sostituisce la consulenza, sostituisce quella che non serviva già
Negli ultimi mesi stanno emergendo modelli di consulenza costruiti attorno all’utilizzo di agenti AI, con l’obiettivo di automatizzare attività come la raccolta di informazioni, la conduzione di interviste, la produzione di report e la strutturazione di percorsi di assessment. L’idea di fondo è chiara e in parte condivisibile e se una parte significativa del lavoro consulenziale è standardizzabile, allora significa che può essere resa più efficiente attraverso sistemi automatici. Questo tipo di approccio intercetta un cambiamento reale. L’intelligenza artificiale consente di ridurre tempi e costi operativi, aumentando la scalabilità di attività che fino a poco tempo fa richiedevano un intervento umano diretto. Ignorarlo significherebbe sottovalutare una trasformazione concreta. Il problema non è quindi l’utilizzo dell’AI nella consulenza, ma ciò che viene implicitamente assunto quando si sostiene che questo modello possa sostituirla.
Il primo equivoco è trattare tutta la consulenza allo stesso modo
Uno degli errori più evidenti in questa narrativa è una forma di equivalenza impropria. Si tende a considerare la consulenza come un blocco unico, riducendola a un insieme di attività esecutive e ripetibili, senza distinguere tra livelli diversi di complessità e valore. Esiste una consulenza standardizzata, spesso basata su metodologie predefinite, raccolta di dati e produzione di deliverable strutturati. Questa componente è effettivamente esposta all’automazione ed è già in parte sostituibile. Ma esiste anche una consulenza che lavora su ambiguità, trade-off e contesti non strutturati, in cui il valore non sta nell’esecuzione di un metodo, ma nella sua costruzione e nel suo adattamento. Confondere questi due livelli porta a sovrastimare la capacità sostitutiva dell’AI. Non perché la tecnologia sia limitata, ma perché il problema viene semplificato.
Il secondo equivoco è ridurre la consulenza a un processo
Un secondo errore è una forma di semplificazione eccessiva. La consulenza viene descritta come una sequenza di attività lineari, che può essere scomposta in fasi e automatizzata attraverso agenti che eseguono task specifici. Questa rappresentazione funziona bene per una parte del lavoro, ma ignora un aspetto fondamentale. Nei contesti reali, il valore della consulenza non deriva dalla corretta esecuzione di un processo, ma dalla capacità di intervenire quando il processo non è sufficiente. Quando le informazioni sono incomplete, gli obiettivi non sono allineati o le variabili in gioco non sono completamente esplicitabili, il problema non è più tecnico ma interpretativo. In questi casi, raccogliere dati o generare report non risolve il problema, perché il punto non è ciò che i dati mostrano, ma ciò che non riescono a rappresentare. È qui che si costruisce la direzione, ed è esattamente qui che la differenza tra esecuzione e consulenza diventa evidente.
Il terzo equivoco è confondere dati e decisioni
Un ulteriore limite di questo approccio è legato a un bias molto diffuso nei sistemi data-driven, ovvero la tendenza a considerare la disponibilità di dati come un sostituto del processo decisionale. Gli agenti AI sono estremamente efficaci nel raccogliere informazioni, organizzarle e restituirle in forma strutturata, e possono simulare scenari e suggerire opzioni con un livello di velocità e profondità prima difficilmente raggiungibile. Questo però non equivale a sostituire la decisione. Mettere una persona nelle migliori condizioni per scegliere è cosa diversa dal prendere la decisione al suo posto. La decisione non è mai una funzione diretta dei dati, ma il risultato di una scelta che implica priorità, rischi e conseguenze, spesso in presenza di elementi non quantificabili. In questo senso, il rapporto tra AI e consulenza è più vicino a quello tra un chirurgo e la tecnologia che utilizza in sala operatoria. La qualità dell’intervento dipende anche dagli strumenti, ma non è riducibile ad essi. Confondere questo piano significa assumere che la disponibilità di strumenti avanzati renda superflua la responsabilità di chi decide, quando in realtà la rende più esposta.
Dove l’AI funziona davvero
Questo non significa che l’AI non abbia un ruolo nella consulenza. Al contrario, lo ha ed è crescente. Ma è importante capire dove genera valore reale. L’intelligenza artificiale funziona molto bene quando si tratta di automatizzare attività ripetitive, accelerare la raccolta di informazioni, standardizzare output e rendere scalabili processi che prima erano limitati da vincoli operativi. In questo senso, una parte della consulenza, soprattutto quella a basso valore aggiunto, è già stata trasformata, ed è il motivo per cui modelli basati su agenti possono funzionare in modo efficace nelle fasi iniziali di assessment o nei contesti in cui l’obiettivo è costruire una prima struttura di analisi. Il punto diventa più complesso nel momento in cui si assume che ciò che emerge da questi processi sia sufficiente a rappresentare il problema. Anche ammesso che le informazioni raccolte siano corrette e che gli stakeholder coinvolti siano quelli giusti, resta una dimensione che difficilmente può essere catturata da un sistema automatizzato, ed è quella del non detto. Nei contesti organizzativi, una parte rilevante delle informazioni non viene esplicitata, non per mancanza di dati ma per dinamiche relazionali, asimmetrie informative o semplicemente per consapevolezza parziale del problema. È proprio in questa zona che l’esperienza fa la differenza, perché un consulente non si limita a raccogliere risposte ma è in grado di leggere incoerenze, omissioni e segnali deboli che emergono nel modo in cui le informazioni vengono fornite. In altre parole, non interpreta solo i dati, ma il contesto in cui quei dati prendono forma.
Dove non sostituisce, ma amplifica
Il punto cambia quando il problema non è definito in modo chiaro. In questi contesti, l’AI non sostituisce la consulenza, ma ne sposta il perimetro. Non riduce la necessità di interpretazione, ma la rende più critica, perché aumenta la quantità di informazioni disponibili senza ridurre l’ambiguità del contesto. Questo significa che il valore non si sposta sulla produzione dell’output, ma sulla capacità di decidere cosa ha senso fare con quell’output. L’AI può eseguire un metodo con maggiore velocità e profondità, ma non può stabilire quale metodo utilizzare quando il problema non è ancora completamente definito. È qui che la differenza tra un approccio standardizzato e uno realmente strategico diventa evidente.
Il punto che stiamo sottovalutando
Il rischio di questa narrativa non è tecnologico, ma interpretativo. Non sta nell’utilizzo dell’AI, ma nel modo in cui viene definito il problema che si sta cercando di risolvere. Se si assume che la consulenza coincida con ciò che può essere automatizzato, allora è naturale concludere che possa essere sostituita. Ma questa conclusione non deriva dalla capacità dell’AI, deriva da una definizione ridotta della consulenza stessa.
Una distinzione che diventerà sempre più evidente
Il punto non è se l’AI sostituirà i consulenti ma se sta già sostituendo una parte della consulenza. E se proprio quella parte è sostituibile, il problema non è l’AI, ma il valore che quella consulenza stava generando. Il rischio, o l’opportunità, non è la tecnologia, come sempre, ma confondere ciò che può essere automatizzato con ciò che conta davvero.