- datialdente
- Posts
- ChatGPT non ha ucciso il ruolo del BI Analyst
ChatGPT non ha ucciso il ruolo del BI Analyst
Negli ultimi mesi sono circolati articoli che sostengono che l’AI stia sostituendo la Business Intelligence tradizionale. Tra questi, uno dei più citati racconta la decisione di un founder di cancellare l’assunzione di un BI Analyst da centomila dollari perché ChatGPT, collegato ai fogli di calcolo, riusciva a rispondere più velocemente alle domande di business. È una storia che funziona bene sui social. Ma descrive solo una parte del problema, e non quella più interessante. La domanda non è se l’AI possa generare grafici o scrivere una query. La domanda è cosa intendiamo quando parliamo di BI. Nella pratica quotidiana delle aziende, la Business Intelligence non è un insieme di dashboard. È la capacità di dare una forma stabile e condivisa ai dati, costruire significati, definire metriche, integrare sorgenti eterogenee e mantenere coerenza nel tempo. È un’infrastruttura prima ancora che un prodotto, e un’infrastruttura non nasce su comando.
Il punto cieco nel dibattito sull’AI
Il fascino dell’AI generativa nasce dall’idea che possa automatizzare ogni passaggio intermedio dell’analisi dei dati. Carichi una tabella, fai una domanda e ottieni subito un grafico o una sintesi elegante. Per molti sembra già Business Intelligence, ma non è così semplice come appare. La maggior parte delle aziende italiane e molte europee non dispone di un sistema dati allineato, con sorgenti coerenti, metriche condivise e definizioni stabili nel tempo. Senza queste basi l’AI lavora su un terreno incoerente. I dati possono essere incompleti, duplicati, aggiornati a metà, o interpretati in modi diversi da reparto a reparto. Un modello generativo può costruire un grafico perfetto partendo da un foglio Excel, ma non può sapere che la definizione di cliente attivo cambia tra marketing e vendite, che una pipeline si è rotta il giorno prima, che un campo è stato rinominato senza documentazione, o che la stessa transazione compare due volte in due sistemi diversi. L’output appare credibile, ma non è detto che sia corretto.
Il paradosso della sostituibilità
C’è un punto che raramente viene affrontato quando si parla di automazione. L’AI riesce a sostituire parti del lavoro umano solo dove il lavoro umano è già stato fatto bene. Un modello generativo può accelerare l’analisi solo in aziende che dispongono di una base dati solida, con un data warehouse coerente, pipeline affidabili, metriche condivise e regole chiare su cosa misurare. In un contesto così costruito l’AI diventa davvero utile, perché può automatizzare passaggi ripetitivi senza compromettere la qualità. Ma queste aziende non assumono un BI Analyst per produrre grafici. Lo assumono per garantire che i dati abbiano significato, coerenza e continuità nel tempo. L’AI può offrire un’immagine istantanea, non può custodire la struttura che dà senso ai dati.
La BI che l’AI non può generare
Quando un modello generativo produce un’analisi su una base incoerente non corregge l’errore, lo amplifica. Presenta narrazioni credibili anche quando i dati non lo sono. La pulizia della forma nasconde la debolezza del contenuto. La Business Intelligence, invece, si fonda sulla struttura e richiede scelte tecniche, definizioni stabili, controlli continui, manutenzione delle pipeline e capacità di far dialogare dati che non nascono per farlo. Nessun modello può ricostruire a posteriori ciò che non è stato progettato a monte e infatti la qualità dell’analisi non dipende dal modello, ma dalla base su cui il modello opera.
Verso una BI realmente generativa
La domanda utile non è se l’AI possa sostituire la BI, ma cosa serve perché la BI possa davvero sfruttare l’AI. I report di McKinsey e MIT mostrano un dato costante ovvero che oltre il settanta per cento del valore dell’AI dipende dalla qualità dell’infrastruttura dati, dai processi e dalla governance, non dai modelli. Quando l’AI opera in un sistema strutturato diventa un acceleratore. Quando opera nel disordine diventa un generatore di forme eleganti di nonsense. È lo stesso motivo per cui molte aziende credono di aver fatto trasformazione digitale dopo aver installato un CRM o un ERP. Lo strumento c’è, ma i processi restano gli stessi, le definizioni non si allineano e il risultato è un sistema più costoso che replica gli errori precedenti (e li aggrava pure). Senza questo lavoro preliminare l’AI amplifica ciò che trova e ciò che trova, spesso, è confusione.
Il punto che molti ignorano
C’è un aspetto raramente esplicitato nel dibattito su lavoro e automazione. L’AI genera valore solo quando incontra competenze trasversali solide. Non basta conoscere gli strumenti ma serve la capacità di leggere i contesti, collegare informazioni, definire metriche e riconoscere incoerenze. David Epstein, nel libro Range, mostra come le competenze generaliste e l’esperienza maturata in domini diversi migliorino la capacità di affrontare problemi complessi e non lineari. Non parla di AI o BI, ma il principio è lo stesso: i sistemi più avanzati funzionano meglio quando trovano persone capaci di dare significato prima ancora di cercare risposte. Un modello generativo può essere potente, ma è cieco rispetto al contesto. L’intuizione, l’esperienza e la competenza di chi progetta il sistema restano determinanti. È qui che l’umano fa la differenza nel contestualizzare, non nell’esecuzione automatizzata, ma nella capacità di definire il terreno su cui l’esecuzione avviene.
Conclusione
ChatGPT non ha ucciso il ruolo del BI Analyst. Ha semplicemente mostrato quanto spesso quel ruolo venga frainteso. La Business Intelligence non coincide con la dashboard finale, ma con la struttura che permette ai dati di avere significato. È un lavoro che richiede metodo, capacità trasversali e scelte organizzative coerenti. L’AI non elimina la BI. Elimina solo l’illusione che la BI possa esistere senza un’intelligenza dei dati. Il messaggio di Range suggerisce che gli strumenti più potenti premiano chi possiede una base solida nelle competenze, nei processi e nella qualità delle informazioni.