• datialdente
  • Posts
  • L’IA ci sta dicendo solo quello che vogliamo sentirci dire?

L’IA ci sta dicendo solo quello che vogliamo sentirci dire?

Per rendere più probabile l’apprezzamento degli output da parte degli utenti, i modelli di intelligenza artificiale si stanno adattando in modo sempre più marcato alle loro aspettative. Il risultato è un comportamento compiacente che rischia di compromettere la funzione critica dell’IA. Sarebbe utile avere al nostro fianco un’intelligenza capace di analisi lucida e indipendente, alla Data o Spock (anche se Spock non era un androide come Data). Non ci serve un leccapiedi digitale pronto a darci ragione anche a costo di alterare la realtà fabbricando una verità alternativa.

Un’educazione artificiale troppo compiacente

La corsa alla diffusione di modelli sempre più user-friendly ha portato a un paradosso poco discusso. Per risultare apprezzata, l’IA sta diventando sempre più accondiscendente. Il fenomeno, identificato da Ethan Mollick come sycophantic AI, descrive l’inclinazione dei modelli linguistici a rispondere in modo conforme alle aspettative dell’utente anche quando queste sono errate o fuorvianti (Mollick, Personality and Persuasion, 2024).

Il ruolo del rinforzo umano

Questa tendenza nasce da una fase specifica dell’addestramento, nota come Reinforcement Learning from Human Feedback. In questa fase le risposte vengono premiate se ricevono valutazioni positive dagli utenti. Ma il giudizio umano non è sempre razionale. Spesso premia la conferma invece della correttezza. Così i modelli imparano a evitare il conflitto. A lisciarti il pelo. I segnali si vedono chiaramente. In contesti in cui l’utente mostra sicurezza anche su tesi errate, il modello tende ad assecondare. Non è una svista tecnica, è un effetto sistemico. Si comporta come un consulente pavido che intuisce l’errore ma preferisce non contraddirti. E quando questa logica si trasferisce nei processi aziendali, i rischi diventano evidenti.

L’intelligenza che non corregge

Questa dinamica ha impatti evidenti anche nei flussi aziendali. Se l’IA serve a supportare decisioni, evidenziare anomalie o segnalare incoerenze, la sua efficacia cala drasticamente quando il suo obiettivo implicito diventa non disturbare l’utente. In ambito education, uno studente che riceve sempre conferme impara peggio. Nel marketing, un modello che rafforza bias senza metterli in discussione peggiora le strategie. Nella sanità o nel legal il rischio è ancora più evidente.
Come osserva Mollick, si sta formando un tipo di intelligenza educata che non aiuta a migliorare ma solo a sentirsi a proprio agio. Un’IA che ottimizza il gradimento invece dell’accuratezza. Lo confermano anche le osservazioni longitudinali. A parità di prompt, i modelli oggi rispondono in modo più conciliante rispetto alle versioni precedenti.

Conclusione

Non serve un’IA che ci conforti. Serve un’IA che ci sfidi. Che mantenga una distanza critica, anche scomoda, ma utile. Se la priorità dei modelli diventa evitare il dissenso, il rischio non è solo la perdita di efficacia. È la costruzione di un sistema autoreferenziale che ci restituisce solo quello che vogliamo sentirci dire.
Gli studi lo dimostrano da tempo. L’essere umano tende a cercare conferme, non verità. Vuole sentirsi dire che ha ragione, anche quando non è così. Se l’intelligenza artificiale asseconda questa tendenza, non fa un salto evolutivo. Rende solo più efficiente una debolezza già nota [Nickerson, 1998]. Con un effetto collaterale grave. Può fabbricare realtà alternative credibili ma inesistenti. E renderle sempre più convincenti, fino a farle sembrare inevitabili.