• datialdente
  • Posts
  • Quando l’AI diventa un canale trusted by default

Quando l’AI diventa un canale trusted by default

Negli ultimi mesi sono emersi casi in cui contenuti problematici hanno raggiunto utenti e team non attraverso email, link o download, ma come risposte generate da sistemi di intelligenza artificiale. Non come messaggi sospetti, ma come aiuto contestuale. Non come comunicazione esterna, ma come supporto operativo inserito in un flusso di lavoro ordinario. Il punto rilevante non è il contenuto in sé, né la sua natura tecnica, ma il canale. Per la prima volta, l’AI viene utilizzata come superficie di distribuzione che gode di una fiducia implicita. Non perché sia ritenuta infallibile, ma perché è percepita come collaborativa, coerente, interna al lavoro quotidiano. Questo cambia il modo in cui certe informazioni circolano e vengono assorbite.

L’AI come canale, non solo come strumento

L’adozione dell’AI generativa è passata rapidamente dall’uso individuale sperimentale all’integrazione nei processi. Secondo il Work Trend Index di Microsoft, nel 2024 circa il 75% dei knowledge worker utilizza già strumenti di AI generativa e oltre il 40% lo fa in assenza di una policy aziendale esplicita. Questo dato indica che l’AI non viene più usata solo per “provare”, ma per produrre output che entrano nei flussi di lavoro. In questo passaggio, l’AI smette di essere un supporto individuale e inizia a funzionare come intermediario operativo.

Perché certi contenuti passano

Le organizzazioni hanno imparato a riconoscere e gestire canali percepiti come rischiosi. Un’email inattesa o un link esterno attivano almeno una soglia di attenzione. Con l’AI conversazionale, il meccanismo cambia. Il contenuto non arriva “da fuori”, ma come risposta a una richiesta legittima. Non si presenta come informazione da valutare, ma come passaggio intermedio per fare qualcos’altro. La fiducia non è una scelta consapevole dell’utente ma diventa una proprietà del mezzo. In questo contesto, l’AI può veicolare contenuti che, se arrivati attraverso canali tradizionali, sarebbero stati trattati con maggiore cautela.

Output che diventano input

IIl passaggio cruciale è qui. Sempre più spesso, infatti, l’output dell’AI non viene solo letto, ma riutilizzato. Snippet di codice, istruzioni operative, procedure sintetizzate, testi pronti all’uso entrano direttamente nei processi. Secondo McKinsey, oltre il 60% delle aziende che utilizzano AI generativa dichiara di impiegarla per supportare decisioni operative o di processo, non solo attività creative o di brainstorming. Questo significa che l’AI agisce a monte dell’azione, che forse non decide, ma rende alcune opzioni immediatamente praticabili e altre invisibili, riducendo l’attrito cognitivo su certe scelte.

Non è un problema di sicurezza

Ricondurre questo fenomeno alla sola cybersecurity è riduttivo. Qui non si tratta di accessi, permessi o violazioni tecniche. Il punto è che l’AI opera come canale cognitivo all’interno dei processi decisionali. Quando un canale diventa affidabile per default, il contenuto che veicola tende a essere trattato come materiale operativo, non come informazione da valutare. Questo accade indipendentemente dalla qualità del contenuto stesso.

Dove prende forma la decisione

Il cambiamento non riguarda l’accuratezza dell’AI ma riguarda dove si forma oggi la prima versione di una decisione. Con l’AI integrata nel lavoro quotidiano, una parte crescente del ragionamento avviene prima dei momenti decisionali formali. Non in documenti ufficiali o riunioni, ma nelle interazioni preliminari con un’interfaccia che seleziona, sintetizza e propone. Secondo Gartner, entro il 2026 oltre il 70% delle interazioni tra knowledge worker e informazioni aziendali passerà da interfacce conversazionali o assistive. Questo sposta a monte il punto in cui le opzioni diventano operative. Il punto, quindi, non è se l’AI “sbaglia”, ma se ciò che rende visibile tende a diventare utilizzabile prima di essere discusso. In questo scenario, la visibilità non è più un tema di comunicazione né di sicurezza ma diventa un tema di governance delle decisioni. Chi decide non può limitarsi a chiedersi cosa viene scelto, ma deve iniziare a chiedersi dove prende forma la scelta ed è lì che, oggi, l’AI sta già operando.