- datialdente
- Posts
- AGI non è ancora una tecnologia. È una narrativa che produce effetti economici reali
AGI non è ancora una tecnologia. È una narrativa che produce effetti economici reali
Il dibattito sull’intelligenza artificiale generale viene spesso trattato come una questione futuristica, quasi filosofica, legata a un traguardo tecnico ancora lontano. In realtà l’AGI, oggi, opera soprattutto come narrativa. Non è necessario che esista un sistema realmente generale perché l’idea della sua possibilità produca effetti concreti. È sufficiente che venga percepita come tecnologia strategica, sistemica e potenzialmente decisiva perché capitali, governi e imprese si muovano di conseguenza. Le valutazioni miliardarie delle principali aziende AI, l’intensificazione degli investimenti in modelli di frontiera e data center, e le stime di impatto economico pubblicate da McKinsey, che già nel 2023 indicavano un potenziale contributo annuo dell’AI generativa compreso tra 2.600 e 4.400 miliardi di dollari, sono alimentate in larga parte da aspettative future. L’AGI, prima ancora di essere un prodotto, è un moltiplicatore di attese e una leva di riallocazione del capitale. Quando una tecnologia viene percepita come infrastrutturale, cambia il modo in cui viene regolata, finanziata e negoziata.
Il caso Anthropic e il Pentagono
La tensione esplosa a fine febbraio 2026 tra Anthropic e il Dipartimento della Difesa degli Stati Uniti rende questo meccanismo particolarmente visibile. Secondo quanto riportato da Reuters, Associated Press e New York Times, il Pentagono avrebbe chiesto all’azienda di rimuovere alcune salvaguardie presenti nei propri modelli, in particolare quelle che limitano l’utilizzo in ambiti come la sorveglianza domestica di massa e l’impiego in sistemi d’arma completamente autonomi. Dario Amodei, CEO di Anthropic, avrebbe rifiutato di accettare tali condizioni, sostenendo che un allentamento delle protezioni avrebbe oltrepassato limiti etici e costituzionali che l’azienda considera parte integrante della propria architettura di sicurezza. La risposta istituzionale è stata immediata e significativa. Il Segretario alla Difesa ha formalmente designato Anthropic come potenziale “supply chain risk”, aprendo la strada alla progressiva esclusione dai contratti governativi, mentre l’amministrazione ha indicato la volontà di sostituire il fornitore. Nel giro di poche ore OpenAI ha annunciato un accordo alternativo con il Pentagono, dichiarando di aver accettato l’uso dei propri sistemi per qualsiasi finalità “legittima”, pur affermando di mantenere guardrail tecnici coerenti con i propri principi di sicurezza. Il punto centrale non è stabilire quale azienda abbia negoziato meglio. È osservare che non siamo di fronte a una disputa tecnica, ma a una ridefinizione del perimetro di controllo. La questione non riguarda le capacità del modello, bensì chi stabilisce i limiti del suo utilizzo e con quali strumenti.
Quando la tecnologia diventa infrastruttura di sovranità
La designazione formale di un’azienda AI come rischio per la supply chain segna un passaggio di natura politica prima ancora che economica. Una tecnologia che fino a poco tempo fa era considerata prodotto commerciale viene trattata come componente strategica di sicurezza nazionale. In questo momento il rapporto tra impresa e Stato cambia natura. Non si tratta più soltanto di fornire software, ma di partecipare a un ecosistema di potere. Il contesto in cui questa frattura si è manifestata rende la dinamica ancora più evidente. Nelle stesse ore in cui si consumava lo scontro contrattuale, fonti di stampa riportavano l’impiego di sistemi AI in operazioni militari in Medio Oriente, confermando che l’uso dell’intelligenza artificiale in ambito bellico non è più ipotesi teorica ma pratica operativa. In parallelo centinaia di dipendenti di aziende tecnologiche hanno firmato lettere aperte contro l’utilizzo dei modelli per sorveglianza domestica o sistemi d’arma autonomi, mentre l’app Claude di Anthropic ha registrato un’impennata di download, segno che anche la domanda reagisce simbolicamente ai conflitti etici. Ciò che emerge è una frattura che attraversa non solo le imprese ma l’intero ecosistema tecnologico. La neutralità strategica diventa difficile da sostenere quando una tecnologia viene classificata come elemento centrale dell’infrastruttura di sicurezza.
La narrativa come fattore di potere contrattuale
L’AGI, in questo quadro, agisce come categoria che giustifica l’anticipazione. Se una tecnologia viene percepita come destinata a diventare generale o decisiva, governi e imprese si muovono prima che lo sia realmente. Le negoziazioni non avvengono su ciò che il sistema è oggi, ma su ciò che potrebbe diventare domani. Questo produce effetti economici concreti. L’accesso ai contratti pubblici, la percezione di rischio da parte degli investitori, il posizionamento competitivo tra fornitori e la possibilità di essere integrati nelle infrastrutture governative dipendono sempre più dall’allineamento rispetto a narrative normative e politiche, non solo dalla qualità tecnica del modello. Una clausola contrattuale diventa leva di potere. Una salvaguardia tecnica diventa oggetto di negoziazione geopolitica. Quando il controllo dell’intermediazione digitale si intreccia con il controllo della sicurezza nazionale, la concorrenza non si gioca più soltanto su performance e prezzo, ma sulla capacità di integrarsi nel perimetro istituzionale.
La questione per chi prende decisioni
Per un decision maker la domanda non è se l’AGI arriverà, né se sia imminente una forma di intelligenza artificiale generale. La domanda è quale effetto produca oggi la classificazione dell’AI come tecnologia strategica. Nel momento in cui lo Stato decide che una piattaforma AI è infrastruttura critica, l’equilibrio tra innovazione privata e potere pubblico si ridefinisce immediatamente. L’AGI, per ora, è soprattutto una narrativa. Ma è una narrativa che mobilita capitale, modifica alleanze, redistribuisce potere contrattuale e impone scelte di posizionamento. Prima ancora di esistere come tecnologia generale, sta già ridisegnando i confini tra mercato e sovranità. Il cambiamento non avverrà il giorno in cui un sistema diventerà davvero generale. È già iniziato nel momento in cui l’intelligenza artificiale è stata trattata come questione di sicurezza nazionale.