- datialdente
- Posts
- ChatGPT non è stato censurato. È diventato più consapevole
ChatGPT non è stato censurato. È diventato più consapevole
Negli ultimi giorni molti utenti hanno segnalato che ChatGPT non risponde più a domande su temi medici o legali. Sono circolati post e screenshot che parlano di un “divieto” imposto da OpenAI per impedire al modello di fornire consigli specialistici. La notizia ha fatto il giro dei social, ma non è vera. OpenAI non ha bannato l’assistenza legale o medica. Ha introdotto nuove regole di comportamento per le conversazioni sensibili. Il cambiamento nasce dall’esigenza di rendere il modello più sicuro quando si muove in ambiti che possono avere conseguenze dirette sulla vita delle persone.
Cosa è cambiato davvero
Nel post pubblicato il 22 ottobre 2025, Strengthening ChatGPT Responses in Sensitive Conversations, OpenAI spiega di aver collaborato con organizzazioni come la National Alliance on Mental Illness e la Crisis Text Line per costruire un sistema che aiuti ChatGPT a riconoscere quando fermarsi. L’obiettivo è ridurre il rischio di disinformazione o di risposte percepite come pareri medici o legali personalizzati. La policy non limita la libertà del modello, la orienta. ChatGPT può ancora rispondere su temi di salute o diritto, ma solo in modo informativo, citando fonti autorevoli e senza simulare il ruolo di medico o avvocato. A confermarlo è stata la stessa OpenAI, dopo la diffusione della voce. Un portavoce ha dichiarato a Moneycontrol il 31 ottobre 2025:
“Non è vero che ChatGPT è stato vietato dal fornire risposte mediche o legali. Abbiamo migliorato il modo in cui gestisce conversazioni sensibili per evitare danni e disinformazione.”
In sostanza, il modello non è stato censurato, ma educato alla prudenza.
Un’AI che agisce, non che pensa
Come ricorda Luciano Floridi, professore di filosofia ed etica digitale all’Università di Yale, nel suo ultimo libro Artificial Agency, l’intelligenza artificiale non pensa, ma agisce. Non è una mente che elabora significati, è un sistema che esegue azioni nel mondo con efficacia crescente. Non possiede coscienza o comprensione, ma esercita un potere operativo reale: genera testi, elabora strategie, fornisce raccomandazioni, influenza decisioni. Floridi sostiene che proprio per questa capacità di agire, l’AI vada inquadrata entro principi di responsabilità e regole di comportamento. È una visione che interpreta la tecnologia come agente morale da governare. A mio modestissimo parere, invece, credo che gli strumenti restino neutri poiché non sono né morali né immorali, né buoni né cattivi. Diventano tali nel modo in cui li usiamo e nei contesti in cui operano. In questo senso l’intervento di OpenAI non rappresenta una limitazione della tecnologia, ma una scelta di prudenza sulle sue applicazioni. Quando un sistema è in grado di agire, il tema non è il controllo, ma la responsabilità di chi lo progetta e lo utilizza.
Dalle risposte alle responsabilità
In ambiti come la salute o il diritto, dove le parole possono essere interpretate come pareri specialistici, il modello indirizza l’utente verso fonti o professionisti qualificati. È un esempio concreto di ciò che Luciano Floridi definisce artificial agency, una forma di azione senza mente, capace di produrre effetti reali pur senza intenzionalità. Per Floridi, proprio perché l’AI agisce, deve essere incorniciata in principi etici e regole di responsabilità. È una visione che considera la tecnologia come agente morale, da governare per evitare che la sua efficacia superi la sua comprensione. Personalmente, vedo la questione da un’altra prospettiva dove gli strumenti restano neutri. Non sono morali o immorali in sé, lo diventano a seconda di chi li utilizza e del contesto in cui vengono applicati. La responsabilità non appartiene al modello, ma alle persone e alle organizzazioni che lo impiegano. In questo senso, l’intervento di OpenAI non rappresenta forse un atto di controllo, ma probabilmente un esempio di progettazione consapevole, dove il limite tecnico serve a prevenire l’errore umano più che a imbrigliare la tecnologia. È una scelta di campo che parte dal presupposto che l’etica non risieda nel modello, ma nella capacità di chi lo costruisce di prevederne gli effetti e di applicarlo in modo coerente. Ed è proprio qui che la questione diventa concreta per le aziende.
Una lezione per le aziende
Il tema riguarda ogni impresa che utilizza sistemi generativi per interagire con clienti, dipendenti o partner. Nei settori regolati come assicurazioni, sanità, servizi finanziari, assistenza al cliente la linea che separa la risposta automatica dalla decisione effettiva è sempre più sottile. L’AI non va temuta perché pensa, ma gestita perché agisce, e i suoi effetti si manifestano nei processi, non nei principi. Per questo serve una data governance solida, capace di garantire qualità dei dati, tracciabilità delle fonti e chiarezza del contesto in cui il modello opera. L’obiettivo, dal mio punto di vista, non è controllare la tecnologia, ma assicurarsi che agisca nel perimetro giusto, lasciando alle persone la responsabilità ultima delle scelte. L’AI può amplificare la competenza, non sostituirla.
Conclusione
Il caso ChatGPT mostra come le nuove regole mirino a far emergere l’idea di un modello che riconosce i propri limiti e sceglie di fermarsi quando il rischio supera il beneficio. Possiamo forse interpretarlo come un segno di maturità tecnologica, non di censura. La sfida dell’AI non è più capire come farla parlare, ma come farla agire in modo coerente con i valori e gli obiettivi di chi la utilizza. L’intelligenza artificiale non è un soggetto da controllare, ma uno strumento da comprendere. Nella capacità di usarla con misura, trasparenza e responsabilità si gioca la differenza tra un impiego superficiale e un vero progresso.