L’AI nei tribunali italiani

La recente riapertura del caso Garlasco, avvenuta a maggio 2025 sulla base di nuove analisi forensi, ha riacceso dubbi e riportato sotto i riflettori i limiti del sistema giudiziario italiano. Ma le nuove tecnologie e le evidenze emerse offrono anche la possibilità di riaprire strade concrete nella ricerca della verità. In parallelo, e con molta meno attenzione mediatica, cresce il ricorso all’intelligenza artificiale all’interno dei tribunali, con sperimentazioni attive in città come Venezia, Genova, Bari, Pisa, Brescia e Firenze. Il Senato ha approvato una normativa che regola l’uso dell’IA negli uffici giudiziari, consentendone l’impiego come supporto, ma escludendone l’utilizzo per interpretazioni normative, valutazioni probatorie o decisioni finali. Quindi se il ruolo dichiarato è solo di “supporto”, vale la pena chiedersi cosa venga davvero automatizzato, su quali basi e con quali effetti concreti sull’equilibrio del sistema.

Cosa fa oggi l’IA nella giustizia italiana

Le applicazioni attuali riguardano la classificazione degli atti, la ricerca nei testi giurisprudenziali, la generazione di sintesi di precedenti e l’analisi statistica dei carichi di lavoro. Alcuni progetti, come PRODIGIT, puntano a facilitare il lavoro dei magistrati con strumenti di intelligenza artificiale capaci di estrarre contenuti da fascicoli complessi e suggerire collegamenti tra argomenti giuridici. PRODIGIT prevede la creazione di una banca dati nazionale di giurisprudenza tributaria di merito, accessibile pubblicamente, e l'implementazione di un modello di giustizia predittiva. Sono attività che, in apparenza, non sembrano invasive. Ma già a questo livello si pongono domande rilevanti. Chi decide quali atti sono “simili”? Su quali criteri si fonda l’analogia tra due sentenze? Cosa viene messo in evidenza, cosa lasciato indietro? Anche senza emettere giudizi, un sistema che ordina o suggerisce sta già orientando l’attenzione. E quando lavora su documenti giuridici, ogni suggerimento ha un peso reale.

I dati non sono mai neutri

Uno dei rischi più concreti è credere che l’oggettività di un algoritmo derivi automaticamente dalla neutralità del dato. Tuttavia, i dati giuridici non sono sempre omogenei o completi. Le banche dati giurisprudenziali possono presentare lacune, essere poco strutturate o non aggiornate, e la disponibilità delle sentenze varia significativamente tra le diverse giurisdizioni. Inoltre, un sistema addestrato su dati storici tende a replicare le regole implicite di quel contesto. Se una determinata tipologia di reato è stata storicamente trattata con maggiore severità in certe condizioni, l’algoritmo rischia di “apprendere” proprio questa distorsione come criterio implicito di classificazione o suggerimento. Queste considerazioni sottolineano l'importanza di una valutazione critica nell'implementazione dell'IA nel sistema giudiziario, per evitare che strumenti progettati per supportare possano, invece, introdurre nuove forme di iniquità.

L’IA non decide, ma può farci smettere di scegliere

La normativa è chiara nel ribadire che le decisioni giudiziarie restano di competenza umana. Ma nella pratica quotidiana, ogni sistema che classifica, propone, sintetizza o suggerisce agisce già da filtro. Se la maggioranza dei fascicoli evidenziati come “prioritari” segue uno schema ricorrente, quanto è realistico aspettarsi che vengano valutati con pari libertà rispetto agli altri? In un contesto spesso sovraccarico di lavoro, un suggerimento generato dall’algoritmo può diventare la base di partenza, anche inconsapevolmente. Questo non è un errore tecnico, ma un effetto sistemico. Il rischio concreto non è sostituire il giudice, ma influenzare il suo campo di attenzione prima ancora che inizi a decidere.

Conclusione

L’intelligenza artificiale può migliorare molti aspetti organizzativi della giustizia.
Ma quando entra in sistemi complessi, non basta dire che non prende decisioni.
Bisogna chiedersi su cosa si basa, cosa seleziona, cosa esclude e quale logica introduce. Se il diritto è anche cultura del dubbio, nessuna scorciatoia tecnologica dovrebbe farci perdere l’abitudine di chiedere cosa c’è dietro ogni automatismo.
Anche e soprattutto quando si presenta come semplice supporto. E questo vale anche per chi lavora in azienda. Ogni algoritmo che suggerisce, filtra o prioritizza è già parte del processo decisionale. Affidarsi agli automatismi senza interrogarsi sulla loro struttura non semplifica. A lungo andare, rischia di indebolire proprio ciò che dovrebbe rafforzare ovvero la capacità di scegliere.