Il caso di Siracusa riaccende il dibattito sull’uso dell’intelligenza artificiale nelle aule giudiziarie. Un avvocato è stato condannato dal tribunale per avere utilizzato in modo scorretto uno strumento di intelligenza artificiale generativa nella difesa del proprio assistito, senza verificare con attenzione le fonti primarie richiamate negli atti.
Secondo quanto ricostruito dal giudice, la difesa aveva citato tra virgolette alcuni passaggi attribuiti a quattro sentenze della Cassazione. Le verifiche successive hanno però accertato che quei contenuti, pur riferiti a pronunce realmente esistenti, appartenevano in realtà ad altre decisioni e trattavano argomenti diversi. Un errore che il tribunale ha ritenuto grave, parlando apertamente di “colpevole negligenza”.
Intelligenza artificiale e sentenze inventate, cosa dice il tribunale
Nel provvedimento il giudice chiarisce un punto centrale: i modelli di intelligenza artificiale generativa non sono banche dati giurisprudenziali da cui estrarre precedenti affidabili, ma strumenti capaci di produrre testo sulla base di meccanismi statistici e probabilistici. Proprio per questo, ogni output deve essere controllato prima di essere utilizzato in un procedimento.
Per il tribunale, errori di questo tipo non possono più essere considerati semplici imprecisioni. In ambito legale, infatti, un uso acritico dell’intelligenza artificiale può compromettere la qualità della difesa e incidere direttamente sull’esito della causa. In questo caso il cliente ha perso il giudizio, mentre per il legale è arrivata una triplice sanzione: 14.103 euro di spese legali a favore della controparte, altri 14.103 euro per lite temeraria e 2.000 euro destinati alla Cassa delle Ammende. Una decisione che lancia un messaggio netto: l’intelligenza artificiale può aiutare, ma non sostituire il controllo umano.

