di Elisabetta Zimbè Zaire – Avvocato in Busto Arsizio
L’intelligenza artificiale (IA) ha ormai trovato una stabile collocazione all’interno degli studi legali, offrendo strumenti avanzati per la ricerca giuridica, la sintesi delle informazioni e la redazione di testi normativi e processuali. Tuttavia, l’utilizzo di modelli generativi come ChatGPT – che possono produrre contenuti verosimili ma talvolta privi di fondamento oggettivo – comporta rischi significativi che non possono essere ignorati. A tal proposito, la recente sentenza del Tribunale di Firenze, datata 14 marzo 2025, affronta per la prima volta in Italia le implicazioni giuridiche e deontologiche legate all’utilizzo di IA nella citazione di decisioni giurisprudenziali inesistenti, fornendo spunti importanti per una riflessione critica sui limiti dell’innovazione tecnologica nell’ambito del processo civile.
Massima
L’errata citazione in atti difensivi di pronunce giurisprudenziali inesistenti, generate da un sistema di intelligenza artificiale, non integra di per sé responsabilità ex art. 96, comma 1, c.p.c., ove sia escluso che tale condotta abbia inciso sulla decisione del giudice o alterato in modo significativo il regolare svolgimento del processo.
Il caso
Nel corso di un giudizio civile ordinario innanzi al Tribunale di Firenze, la parte convenuta depositava una comparsa di risposta in cui venivano citate alcune pronunce giurisprudenziali a sostegno della propria tesi difensiva. Tali sentenze, apparentemente coerenti e pertinenti, si sono rivelate inesistenti: erano state generate da un modello di intelligenza artificiale (ChatGPT), utilizzato da una collaboratrice dello studio legale, senza che vi fosse alcuna attività di verifica sull’effettiva esistenza dei riferimenti giurisprudenziali.
A seguito della scoperta, la parte attrice proponeva istanza ex art. 96, comma 1, c.p.c., chiedendo la condanna della controparte per lite temeraria, ritenendo che l’uso di sentenze inventate avesse compromesso la correttezza e la regolarità del processo.
La decisione
Il Tribunale di Firenze ha respinto la domanda risarcitoria, escludendo la sussistenza dei presupposti per configurare una responsabilità aggravata ai sensi dell’art. 96 c.p.c. In particolare, il giudice ha osservato che:
«L’errata citazione di sentenze inesistenti, laddove non abbia inciso in modo determinante sulla formazione del convincimento del giudicante, non è di per sé sufficiente a configurare un’ipotesi di lite temeraria».
Il Tribunale ha quindi valutato l’episodio sotto il profilo processuale, ritenendo che l’inserimento di riferimenti giurisprudenziali fittizi, sebbene connotato da grave superficialità, non avesse avuto un impatto decisivo sull’esito della controversia, né compromesso la parità delle armi tra le parti.
Osservazioni
La pronuncia in commento assume particolare rilievo per almeno tre profili.
- In primo luogo, rappresenta il primo precedente giurisprudenziale noto in Italia in cui un giudice si confronta con l’uso improprio di sistemi di intelligenza artificiale generativa nella redazione degli atti processuali.
- In secondo luogo, si pone il tema della rilevanza processuale di errori “digitali”, ossia della citazione di materiale giuridico creato artificialmente ma non verificato;
- Infine, la decisione richiama l’attenzione sul concetto di “hallucination” proprio dei modelli linguistici, ossia la generazione di contenuti verosimili ma privi di riscontro reale.
Il giudice ha infatti preso atto che le sentenze citate non erano reperibili in alcuna banca dati ufficiale, pur essendo costruite in modo plausibile sotto il profilo formale e argomentativo.
L’approccio del Tribunale di Firenze si mostra, per ora, improntato a una valutazione concreta degli effetti prodotti nel processo, piuttosto che a una sanzione formale dell’irregolarità.