top of page
  • Bianco Instagram Icona
  • Bianco LinkedIn Icon
  • Bianco Facebook Icon
  • Bianco Twitter Icon
  • Bianco icona di Google Play

Intelligenza Artificiale in Tribunale: Nessun Valore Probatorio per le Conversazioni con ChatGPT

a cura di Federico Romano

L'utilizzo dell'intelligenza artificiale nei procedimenti giudiziari sta generando casistiche sempre piu' complesse. Le recenti pronunce dei Tribunali di Ferrara, Milano e Mantova confermano un principio chiaro: le conversazioni con ChatGPT non hanno alcun valore probatorio e i professionisti che utilizzano l'IA senza adeguato controllo rischiano sanzioni processuali e disciplinari.

Un tema di estrema attualita' alla luce della L. 132/2025 e del Regolamento europeo sull'intelligenza artificiale (AI Act).

Il caso del Tribunale di Ferrara: la conversazione con ChatGPT come "prova"

Con l'ordinanza del 20 febbraio 2026, il Tribunale di Ferrara ha affrontato un caso emblematico: nell'ambito di un processo per risarcimento del danno, il difensore del ricorrente ha prodotto un documento denominato "conversazione con ChatGPT" a sostegno delle proprie pretese.

Il Tribunale ha rilevato che il documento era parziale - mancava il quesito originario formulato all'IA - e che la giurisprudenza citata non era pertinente al caso di specie. Il giudice ha evidenziato il fenomeno delle cosiddette "allucinazioni" dell'intelligenza artificiale, ovvero la generazione di risposte apparentemente plausibili ma prive di fondamento fattuale.

In definitiva, il Tribunale ha escluso qualsiasi valore probatorio alla conversazione con ChatGPT, qualificandola come output di un sistema che non e' in grado di garantire l'attendibilita' delle informazioni prodotte.

Il quadro normativo: AI Act europeo e L. 132/2025

La posizione del Tribunale di Ferrara si inserisce nel piu' ampio contesto normativo europeo e nazionale. A livello UE, l'art. 4-bis del Regolamento sull'intelligenza artificiale (AI Act) sancisce i principi di centralita' della persona umana, di supervisione umana e di trasparenza nell'utilizzo dei sistemi di IA.

Tali principi sono stati recepiti nell'ordinamento italiano dalla L. 132/2025, che ha introdotto specifici obblighi per i professionisti intellettuali. In particolare, l'art. 13 prevede:

  • Comma 1: il necessario primato del pensiero critico umano sui risultati prodotti dai sistemi di intelligenza artificiale

  • Comma 2: l'obbligo per il professionista di informare il cliente circa i sistemi di IA utilizzati nell'espletamento dell'incarico

Il Tribunale di Ferrara ha peraltro rilevato l'assenza di avvertimenti sull'impiego dell'IA nella procura alle liti conferita dal ricorrente, in violazione dell'art. 13, comma 2.

I precedenti di Milano e Mantova: atti redatti dall'IA senza controllo

Il caso ferrarese non e' isolato. Il Tribunale di Milano, con sentenza del 10 marzo 2025, ha sanzionato un legale che aveva affidato la redazione di un atto di citazione in opposizione a un sistema di intelligenza artificiale senza verificarne i risultati. A tradire il professionista e' stata una maldestra operazione di copia-incolla: nell'atto era rimasto il messaggio dell'IA che proponeva di proseguire con la redazione del documento.

Analogamente, il Tribunale di Mantova, nella sentenza del 24 marzo 2026, si e' confrontato con ben otto precedenti giurisprudenziali citati dalla parte nelle proprie memorie, del tutto inconferenti rispetto al thema decidendum e recanti l'affermazione di principi mai espressi dalle sentenze citate.

Le conseguenze per i professionisti

In entrambi i casi, il contegno processuale dei professionisti e' stato sanzionato con la condanna aggravata alle spese di giudizio. Il Tribunale di Mantova ha inoltre espressamente dichiarato di voler segnalare la condotta del legale all'ordine professionale competente per le eventuali valutazioni disciplinari.

Si delinea un orientamento giurisprudenziale chiaro: l'uso acritico dell'IA nella pratica forense espone il professionista a conseguenze sia processuali (condanna aggravata alle spese) sia deontologiche (segnalazione all'ordine).

Come utilizzare correttamente l'IA nella pratica professionale

Le pronunce analizzate confermano che, allo stato attuale, gli output dell'intelligenza artificiale non possono sostituire il lavoro di analisi, ricerca e verifica del professionista. L'IA puo' rappresentare uno strumento utile di supporto, ma i suoi risultati devono sempre essere sottoposti a un rigoroso controllo critico.

Il professionista e' e resta il garante dell'attendibilita' dei contenuti prodotti e ha l'obbligo di informare il proprio cliente dell'eventuale utilizzo di sistemi di IA, come previsto dall'art. 13 della L. 132/2025.

Tabella riassuntiva

Aspetto

Dettaglio

Normativa UE

Regolamento IA (AI Act), art. 4-bis - centralita' umana, supervisione, trasparenza

Normativa italiana

L. 132/2025, art. 13 - primato pensiero critico e obbligo informativo

Tribunale di Ferrara

Ord. 20/02/2026 - conversazione ChatGPT priva di valore probatorio

Tribunale di Milano

Sent. 10/03/2025 - atto redatto da IA con prompt residuo nel testo

Tribunale di Mantova

Sent. 24/03/2026 - 8 precedenti giurisprudenziali inesistenti

Fenomeno chiave

"Allucinazioni" IA - risposte plausibili ma prive di fondamento

Obbligo professionale

Informare il cliente sull'uso di IA (art. 13, co. 2, L. 132/2025)

Principio generale

Primato del pensiero critico umano sugli output IA (art. 13, co. 1)

Sanzioni processuali

Condanna aggravata alle spese di giudizio

Sanzioni disciplinari

Segnalazione all'ordine professionale competente

Domande frequenti (FAQ)

Le conversazioni con ChatGPT hanno valore probatorio nei processi italiani?

No. Come stabilito dal Tribunale di Ferrara (ordinanza 20/02/2026), gli output di ChatGPT non hanno alcun valore probatorio. I sistemi di IA sono soggetti al fenomeno delle "allucinazioni", producendo risposte che possono apparire plausibili ma risultano prive di fondamento fattuale e giurisprudenziale.

Cosa prevede l'art. 13 della L. 132/2025 sull'uso dell'IA da parte dei professionisti?

L'art. 13 stabilisce due principi fondamentali: il comma 1 sancisce il necessario primato del pensiero critico umano sui risultati prodotti dai sistemi di intelligenza artificiale; il comma 2 impone al professionista di informare il cliente circa i sistemi di IA utilizzati nell'espletamento dell'incarico.

Quali rischi corre un avvocato che usa ChatGPT per redigere atti processuali senza verifica?

I rischi sono sia processuali che deontologici: condanna aggravata alle spese di giudizio e segnalazione all'ordine professionale per valutazioni disciplinari, come avvenuto nei casi dei Tribunali di Milano e Mantova.

E' vietato utilizzare l'intelligenza artificiale nella pratica professionale?

No, l'utilizzo dell'IA non e' vietato. Tuttavia, il professionista deve sempre sottoporre i risultati a un rigoroso controllo critico (art. 13, comma 1, L. 132/2025) e informare il cliente dell'uso di tali strumenti (art. 13, comma 2).

Cosa sono le "allucinazioni" dell'intelligenza artificiale citate dal Tribunale di Ferrara?

Sono risposte generate dall'IA che appaiono verosimili e coerenti ma contengono informazioni errate, inventate o non verificabili. Nel contesto giuridico, si manifestano tipicamente come citazioni di sentenze inesistenti o riferimenti normativi non pertinenti.


Studio Romano e Associati

Commercialista Brescia

 
 
 

Commenti


bottom of page