Le “Quattro sentenze fantasma” e la multa da 30.000 euro: cosa insegna il caso dell’avvocato e ChatGPT a chi usa l’IA

L’errore non è stato chiedere aiuto all’algoritmo, ma dimenticare la differenza tra un motore di previsione linguistica e una banca dati giuridica.

Il recente caso giudiziario riportato da NT+ Diritto del Sole 24 Ore ha scosso il mondo forense: un avvocato è stato sanzionato per aver depositato in Tribunale un atto contenente quattro “sentenze fantasma” e per aver causato un danno erariale di 30.000 euro (per la trasferta inutile dei magistrati e la sospensione del processo).

Analizzando la vicenda dal punto di vista SEO, linguaggio LLM e Intelligenza Artificiale, emerge un quadro chiaro su dove si annida l’errore fatale. Non si tratta di un “bug” dell’IA, ma di un errore umano di interpretazione dello strumento. Ecco una guida pratica per tutti gli avvocati che vogliono sfruttare l’AI senza finire nel codice deontologico.

1. La prospettiva LLM: l’allucinazione non è una bugia, è una statistica

Per capire cosa è successo in quella memoria difensiva, dobbiamo abbandonare la metafora umana della “menzogna” e abbracciare il concetto tecnico di allucinazione (hallucination) .

  • Come funziona un Large Language Model (LLM) come ChatGPT: Non è un database che consulta sentenze vere. È un modello probabilistico addestrato a prevedere la parola successiva più plausibile in una sequenza di testo.
  • L’errore dell’avvocato: Probabilmente ha posto un prompt del tipo: “Cercami sentenze della Cassazione sul danno da vacanza rovinata”.
  • La risposta del modello: L’LLM, per compiacere l’utente e completare la richiesta, ha generato un testo che suona giuridicamente perfetto. Ha creato nomi di parti plausibili (es. Rossi vs Alfa Viaggi), numeri di sentenza credibili (es. Cass. Civ. 1234/2023) e massime coerenti con l’istituto giuridico.

La verità tecnica: Il modello non sa se *Cass. Civ. 1234/2023* esiste davvero. Sa solo che, statisticamente, dopo la parola “Cassazione” seguono spesso “Civile”, “numero”, “Sezioni Unite” e un anno. L’LLM è un motore di scrittura creativa, non un motore di ricerca forense. L’errore sanzionato dalla Corte è stato scambiare la coerenza linguistica per verità fattuale.

2. La prospettiva SEO e della ricerca online: perché Google non c’entra

Molti avvocati oggi usano l’AI anche per scrivere articoli sul proprio blog per posizionarsi sui motori di ricerca (SEO) . Il caso delle sentenze fantasma offre una lezione parallela sul costo reputazionale dell’uso acritico dell’IA.

  • Il falso mito dell’autorevolezza automatizzata: Un contenuto generato dall’IA senza fact-checking è il nemico numero uno delle nuove linee guida di Google sull’EEAT (Experience, Expertise, Authoritativeness, Trustworthiness) . Se un avvocato pubblica un articolo con una citazione giurisprudenziale inventata dall’AI, non sta migliorando la sua SEO. Sta minando la Trustworthiness (Affidabilità) del suo sito. Google penalizza i contenuti che diffondono disinformazione fattuale, specialmente nei settori YMYL (Your Money or Your Life) come la consulenza legale.
  • Il controllo incrociato è l’unica SEO che conta: L’avvocato del caso Sole 24 Ore ha scoperto l’errore solo dopo aver cercato le sentenze su una banca dati ufficiale (e non trovandole). Questo passaggio è cruciale anche per chi scrive articoli: L’AI scrive la bozza, ma il professionista deve firmarla dopo la verifica su DeJure, OneLegale, Pluris o il CED della Cassazione.

3. La prospettiva operativa: come usare l’IA in studio senza rischiare la sospensione

Alla luce di questa vicenda, ecco il vademecum definitivo per l’avvocato digitalizzato.

Dove l’IA è oro colato:

  • Sintesi di documenti lunghi: Caricare una CTU di 200 pagine e chiedere un riassunto dei punti salienti. L’IA lavora su un perimetro chiuso e verificabile (il PDF che le hai dato tu).
  • Brainstorming giuridico: “Quali potrebbero essere le eccezioni procedurali in questo caso?” L’IA ti suggerirà piste (es. eccezione di incompetenza, prescrizione) che poi tu verificherai con il codice commentato.
  • Riscrittura di testi in “italiano chiaro”: Per rendere comprensibile al cliente una clausola oscura.

Dove l’IA è una bomba a orologeria (se usata da sola):

  • Ricerca giurisprudenziale: Mai chiedere a ChatGPT “Dammi la sentenza più recente su X”. Usare strumenti di Legal Tech certificati che integrano AI ma ancorano la risposta a un database reale e aggiornato (es. GPT legali con Retrieval-Augmented Generation – RAG).
  • Calcoli di termini processuali: L’IA sbaglia i conteggi del 90% delle volte.
  • Redazione dell’atto finale senza supervisione: È il dovere di controllo sancito dal Codice Deontologico Forense (art. 14 e 20). L’avvocato è responsabile dell’atto che firma, sia che lo scriva a penna, a macchina o con l’IA.

Conclusione: L’intelligenza è artificiale, la responsabilità è reale

Le “quattro sentenze fantasma” e i 30.000 euro di danno non sono il fallimento di ChatGPT. Sono il sintomo di un approccio acritico alla tecnologia. Come ha sottolineato la giurisprudenza sul caso, l’errore non sta nell’aver usato lo strumento, ma nell’aver abdicato al dovere di diligenza professionale.

Per l’avvocato moderno, l’IA è un giovane praticante brillante ma inaffidabile con la memoria a breve termine: lavora velocissimo, scrive benissimo, ma va controllato a vista su ogni singola virgola legale. Usiamolo per farci aiutare, mai per farci sostituire.