ISSN 2704-8098
logo università degli studi di Milano logo università Bocconi
Con la collaborazione scientifica di

  Articolo  
04 Settembre 2025


Interpretazione umana e robotica (breve riflessione sul possibile ingresso dei Large Language Models nella giurisdizione)


Il presente testo è, con poche modifiche, estratto da “L’elaborazione dottrinale e nomofilattica del diritto vivente” (relazione al Convegno, UICP, “La legge e i giudici. Giurisprudenza creativa ed erosione del principio di stretta legalità”, Roma, 21-22 febbraio 2025, Roma), destinato a pubblicazione sulla rivista Indice penale.

 

***

 

Il tema dell’interpretazione giuridica è destinato a perdere centralità con l’inevitabile ingresso dell’AI generativa nella giurisdizione. I LLMs garantiranno maggiore efficienza ed uniformità di giudizio, nonché, probabilmente, una riduzione dei biases; d’altra parte, comprimeranno però la vitale dimensione ermeneutica dell’interpretazione. Poiché la qualità della base conoscitiva dei diversi LLMs sarà decisiva per garantire decisioni affidabili, è urgente assicurare sin da oggi i migliori dati giuridici sui quali gli algoritmi dovranno in futuro allenarsi. 

***

 

1. La natura dell’interpretazione gius-penalistica “umana” e le ragioni del suo possibile superamento. 

Sia in ambito dottrinale gius-penalistico, sia – soprattutto – in quello teoretico-filosofico generale, il tema dell’interpretazione non sembra più destare l’interesse che suscitava fino a qualche tempo fa, quando polarizzava una (almeno apparente) contrapposizione tra concezioni dichiarative (nella dottrina giuridica penalistica) e analitiche (in filosofia), da una parte, e concezioni pragmatiche, dall’altra.

Presso gli studiosi del diritto penale, la ragione del calo di attenzione probabilmente risiede nell’acquisita consapevolezza che il contestualismo interpretativo (e, quindi, il pragmatismo) rappresenta una necessità indotta dal sistema multilivello delle fonti e dall'avvento del costituzionalismo di marca europea. In altre parole, dipende dalla rassegnazione. Sicché l’attenzione della dottrina (e non soltanto di tale formante) sembra conseguentemente dirottata verso il capitolo della prevedibilità dell’esito giudiziario[1], che senza dubbio conforma da tempo l’art. 25 Cost., ma che rischia di diventare il nuovo mantra penalistico.

Per quel che vale, personalmente, come un tempo[2], continuo a pensare che le concezioni pragmatiche, valorizzando il ruolo del contesto allo scopo di disambiguare e specificare il senso delle parole e delle proposizioni, anche a prescindere dall’irruzione del c.d. multilevel siano più convincenti delle teorie semantiche pure e di quelle sintattiche: più ricco di informazioni è il “senso” delle parole – che deriva dalla reciproca loro intersezione, dal confronto con il fatto e dalla assiologia distale – rispetto al solo “significato”, inteso come riferimento ad una realtà esterna che intenderebbero designare sulla base di una visione rigidamente corrispondentista.

Nella misura in cui le concezioni (semantico-)pragmatiche, oltre a richiamare l’attenzione sul modo d’uso delle parole, strizzavano l’occhio al ruolo dei parlanti, hanno accolto nel proprio seno le concezioni ermeneutiche[3], alle quali non ci si stanca di riconoscere il merito di aver denunciato peso e insidie del pre-giudizio interpretativo e di aver quindi lanciato un importante monito, sul piano etico, all’operatore del diritto (non necessariamente individuo singolo), invitato a riconoscere e, ove possibile, a dichiarare all’interlocutore il contesto culturale in cui matura la propria, invariabilmente soggettiva, lettura del testo.

Le concezioni pragmatiche ed ermeneutiche assicurano un confronto più franco tra argomenti[4], e quindi, almeno sul piano astratto, il miglior esito interpretativo; hanno promosso il dubbio nella sua fondamentale funzione euristica, vieppiù valorizzabile nel momento attuale, caratterizzato da una sistematica mortificazione del pensiero critico; hanno, in definitiva, celebrato l’interpretazione quale impresa conoscitiva “comune”, realizzata, a vario titolo e con diverse modalità, dai plurimi protagonisti di una unica comunità, con un effetto responsabilizzante ma in termini che oggi appaiono forse irenici (per varie ragioni, la più evidente delle quali è il pluralismo ideologico. Io mi soffermerò, tuttavia, su un altro aspetto).

Più interessante sarebbe indagare le ragioni del disinteresse nell’ambiente filosofico generale, dove oggi non si calcola certo il numero di pubblicazioni che invece gremivano il panorama letterario fino a qualche anno fa.

Vero è che tale disinteresse potrebbe anche qui discendere dalla “vittoria” delle concezioni di marca costruttivista dello scorso secolo.

Ma – è solo un’ipotesi, oltretutto azzardata –, nemmeno può escludersi che il “vuoto” attuale sia, al contrario, in qualche modo legato alla percezione, ardua da elaborare psicologicamente, dell’imminente superamento anche di tali visioni, destinate all’obsolescenza e quindi a divenire superflue per effetto dell'avvento di un modo diverso di pensare che, non a caso, sta catalizzando gli studi in tutti i domini di conoscenza.

Tale pensiero è simile a quello “umano” che ben conosciamo e su cui pragmatisti ed ermeneutici del Novecento hanno costruito le proprie categorie (“senso”, “implicature conversazionali”, “pre-giudizio”, “circolo” o “spirale” ermeneutica e così via), ma al tempo stesso ne diverge (vd. infra). Soprattutto, per quel che qui conta, tende a sostituirvisi.

Alludo al pensiero delle “macchine” o, meglio, all’intelligenza artificiale (generativa), il cui avvento nel diritto, anche giurisprudenziale di legittimità, si preannuncia inevitabile e prossimo.

Quando constateremo tale ingresso nella pratica del diritto, in un breve volger di tempo, il capitolo dell’interpretazione, per come lo conosciamo, potrebbe divenire inutile perché superfluo, ed essere sostituito, nei manuali, da vademecum dal contenuto ancora opaco per il giurista.

 

2. Vantaggi del probabilmente non più dilazionabile avvento dell’AI generativa nella giurisdizione.

Sarebbe infatti inutile nascondersi che – più presto che tardi – la pressione dei numeri veicolerà l’ingresso nella giurisdizione e, per quel che più mi riguarda[5], in Corte di cassazione, dell’AI generativa e, in particolare, dei Large Language Models (LLMs)[6].

Con ogni probabilità, dapprincipio, i LLMs apporteranno benefici alla giurisdizione di legittimità, quantomeno nella prospettiva efficientista che ha ormai preso piede in termini probabilmente non più reversibili.

Altrove ho tentato di stilare una sinossi dei vantaggi e degli svantaggi relativi al ricorso all’AI generativa in questa materia[7].

Tra i primi annoveravo, oltre all’implementazione della “produttività” del sistema (termine orribile, ma evocativo del futuribile scenario), la più agevole stabilizzazione del precedente giudiziario (vd. infra).

Ora aggiungo che, a ritenere quest’ultimo obiettivo “cogente” (ciò che, secondo me, non dovrebbe essere), potrebbe passare in second’ordine il “particolare” che l’esito giudiziario sia o meno condivisibile (ben argomentato). Pure ammettendo che si rivelerebbe più fallibile dell’uomo (ma non è chiaro che sia così), l’AI generativa, a monte, soddisferebbe quell’esigenza di eguaglianza che si è ricordato esserne il fondamento, posto che attuerebbe una sorta di “lotteria”, della giustizia o ingiustizia che sia, comunque cieca e quindi democratica.

Volendo, si potrebbe aggiungere che il suo ingresso nel diritto in action fugherebbe pure quel sospetto di parzialità che, complici strumentali campagne di discreto, sta pericolosamente minando la fiducia del corpo sociale nella magistratura.

O, forse, al contrario, attraverso l’AI si potrebbe implementare il discorso giuridico, il confronto tra argomenti alla base della soluzione del singolo quesito. Molto dipenderà da come il sistema sarà in concreto strutturato – essenzialmente dalla selezione della sua base conoscitiva – e da come verrà usato, sui prompts che ad esso verranno dati (tornerò su entrambi gli aspetti).

Quanto agli svantaggi, sempre con riguardo al prossimo futuro, ne suggerivo un ridimensionamento.

Sottolineavo infatti come, a fronte di performance – quelle della “macchina” – incomparabilmente superiori, in molti ambiti, alle umane (l’AI è capace di processare enormi quantitativi di dati in tempo rapidissimo ed ha una straordinaria capacità di pensiero “logico”), sempre in una prospettiva di “comparazione”, pressocché tutti i difetti che si lamentano generalmente nell’AI generativa già si ritrovano, oltretutto spesso amplificati, nel giudizio umano.

Emblematico è il “non” tema dei biases, pur enfatizzato nella prima fase del dibattito[8].

Si pensi alle prognosi di recidivanza. C’è da scommettere che un Judge-bot ben programmato ne formulerebbe meno di quanto faccia oggi il giudice-uomo, e con “ragioni” (statistiche) migliori. Non alludo all’uso “umano” di formule più o meno stereotipate per affermare la pericolosità sociale, ma al fatto che, mentre le prognosi negative sono falsificabili laddove l’imputato, libero, torna a delinquere, quelle positive le quali esitino nella restrizione (o nel mantenimento della restrizione) della libertà personale lo sono, per intuibili ragioni, in misura nettamente inferiore, sicché il nostro pregiudizio nei confronti della “macchina” molto probabilmente è, a sua volta, frutto di un … pregiudizio[9].

Analogamente, anche il problema delle black boxes dell’AI non sembra molto diverso dalla impenetrabilità dei meccanismi del ragionamento umano ed è, compensato, da ambo le parti, dal ruolo – e la cui importanza è sempre più avvertita – della motivazione a sostegno dei provvedimenti giudiziari.

Allora concludevo ipotizzando che il minus dell’AI stesse nel fatto che, non avendo un corpo composto di carne e di sangue, difettava di quelle competenze emotive che sono – a mio avviso[10] – fondamentali ai fini delle intuizioni e quindi del ragionamento giuridico nei “casi difficili”, in cui fallisce la classica prospettiva razionalistica (peraltro, secondo la visione tradizionale, le emozioni rappresentano un fattore di distorsione del giudizio[11], sicché nulla quaestio).

Adesso, nonostante il poco tempo trascorso, alla luce degli ulteriori velocissimi progressi testimoniati nel campo dell’AI generativa, questa certezza comincia a vacillare.

Preciso: certamente il Judge-bot non “prova” alcunché e, quindi, non è capace di una “comprensione incarnata”[12], che resta ancora il tratto distintivo (e di superiorità) dell’uomo sulla “macchina”[13].

Tuttavia, se guardiamo all’empatia come ad una “teoria della mente” (“io so che tu sai ecc.” oppure “io so che tu provi ecc.”), ebbene, allora dobbiamo con onestà riconoscere che anche l’AI può essere (o apparire: ai fini giuridici non cambia molto) empatica e simulare emozioni. Qualunque banale esercizio con il LLM di uno smartphone lo dimostra.

Sotto tale profilo ed almeno in astratto, l’AI sarebbe quindi in grado di modulare il discorso giuridico con maggiore competenza sul caso concreto.

Il che infrangerebbe un altro tabu, forse l’ultimo, che si frapponeva, dal mio personale punto di vista, al ricorso all’AI generativa nell’attività giurisdizionale.

E spiega l’urgenza che la riflessione sulle potenzialità dello strumento si svolga in modo scevro: per un verso, dai pregiudizi legati alla nostra sistematica e un po’ narcisistica sopravvalutazione delle capacità umane; per altro verso, dal timore – questo, a detta degli esperti, non del tutto infondato – di non poter esercitare un controllo sulla c.d. super-intelligenza, la quale cesserebbe di essere etero-guidabile, per cominciare (sempre che non lo abbia già fatto) a “prendere decisioni”[14] secondo schemi non dissimili da quelli che chiamiamo “autodeterminazione” (concetto pressocché demolito dalla ormai ponderosissima letteratura neuroscientifica degli ultimi decenni).

 

3. Precisazioni incidentali. 

Impostando il discorso in un un’ottica così depurata, come si sente spesso ripetere, l’attenzione dovrebbe spostarsi dal risultato alla domanda formulata all’AI.

Premesso che i LLMs sono estremamente sensibili alla formulazione delle domande o prompt – piccole variazioni dei quesiti possono produrre risposte anche molto diverse (dal che il fenomeno della loro brittleness o fragilità) –, si imporrebbe ovviamente un’apposita formazione dei magistrati all’interazione con tali modelli, nel segno del prompt engineering.

Il giudice sarebbe infatti chiamato ad interagire dialogicamente con la macchina, cercando di indirizzarla attraverso aggiustamenti successivi delle domande, evitando di sollecitare risposte “secche” (come invece si fa quando si interroga un motore di ricerca) e coltivando la capacità di riconoscere le "allucinazioni informatiche” (probabilmente, sarebbero all’uopo immaginati anche specifici sistemi di valutazione della qualità di tale interazione).

A tali condizioni, i LLMs, grazie alla loro capacità di processare un numero di dati inimmaginabile per la mente umana, diverrebbero, anche in Corte di cassazione, uno strumento importantissimo nella prospettiva della cosiddetta “intelligenza aumentata”, e cioè di un dialogo proficuo tra uomo e macchina, di una cooperazione cognitiva complementare tra i due.

 

4. Rischi. 

Tuttavia, non credo possa dirsi quali effetti la trasformazione avrà nel medio-lungo termine sull’impresa interpretativa: molto dipenderà da come l’AI evolverà da sé e un po’ da come noi decideremo di costruire il sistema.

Certamente, ad oggi, sul piano generale, la comprensione ad opera dei LLMs è ancora superficiale.

I LLMs, si basano, esattamente come si è visto accadere per l’interpretazione umana del testo, sulla “teoria dell’uso” (pragmatica, contestualistica) del linguaggio.

Essi dominano bene le regole sintattiche e la semantica-pragmatica: completano le frasi sulla base degli enormi dati a loro disposizione e si mostrano dunque abili nel coglierne il senso in base al contesto cui attingono: quindi, intercettando regolarità statistiche.

Non dominano, invece, altrettanto bene la semantica pura che, da sola è insufficiente, ma comunque essenziale all’interpretazione.

Come l’uomo, “comprendono” in senso pragmatico, in ragione dei contesti in cui le parole e le frasi sono state già utilizzate.

Tuttavia, a differenza dell’uomo, non sono (ancora) capaci di penetrare il senso delle une e delle altre. Ad esempio, non sono capaci di ironia: dissimulazione verbale che presuppone, appunto, uno scostamento intenzionale dal senso tipico delle parole e delle proposizioni.

A differenza dell’uomo, non hanno (ancora) accesso al mondo fattuale – ma un trend consiste nel consentirlo attraverso sensori[15] - e quindi non dispongono di quella base di conoscenza concettuale innata, affinata nell’uomo da millenni di evoluzione biologica.

Forse per questa ragione, nemmeno sono (ancora) capaci di vero ragionamento causale, ovvero di penetrare il “perché” delle cose e, quindi, le ragioni delle domande che ad essi rivolgiamo[16].

I LLMs sono stati paragonati ad un potente specchietto retrovisore, capace di vedere lontano nel passato, di analizzare enormi quantità di dati, ma i cui fari illuminano solo un passo alla volta, il che li rende eccellenti nel riconoscere schemi e riprodurre stili, ma inetti nel costruire strutture che richiedono una visione di insieme[17].

Allo stato, difettano, dunque, in creatività e in generazione veramente originale[18], né può dirsi se le acquisiranno (i tanti progressi compiuti fanno invero propendere per il sì) e quando.

Scendendo alla materia specifica del diritto, se, come poc’anzi ricordato, ciò è un bene nel breve periodo e per chi fideisticamente creda nella prevedibilità dell’esito giudiziario, non lo è per chi continua invece a pensare che il diritto, proprio in quanto strumento di governo della realtà, debba evolvere con essa, anche a costo di disorientamenti; per chi – sopra a tutto – avverte il rischio che la giurisprudenza perda la propria vitalità, divenendo un uni-dimensionale, piatto, “dato tra i dati” [19]; per chi teme venga negata, quanto specificamente al formalizzato giudizio di Cassazione, la già fisiologicamente compressa dimensione ermeneutica e quindi assiologica dell’interpretazione.

Senza evocare i soliti scenari distopici che fanno “il paio” con la trattazione di questi temi, potrebbe infatti non reggere ancora a lungo l’immagine[20] di una “AI-strumento”, mero ausilio nelle mani sapienti del giudice, che mantenga il dominio sul processo decisionale e sulla sentenza.

E rivelarsi troppo ottimistica pure la narrazione di una cooperazione dialogica tra i due nell’evocata prospettiva di una intelligenza “aumentata”[21] o “estesa”.

L’inevitabile progressiva assuefazione e quindi il crescente affidamento dell’uomo nei confronti delle macchine è un fenomeno ben noto perché scritto nella storia dell’uomo. Si è già verificato, ad esempio, con l’avvento dei calcolatori elettronici in tanti ambiti di precisione e, comunque, di tanti strumenti tecnologici il cui uso quotidiano ci ha privato, gradualmente e in modo inconsapevole, di abilità un tempo spiccate, tra cui, per restare ad esempi recenti, la capacità di ricordare lunghe sequenze numeriche (anche se, probabilmente, altre ce ne ha consegnate).

Se, quindi, è prevedibile che il lavoro dell’uomo, in una prima fase, tragga giovamento da quello delle macchine, che rappresenteranno una potente “protesi cognitiva”[22] e dunque “interpretativa” dell’uomo, altrettanto prevedibilmente, però, tale controllo tenderà ad affievolirsi con il progressivo affinamento dei LLMs, sino a sfociare in un acritico affidamento nel materiale da essi processato. Esito che, invece, genera disagio.

Più nel particolare, quando farà ingresso nella giurisdizione, l’AI generativa coadiuverà il giudice nella redazione del “ritenuto in fatto” (come d’altronde già oggi possibile, grazie a LLMs disponibili anche gratuitamente su internet), ma sarebbe vano nascondersi che, dopo un po’, potrebbe essere usata altresì per la redazione del “considerato in diritto”.

Sarà, cioè, difficile che il giudice-uomo si sottragga alla tentazione, sempre nella prospettiva dell’auspicata deflazione giudiziaria, di interrogare l’algoritmo anche sulla soluzione giuridica del caso.

Tale passaggio dovrebbe ovviamente presupporre la realizzazione di sistemi informatici che, per funzionare meglio dell’intelligenza umana, si basino – come è stato rilevato – su tre condizioni: una buona teoria; la disponibilità di dati attendibili; “un mondo stabile” [23].

Ebbene, probabilmente tutte e tre le condizioni sono già oggi realizzabili dal punto di vista tecnico, nonostante, come dirò immediatamente di seguito, implichino scelte di fondo dai risvolti tutt’altro che assiologicamente neutri.

Ignoro se nelle stanze del Ministero della Giustizia si stia già lavorando ad un piano in tal senso e quale sia il materiale su cui eventuali LLMs dovranno allenarsi (la peculiarità di ciascun grado di giudizio suggerisce l’uso del plurale).

Sicuramente, dovranno essere costruiti “sistemi chiusi” in cui rifluiscano soltanto dati attendibili e verificati, così da neutralizzare o contenere al massimo i fenomeni di c.d. allucinazione informatica.

È anche indubbio che la selezione di tale base informativa deciderà la qualità ed il tasso deliberativo (sempre in senso filosofico) dell’attività giudiziaria. Definirà, cioè, il “modello di mondo” su cui ogni macchina dovrà addestrarsi e che poi contribuirà essa stessa a plasmare.

Ovviamente, in tale base conoscitiva rifluirà, oltre alle banche dati legislative ufficiali, il repertorio giurisprudenziale del CED.

Ma per intero? L’algoritmo dovrà attingere soltanto alle massime oppure anche alla giurisprudenza “sommersa” (non massimata e decisamente molto più estesa, non sempre meno interessante)? È chiaro che più si allarga la base conoscitiva, più la decisione sarebbe democratica perché, almeno in astratto, maggiormente ricca di ragioni.

Inoltre, l’algoritmo dovrebbe poter “pescare” anche dalla giurisprudenza costituzionale interna e sovranazionale e, su un piano diverso, dalla dottrina delle banche-dati o da quella su internet, purché “certificata” (sottoposta a peer review).

Anche qui, però, da quale? Soltanto da quella delle Riviste di fascia A o da tutta la letteratura giuridica? E dovrebbero essere messe a disposizione dell’algoritmo pure le monografie? Auspicabilmente sì, dal momento che recano contributi più approfonditi e talvolta illuminanti, sebbene non sempre direttamente spendibili in risposta a questioni su casi concreti.

Ancora, sarà probabilmente necessario individuare espedienti tecnici per attivare sbarramenti cronologici idonei ad assicurare la correlazione tra giurisprudenza/dottrina e contesto temporale in cui una data normativa è/è stata vigente (è peraltro ben nota la frenetica e molto problematica tendenza legislativa alla continua novazione) – aspetto di particolare rilevanza soprattutto nel diritto penale, per le ragioni di successione intertemporale – ma anche semplicemente per evitare la proposizione di soluzioni non più al passo con i tempi.

Nella elaborazione di una “buona teoria” l’algoritmo potrebbe per larga parte giovarsi (più che della problematica “algoretica”) di quell’assetto consolidato di valori che sono i principi giuridici, allenandosi ad operarne il bilanciamento nel caso concreto.

E giungiamo qui alla terza condizione –il “mondo stabile” – alla quale l’AI può “battere” l’intelligenza umana, la cui natura intuitiva si è rivelata finora superiore nei compiti svolti in contesti incerti e mutevoli.

Più chiaramente, se il diritto deriva dall’integrazione di testo e contesto, va considerato come il contesto fattuale sia in sempre più veloce evoluzione e che su di esso l’AI dei LLMs può ancora poco, dal momento che, come poc’anzi evidenziato, non lo può cogliere in sé, e quindi considerare.

Il contesto è però anche quello giuridico (fatto di formanti legislativi, giurisprudenziali e dottrinali) e su questo, invece, gli LLMs sarebbero in grado di operare molto bene.

Si porrà quindi espressamente il quesito relativo al “peso” da assegnare a ciascuno dei due contesti (fattuale e giuridico) che dipende, a sua volta, dal “punteggio” che si attribuisca all’obiettivo della stabilità dell’orientamento giurisprudenziale. Posto che, volendo, il sistema giuridico può essere formalizzato e quindi stabilizzato in misura superiore rispetto ad altri domini di conoscenza (si pensi all’economia, dove le molte variabili geo- e socio-politiche, oltre al lato emotivo delle scelte[24], rendono la materia “indeterministica” e quindi gli esiti impredicibili anche dalla macchina), quando e in che misura ciò dovrebbe accadere?

Si tratta di problemi di un certo rilievo – mille altri sicuramente si pongono, che sfuggono alla mia immaginazione – sui quali piace pensare sia all’opera una task force interdisciplinare di esperti che probabilmente trarrebbero beneficio da un confronto allargato (anzi, l’apertura del dibattito all’intera comunità dei giuristi pare un dovere morale, vista la posta in gioco).

Ciò su cui voglio però insistere in questa sede è il rischio che l’AI finisca con l’avere, nei fatti, la meglio sull’interprete-uomo.

Ferma la necessità di pensare a meccanismi di salvaguardia o protocolli operativi per il giudice, volti a mantenere l’accountability del sistema e la supervisione umana sul processo decisionale generato dall'AI, il controllo dell’interprete-uomo ovviamente non potrà insistere sui meccanismi che dal punto di vista tecnico governano il processo conoscitivo dell’algoritmo.

Nonostante ogni accorgimento, esso finirà ineluttabilmente con il concentrarsi soprattutto sulla c.d. giustificazione interna del prodotto finale-sentenza, e cioè sul percorso logico-argomentativo che dalle premesse conduce alla conclusione.

Il che sarebbe però un mero palliativo, visto che, in base alle molte evidenze disponibili in altri ambiti, nello svolgimento di tale compito la “macchina” promette prestazioni ampiamente superiori a quelle del giudice-uomo (ai pochi scettici residui faccio esemplificativamente presente di essermi avvalsa del LLM ChatGPT nella versione, obsoleta, gratuitamente disponibile su internet per redigere l’abstract di questo testo, e che ho trovato l’output rispondente ai contenuti che ho inteso esporre).

Più difficilmente il giudice-uomo sarà in grado di esercitare un controllo completo sulle premesse, stante, in molti casi, la loro mole e l’annessa difficoltà – se non, a volte, impossibilità – di verificare in modo puntuale tutto il materiale utilizzato per la loro costruzione: e ciò soprattutto se la base conoscitiva sarà – come auspicabile – assai ampia.

Sicché la competenza dell’interprete operatore del diritto – come già avvenuto, in modo più o meno consapevole, in molti altri ambiti – tardi o presto probabilmente muterà, risolvendosi in poco più che nell’uso di un’interfaccia, di un applicativo (“app”).

Si porranno, allora, problemi la cui fisionomia e la cui entità è possibile intuire ma non compiutamente afferrare e tantomeno cercare di dominare in anticipo.

Ferma quindi l’opportunità di una previa, possibilmente lunga, fase sperimentale, una cosa è però sicura.

Premesse errate (o non condivisibili) conducono a conclusioni errate (o non condivisibili).

Dunque, la priorità – nonché il poco che possiamo concretamente ancora fare, oggi – è, ciascuno nel proprio campo, lavorare con lo sguardo rivolto anche al futuro ormai prossimo, assicurando, per quanto possibile, la correttezza di tali premesse.

È, cioè, necessario garantire sin d’ora le condizioni alle quali il materiale che sarà dato in “primo pasto” all’intelligenza artificiale generativa sia – almeno esso – il migliore possibile, a sostegno dell’auto-sviluppo del LLM.

Con particolare riferimento, poi, alla giurisdizione di legittimità, oggi, possiamo e dobbiamo assicurarci che le sentenze e le massime – nei contenuti ed anche, banalmente, nel format – costituiscano un “omogeneizzato” con buoni valori nutrizionali per allenare e far sviluppare un sistema che già sappiamo sarà vorace e che potrebbe divenire difficile emendare in seconda battuta.

In questo si sta trasformando, nel diritto, la corale impresa interpretativa dalla cui altisonante enunciazione hanno preso le mosse queste note? Può darsi.

È poca cosa, si dirà, ma presto potrebbe diventare tutto[25].

 

 

 

[1] V., tra gli altri, gli interessanti contributi in M. Donini, R. Orlando, R. Kostoris (a cura di), Conoscibilità del diritto e costruzione del precedente, Jovene, 2025

[2] O. Di Giovine, L’interpretazione nel diritto penale. Tra creatività e vincolo alla legge, Giuffrè, 2006.

[3] Pionieristici gli studi, in ambito gius-filosofico, di G. Zaccaria, L’arte dell’interpretazione, Cedam, 1990; in ambito penalistico, di G. Fiandaca, Ermeneutica e applicazione giudiziale del diritto penale, in Riv. it. dir. proc. pen., 2001, pp. 353 ss.

[4] Con la concezione dichiarativa, invece, «si salva il principio» di diritto e «si nascondono le vittime». Così, causticamente, F.M. Iacoviello, La Cassazione penale: fatto, diritto e motivazione, Giuffré, 2023, p. 1033.

[5] Sono consigliere di Cassazione, nominata ai sensi dell’art. 106 Cost.

[6] Sul tema, ora, B. Fragasso, Intelligenza artificiale e responsabilità penale. Principi e categorie alla prova di una tecnologia “imprevedibile”, Giappichelli, 2025.

[7] O. Di Giovine, AI e giustizia penale, in www.giustiziainsieme.it, 2024, pp. 695 ss.

[8] Un celebre studio di una ONG del 2016 sul programma COMPAS, un software per la previsione del recidivismo in USA, denunciò come tale programma fosse incorso in pregiudizi razziali legati all’etnia afroamericana (gli afroamericani furono stimati a rischio di recidiva nella misura del doppio dei bianchi). V. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[9] La letteratura specialistica è per massima parte confidente nelle capacità dell’AI. Tuttavia, non manca, nella psicologia cognitiva, chi ritiene che le intuizioni umane, fondate su una base limitata di dati, siano ancora lo strumento migliore per prendere decisioni in contesti di incertezza. Così, G. Gigerenzer, Perché l’intelligenza umana batte ancora gli algoritmi, Cortina, 2023 (or. 2022).

[10] O. Di Giovine, Dilemmi morali e diritto penale. Istruzioni per un uso giuridico delle emozioni, il Mulino, 2022.

[11] Di recente, A. Forza - R. Rumiati, L’errore invisibile. Dall’indagine alla sentenza, il Mulino, 2025.

[12] La locuzione è del filosofo Vittorio Gallese, che l’ha usata, ancora di recente, in V. Gallese, U. Morelli, Cosa significa essere umani?, Cortina, 2024.

[13] M. Ferraris, La pelle. Che cosa significa pensare nell’epoca dell’intelligenza artificiale, il Mulino, 2025.

[14] Non alludo al filone sviluppato a partire da N. Bostrom, Superintelligenza. Tendenze, pericoli, strategie, Bollati Boringhieri, 2023 (or. 2014), ma alle documentate considerazioni di un esperto della materia. N. Cristianini, Machina sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza, il Mulino, 2024, ulteriormente attualizzate/sviluppate in Id., Sovraumano. Oltre i limiti della nostra intelligenza, il Mulino, 2025.

[15] N. Cristianini, Machina sapiens cit., p. 88.

Mediante l’accesso dell’AI ad immagini, suoni, in genere alla realtà esterna, le aziende stanno oggi implementando la creazione di più completi “modelli di mondo” che – è ragionevole ipotizzare – consentono di teorizzare nel LLM una dimensione della conoscenza anche squisitamente semantica (come riferimento del segno linguistico ad oggetti). Ma, forse per difetto di immaginazione, non credo che questa direzione dello sviluppo tecnologico interessi più di tanto le applicazioni dei LLMs al diritto, per cui rilevano “modelli di mondo” in senso prevalentemente non fisico, bensì socio-assiologico, e che – come anche dirò subito di seguito – resta quindi in prevalenza debitore della visione pragmatica/contestualistica della conoscenza.

[16] G. Gigerenzer, Perché cit., in part. 119 ss.

[17] A. Rizzo - P. Legrenzi, Pensare con l’intelligenza artificiale. Un’alleata possibile, il Mulino, 2025, p. 131.

[18] A. Rizzo – P. Legrenzi, Pensare cit., pp. 117 ss.

[19] Credo fosse questo il senso delle preoccupazioni presto espresse da A. Garapon -J. Lassègue, La giustizia digitale, il Mulino, 2021 (2018), pp. 250 ss.

[20] … sottesa anche al Regolamento (UE) 2024/1689 (cfr. considerando 61).

[21] … che percorre, applicata ad altri campi, l’intera, più volte citata analisi, per esempio, di A. Rizzo – P. Legrenzi, Pensare cit.

[22] A. Rizzo – P. Legrenzi, Pensare cit., p. 120.

[23] G. Gigerenzer, Perché cit., p. 159 ss.

[24] Un “classico” è M. Motterlini - F. Guala, Mente Mercati Decisioni, UBE, 2015.

[25] Ho utilizzato un altro noto LLM messo a libera disposizione da un motore di ricerca, chiedendogli dapprima di verificare se ci fossero contraddizioni ed inesattezze nel testo e poi, ricevutane una rassicurante (e garbata) risposta negativa, di suggerire eventuali modifiche/integrazioni.

Il programma ha risposto che le conclusioni erano forse venate da troppo pessimismo e ha rappresentato alcune strategie per migliorare l’interazione tra uomo e macchina, così da attenuare i rischi dell’ingresso dell’AI nella giurisdizione qui paventati.

Solo in piccola parte ho recepito tali suggerimenti, alquanto tecnici. Spero però che il LLM interpellato avesse ragione e di essere vittima del pregiudizio e della logica del sospetto che io stessa ho sopra denunciato.