Attendibilità e trasparenza dei sistemi di intelligenza artificiale alla luce di un esperimento
Abstract. Si è voluto mettere alla prova ChatGPT attraverso un esperimento. Il test, condotto negli Stati Uniti e in Italia con plurime interrogazioni ripetute a distanza di mesi, ha visto sottoposte alla chatbot alcune domande sull’istituto dell’appello penale, nonché alcune richieste di aiuto per la stesura di un atto giudiziario e nel reperimento di fonti giurisprudenziali. L’esame ci ha mostrato un “infante artificiale”. Al di là della qualità delle fonti e delle modalità di funzionamento dell’algoritmo, a destare preoccupazione e sfiducia è la tendenza a produrre allucinazioni e mantenere opachi i percorsi di elaborazione dei dati. Eppure, se la giustizia ambisce ad implementare la propria efficacia ed efficienza, difficilmente potrà continuare a non servirsi di tali tecnologie. L’esperienza condotta con ChatGPT, alla luce anche dell’AI act, ci prospetta la necessità di un lavoro multidisciplinare per lo sviluppo d’intelligenze artificiali idonee a supportare il lavoro dei giuristi senza sostituirsi ad essi e nel rispetto dei principi del giusto processo.
SOMMARIO: 1. Introduzione. – 2. Che cos’è ChatGPT? – 3. L’interrogazione in diritto processuale penale a ChatGPT: precisazioni metodologiche. – 4. (segue) I risultati. – 5. L’Intelligenza Artificiale soffre di allucinazioni. – 6. L’opacità dei percorsi di elaborazione generativa delle IA. – 7. Quale futuro per le professioni e la giustizia? – 8. Conclusioni.
* In vista della pubblicazione su Diritto penale contemporaneo – Rivista trimestrale, il contributo, qui pubblicato in anteprima, è stato sottoposto in forma anonima, con esito favorevole, alla valutazione di due revisori esperti.