Il Sole 24 Ore, 4 aprile 2021
Intelligenza artificiale in soccorso dei tribunali
Se in un software di Intelligenza Artificiale si inserissero gli estremi delle sentenze per abbandono del tetto coniugale – illecito in vigore ma non più applicato – il sistema ci direbbe «condanna sicura». Questo perché il programma si evolve con l’algoritmo ma sulla base di una fotografia dei dati disponibili, che sono il passato. Il mutare degli orientamenti giuridici non segue una fredda equazione ma piuttosto l’evoluzione di una società che solo l’uomo può essere in grado di interpretare.
È anche per questo che il concetto di giustizia predittiva – meccanismo informatico che consente di sapere in anticipo come sarà decisa una determinata causa – è criticato persino da chi sta sperimentando l’AI come strumento di supporto al mondo giudiziario, ingolfato da arretrati insostenibili e attese irragionevoli.
Dalle corti d’Appello di Brescia, Genova e Venezia, e dal gruppo di lavoro “Algoritmo nella società 5.0”, in seno all’Osservatorio per la giustizia Civile, si studiano modelli di legal analytics applicati all’AI per creare super banche dati in grado di estrarre massime, consentendo di conoscere preventivamente gli orientamenti, così da avere un effetto deflattivo sulla presentazione dei ricorsi. Ma l’intenzione non è quella di affidare alle macchine le future previsioni.
Claudio Castelli, presidente della Corte d’Appello di Brescia, tra i pionieri del processo telematico italiano, spiega che «quando si parla di AI nel settore giuridico, si parla di banche dati di giurisprudenza che sfruttando un algoritmo possono estrarre orientamenti prevalenti su determinate materie». Il progetto è in fase di studio con l’Università di Brescia e riguarda, allo stato, l’analisi di circa 25mila sentenze in materia Civile, soprattutto in ambito societario e del lavoro, emesse dal 2019 a oggi. Il sistema di AI, quindi, «estrae il caso e un sunto giuridico» così da avere un duplice risultato: «diamo un elemento di trasparenza agli operatori giuridici ed economici», spiega Castelli, «e diamo una indicazione che potrebbe portare a un contenimento del carico giudiziario».
I punti di contatto ci sono anche con lo studio che sta svolgendo la Corte d’Appello di Genova in partenariato con la Scuola Superiore Sant’Anna di Pisa (ha aderito anche il Tribunale di Pisa). Secondo Domenico Pellegrini, presidente di sezione del Tribunale di Genova, si sta valutando l’impatto della AI su 120mila sentenze emesse a partire dal 2015. Sono tre gli step principali: anonimizzare adeguatamente i documenti, non la semplice cancellazione dei dati che poi rende difficoltosa la lettura; addestrare il software a individuare le materie trattate in un procedimento e selezionare parti salienti di un provvedimento; ricostruire i vari filoni giurisprudenziali e comprendere se c’è uniformità nella decisioni. L’ulteriore passaggio, «quello futuro» dice Pellegrini, sarà di provare a dare al software di AI dei casi inventati per comprendere quali sono le rielaborazioni con cui l’algoritmo prende le decisioni. «Non vogliamo creare un sistema che sostituisce il giudice – precisa Pellegrini – ma vedere come la macchina riesce a decidere e quali sono le regole che determinano le sentenze prese dal sistema».
Lo strumento, in linea teorica, può avere una influenza positiva non solo per i magistrati, ma anche per gli avvocati. Eppure le storture non possono ancora essere escluse. Ne abbiamo parlato con Francesco Contini del Consiglio nazionale delle ricerche (Cnr), esperto internazionale di sistemi giuridici. «Dobbiamo comprendere in che modo l’AI sia compatibile con i principi di giusto processo», spiega facendo un esplicito riferimento all’etica che deve governare questa evoluzione informatica. «Conosco due tipologie di giudici al mondo: quelli che lavorano nei sistemi autoritari e quelli indipendenti, ma che sono carichi di arretrati e di lavoro. Per i primi, il rischio, è che chi definisce l’algoritmo definisce anche come devono essere decise le cause, con favore o sfavore verso una minoranza per esempio». L’algoritmo dell’AI applicata alla giustizia, in questo caso, non è generato autonomamente dalla macchina ma è costruito con un preciso scopo.
In un paese libero, qual è l’Italia, il rischio è che l’AI finisca per diventare un «aiutino» per scrive la sentenza: «un giudice – aggiunge Contini – controlla come sono state decise cause simili e si appoggia a queste per giustificare la sua pronuncia». Il punto, però, è che questo «aiutino» proviene dal sistema di AI, che impara autonomamente attraverso il machine learning, dunque l’orientamento prodotto rischia di essere frutto di un calcolo matematico della macchina, che può anche creare delle storture influendo così sulla funzione giurisdizionale. E il problema principale, spiega Contini, è che «non sappiamo quali sono i processi che portano la macchina di AI a modificare autonomamente gli orientamenti».
La seconda problematica riguarda gli effetti sui legali. Il rischio è che la deformazione dell’AI ridimensioni «il fattore umano, che così trova meno spazio nelle attività legali, specie in quelle a basso valore aggiunto», commenta il professore a avvocato Francesco Sciaudone, managing partner dello Studio Grimaldi. «Se, per esempio, non c’è spazio per un ricorso perché l’algoritmo dice che per una determinata questione un giudice dà torto, non ci sarà spazio né per il processo né per una mediazione», spiega ancora Sciaudone. Serpeggia un timore: l’applicazione della AI potrebbe portare a ridurre il bisogno di avvocati. C’è già un precedente, con le Due Diligence, l’analisi di un asset che si intende acquistare. Si tratta di una valutazione un tempo affidata a giovani professionisti, che così avevano la possibilità di formarsi su materie rilevanti. Oggi le Due Diligence sono svolte dagli algoritmi: è venuta meno la funzione di un’intera categoria di professionisti.