di  Renato Costanzo GattiSocialismo XXI Lazio |

 

La riforma della giustizia si incarta sulle improcedibilità con il rischio che si scrivano sulla carta termini che accelerano i tempi della giustizia, ma si fa ben poco, solo l’uso della telematica nelle notifiche, per accelerare nella realtà quei tempi.

Abbiamo già sottolineato l’assenza dell’intelligenza artificiale nella riforma della giustizia, eppure di essa se ne parla tra giuristi e tecnologi ormai da tempo; si può vedere su Youtube una serie di dibattiti organizzati dall’Università di Padova, ed in particolare si possono consultare e approfondire gli otto capitoli del libro “Intelligenza artificiale e diritto” del prof. Santosuosso dell’università di Pavia.

Nel libro si sostiene che l’I.A. è una straordinaria opportunità per dare alla giustizia un nuovo approccio, con la precisazione che “l’opportunità” non significa di per sé buon uso: ci vogliono infatti competenza, responsabilità e professionalità. Con tali precauzioni l’I.A. si presenta come uno straordinario mezzo per meglio governare la giustizia che, con la potentissima capacità di calcolo, riesce ad accelerare nel concreto i tempi processuali.

Con l’adozione di questa tecnologia sorgono problemi che sono al centro della discussione di chi si interessa a questa materia, tipico esempio è la individuazione della responsabilità per eventuali danni causati dall’uso della I.A., ovvero sulla necessità o meno di una certificazione di validità da assegnarsi all’algoritmo utilizzato nella costruzione dello strumento di I.A. utilizzato.

Come è noto, negli Stati Uniti i processi si basano moltissimo sui “precedenti”; quante volte nei telefilms che importiamo si risolvono casi giuridici facendo riferimento ad un precedente caso risolto dalla giustizia; è ovvio che con tale procedura l’I.A. aiuta, con la sua capacità enorme di esaminare i big data raccolti in tempi strettissimi, moltissimo gli avvocati nell’affrontare e gestire i casi in esame. Infatti, non esiste grande studio di avvocati negli U.S.A. che non si avvalga dell’I.A. nello svolgimento della professione.

Con adeguati programmi di I.A. gli studi legali statunitensi hanno creato il mondo della giustizia predittiva; con questo strumento si esamina preventivamente quale potrà essere il giudizio finale e quindi si possono orientare le proposte transattive con “scientifica” determinazione, ovvero si può orientare la scelta della corte presso la quale presentare il caso, dopo aver predetto quale potrà essere il diverso orientamento delle corti.

Ma anche in Europa l’uso della I.A. nel diritto si sta diffondendo, tanto che già da qualche anno la Commissione Europea ha redatto una guide-line che sancisce alcuni principi cui debbono ispirarsi i giudizi che utilizzano l’I.A.: preminente principio è che la decisione sia sempre presa e motivata da un giudice anche se esso si è avvalso di questa tecnologia.

Ma la domanda che più mi interroga è se l’algoritmo sia veramente neutrale o sia il risultato di chi lo costruisce risentendo quindi delle sue convinzioni e della sua filosofia. Insomma, l’algoritmo può essere politico? O va accettato senza discussione stante la sua “asettica veridicità”.  

Il caso che ha scatenato le maggiori discussioni è stato il caso Loomis: un uomo che nel febbraio del 2013 è stato fermato mentre guidava un’automobile usata durante una sparatoria nel Wisconsin.

Loomis arrestato con l’accusa di non essersi fermato al controllo della polizia è stato condannato a sei anni dal giudice che ha stabilito la pena basandosi non solo sul fatto contestato, ma anche sul punteggio assegnato all’imputato da un software chiamato Compas. Tale punteggio è basato su una serie di 137 domande relative al soggetto e ne determina tanto la pericolosità quanto la possibilità di reiterazione del reato.

Loomis ha presentato appello contestando il fatto che non è stata data alla difesa la possibilità di esaminare i criteri con i quali il software aveva determinato la pericolosità del soggetto stante il fatto che il software è segreto e coperto dalla tutela del diritto d’autore. In sintesi, non è stato garantito alla difesa un processo equo. L’appello è giunto fino alla corte suprema del Wisconsin, che ha confermato la condanna, sostenendo che il verdetto sarebbe stato lo stesso anche senza l’uso di Compas.

Nel 2016 la giornalista Julia Angwin, insieme ai suoi colleghi di ProPublica, ha analizzato oltre settemila casi giudicati con l’algoritmo Compas, ed è giunta alla conclusione, statisticamente supportata, che l’algoritmo ha dei pregiudizi nei confronti degli afroamericani.

L’I.A. è quindi una straordinaria opportunità che la giustizia italiana può utilizzare per ridurre sia lo spropositato arretrato, sia il flusso dei nuovi casi rendendo compatibili i tempi della giustizia con i tempi previsti dalla improcedibilità della riforma Cartabia; naturalmente l’adozione di questa tecnologia va presa con le dovute cautele nel senso che può essere un potente aiuto al giudice, ma non deve sostituirlo, rimanendo egli l’unico depositario della potestà di interpretare ed applicare la legge.