Diritto, Intelligenza Artificiale e Giustizia Predittiva

Tempo di lettura: 6 minuti

Il cattivo funzionamento della giustizia in Italia, è tra i temi più dibattuti. La prolissità dei processi sia in sede civile che penale è certamente il problema maggiormente critico del sistema giuridico italiano. Numerose riforme di legge hanno tentato negli anni di ridurre questa problematica, senza però produrre sostanziali riduzioni dei tempi medi di un procedimento giudiziario.

L’intelligenza artificiale è un sistema tecnologico per risolvere problemi o svolgere compiti in modo più efficiente; l’articolo racconta i potenziali effetti sul sistema giudiziario di un’Intelligenza artificiale. Non parliamo (ancora) di giudici robot ma di strumenti che potrebbero affiancare il giudice nella fase decisoria o gli avvocati nell’istruzione di una pratica. Per evitare speculazioni diciamo già che non decideranno da sole.

Per ora parliamo solo di due impieghi del machine learning a supporto dell’attività nei tribunali. Il primo consiste nell’analisi e predisposizione automatica di atti, documenti; siamo dalle parti del diritto commerciale e civile. Mentre il secondo riguarda la giustizia predittiva dove il motore algoritmico fornirebbe una stima predittiva ex-ante di probabile vittoria/soccombenza in giudizio.

Tremila documenti processati in 15 minuti

L’impiego più immediato e facile è quello di applicare l’intelligenza artificiale per la comprensione, da un punto di vista semantico, di quello che c’è nei documenti giuridici. Anche se serve tempo e forme di conoscenza molto verticali.

Durante una dimostrazione un software denominato AI Luminance ha letto e classificato, in una decina di minuti, circa tremila documenti che descrivano la vita di una medio-piccola azienda. Il software non conosce ne l’italiano ne la normativa; impara e migliora la lingua e i concetti giuridici man mano che gli vengono sottoposti documenti ed impartite istruzioni. Nel caso della dimostrazione, l’intelligenza artificiale aveva appreso a classificare i documenti, a riconoscere difformità e ad analizzare singole clausole. Sul display i tremila documenti vengono visualizzati in modo da aiutare l’avvocato a capire dove ci può essere un’anomalia o un errore.

Negli Stati Uniti LawGeex ha contrapposto un’intelligenza artificiale a venti avvocati esperti in diritto societario, al fine di individuare l’esistenza di clausole potenzialmente invalidanti in contratti coperti da stringenti accordi di riservatezza. Il computer avrebbe battuto gli avvocati in termini non solo di velocità, ma anche di accuratezza delle risposte. In questi casi non si parla di giustizia predittiva o giudici robot. Siamo in ambiti specifici dove l’AI serve solo per automatizzare alcuni compiti.

Nel campo civile, per esempio in una causa di risarcimento danni da sinistro stradale, possiamo immaginare come un software, sulla base dei rilievi compiuti sul luogo dell’incidente, possa stabilire chi si sia reso in tutto o in parte responsabile del sinistro in base alle norme del codice stradale, e di quantificare l’ammontare del danno risarcibile. Le assicurazioni ad esempio devono leggere un’infinità di documenti di questo tipo per decidere di istruire un eventuale causa.

Al lavoro con pc

Giustizia predittiva

Con giustizia predittiva si intende la possibilità di prevedere l’esito di un giudizio tramite l’ausilio di algoritmi. Il diritto può essere costruito come una scienza, che trova la sua principale ragione giustificativa nella misura in cui è garanzia di certezza: il diritto nasce per attribuire certezza alle relazioni umane, tramite una complessa attribuzione di diritti e doveri.

Il termine “giustizia” non è inteso nel senso teorico, etico o morale, ma nel senso di giustezza del risultato rispetto ai dati inseriti; non è un sentimento umano ma impone razionalità in base alla giustizia secondo diritto. Questa è la ragione principale per cui la giustizia predittiva non intende in alcun modo sostituire l’essere umano, ma affiancarlo dotandolo di strumenti più potenti e della scienza. Il termine “predittiva” è invece inteso nel senso di calcolo matematico o statistico volto a centrare il possibile risultato che è il provvedimento finale del giudizio.

A sostegno della giustizia predittiva concorrono l’art. 101 della Costituzione e l’art. 65 dell’Ordinamento giudiziario che esprimono l’impersonalità e l’oggettività del diritto e la funzionalità tecnica della sua applicazione, vietando pre-giudizi e pre-comprensioni. Se il diritto è oggettivo, cioè con una base di regole predeterminate e vincolanti, allora deve essere possibile prevederne l’applicazione.

Minority Report, giustizia predittiva applicata
Tom Cruise in Minority Report

L’intelligenza artificiale nel sistema della giustizia

L’intelligenza artificiale è ancora una materia di frontiera in ambito giuridico, ma potrebbe velocemente innestarsi nel sistema della giustizia.

Accanto a sistemi costruiti secondo la logica booleana di 0 e 1, si affiancano gli studi e le ricerche sulle reti neurali e sui modelli matematici capaci di simulare il cervello umano. Questi studi vengono inquadrati nell’alveo di quella che viene definita come logica sfumata o sfocata. Cioè l’introduzione di valori di verità intermedi all’interno delle logiche dell’intelligenza artificiale. Una sorta di valori valutabili da un computer nell’intervallo tra 0 e 1, con dei punteggi come 0,4 o 0,6 etc. In questo modo si possono avere dall’AI delle risposte che non siano necessariamente bianche o nere, vere o false, ma anche parzialmente vere o false. AI in grado quindi di esprime giudizi non assoluti ma in grado di disporre soluzioni adatte caso per caso.

Il problema delle scelte decisionali compiute dall’AI è che spesso sono correlate a valori assegnati al software dal programmatore stesso, dal costruttore o eventualmente imposti dallo Stato per esigenze di sicurezza nazionale (si pensi a parametri applicativi in ambito militare). L’algoritmo sarà quindi condizionato a monte, proprio nella fase più delicata e la sua previsione potrebbe essere viziata (nel bene e nel male) da un preconcetto o pregiudizio, anche inconscio inconsapevole del programmatore, o peggio, da volute esigenze del costruttore e del finanziatore.

La programmazione di questi valori e di questi intervalli, quindi, è inevitabile che “orienti” il comportamento decisionale dell’AI verso la soluzione da prendere, caso per caso. Sembra inconfutabile il fatto che il processo di scelta, nella fase della introduzione delle variabili e delle informazioni da parte del programmatore, possa subire un condizionamento, indiretto, inconsapevole e occulto.

Algoritmo

Il giudice robot non è ammissibile

Si parla sempre più spesso di giudice robot come sostitutivo del giudice umano, per rendere l’applicazione del diritto certa e prevedibile. Il problema però si pone per le questioni più complesse che implicano problemi interpretativi. Attualmente sembra che inserire un giudice robot all’interno dei processi sia inammissibile nel nostro ordinamento almeno per le seguenti ragioni:

  • Gli art. 25 (Giudice naturale precostituito per legge) e 111 (Giusto processo) della Costituzione postulano un giudice umano; ciò per ovvie ragioni storiche ma anche perché la Carta è stata costruita come un equilibrio tra valori e non come “fattispecie”, favorendo la soggettività all’oggettività e l’essere umano ad “altro”.
  • L’art. 51 del Codice di procedura civile (astensione del giudice) postula, in modo non equivoco e forse più di altri, la natura umana del “giudicante”.
  • Esiste un principio di simmetria tra giudice e parti, nel senso di avere la stessa natura, umana diciamo, differenziandosi solo per ruolo e/o potere.
giudice robot
Agenda Digitale – Giustizia predittiva: la dignità umana faro per l’AI nei processi, Valentina Brecevich e Marco Martorana

Il caso Loomis negli Usa

È utile menzionare un caso interessante di cui si è occupata la Suprema Corte dello Stato del Wisconsin, negli U.S.A.

Il caso denominato Stato contro Loomis, riguardava la legittimità dell’applicazione di un software/algoritmo denominato Compas (algoritmo proprietario) per la determinazione della recidività di un soggetto che si era macchiato di un determinato crimine ai fini dell’applicazione della pena. Il risultato prodotto dal software si basa sull’elaborazione dei dati emersi dal fascicolo processuale e dall’esito di un test a 137 domande a cui viene sottoposto l’imputato, riguardanti l’età, l’attività lavorativa, l’uso di droghe, le opinioni personali e il percorso criminale.

Il signor Loomis, l’imputato, contestava l’utilizzo dell’applicazione dell’algoritmo, adducendo diverse motivazioni a sostegno delle violazioni subite. La Corte Suprema del Wisconsin, tuttavia, dichiarò all’unanimità la legittimità dell’uso giudiziario di algoritmi che misurano il rischio di recidiva. È opportuno puntualizzare che le informazioni utilizzate provenivano in ogni caso da un questionario a cui l’imputato si era deliberatamente e volontariamente sottoposto e divenute per ciò pubbliche. Inoltre, il punteggio che veniva attribuito dal software non era di tipo determinativo, in quanto rappresentava solo una parte del procedimento che avrebbe poi condotto alla sentenza: il software, era solo in ausilio all’attività propria degli organi giudicanti.

Da una lettura attenta della sentenza della Corte Suprema, ci si rende conto che l’utilizzo dell’algoritmo Compas in questione è da circoscrivere a ipotesi e a circostanze ben determinate. Infatti, non può essere utilizzato né per definire una sentenza né per quantificare la pena esatta da infliggere a un determinato soggetto. L’algoritmo può essere solamente un ausilio, un supporto di cui il giudice si serve e che mai può sostituire lo stesso.

tribunale

Conclusioni

La tecnologia predicabile è da considerarsi in modo integrativo e non sostitutivo dell’attività del giurista. Al massimo si potrebbe ipotizzare un sistema che predichi le decisioni delle Corti, ma poi siano le parti a decidere se attivare la propria pretesa dinanzi al giudicante oppure accettare la decisione robotica.

Cosa cambia con l’introduzione di un’AI?Gli avvocati continuano a leggere tutto ma risparmiano tempo. Si elimina il lavoro a basso valore aggiunto, come dover aprire e osservare tutti i documenti per capire se soggetti alla legge italiana o turca. Con il software si fa in pochi minuti. Anche la reportistica avviene in modo collaborativo; gli avvocati analizzano e commentano i documenti nello stesso ambiente di lavoro. La prospettiva è quella che la macchina impari a riconoscere la difformità nei contratti, a segnalare il documento che si discosta dallo standard e quindi va aperto e analizzato dall’avvocato. Per un computer è facile farlo.

Tremolada L. (2020). Giustizia predittiva, l’intelligenza artificiale migliore amica dell’avvocato. Il Sole 24 Ore

Rundo F., & Di Stallo L. (2020). Giustizia predittiva: algoritmi e deep learning. SICUREZZAeGIUSTIZIA

Viola L. (2020). La frontiera della giustizia predittiva. AI4BUSINESS

Soprannominato da tutti “birillo” quando era bambino, a causa della sua vivacità nel fare le cose, ora si ritrova ad essere un esemplare di introverso cronico. Il suo essere affetto dalla sindrome della crocerossina si scontra con la parte cinica del suo carattere che lo convince spesso di non essere portato per fare nulla. Da piccolo, infatti, suonava il pianoforte, ma ha mollato perché è convinto di non essere capace. Riccardo è un grande sognatore, nerd e patito di Star Wars (ma dai?). Quando si fissa su qualcosa si salvi chi può: passerà giorno e notte a leggere articoli, senza fare altro.