ArticlesGiurisprudenzaI_MMXXIIIMichele Lippiello

Giustizia predittiva: “futurismo” normativo?

di Michele Lippiello

Il conciso articolo si prefigge di evidenziare le diverse problematiche della cosiddetta “giustizia predittiva” non escludendo, a priori, il suo utilizzo in generale e che possa, anzi, essere di efficiente aiuto ai professionisti del settore.

pdf-icon

1. Premessa

La lentezza del processo e la complicazione del sistema delle fonti, quelle interne e in più l’aggiungersi di quelle europee e globali, fanno sì che, nella nostra società, la certezza del diritto appaia messa a dura prova agli occhi degli operatori economici e, più in generale, della percezione sociale diffusa. L’impressione di un diritto “incalcolabile” è, infatti, un punto interrogativo che incide sempre più sugli scambi commerciali rafforzando un senso di insicurezza e abbandono dell’individuo dinnanzi all’ordinamento giuridico, talvolta, visto come un debole protettore dei diritti. È probabilmente per questi motivi che il tema della “giustizia predittiva” suscita tanta attenzione nel dibattito tra i giuristi e, ormai, più ampiamente nei mezzi d’informazione: a volte vista come una possibile ancora di salvezza in un mondo del diritto caratterizzato dalla mancanza di punti di riferimento e dal moltiplicarsi di significanti flottanti; a volte criticata come fallimento della giustizia e rischio di caduta nell’abisso di un arbitrio governato delle macchine, con il prevalere di una razionalità non più umana anche in un campo dove sono in gioco i diritti fondamentali della persona.

2. Principio

La nozione stessa di giustizia predittiva appare ogni tanto vaga, evanescente e non semplice da definire. In ogni caso, con essa si fa essenzialmente riferimento all’applicazione al settore della giustizia di tecnologie avanzate di Intelligenza Artificiale in grado di analizzare, attraverso l’uso di algoritmi, un gran numero di decisioni giudiziarie precedenti per trarne previsioni probabilistiche sul risultato di nuove e attuali controversie legali o casi criminali, così da aiutare le parti e i loro consulenti legali ma anche giudici e Forze di polizia, a porre in essere le scelte più razionali e meglio informate. Tale studio verte solitamente su un gran numero di precedenti e mira a calcolare, su tale base, le probabilità dei vari possibili esiti di nuove vicende giudiziarie, riducendo l’incertezza del giudizio e, potenzialmente, evitando addirittura alle parti la spesa, economica e di tempo, implicata dal rivolgersi a un tribunale.

3. Problematiche e timori

L’applicazione alla giustizia di queste nuove tecnologie pone una serie di problemi regolatori e di natura etica, a partire dalla questione di comprendere fin dov’è giusto che una macchina possa spingersi e cosa è indispensabile, per la garanzia dei diritti fondamentali, che sia fatto da un essere umano, un professionista formato e fedele alla Legge e alla Costituzione: ciò tanto più in campo penale, dove il giudizio può avere come esito delle serie restrizioni della libertà personale. I problemi e i limiti della giustizia predittiva sono di varia natura ed è importante che il legislatore, a monte, e i vari utilizzatori di queste tecnologie, a valle, ne siano pienamente consapevoli. In primo luogo, è opportuno distinguere tra utilizzi di algoritmi “predittivi” (rectius, in grado di fornire previsioni probabilistiche) da parte di avvocati, uffici legali di imprese, dall’utilizzo di tali algoritmi da parte di magistratura e Forze di polizia.
Nel primo caso, i problemi attengono soprattutto all’affidabilità tecnica degli algoritmi e alla potenziale necessità, in prospettiva, di istituire le opportune forme di controllo, supervisione e certificazione degli stessi, al fine di garantire uno standard di qualità per le tecnologie offerte su un mercato che oggi, in presenza di una carenza regolatoria in questo ambito, risulta piuttosto opaco. Il quadro si fa ancora più delicato quando si parla di magistrati e Forze dell’ordine, in quanto si tratta di pubbliche funzioni tenute a rispettare, nell’interesse della democrazia e del buon funzionamento dell’amministrazione e della giustizia, canoni di non-discriminazione dei cittadini e di trasparenza delle attività pubbliche di cui deve essere necessario poter rispondere alla cittadinanza in generale e alle parti coinvolte in particolare.
Si tratta di attività che sono, peraltro, variamente soggette a obblighi di motivazione, anche per garantire al cittadino che si ritenga leso, nei propri diritti e interessi legittimi, da un provvedimento di ricorrere contro lo stesso. In questa prospettiva, si pone in maniera particolarmente forte il problema della cosiddetta “scatola nera”: la persona soggetta a una decisione algoritmica si trova spesso nell’estrema difficoltà o nell’impossibilità di conoscere l’iter logico che ha portato alla decisione che lo riguarda dovendo, quindi, accettarla o contestarla “a scatola chiusa”.
Tutto ciò per ragioni che includono non solo la difficoltà per qualcuno, non addentro alle tecnologie informatiche, di comprendere il funzionamento degli algoritmi ma anche perché gli stessi possono essere completamente o in parte coperti da diritti d’autore e segreti commerciali o addirittura, come accade per alcune delle IA più complesse e progredite, fondate per esempio sul machine learning: il procedimento utilizzato per giungere alla decisione può non essere pienamente ricostruibile sulla mera base delle istruzioni impartite in quanto la macchina stessa ha poi “imparato” da un gran numero di esempi acquistando una certa autonomia.

Un altro punto su cui porre l’attenzione è quello della non parificazione perché l’algoritmo e l’IA sono, talora, semplicisticamente presentati come neutri e imparziali ma, in realtà, le istruzioni che ne sono alla base sono influenzate dal punto di vista del programmatore e dalla situazione cristallizzata nei molteplici esempi offerti all’Intelligenza Artificiale allo scopo di ammaestrarla. Il rischio è poi che le scelte della macchina non facciano che rinnovare e moltiplicare le disuguaglianze esistenti, per esempio sociali o razziali, a dispetto del disegno costituzionale di un adoperarsi del sistema statale nell’opposta direzione di ridurre e superare le stesse. Vi è, altresì, il problema della scelta dei precedenti giurisprudenziali rilevanti e di come ponderare gli stessi nel momento in cui li si carica nell’Intelligenza Artificiale che posteriormente ne trarrà delle previsioni probabilistiche: quanto “peso” dare alle pronunce di primo e secondo grado e di Cassazione? Quanto “peso” a una sentenza di dieci anni fa rispetto a una di dieci o di cinquanta anni fa? E alle sentenze precedenti all’ordinamento democratico repubblicano? Non dimentichiamo inoltre che il nostro non è, a differenza di quelli anglosassoni, un sistema giuridico fondato sul principio del precedente giurisprudenziale vincolante. Sarebbe pertanto contrario alla nostra visione delle fonti del diritto e alla nostra concezione di Stato di diritto introdurre surrettiziamente un vincolo al precedente (d’altronde, in questo caso parliamo di un vincolo a un’ampia congerie di precedenti, assemblati secondo criteri incerti e opinabili e in base a un approccio che considera più la quantità che la qualità: un qualcosa che si allontana molto anche dalla tradizione anglosassone) rispetto a un giudice che dovrebbe sottostare esclusivamente alla Legge.

4. Rischi

A ciò bisogna aggiungere che la legittimazione del giudice nella società deriva da un affidamento del cittadino nei confronti di una figura istituzionale reclutata e formata in un certo modo, che fa parte di un sistema che ne definisce poteri, obblighi e responsabilità, che è inquadrata in un certo assetto di divisione dei poteri che è alla base dell’idea moderna di democrazia. Non si può allora pensare di sostituire il giudice con una macchina, senza rischiare concretamente di mettere a repentaglio quello stesso assetto democratico che trova espressione, tra l’altro, nella nostra Costituzione. Infine, l’utilizzo di strumenti computerizzati per funzioni così delicate richiama l’attenzione sui rischi di hackeraggio e di errori informatici, rispetto a cui è necessario predisporre procedure di sicurezza elevate prima di intraprendere qualsiasi esperienza anche solo di supporto di Intelligenze Artificiali alle attività e alle decisioni del giudice e delle Forze di polizia.

5. Riflessione

In conclusione, tale sintetico contributo ha voluto mostrare alcune problematiche della cosiddetta “giustizia predittiva”, senza per questo volerne respingere l’utilizzo in generale. L’importate è che essa rimanga sempre uno strumento di supporto e di potenziamento della decisione umana e che non si sostituisca a essa, col rischio di insidiare l’equilibrio dei poteri e le garanzie del cittadino fondamentali in una democrazia. Stanti questi presupposti, l’impiego di adeguate tecnologie di Intelligenza Artificiale, sicure, affidabili e concepite nel rispetto dei principi di trasparenza e di non discriminazione, possono essere un valido ed efficace aiuto alle attività dei magistrati e delle Forze dell’ordine. ©

Lawful Interception per gli Operatori di Tlc
Mostra di più

Articoli Correlati

Pulsante per tornare all'inizio