Alle soglie della quinta rivoluzione industriale, la digital justice intesa come ricorso alle nuove tecnologie per amministrare la giustizia è ormai una realtà in molti Paesi del mondo. In ambito penale il ricorso a strumenti d’intelligenza artificiale avviene sia in funzione predittiva, allo scopo di anticipare la commissione di reati, sia in funzione repressiva, per contrastare e sanzionare illeciti già consumati. Il sistema X-Law in uso alla Questura di Napoli appartiene al primo tipo ed è stato pensato per essere di ausilio alle forze dell’ordine, nel tentativo di prevenire principalmente i reati predatori che destano maggiore allarme sociale (furti, rapine, violazioni di domicilio).

Il funzionamento è fondato su un processo di autoapprendimento della macchina (il cosiddetto machine learning), che la rende capace di imparare autonomamente a seguito dell’elaborazione di una grande quantità di dati che il programmatore ha provveduto a inserire. Nel caso di X-Law, i dati raccolti riguardano le caratteristiche socioambientali del territorio, la tipologia di reati commessi quotidianamente, le denunce presentate, le informative di polizia, studi di criminologia e molto altro, per i quali la macchina restituisce un modello criminale con una previsione circa la distribuzione in un determinato arco temporale dell’attività criminosa. Stando ai dati forniti dalla Regione Campania, i crimini predatori sono diminuiti del 22%, mentre denunce e arresti in flagranza di reato sono aumentati del 24%, con un significativo ridimensionamento dei costi di gestione. Detto così, il sistema sembra essere efficace.

Eppure qualcosa deve non aver funzionato l’altra notte, quando Ugo perdeva la vita nel tentativo di commettere una rapina ed effettivamente questa è la percezione di molti. Invero, le nuove tecnologie vanno conosciute a fondo nel loro funzionamento per poter esprimere un giudizio e forse ai più non è chiaro che questi sistemi, siano essi utilizzati in funzione preventiva piuttosto che repressiva, seguono un approccio probabilistico e non deterministico. Ciò significa che l’enorme capacità computazionale di queste macchine restituisce un risultato che non è certo in termini assoluti. Ma non è questo l’aspetto che dovrebbe realmente preoccupare. Quello su cui riflettere è la qualità dei dati forniti all’algoritmo per la fase di autoapprendimento; questi sono selezionati, scelti e inseriti dall’uomo ed è proprio in questo momento che si annidano i maggiori rischi di errore della macchina.

Senza scomodare i grandi temi filosofici della verità assoluta o relativa, della possibilità che l’uomo abbia una visione oggettiva o meno, è praticamente inevitabile che la scelta dei dati subisca i condizionamenti dovuti alle convinzioni personali dell’operatore e alla sua realtà esperienziale. È quanto avvenuto, ad esempio, con il programma Compass, le cui valutazioni sul rischio da recidiva sono utilizzate dai giudici americani per decidere se concedere o meno una misura alternativa e che è stato accusato di discriminazione in quanto favorisce con maggiore facilità la concessione ai condannati di pelle bianca, a scapito di quelli di pelle nera. Si pone, allora un altro problema, ossia la trasparenza del processo decisionale.

Bisognerebbe essere sempre in grado di poter conoscere quel pacchetto di informazioni che hanno dato vita all’intelligenza artificiale, proprio per poter verificare eventuali discriminazioni o mancanze, ma purtroppo questo non è mai possibile (in gergo si tratta del problema delle black box). I produttori oppongono quasi sempre il diritto alla proprietà intellettuale e industriale e si rifiutano di rendere pubblico tutto il procedimento di formazione decisionale della macchina. In concreto, se i giovani rapinatori sono soliti usare un certo tipo di abbigliamento o frequentare una certa zona, questi sono tutti dati che potrebbero essere utilizzati dall’AI. Che succederebbe se un cittadino qualunque usasse gli stessi occhiali perché gli piacciono o si trovasse a passeggiare nelle stesse zone? In tempi di omologazione di massa, questo avviene costantemente. E se la macchina, sbagliando, lo indicasse come un potenziale autore di rapina?

E, in caso di errore del programma, trattandosi di intelligenza artificiale che autoapprende, chi ne risponde? Il programmatore? L’utilizzatore? La macchina stessa? In tale ultima evenienza, quale sanzione applichiamo? Lo spegnimento? La distruzione? Ci sono poi rischi di deresponsabilizzazione dell’uomo, che potrebbe preferire di affidarsi a un software, piuttosto che a se stesso, e problemi di fiducia se la collettività riponesse la sua fiducia più nella decisione della macchina che non in quella dell’uomo. La storia ci ha insegnato che nessuna rivoluzione si può fermare e che le grandi scoperte non sono mai un limite per l’umanità, al massimo lo è l’impiego che ne viene fatto. È, perciò, inutile dividersi in tecnoscettici e tecnofavorevoli.

Nessuno oserebbe diffidare oggi della radiologia e degli strumenti di diagnostica che coadiuvano i medici, certo, però, ci lamentiamo della medicina difensiva. Tutti i settori più importanti per la società trarranno benefici dall’impiego di questi sistemi, anche la giustizia, che oltre a essere giusta e secundum legem, deve essere efficiente e ne conseguiranno inevitabilmente dei rischi. Tuttavia, questi rischi diventano contenuti e accettabili se l’uomo mantiene il controllo delle macchine e se il diritto riacquisisce la sua centralità, individuando i paletti a garanzia dei diritti fondamentali.