Intelligenza artificiale e giustizia penale: l'uso sbagliato dell'AI può mettere a rischio gli innocenti

19/09 AI

L’intelligenza artificiale (AI) ha rivoluzionato svariati settori della nostra vita, ma la sua applicazione nella giustizia penale ha sollevato numerose preoccupazioni. Quando le forze dell’ordine si affidano troppo all’AI, come nel caso del riconoscimento facciale, gli innocenti possono finire ingiustamente coinvolti in indagini e arresti a causa delle imperfezioni e dei pregiudizi insiti nei sistemi basati su algoritmi.

Il caso di Porcha Woodruff, arrestata per un crimine che non aveva commesso in seguito all’uso di tecnologia di riconoscimento facciale, è solo un esempio di come l’implementazione di queste tecnologie senza adeguata verifica e regolamentazione possa compromettere gravemente la giustizia.

Mentre l’accuratezza dei sistemi di riconoscimento facciale è migliorata negli ultimi anni, essi dipendono ancora fortemente da grandi quantità di dati che non sono in grado di valutare in termini di attendibilità. Inoltre, è emerso che queste informazioni sono spesso intrinsecamente sbilanciate. Studi come quello condotto dal National Institute of Standards and Technology rivelano che i sistemi di riconoscimento facciale risultano meno affidabili per le persone di origine afroamericana e asiatica, con una probabilità di identificazione errata fino a 100 volte maggiore rispetto ai soggetti bianchi.

Nel caso specifico di Detroit, l’ex capo della polizia James Craig ha ammesso che l’affidamento esclusivo sul riconoscimento facciale porterebbe a errori nel 96% dei casi. Inoltre, almeno sei persone sono state falsamente accusate a seguito di un’identificazione errata tramite questa tecnologia: tutte queste persone erano di colore, evidenziando ulteriormente il pregiudizio razziale nei confronti delle minoranze.

Anche quando i sistemi basati sull’AI sono accuratamente testati, il rischio di arresti e condanne ingiuste rimane elevato, poiché la tecnologia può indurre un’indagine a concentrarsi su un unico sospetto identificato dall’intelligenza artificiale, precludendo altre piste investigative. Nel caso di Michael Williams, ad esempio, un uomo arrestato per omicidio a Chicago e tenuto in carcere per quasi un anno a causa di un’allerta inviata dal sistema di rilevamento dei colpi di arma da fuoco ShotSpotter, un’inchiesta ha rivelato che la tecnologia in questione è in realtà molto inaffidabile dal punto di vista statistico.

Per contrastare gli effetti nocivi delle tecnologie emergenti, è fondamentale promuovere la ricerca sulla loro affidabilità e validità, nonché valutare le implicazioni etiche, legali, sociali e di giustizia razziale derivanti dal loro impiego. Organizzazioni come Innocence Project sostengono l’adozione di una moratoria sull’uso dei sistemi di riconoscimento facciale nel settore penale, fino a quando non verrà stabilita la loro validità e le comunità interessate avranno avuto l’opportunità di esprimersi sulle modalità di implementazione.

Inoltre, è necessario garantire una maggiore trasparenza riguardo alle cosiddette “tecnologie black box”, i cui meccanismi interni sono oscuri agli utenti. Qualsiasi affidamento da parte delle forze dell’ordine su tecnologie basate sull’AI in un caso penale dovrebbe essere prontamente rivelato alla difesa, sottoposto a rigoroso esame avversario in tribunale, e sottoposto a indagini e controlli adeguati.

Infine, per prevenire ulteriori rischi di condanne ingiuste nell’era digitale, è indispensabile che la politica chiarisca come intende regolamentare le tecnologie investigative per proteggere i dati personali. Collaborando con vari partner e raccogliendo dati necessari per attuare le riforme, possiamo sperare di porre fine all’uso distorto dell’intelligenza artificiale nel settore giudiziario e garantire una giustizia imparziale e ben fondata.

Michele Laurelli

Ciao, sono Michele! Ho 32 anni, mi occupo di intelligenza artificiale. Insegno, scrivo e realizzo progetti. Quando non lavoro tiro di scherma.

Cosa ne pensi?

Mostra l'area commenti