Mentre in tutto il mondo si discute dei rischi etici del riconoscimento facciale, della necessità di sospendere queste tecnologie fino a quando non saranno correttamente regolate, o persino di introdurre dei divieti totali al loro utilizzo, la Direzione Centrale Anticrimine della Polizia di Stato ha invece l’esigenza di potenziare le due componenti del Sistema Automatico Riconoscimento Immagini (SARI) acquistato nel 2017: SARI Enterprise e SARI Real-Time.
Nel 2016 la Commissione Europea aveva proposto di utilizzare il riconoscimento facciale per contenere la crisi migratoria, aggiungendo la possibilità di sfruttare i dati biometrici dei volti da includere in EURODAC, l’European Asylum Dactyloscopy, un database usato per raccogliere le impronte digitali di richiedenti asilo e migranti. La proposta aveva subito portato alla mente scenari da Minority Report e nel 2019 uno studio dell’Agenzia europea per i diritti fondamentali (FRA) ha sottolineato i rischi del riconoscimento facciale, in particolare quando usato in tempo reale proprio su migranti e richiedenti asilo ignari di essere ripresi.
Quella proposta ancora non si è concretizzata ma l’Italia sembra disposta a procedere per conto proprio: a novembre 2020 il Ministero dell’Interno ha infatti chiuso un bando di gara per individuare il miglior sistema il riconoscimento facciale da utilizzare in tempo reale sui migranti.
IrpiMedia è gratuito
Ogni donazione è indispensabile per lo sviluppo di IrpiMedia
Scarica in PDF
Scarica qui il PDF dell’inchiesta: portala con te e leggila anche off-line in una eslcusiva veste grafica
Per farlo, il Ministero ha usato due strategie: sfruttare i fondi europei per la Sicurezza Interna e, come mostrano alcuni documenti ottenuti da IrpiMedia grazie a una richiesta FOIA, ignorare le domande del Garante della privacy che da due anni attende di chiudere un’istruttoria proprio sul sistema di riconoscimento facciale che vuole usare la polizia.
La società che ha fornito il sistema nel 2017 è la leccese Parsec 3.26 S.r.l.. A giugno il Ministero ha da prima avviato un’indagine esplorativa per capire se esistono altre aziende sul mercato o se, in assenza di alternative, deve ricorrere alla procedura negoziata senza pubblicazione del bando affidando il potenziamento alla stessa Parsec 3.26. A novembre è stata avviata la procedura negoziata ma non è chiaro se l’unica partecipante sia effettivamente l’azienda leccese.
Il riconoscimento facciale sui migranti
Nell’avviso esplorativo il Ministero sottolinea gli obiettivi di questo potenziamento: utilizzare SARI Enterprise anche per verificare l’autenticità delle foto nei documenti e usare SARI Real-Time come «sistema tattico per monitorare le operazioni di sbarco e tutte le varie tipologie di attività illegali correlate, video riprenderle ed identificare i soggetti coinvolti».
Il sistema Enterprise permette il confronto di una foto con quelle raccolte nel database AFIS, una sorta di ricerca automatica della corrispondenza dei volti. In precedenza questo tipo di confronto veniva fatto manualmente immettendo i termini di ricerca come ad esempio colore degli occhi, segni particolari, e genere. Proprio perché è un sistema che velocizza una ricerca che sarebbe fatta comunque manualmente, il Garante ha permesso al Ministero di utilizzarlo con un provvedimento del 2018.
Cos’è il database AFIS?
AFIS è l’acronimo di Automated Fingerprint Identification System, il Sistema automatizzato di identificazione delle impronte gestito dalla Polizia Scientifica. Al suo interno contiene le immagini dei soggetti che sono stati fotosegnalati e sottoposti a raccolta delle impronte digitali. Il database dovrebbe contenere circa 16 milioni di cartellini che fanno riferimento a 9 milioni di persone. AFIS è utilizzato per gli accertamenti durante le investigazioni e prevede già delle specifiche di legge per quanto riguarda il trattamento dei dati da parte della polizia regolamentato dalla Polizia.
Il budget stanziato per il potenziamento del sistema è di 246 mila euro e il potenziamento include l’acquisto della licenza per un software di riconoscimento facciale di proprietà della società Neurotechnology, fra le produttrici più conosciute al mondo, in grado di processare il flusso video proveniente da almeno due videocamere e la gestione di una watch-list che include fino a 10 mila soggetti. Inoltre, la configurazione hardware e software deve essere di ridotte dimensioni, da inserire in uno zaino, e permettere di «effettuare installazioni strategiche in luoghi difficilmente accessibili con le apparecchiature in dotazione», si legge dalla scheda tecnica del Ministero.
Questo potenziamento rientra all’interno del progetto Falco Extended finanziato dal Fondo Sicurezza Interna (FSI) 2014-2020: al progetto sono stati assegnati 4 milioni di euro, di cui 2,4 milioni erogati fino ad ora, secondo i dati aggiornati all’ottobre 2020. Nello stesso progetto sono previsti anche un bando per l’accesso alla banca dati mondiale riguardante persone giuridiche a scopo di indagini patrimoniali e un servizio di interpretariato.
Il Fondo Sicurezza Interna è uno strumento messo in piedi dalla Commissione Europea che offre quasi 4 miliardi di euro per un periodo di 7 anni con lo scopo di promuovere l’attuazione della strategia di sicurezza interna, la cooperazione tra le forze dell’ordine e la gestione delle frontiere esterne dell’Unione. Nel caso dell’Italia, sono stati finanziati 111 progetti a fronte di un investimento complessivo di 614 milioni di euro, di cui 349 milioni provenienti dall’Europa.
Il silenzio del Ministero dell’Interno
Se per il Ministero l’aspetto economico non sembra essere stato un problema, grazie anche ai fondi dell’Unione Europea, neanche l’aspetto della legalità del sistema di riconoscimento facciale è un ostacolo: sono trascorsi due anni e il Garante deve ancora pronunciarsi sul sistema SARI Real-Time. Il motivo: il Ministero non risponde più alle richieste di informazioni dell’Autorità.
Vuoi fare una segnalazione?
Diventa una fonte. Con IrpiLeaks puoi comunicare con noi in sicurezza
Grazie ad alcuni documenti ottenuti con una richiesta FOIA inviata al Garante privacy, IrpiMedia ha scoperto infatti che dopo l’apertura dell’istruttoria sul sistema SARI Real-Time nel 2017, e dopo un iniziale scambio di informazioni, la corrispondenza si è interrotta il 22 ottobre 2018: in quell’occasione il Garante ha richiesto una valutazione di impatto sulla privacy dei cittadini (DPIA), valutazione necessaria quando si tratta della gestione di dati biometrici che possono avere gravi ripercussioni sui diritti fondamentali.
«È necessaria una valutazione d’impatto del trattamento effettuato tramite il sistema SARI Real-Time […] in considerazione della circostanza che tale trattamento, per l’uso delle tecnologie attraverso cui è svolto, per la sua natura e per il contesto in cui si svolge, appare presentare un rischio elevato per i diritti e le libertà della persona», si legge nel documento del Garante.
Lo scorso giugno il Ministero aveva confermato che il sistema SARI Real-Time non è mai stato implementato in ambito operativo. Eppure, interpellato dal Garante in quanto controparte interessata nella richiesta FOIA, il Ministero ha prontamente opposto diniego alla possibilità di accedere a qualunque tipo di informazione sottolineando come SARI sia uno strumento utile nel contrasto alla criminalità organizzata e nella lotta al terrorismo. Ha ribadito inoltre come fornire informazioni relative al funzionamento del sistema “potrebbe alterarne gli esiti investigativi, anche attraverso l’uso di malware o software.” Una motivazione che, nell’ambito della sicurezza informatica, prende spesso il nome di “Security through obscurity” e che la stessa Agenzia europea per la la sicurezza delle reti e dell’informazione (ENISA) ha sottolineato essere un approccio pericoloso.
Solo con un provvedimento di riesame è stato possibile accedere al documento e superare l’opposizione del Ministero.
Raggiunto da IrpiMedia per un commento riguardo le nuove rivelazioni del bando per potenziare il sistema SARI e usarlo nelle operazioni di sbarco, scavalcando di fatto l’istruttoria ancora in corso, l’Ufficio Stampa del Garante ha fatto sapere che non possono essere rilasciate valutazioni in quanto si tratta di «un caso sul quale l’Ufficio del Garante sta lavorando».
Se un sistema di riconoscimento facciale è problematico per chiunque, lo diventa ancora di più per i migranti. Nel 2019 un’inchiesta di Wired Italia aveva rivelato che su 9 milioni di immagini dei volti contenuti in AFIS, 7 milioni sono di cittadini stranieri, ma non è possibile capire quanti di questi siano migranti e richiedenti asilo. Inoltre, gli unici dettagli pubblici relativi all’accuratezza di uno degli algoritmi usati da SARI risalgono al 2016. Quando l’algoritmo è testato su un dataset che contiene molti volti di persone non bianche la probabilità di individuare il ricercato tra i primi 10 risultati è di circa il 77%.
IrpiMedia ha richiesto valutazioni più recenti degli algoritmi a Parsec 3.26 — e alla sua divisione che si occupa di riconoscimento facciale, la Reco 3.26 — ma hanno fatto sapere di non essere autorizzati a rilasciare alcun dettaglio sulla fornitura SARI, invitando a contattare la polizia scientifica.
Il riconoscimento facciale non funziona per tutti
Gli algoritmi hanno difficoltà a riconoscere volti di persone non bianche e rischiano di discriminare anche in base al genere della persona. Nel 2019, un’analisi degli algoritmi effettuata dal National Institute of Standards and Technologies (NIST) ha confermato i risultati dell’anno precedente delle ricercatrici Joy Buolamwini e Timnit Gebru: queste tecnologie tendono a essere più accurate con i volti di uomini bianchi mentre i volti di persone afroamericane o asiatiche hanno una probabilità da 10 a 100 volte più alta di essere identificate in maniera sbagliata. La disparità di trattamento si vede anche nel caso di uomini e donne bianchi. Errori nei software degli algoritmi di riconoscimento facciale hanno già portato all’arresto di due cittadini afroamericani a Detroit in due diversi casi. Il sistema aveva suggerito l’identità di persone che non avevano nulla a che fare con i sospetti ricercati dalla polizia, eppure gli agenti hanno proceduto comunque ad arrestarli.
IrpiMedia ha inviato una lista di domande alla polizia chiedendo dettagli sulla valutazione degli algoritmi; l’esistenza di una valutazione d’impatto sulla privacy; il numero esatto di migranti e richiedenti asilo contenuti nel database AFIS; quante e quali società hanno inviato un’offerta al bando per il potenziamento; se il sistema SARI sia mai stato utilizzato in precedenza sui migranti e, in caso negativo, per quale motivo allora si parla di potenziamento. Al momento della pubblicazione di questo articolo la polizia non ha ancora fornito un riscontro a queste domande.
Nel frattempo, però, il Ministero dell’Interno è andato avanti e ha indetto una procedura negoziata senza pubblicazione del bando per l’affidamento della fornitura, come scoperto da IrpiMedia monitorando i siti che aggregano informazioni sugli appalti. La scadenza per l’invio dei documenti di gara era lo scorso 27 novembre. A un’ulteriore richiesta di informazioni, in particolare sulle aziende invitate a partecipare e sull’esito del bando, l’ufficio stampa della polizia non ha fornito risposte.
Ad agosto la Corte d’Appello di Inghilterra e Galles ha accolto il ricorso di un cittadino contro l’uso del riconoscimento facciale in real-time da parte della South Wales Police: il sistema viola il diritto alla privacy ai sensi dell’articolo 8 della Convenzione europea dei diritti dell’uomo, e la Corte ha riscontrato che la polizia non ha controllato adeguatamente se il software mostrasse un qualche pregiudizio razziale o di genere
Ad agosto la Corte d’Appello di Inghilterra e Galles ha accolto il ricorso di un cittadino contro l’uso del riconoscimento facciale in real-time da parte della South Wales Police: il sistema viola il diritto alla privacy ai sensi dell’articolo 8 della Convenzione europea dei diritti dell’uomo, e la Corte ha riscontrato che la polizia non ha controllato adeguatamente se il software mostrasse un qualche pregiudizio razziale o di genere. Inoltre, la Corte ha sottolineato anche come la valutazione d’impatto sulla privacy (DPIA) fosse carente: «La DPIA non ha valutato correttamente i rischi per i diritti e le libertà degli interessati e non ha preso le misure previste per affrontare i rischi derivanti dalle carenze riscontrate», si legge nella sentenza.
In Italia il Ministero dell’Interno non solo non ha prodotto una DPIA e si rifiuta di collaborare nell’indagine del Garante, ma sta attivamente cercando di acquistare e utilizzare un sistema che, anche sulla base di sentenze in altri Stati, rischia di essere illegale.