Il riconoscimento facciale ci trasforma in dati senza vita

14 Gennaio 2021 | di Riccardo Coluccini

Lo scorso 12 novembre tredici Ong europee che si occupano di diritti digitali hanno lanciato la campagna Reclaim Your Face, un’azione intereuropea per vietare l’impiego di tecnologie per la sorveglianza biometrica di massa: dal riconoscimento facciale al riconoscimento vocale, passando per la raccolta indiscriminata di impronte digitali o l’analisi, grazie ad algoritmi di intelligenza artificiale, dell’andatura di una persona mentre cammina in città.

Anche l’Italia sta giocando un ruolo centrale nell’introduzione di queste tecnologie repressive e l’inchiesta pubblicata ieri su IrpiMedia mostra per l’ennesima volta come non possiamo perdere ulteriore tempo prima di bloccare questi sistemi e pretendere di avere un dibattito pubblico sul loro utilizzo.

L’urgenza di questa campagna era già evidente: sempre più città e Stati statunitensi hanno introdotto divieti di utilizzo del riconoscimento facciale da parte delle forze dell’ordine proprio perché queste tecnologie sono inaffidabili, discriminano sistematicamente persone nere, indigene, e di colore e finiscono per acuire quelle disparità che già dividono la nostra società. In contesti come quello cinese questa tecnologia colpisce in modo particolare le fasce più indifese della popolazione – minoranze, poveri, migranti, senzatetto – che rischiano di finire stritolati dall’etica del decoro.

Le tecnologie come il riconoscimento facciale permettono di monitorare e controllare tutte quelle parti della popolazione che abitano maggiormente gli spazi pubblici – con applicazioni ad esempio nei progetti abitativi o nei rifugi per senzatetto – o quelle minoranze che, per scelte politiche di governi autoritari, devono essere represse e nascoste agli occhi della società. Pensiamo ad esempio ai test del riconoscimento facciale usato contro gli uiguri in Cina.

Esplosa negli USA, la sorveglianza biometrica però investe anche l’Europa: dall’Italia alla Grecia, dalla Francia alla Polonia.

La vicenda del sistema SARI Real-Time della polizia italiana è la trasposizione plastica delle modalità con cui governi e forze dell’ordine introducono questo tipo di tecnologie. Ogni aspetto di questa storia sembra confermare tutti i timori e le richieste della campagna Reclaim Your Face.

La campagna chiede trasparenza sui sistemi introdotti, il rispetto dei diritti umani fondamentali, e il divieto di utilizzo di sistemi che introducono forme di sorveglianza di massa che monitorano i nostri corpi.

Sari è stato acquistato tre anni fa in sordina e solo l’intervento tempestivo del giornalismo ha permesso al Garante della privacy di aprire un’istruttoria.

L’inchiesta

Lo scontro Viminale-Garante della privacy sul riconoscimento facciale in tempo reale

Finanziato dall’Europa, il sistema SARI dovrebbe monitorare le operazioni di sbarco e tutte le varie attività correlate. In altri Stati questa tecnologia è stata già giudicata illegale

13 Gennaio 2021

Nel caso rivelato da IrpiMedia, siamo nuovamente di fronte al tentativo di acquistare una tecnologia senza che vi sia stata alcuna discussione pubblica al riguardo, sfruttando in parte fondi europei che vanno a peggiorare ulteriormente il quadro delle azioni dell’Unione Europea contro la crisi migratoria, e scavalcando ogni dialogo persino con le autorità competenti. E deve far preoccupare ancora di più il fatto che, nonostante siano numerosi i casi che dimostrano come questa tecnologia perpetui disparità sociali e razziali della società, la si voglia applicare proprio alla gestione del fenomeno migratorio.

SARI Real-time sancisce la vittoria della tecnologia sui diritti. Il riferimento nel bando al potenziamento del sistema sembra quasi suggerire che un semplice upgrade del software possa far dimenticare tutte le criticità della tecnologia. La stessa strategia era stata adottata in un altro caso esemplare, tutto italiano: il riconoscimento facciale nel parco cittadino di Como. In quel caso la giunta comunale era interessata a un unico obiettivo: l’innovazione. La proposta di Huawei, la società che aveva avvicinato il Comune offrendo il proprio pacchetto di tecnologie per la smart city, doveva essere innovativa, unica clausola per giustificare l’acquisto. Come se nei criteri di valutazione di un progetto l’impatto sulle vite delle persone fosse qualcosa di poco conto. Ed infatti il Garante della privacy lì è intervenuto, intimando di spegnere il sistema.

In queste vicende la tecnologia non è più al servizio della popolazione ma diventa fine a se stessa: un giocattolino lucente per fingere di essere sbarcati finalmente nel futuro. Poco importa se quel futuro è fatto di esseri umani calpestati, persone digerite e trasformate dall’occhio elettronico in semplici stringhe di codice comprensibili solo agli algoritmi.

SARI è però soprattutto la dimostrazione che il buco nero informativo che avvolge il riconoscimento facciale in Italia è intenzionale: da due anni il Ministero dell’Interno non risponde alle richieste del Garante della privacy. Eppure, pubblicamente, la polizia continua a lodare l’impiego della tecnologia con comunicati stampa che, nel migliore dei casi, finiscono in qualche trafiletto di giornali locali. Ma di valutazioni d’impatto sui rischi per noi cittadini e cittadine non se ne vedono. Non solo siamo trattati come persone incapaci di discutere di questi temi, ma veniamo anche raggirati: dopo aver speso soldi pubblici per mettere in piedi l’infrastruttura, le valutazioni d’impatto postume non diventano altro che dei timbri di approvazione che non valgono nulla. Sono carta straccia o peggio, come nel caso di Como, deliberati tentativi di nascondere la realtà: in quel caso il riconoscimento facciale era stato fatto passare per un semplice sistema di videosorveglianza.

Eppure sappiamo che quando siamo monitorati, cambiamo il nostro comportamento. Quando siamo classificati e trasformati in categorie, veniamo giudicati e discriminati. L’introduzione di queste tecnologie avviene sempre senza giustificarne concretamente la necessità.

La sorveglianza biometrica ci de-umanizza, trasformandoci in dati digitali senza vita. Ci sottomette a sistemi di decisione automatizzata di cui non possiamo conoscere il funzionamento, e ci viene strappata la possibilità di decidere chi vogliamo essere e come vogliamo esprimerci. La sorveglianza biometrica non è solo una minaccia per la nostra privacy individuale ma produce anche danni alla collettività: attaccando gli spazi pubblici diventa una minaccia per chi esercita i propri diritti e per tutti coloro che cercano di costruire comunità democratiche sane e robuste.

La campagna Reclaim Your Face non è quindi solo un modo per riappropriarsi del proprio volto e dei propri diritti, ma diventa anche un modo per decidere collettivamente la forma dei nostri spazi pubblici: luoghi di sorveglianza indiscriminata o santuari di democrazia?

Riccardo Coluccini fa parte dell’Ong italiana Hermes Center, tra le firmatarie della campagna | Foto: reclaimyourface.eu

0Shares

Lo scontro Viminale-Garante della privacy sul riconoscimento facciale in tempo reale

Lo scontro Viminale-Garante della privacy sul riconoscimento facciale in tempo reale
Riccardo Coluccini

Mentre in tutto il mondo si discute dei rischi etici del riconoscimento facciale, della necessità di sospendere queste tecnologie fino a quando non saranno correttamente regolate, o persino di introdurre dei divieti totali al loro utilizzo, la Direzione Centrale Anticrimine della Polizia di Stato ha invece l’esigenza di potenziare le due componenti del Sistema Automatico Riconoscimento Immagini (SARI) acquistato nel 2017: SARI Enterprise e SARI Real-Time.

Nel 2016 la Commissione Europea aveva proposto di utilizzare il riconoscimento facciale per contenere la crisi migratoria, aggiungendo la possibilità di sfruttare i dati biometrici dei volti da includere in EURODAC, l’European Asylum Dactyloscopy, un database usato per raccogliere le impronte digitali di richiedenti asilo e migranti. La proposta aveva subito portato alla mente scenari da Minority Report e nel 2019 uno studio dell’Agenzia europea per i diritti fondamentali (FRA) ha sottolineato i rischi del riconoscimento facciale, in particolare quando usato in tempo reale proprio su migranti e richiedenti asilo ignari di essere ripresi.

Quella proposta ancora non si è concretizzata ma l’Italia sembra disposta a procedere per conto proprio: a novembre 2020 il Ministero dell’Interno ha infatti chiuso un bando di gara per individuare il miglior sistema il riconoscimento facciale da utilizzare in tempo reale sui migranti.

IrpiMedia è gratuito

Ogni donazione è indispensabile per lo sviluppo di IrpiMedia

Scarica in PDF

Scarica qui il PDF dell’inchiesta: portala con te e leggila anche off-line in una eslcusiva veste grafica

Per farlo, il Ministero ha usato due strategie: sfruttare i fondi europei per la Sicurezza Interna e, come mostrano alcuni documenti ottenuti da IrpiMedia grazie a una richiesta FOIA, ignorare le domande del Garante della privacy che da due anni attende di chiudere un’istruttoria proprio sul sistema di riconoscimento facciale che vuole usare la polizia.

La società che ha fornito il sistema nel 2017 è la leccese Parsec 3.26 S.r.l.. A giugno il Ministero ha da prima avviato un’indagine esplorativa per capire se esistono altre aziende sul mercato o se, in assenza di alternative, deve ricorrere alla procedura negoziata senza pubblicazione del bando affidando il potenziamento alla stessa Parsec 3.26. A novembre è stata avviata la procedura negoziata ma non è chiaro se l’unica partecipante sia effettivamente l’azienda leccese.

Il riconoscimento facciale sui migranti

Nell’avviso esplorativo il Ministero sottolinea gli obiettivi di questo potenziamento: utilizzare SARI Enterprise anche per verificare l’autenticità delle foto nei documenti e usare SARI Real-Time come «sistema tattico per monitorare le operazioni di sbarco e tutte le varie tipologie di attività illegali correlate, video riprenderle ed identificare i soggetti coinvolti».

Il sistema Enterprise permette il confronto di una foto con quelle raccolte nel database AFIS, una sorta di ricerca automatica della corrispondenza dei volti. In precedenza questo tipo di confronto veniva fatto manualmente immettendo i termini di ricerca come ad esempio colore degli occhi, segni particolari, e genere. Proprio perché è un sistema che velocizza una ricerca che sarebbe fatta comunque manualmente, il Garante ha permesso al Ministero di utilizzarlo con un provvedimento del 2018.

Cos’è il database AFIS?

AFIS è l’acronimo di Automated Fingerprint Identification System, il Sistema automatizzato di identificazione delle impronte gestito dalla Polizia Scientifica. Al suo interno contiene le immagini dei soggetti che sono stati fotosegnalati e sottoposti a raccolta delle impronte digitali. Il database dovrebbe contenere circa 16 milioni di cartellini che fanno riferimento a 9 milioni di persone. AFIS è utilizzato per gli accertamenti durante le investigazioni e prevede già delle specifiche di legge per quanto riguarda il trattamento dei dati da parte della polizia regolamentato dalla Polizia.

Per quanto riguarda il sistema Real-Time, invece, nell’appalto del 2017 era pensato a «supporto di operazioni di controllo del territorio in occasione di eventi e/o manifestazioni» in tempo reale. Posizionando specifiche videocamere che riprendono il volto delle persone sarebbe possibile verificarne l’identità rispetto ad una lista predefinita di persone ricercate. Non si parlava quindi di migranti ma soprattutto: manca ancora un provvedimento del Garante per usare il sistema Real-Time.

Il budget stanziato per il potenziamento del sistema è di 246 mila euro e il potenziamento include l’acquisto della licenza per un software di riconoscimento facciale di proprietà della società Neurotechnology, fra le produttrici più conosciute al mondo, in grado di processare il flusso video proveniente da almeno due videocamere e la gestione di una watch-list che include fino a 10 mila soggetti. Inoltre, la configurazione hardware e software deve essere di ridotte dimensioni, da inserire in uno zaino, e permettere di «effettuare installazioni strategiche in luoghi difficilmente accessibili con le apparecchiature in dotazione», si legge dalla scheda tecnica del Ministero.

Questo potenziamento rientra all’interno del progetto Falco Extended finanziato dal Fondo Sicurezza Interna (FSI) 2014-2020: al progetto sono stati assegnati 4 milioni di euro, di cui 2,4 milioni erogati fino ad ora, secondo i dati aggiornati all’ottobre 2020. Nello stesso progetto sono previsti anche un bando per l’accesso alla banca dati mondiale riguardante persone giuridiche a scopo di indagini patrimoniali e un servizio di interpretariato.

Il Fondo Sicurezza Interna è uno strumento messo in piedi dalla Commissione Europea che offre quasi 4 miliardi di euro per un periodo di 7 anni con lo scopo di promuovere l’attuazione della strategia di sicurezza interna, la cooperazione tra le forze dell’ordine e la gestione delle frontiere esterne dell’Unione. Nel caso dell’Italia, sono stati finanziati 111 progetti a fronte di un investimento complessivo di 614 milioni di euro, di cui 349 milioni provenienti dall’Europa.

Il silenzio del Ministero dell’Interno

Se per il Ministero l’aspetto economico non sembra essere stato un problema, grazie anche ai fondi dell’Unione Europea, neanche l’aspetto della legalità del sistema di riconoscimento facciale è un ostacolo: sono trascorsi due anni e il Garante deve ancora pronunciarsi sul sistema SARI Real-Time. Il motivo: il Ministero non risponde più alle richieste di informazioni dell’Autorità.

Vuoi fare una segnalazione?

Diventa una fonte. Con IrpiLeaks puoi comunicare con noi in sicurezza

Grazie ad alcuni documenti ottenuti con una richiesta FOIA inviata al Garante privacy, IrpiMedia ha scoperto infatti che dopo l’apertura dell’istruttoria sul sistema SARI Real-Time nel 2017, e dopo un iniziale scambio di informazioni, la corrispondenza si è interrotta il 22 ottobre 2018: in quell’occasione il Garante ha richiesto una valutazione di impatto sulla privacy dei cittadini (DPIA), valutazione necessaria quando si tratta della gestione di dati biometrici che possono avere gravi ripercussioni sui diritti fondamentali.

«È necessaria una valutazione d’impatto del trattamento effettuato tramite il sistema SARI Real-Time […] in considerazione della circostanza che tale trattamento, per l’uso delle tecnologie attraverso cui è svolto, per la sua natura e per il contesto in cui si svolge, appare presentare un rischio elevato per i diritti e le libertà della persona», si legge nel documento del Garante.

Lo scorso giugno il Ministero aveva confermato che il sistema SARI Real-Time non è mai stato implementato in ambito operativo. Eppure, interpellato dal Garante in quanto controparte interessata nella richiesta FOIA, il Ministero ha prontamente opposto diniego alla possibilità di accedere a qualunque tipo di informazione sottolineando come SARI sia uno strumento utile nel contrasto alla criminalità organizzata e nella lotta al terrorismo. Ha ribadito inoltre come fornire informazioni relative al funzionamento del sistema “potrebbe alterarne gli esiti investigativi, anche attraverso l’uso di malware o software.” Una motivazione che, nell’ambito della sicurezza informatica, prende spesso il nome di “Security through obscurity” e che la stessa Agenzia europea per la la sicurezza delle reti e dell’informazione (ENISA) ha sottolineato essere un approccio pericoloso.

Solo con un provvedimento di riesame è stato possibile accedere al documento e superare l’opposizione del Ministero.

Raggiunto da IrpiMedia per un commento riguardo le nuove rivelazioni del bando per potenziare il sistema SARI e usarlo nelle operazioni di sbarco, scavalcando di fatto l’istruttoria ancora in corso, l’Ufficio Stampa del Garante ha fatto sapere che non possono essere rilasciate valutazioni in quanto si tratta di «un caso sul quale l’Ufficio del Garante sta lavorando».

Se un sistema di riconoscimento facciale è problematico per chiunque, lo diventa ancora di più per i migranti. Nel 2019 un’inchiesta di Wired Italia aveva rivelato che su 9 milioni di immagini dei volti contenuti in AFIS, 7 milioni sono di cittadini stranieri, ma non è possibile capire quanti di questi siano migranti e richiedenti asilo. Inoltre, gli unici dettagli pubblici relativi all’accuratezza di uno degli algoritmi usati da SARI risalgono al 2016. Quando l’algoritmo è testato su un dataset che contiene molti volti di persone non bianche la probabilità di individuare il ricercato tra i primi 10 risultati è di circa il 77%.

IrpiMedia ha richiesto valutazioni più recenti degli algoritmi a Parsec 3.26 — e alla sua divisione che si occupa di riconoscimento facciale, la Reco 3.26 — ma hanno fatto sapere di non essere autorizzati a rilasciare alcun dettaglio sulla fornitura SARI, invitando a contattare la polizia scientifica.

Il riconoscimento facciale non funziona per tutti

Gli algoritmi hanno difficoltà a riconoscere volti di persone non bianche e rischiano di discriminare anche in base al genere della persona. Nel 2019, un’analisi degli algoritmi effettuata dal National Institute of Standards and Technologies (NIST) ha confermato i risultati dell’anno precedente delle ricercatrici Joy Buolamwini e Timnit Gebru: queste tecnologie tendono a essere più accurate con i volti di uomini bianchi mentre i volti di persone afroamericane o asiatiche hanno una probabilità da 10 a 100 volte più alta di essere identificate in maniera sbagliata. La disparità di trattamento si vede anche nel caso di uomini e donne bianchi. Errori nei software degli algoritmi di riconoscimento facciale hanno già portato all’arresto di due cittadini afroamericani a Detroit in due diversi casi. Il sistema aveva suggerito l’identità di persone che non avevano nulla a che fare con i sospetti ricercati dalla polizia, eppure gli agenti hanno proceduto comunque ad arrestarli.

IrpiMedia ha inviato una lista di domande alla polizia chiedendo dettagli sulla valutazione degli algoritmi; l’esistenza di una valutazione d’impatto sulla privacy; il numero esatto di migranti e richiedenti asilo contenuti nel database AFIS; quante e quali società hanno inviato un’offerta al bando per il potenziamento; se il sistema SARI sia mai stato utilizzato in precedenza sui migranti e, in caso negativo, per quale motivo allora si parla di potenziamento. Al momento della pubblicazione di questo articolo la polizia non ha ancora fornito un riscontro a queste domande.

Nel frattempo, però, il Ministero dell’Interno è andato avanti e ha indetto una procedura negoziata senza pubblicazione del bando per l’affidamento della fornitura, come scoperto da IrpiMedia monitorando i siti che aggregano informazioni sugli appalti. La scadenza per l’invio dei documenti di gara era lo scorso 27 novembre. A un’ulteriore richiesta di informazioni, in particolare sulle aziende invitate a partecipare e sull’esito del bando, l’ufficio stampa della polizia non ha fornito risposte.

Ad agosto la Corte d’Appello di Inghilterra e Galles ha accolto il ricorso di un cittadino contro l’uso del riconoscimento facciale in real-time da parte della South Wales Police: il sistema viola il diritto alla privacy ai sensi dell’articolo 8 della Convenzione europea dei diritti dell’uomo, e la Corte ha riscontrato che la polizia non ha controllato adeguatamente se il software mostrasse un qualche pregiudizio razziale o di genere

Ad agosto la Corte d’Appello di Inghilterra e Galles ha accolto il ricorso di un cittadino contro l’uso del riconoscimento facciale in real-time da parte della South Wales Police: il sistema viola il diritto alla privacy ai sensi dell’articolo 8 della Convenzione europea dei diritti dell’uomo, e la Corte ha riscontrato che la polizia non ha controllato adeguatamente se il software mostrasse un qualche pregiudizio razziale o di genere. Inoltre, la Corte ha sottolineato anche come la valutazione d’impatto sulla privacy (DPIA) fosse carente: «La DPIA non ha valutato correttamente i rischi per i diritti e le libertà degli interessati e non ha preso le misure previste per affrontare i rischi derivanti dalle carenze riscontrate», si legge nella sentenza.

In Italia il Ministero dell’Interno non solo non ha prodotto una DPIA e si rifiuta di collaborare nell’indagine del Garante, ma sta attivamente cercando di acquistare e utilizzare un sistema che, anche sulla base di sentenze in altri Stati, rischia di essere illegale.

CREDITI

Autori

Riccardo Coluccini

Editing

Lorenzo Bagnoli

Share via