Il riconoscimento facciale ci trasforma in dati senza vita
14 Gennaio 2021 | di Riccardo Coluccini
Lo scorso 12 novembre tredici Ong europee che si occupano di diritti digitali hanno lanciato la campagna Reclaim Your Face, un’azione intereuropea per vietare l’impiego di tecnologie per la sorveglianza biometrica di massa: dal riconoscimento facciale al riconoscimento vocale, passando per la raccolta indiscriminata di impronte digitali o l’analisi, grazie ad algoritmi di intelligenza artificiale, dell’andatura di una persona mentre cammina in città.
Anche l’Italia sta giocando un ruolo centrale nell’introduzione di queste tecnologie repressive e l’inchiesta pubblicata ieri su IrpiMedia mostra per l’ennesima volta come non possiamo perdere ulteriore tempo prima di bloccare questi sistemi e pretendere di avere un dibattito pubblico sul loro utilizzo.
L’urgenza di questa campagna era già evidente: sempre più città e Stati statunitensi hanno introdotto divieti di utilizzo del riconoscimento facciale da parte delle forze dell’ordine proprio perché queste tecnologie sono inaffidabili, discriminano sistematicamente persone nere, indigene, e di colore e finiscono per acuire quelle disparità che già dividono la nostra società. In contesti come quello cinese questa tecnologia colpisce in modo particolare le fasce più indifese della popolazione – minoranze, poveri, migranti, senzatetto – che rischiano di finire stritolati dall’etica del decoro.
Le tecnologie come il riconoscimento facciale permettono di monitorare e controllare tutte quelle parti della popolazione che abitano maggiormente gli spazi pubblici – con applicazioni ad esempio nei progetti abitativi o nei rifugi per senzatetto – o quelle minoranze che, per scelte politiche di governi autoritari, devono essere represse e nascoste agli occhi della società. Pensiamo ad esempio ai test del riconoscimento facciale usato contro gli uiguri in Cina.
Esplosa negli USA, la sorveglianza biometrica però investe anche l’Europa: dall’Italia alla Grecia, dalla Francia alla Polonia.
La vicenda del sistema SARI Real-Time della polizia italiana è la trasposizione plastica delle modalità con cui governi e forze dell’ordine introducono questo tipo di tecnologie. Ogni aspetto di questa storia sembra confermare tutti i timori e le richieste della campagna Reclaim Your Face.
La campagna chiede trasparenza sui sistemi introdotti, il rispetto dei diritti umani fondamentali, e il divieto di utilizzo di sistemi che introducono forme di sorveglianza di massa che monitorano i nostri corpi.
Sari è stato acquistato tre anni fa in sordina e solo l’intervento tempestivo del giornalismo ha permesso al Garante della privacy di aprire un’istruttoria.
L’inchiesta
Lo scontro Viminale-Garante della privacy sul riconoscimento facciale in tempo reale
Finanziato dall’Europa, il sistema SARI dovrebbe monitorare le operazioni di sbarco e tutte le varie attività correlate. In altri Stati questa tecnologia è stata già giudicata illegale
Nel caso rivelato da IrpiMedia, siamo nuovamente di fronte al tentativo di acquistare una tecnologia senza che vi sia stata alcuna discussione pubblica al riguardo, sfruttando in parte fondi europei che vanno a peggiorare ulteriormente il quadro delle azioni dell’Unione Europea contro la crisi migratoria, e scavalcando ogni dialogo persino con le autorità competenti. E deve far preoccupare ancora di più il fatto che, nonostante siano numerosi i casi che dimostrano come questa tecnologia perpetui disparità sociali e razziali della società, la si voglia applicare proprio alla gestione del fenomeno migratorio.
SARI Real-time sancisce la vittoria della tecnologia sui diritti. Il riferimento nel bando al potenziamento del sistema sembra quasi suggerire che un semplice upgrade del software possa far dimenticare tutte le criticità della tecnologia. La stessa strategia era stata adottata in un altro caso esemplare, tutto italiano: il riconoscimento facciale nel parco cittadino di Como. In quel caso la giunta comunale era interessata a un unico obiettivo: l’innovazione. La proposta di Huawei, la società che aveva avvicinato il Comune offrendo il proprio pacchetto di tecnologie per la smart city, doveva essere innovativa, unica clausola per giustificare l’acquisto. Come se nei criteri di valutazione di un progetto l’impatto sulle vite delle persone fosse qualcosa di poco conto. Ed infatti il Garante della privacy lì è intervenuto, intimando di spegnere il sistema.
In queste vicende la tecnologia non è più al servizio della popolazione ma diventa fine a se stessa: un giocattolino lucente per fingere di essere sbarcati finalmente nel futuro. Poco importa se quel futuro è fatto di esseri umani calpestati, persone digerite e trasformate dall’occhio elettronico in semplici stringhe di codice comprensibili solo agli algoritmi.
SARI è però soprattutto la dimostrazione che il buco nero informativo che avvolge il riconoscimento facciale in Italia è intenzionale: da due anni il Ministero dell’Interno non risponde alle richieste del Garante della privacy. Eppure, pubblicamente, la polizia continua a lodare l’impiego della tecnologia con comunicati stampa che, nel migliore dei casi, finiscono in qualche trafiletto di giornali locali. Ma di valutazioni d’impatto sui rischi per noi cittadini e cittadine non se ne vedono. Non solo siamo trattati come persone incapaci di discutere di questi temi, ma veniamo anche raggirati: dopo aver speso soldi pubblici per mettere in piedi l’infrastruttura, le valutazioni d’impatto postume non diventano altro che dei timbri di approvazione che non valgono nulla. Sono carta straccia o peggio, come nel caso di Como, deliberati tentativi di nascondere la realtà: in quel caso il riconoscimento facciale era stato fatto passare per un semplice sistema di videosorveglianza.
Eppure sappiamo che quando siamo monitorati, cambiamo il nostro comportamento. Quando siamo classificati e trasformati in categorie, veniamo giudicati e discriminati. L’introduzione di queste tecnologie avviene sempre senza giustificarne concretamente la necessità.
La sorveglianza biometrica ci de-umanizza, trasformandoci in dati digitali senza vita. Ci sottomette a sistemi di decisione automatizzata di cui non possiamo conoscere il funzionamento, e ci viene strappata la possibilità di decidere chi vogliamo essere e come vogliamo esprimerci. La sorveglianza biometrica non è solo una minaccia per la nostra privacy individuale ma produce anche danni alla collettività: attaccando gli spazi pubblici diventa una minaccia per chi esercita i propri diritti e per tutti coloro che cercano di costruire comunità democratiche sane e robuste.
La campagna Reclaim Your Face non è quindi solo un modo per riappropriarsi del proprio volto e dei propri diritti, ma diventa anche un modo per decidere collettivamente la forma dei nostri spazi pubblici: luoghi di sorveglianza indiscriminata o santuari di democrazia?
Riccardo Coluccini fa parte dell’Ong italiana Hermes Center, tra le firmatarie della campagna | Foto: reclaimyourface.eu