• Passa alla navigazione primaria
  • Passa al contenuto principale
  • Formati
    • Serie
    • Inchieste
    • Feature
    • Editoriali
  • Speciali
    • Inchiestage
    • Fotoreportage
    • Video
    • Podcast
  • Archivi
    • Archivio generale
  • IrpiMedia
    • Membership
    • SHOP
    • Newsletter
    • IrpiLeaks
    • Editoria
    • Redazione
  • Irpi
    • APS
    • SLAPP
    • Dona
  • In English
    • Investigations
    • Donate
  • Social
    • Facebook
    • Instagram
    • LinkedIn
    • Telegram
    • YouTube
IrpiMedia

IrpiMedia

Periodico indipendente di giornalismo d'inchiesta

  • Home
  • Menu
  • MyIrpi
  • Login

Il riconoscimento facciale ci trasforma in dati senza vita

Una società che demanda la sorveglianza agli algoritmi riduce gli spazi pubblici e acuisce le disuguaglianze. Le ragioni della campagna Reclaim Your Face

14.01.21

Riccardo Coluccini

Argomenti correlati

Cybersecurity
Sorveglianza

Lo scorso 12 novembre tredici Ong europee che si occupano di diritti digitali hanno lanciato la campagna Reclaim Your Face, un’azione intereuropea per vietare l’impiego di tecnologie per la sorveglianza biometrica di massa: dal riconoscimento facciale al riconoscimento vocale, passando per la raccolta indiscriminata di impronte digitali o l’analisi, grazie ad algoritmi di intelligenza artificiale, dell’andatura di una persona mentre cammina in città.

Anche l’Italia sta giocando un ruolo centrale nell’introduzione di queste tecnologie repressive e l’inchiesta pubblicata ieri su IrpiMedia mostra per l’ennesima volta come non possiamo perdere ulteriore tempo prima di bloccare questi sistemi e pretendere di avere un dibattito pubblico sul loro utilizzo.

L’urgenza di questa campagna era già evidente: sempre più città e Stati statunitensi hanno introdotto divieti di utilizzo del riconoscimento facciale da parte delle forze dell’ordine proprio perché queste tecnologie sono inaffidabili, discriminano sistematicamente persone nere, indigene, e di colore e finiscono per acuire quelle disparità che già dividono la nostra società. In contesti come quello cinese questa tecnologia colpisce in modo particolare le fasce più indifese della popolazione – minoranze, poveri, migranti, senzatetto – che rischiano di finire stritolati dall’etica del decoro.

Le tecnologie come il riconoscimento facciale permettono di monitorare e controllare tutte quelle parti della popolazione che abitano maggiormente gli spazi pubblici – con applicazioni ad esempio nei progetti abitativi o nei rifugi per senzatetto – o quelle minoranze che, per scelte politiche di governi autoritari, devono essere represse e nascoste agli occhi della società. Pensiamo ad esempio ai test del riconoscimento facciale usato contro gli uiguri in Cina.

Esplosa negli USA, la sorveglianza biometrica però investe anche l’Europa: dall’Italia alla Grecia, dalla Francia alla Polonia.

La vicenda del sistema SARI Real-Time della polizia italiana è la trasposizione plastica delle modalità con cui governi e forze dell’ordine introducono questo tipo di tecnologie. Ogni aspetto di questa storia sembra confermare tutti i timori e le richieste della campagna Reclaim Your Face.

La campagna chiede trasparenza sui sistemi introdotti, il rispetto dei diritti umani fondamentali, e il divieto di utilizzo di sistemi che introducono forme di sorveglianza di massa che monitorano i nostri corpi.

Sari è stato acquistato tre anni fa in sordina e solo l’intervento tempestivo del giornalismo ha permesso al Garante della privacy di aprire un’istruttoria.

Nel caso rivelato da IrpiMedia, siamo nuovamente di fronte al tentativo di acquistare una tecnologia senza che vi sia stata alcuna discussione pubblica al riguardo, sfruttando in parte fondi europei che vanno a peggiorare ulteriormente il quadro delle azioni dell’Unione Europea contro la crisi migratoria, e scavalcando ogni dialogo persino con le autorità competenti. E deve far preoccupare ancora di più il fatto che, nonostante siano numerosi i casi che dimostrano come questa tecnologia perpetui disparità sociali e razziali della società, la si voglia applicare proprio alla gestione del fenomeno migratorio.

SARI Real-time sancisce la vittoria della tecnologia sui diritti. Il riferimento nel bando al potenziamento del sistema sembra quasi suggerire che un semplice upgrade del software possa far dimenticare tutte le criticità della tecnologia. La stessa strategia era stata adottata in un altro caso esemplare, tutto italiano: il riconoscimento facciale nel parco cittadino di Como. In quel caso la giunta comunale era interessata a un unico obiettivo: l’innovazione. La proposta di Huawei, la società che aveva avvicinato il Comune offrendo il proprio pacchetto di tecnologie per la smart city, doveva essere innovativa, unica clausola per giustificare l’acquisto. Come se nei criteri di valutazione di un progetto l’impatto sulle vite delle persone fosse qualcosa di poco conto. Ed infatti il Garante della privacy lì è intervenuto, intimando di spegnere il sistema.

In queste vicende la tecnologia non è più al servizio della popolazione ma diventa fine a se stessa: un giocattolino lucente per fingere di essere sbarcati finalmente nel futuro. Poco importa se quel futuro è fatto di esseri umani calpestati, persone digerite e trasformate dall’occhio elettronico in semplici stringhe di codice comprensibili solo agli algoritmi.

SARI è però soprattutto la dimostrazione che il buco nero informativo che avvolge il riconoscimento facciale in Italia è intenzionale: da due anni il Ministero dell’Interno non risponde alle richieste del Garante della privacy. Eppure, pubblicamente, la polizia continua a lodare l’impiego della tecnologia con comunicati stampa che, nel migliore dei casi, finiscono in qualche trafiletto di giornali locali. Ma di valutazioni d’impatto sui rischi per noi cittadini e cittadine non se ne vedono. Non solo siamo trattati come persone incapaci di discutere di questi temi, ma veniamo anche raggirati: dopo aver speso soldi pubblici per mettere in piedi l’infrastruttura, le valutazioni d’impatto postume non diventano altro che dei timbri di approvazione che non valgono nulla. Sono carta straccia o peggio, come nel caso di Como, deliberati tentativi di nascondere la realtà: in quel caso il riconoscimento facciale era stato fatto passare per un semplice sistema di videosorveglianza.

Eppure sappiamo che quando siamo monitorati, cambiamo il nostro comportamento. Quando siamo classificati e trasformati in categorie, veniamo giudicati e discriminati. L’introduzione di queste tecnologie avviene sempre senza giustificarne concretamente la necessità.

La sorveglianza biometrica ci de-umanizza, trasformandoci in dati digitali senza vita. Ci sottomette a sistemi di decisione automatizzata di cui non possiamo conoscere il funzionamento, e ci viene strappata la possibilità di decidere chi vogliamo essere e come vogliamo esprimerci. La sorveglianza biometrica non è solo una minaccia per la nostra privacy individuale ma produce anche danni alla collettività: attaccando gli spazi pubblici diventa una minaccia per chi esercita i propri diritti e per tutti coloro che cercano di costruire comunità democratiche sane e robuste.

La campagna Reclaim Your Face non è quindi solo un modo per riappropriarsi del proprio volto e dei propri diritti, ma diventa anche un modo per decidere collettivamente la forma dei nostri spazi pubblici: luoghi di sorveglianza indiscriminata o santuari di democrazia?

Per approfondire

#Sorveglianze
Serie

Chi alimenta la sorveglianza

Aggiornata il: 15 Ottobre 2025

Crediti

Autori

Riccardo Coluccini

Editing

Redazione Irpi

Condividi su

Potresti leggere anche

#Sorveglianze
Inchiesta

La storia di Sophia, una delle diecimila vittime di Altamides

15.10.25
Coluccini, Black, Freudenthal, Geiger
#Sorveglianze
Inchiesta

Anche un ex manager di Eni tra i bersagli del software che traccia i telefoni

15.10.25
Coluccini, Black, Freudenthal, Geiger
#Sorveglianze
Inchiesta

First Wap, la pioniera delle società di sorveglianza di cui non avete mai sentito parlare

14.10.25
Coluccini, Black, Freudenthal, Geiger
#Sorveglianze
Inchiesta

Anche Caltagirone tra i bersagli dello spyware di Paragon

09.10.25
Angius

Logo IRPI media
Logo IRPI media

IrpiMedia è una testata registrata al Tribunale di Milano n. 13/2020.
IRPI | Investigative Reporting Project Italy | Associazione di promozione sociale | C.F. 94219220483
I contenuti di questo sito sono distribuiti con licenza Creative Commons Attribuzione – Non commerciale 4.0 Internazionale.

  • Serie
  • Inchieste
  • Feature
  • Editoriali
  • Inchiestage
  • Fotoreportage
  • Video
  • Podcast
  • Newsletter
  • IrpiLeaks
  • Irpi
  • Cookie Policy
WhatsApp Facebook X Instagram LinkedIn YouTube
Gestisci consenso Cookie
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferences
The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici. The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.
Gestisci opzioni Gestisci servizi Gestisci {vendor_count} fornitori Per saperne di più su questi scopi
Preferenze
{title} {title} {title}