Tecnologie per il riconoscimento facciale: una questione che sta generando molti interrogativi. E anche una prima ricerca di soluzioni.

Profilazione di massa, invasione della privacy, falsi positivi e atteggiamenti discriminatori. Queste e molte altre le obiezioni mosse alla tecnologia del riconoscimento facciale. Il mondo si sta appoggiando sempre di più alle intelligenze artificiali con relativi algoritmi ed era inevitabile giungere a un bivio etico anche, e soprattutto, nel campo della sicurezza.

Il 6 ottobre 2021 il Parlamento europeo si è espresso ufficialmente per la prima volta contro l’uso dei sistemi di riconoscimento facciale in spazi pubblici a favore della privacy dell’individuo. Anche in Italia, durante la Privacy Week del 15 ottobre, il Garante della privacy Guido Scorza ha sensibilizzato sui pericoli della sorveglianza biometrica e ha proposta la chiusura netta ad una “tecnologia universalmente considerata immatura”.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici

I rischi del riconoscimento facciale

Il riconoscimento facciale applicato con estrema fiducia dalle forze dell’ordine può creare seri problemi. Se si pensa alla storica piaga del profiling razziale, si scopre che questi algoritmi hanno un’alta fallibilità nel caso di persone con la pelle scura. Lo stesso problema vale anche per altri software biometrici: riconoscimento della voce, delle impronte digitali, della retina o dell’iride.

Il rischio è quindi di arresti ingiusti e immotivati. Sulla stessa scia si parla di discriminazione verso comunità etniche, persone LGBTI, anziani, bambini e donne. Basta infatti un lieve cambiamento nell’angolazione della camera o nell’aspetto dell’individuo per originare un falso positivo. Secondo il National Institute of Standard and Technology, l’algoritmo tende inoltre a riconoscere meglio i volti di maschi bianchi a discapito di persone con altri colori di pelle e donne.

I casi più eclatanti di falsi positivi: l’esperimento di Berlino

Negli ultimi anni l’applicazione di tecnologie per il riconoscimento facciale ha già mostrato i suoi limiti. Durante la finale di Champions League 2017 in Galles, l’algoritmo aveva rilevato ben 2,297 falsi positivi su un totale di 3000 persone, scambiando dei tifosi ubriachi per terroristi. Sempre nel Regno Unito tra maggio 2017 e marzo 2018 erano stati identificati 2685 terroristi, rivelatosi poi per ben 2451 falsi positivi. Dati che fanno anche pensare al numero di forze dell’ordine sviate nelle loro indagini da tutte queste errate segnalazioni.

Molto ha fatto parlare l’esperimento di Berlino. Nella stazione di Südkreuz 300 volontari hanno passeggiato indossando fotografie di ricercati. Il risultato è stato il 0,3% di fasi positivi (un numero alto se si considera la percentuale su grandi numeri) e molti volontari del tutto ignorati.

Lo spinoso tema della sorveglianza di massa (e soluzioni al vaglio)

Il confine tra la libertà e sicurezza si assottiglia con il ricorso al riconoscimento facciale per realizzare un database di tutti i partecipanti a una libera e pubblica manifestazione. Se il fenomeno non viene arginato, si teme la realtà di una sorveglianza di massa con videocamere onnipresenti e conseguente limitazione delle libertà individuali.

Queste dinamiche sono riscontrabili anche in Italia. A Torino è cominciato il progetto Argo, che prevede l’attivazione di 275 telecamere (al momento se ne contano solo 10) per identificare le persone in tempo reale mentre passeggiano per la città. Si vogliono così prevedere i comportamenti e i movimenti delle persone, anche appunto nel caso di manifestazioni e proteste.

Una soluzione simile si sta applicando anche a Udine. Qui il comune ha stanziato 675mila euro per 67 videocamere a riconoscimento facciale. Sarà così possibile identificare i passanti e acquisirne i dati biometrici. L’installazione delle telecamere avrebbe seguito le raccomandazioni del Garante della Privacy, ma per il momento non è ancora arrivato il suo ok per l’attivazione del piano.

Sbilanciamento nel potere e nella trasparenza

Un altro tema è quello della differenza di “potere” tra chi gestisce, e ha i dati forniti dall’algoritmo per il riconoscimento facciale, e chi ne subisce le conseguenze. L’assenza di trasparenza nel funzionamento potrebbe diventare un fattore di disuguaglianza ed esclusione. In materia legale diventa difficile, se non impossibile, difendere l’indagato e contestare i risultati dell’algoritmo in tribunale. Eppure è chiaro l’alto numero di falsi positivi.

Al momento il 22 luglio 2021 il Garante per la Privacy italiano ha dato l’ok all’uso delle body-cam da parte delle forze dell’ordine. L’unica limitazione è il dover documentare episodi precisi o manifestazioni, evitando quindi una registrazione senza un motivo dichiarato.

Come tutelare privacy e sicurezza del riconoscimento facciale?

All’inizio del 2021 il Consiglio europeo ha fatto il primo grande passo. Una proposta di 108 pagine come base legale vuole regolamentare l’uso dell’IA e fronteggiare i rischi in tema di sicurezza e diritti all’uguaglianza. Sono state proposte una serie di linee guida da far rispettare ai governi, ai legislatori e alle aziende. Viene vietato l’uso del riconoscimento facciale per determinare colore della pelle, religione o altre fedi, sesso, origine razziale o etnica, età, stato di salute e status sociale di una persona. Applicando questo divieto anche alle tecnologie di “riconoscimento dell’affetto” (che individuano emozioni, personalità, sentimento, salute mentale) si tutela il diritto al lavoro, l’accesso alle assicurazioni e all’istruzione.

L’esposizione del Parlamento europeo riguarda la richiesta alla Commissione europea di porre un divieto permanente sulla sorveglianza biometrica in pubblico (comprese le immagini facciali, utilizzato dalle forze dell’ordine) e sull’uso di banche dati private, ricordando anche gli alti rischi di discriminazione sociale. Una proposta forte di 377 voti a favore contro i 248 contrari e le 62 astensioni.

Tra i punti toccati, anche la richiesta di interrompere i finanziamenti volti alla ricerca e allo sviluppo di tali tecnologie o programmi applicabili nella sorveglianza di massa indiscriminata. Ma la lungimiranza ha posto l’attenzione (chiedendone il divieto) anche sui sistemi di sorveglianza predittiva. Si basano sull’analisi comportamentale delle persone unita a sistemi di punteggio sociale per dedurre l’affidabilità del cittadino in questione. L’obbiettivo è ora implementare questi divieti nell’Ai Act, la legge sull’intelligenza artificiale della Commissione europea.

Leggi anche

Stiamo entrando nell’era dei robot. Il lavoro umano è davvero a rischio?

La privacy conta: a proposito di Social Media e dell’importanza di una riflessione

Privacy su Facebook: arriva la guida del Garante

Condividi su:
Mara Auricchio

Mara Auricchio

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici