L’11 maggio scorso i deputati europei hanno approvato le prime regole al mondo sull’Intelligenza Artificiale attraverso il cosiddetto “AI-Act”. Ed è la prima volta al mondo che si legifera sull’Intelligenza Artificiale prevedendo specifici divieti di sorveglianza biometrica, riconoscimento delle emozioni, sistemi di polizia predittiva e utilizzo di strumenti avanzati come GPT .

Obiettivo: garantire uno sviluppo umano-centrico ed etico dell’Intelligenza Artificiale (AI) in Europa. In che modo? Quali sistemi di AI si intende vietare e come tutelare i cittadini europei?

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici

Quale tutela per i cittadini europei dall’Intelligenza Artificiale?

Quando l’Europa parla di legiferare sull’Intelligenza Artificiale, intende riferirsi a quelle innovazioni che permettono sempre di più a una macchina di mostrare capacità umane: dal ragionamento all’apprendimento, alla pianificazione fino alla creatività, funzionalità che hanno aspetti positivi ma anche. risvolti imprevisti. La tutela riguarda infatti, l’uso indiscriminato e privo di regole di strumenti che sfruttino tali abilità finendo per ledere (volontariamente o involontariamente) la salute, la sicurezza, i diritti fondamentali delle persone o che attuino comportamenti che nuocciano all’ambiente.

Per questo l’Europarlamento ha cercato di rafforzare il diritto dei cittadini di presentare reclami e ricevere spiegazioni circa quelle decisioni che siano basate su sistemi di Intelligenza Artificiale ad alto rischio che incidano in modo significativo sui loro diritti. A rispondere di queste segnalazioni, un Ufficio AI dell’UE, che avrebbe anche il compito di monitorare l’attuazione dell’AI Act.

L’Europa in cerca di una definizione universale di Intelligenza Artificiale

Il punto di partenza è l’AI-Act, elaborato dalla Commissione nel 2021 e votato dal Parlamento europeo che intende garantire che i sistemi di Intelligenza Artificiale (AI) siano supervisionati dalle persone, siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente.

Fondamentale la ricerca di una definizione “universale” di Intelligenza Artificiale da applicare anche nel prossimo futuro e intorno al quale creare possibilità e divieti. Al momento, infatti non esisterebbe una definizione concordata a livello globale, ma si distingue fra tecnologie di “Intelligenza Artificiale ristretta” (Artificial Narrow Intelligence – ANI, come i sistemi di riconoscimento vocale e di immagini) e “Intelligenza Artificiale generale” (Artificial General Intelligence, AGI, le macchine progettate per eseguire un’ampia gamma di compiti intelligenti).

Quest’ultime sono in rapido sviluppo e in grado di raccogliere un’ampia serie di dati non etichettati da utilizzare per attività diverse, spesso in modo incontrollato e pericoloso tanto quanto le prime.

Sistemi di AI: quali vietare?

In questo scenario, l’europarlamento ha dunque scelto di etichettare alcuni sistemi di Intelligenza Artificiale come “ad alto rischio” (da vietare) altre a “medio rischio” (da limitare) e alcune “a basso rischio” (per esempio quelle a sostegno della creatività musicale o il mondo dell’editoria nelle tecniche di scrittura) in termini di possibili violazioni dei diritti umani o delle libertà fondamentali delle persone.

Quelle ad alto rischio, secondo l’UE, potrebbero causare “rischi inaccettabili” per la persona. Stiamo parlando di quei sistemi che impiegano tecniche subliminali o manipolatori delle scelte individuali o forniscono un “punteggio sociale” (come avviene già in Asia) in base al comportamento, stato socio-economico, caratteristiche personali. Al bando dall’UE  gli strumenti che influenzano gli elettori nelle campagne politiche e i sistemi “di raccomandazione” utilizzati dalle piattaforme di social media.

Stop anche ai sistemi di identificazione biometrica remota “in tempo reale” in spazi aperti al pubblico o che categorizzino le persone in base al genere, razza, etnia, stato di cittadinanza, religione, orientamento politico. Assolutamente escluso l’utilizzo di “Sistemi di polizia predittiva” basati sulla profilazione degli utenti, posizione o comportamento criminale. Fuori legge poi la raccolta indiscriminata di dati biometrici da social media o filmati per creare database di riconoscimento facciale (il loro uso violerebbe anche le regole UE sulla privacy).

Come progettare i sistemi di AI? Le regole dell’Europa

L’Unione europea vuole però di più. Intende regolare la creazione stessa dei Sistemi di Intelligenza Artificiale fin dalla sua progettazione. Come? Richiedendo ai progettisti di garantire una solida protezione dei diritti fondamentali, della salute e della sicurezza e dell’ambiente, della democrazia e dello stato di diritto. Dovranno anche registrarsi in una Banca Dati e rispettare specifici requisiti di progettazione, informazione e ambientali.

Non solo: l’UE intende promuovere dei “sandbox” ovvero degli ambienti protetti istituiti dalle autorità pubbliche in cui testare l’Intelligenza Artificiale prima della sua implementazione in particolare nei casi nei quali l’AI venga impiegata a fini di ricerca garantendo che lo sviluppo di componenti AI abbiano una licenza di uso aperta. In questi casi i divieti si allenterebbero ma dietro uno stretto controllo nazionale ed europeo delle fasi di sviluppo e ricerca.

Le regole proposte dall’UE hanno comunque l’obiettivo di resistere alla sfida del tempo, come affermato dal correlatore dell’Europarlamento, l’Italiano Brando Benifei e restare al passo con le innovazioni tecnologiche che coinvolgono sempre più imprese nello sviluppo dei sistemi AI. L’obiettivo è favorire la crescita dell’Intelligenza Artificiale in un quadro di regole ben definite e con una solida tutela dei diritti fondamentali di quanti (cittadini e imprese stesse) si troveranno sempre più a contatto negli anni a venire.

Condividi su:
Antonio Mazzuca

Antonio Mazzuca

Dal 2007 sono redattore editoriale tecnico-giuridico esperto e formatore in materia di salute e sicurezza sul lavoro e tutela ambientale. Sono il coordinatore editoriale della Testata tecnica InSic.it e dal 2015 editore della testata culturale registrata Gufetto.press dedicata al mondo della cultura off per le quali scrivo news, articoli, recensioni, interviste e approfondimenti e svolgo formazione ai redattori sia per la parte critica che redazionale e per la scrittura in ottica SEO.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici