Il 10 luglio scorso 16 leader delle religioni di tutto il mondo hanno sottoscritto a Hiroshima la “Rome Call for AI Etichs”, un Documento promosso dalla Pontificia Accademia per la Vita, che individua i principi etici che dovrebbero guidare l’intelligenza artificiale (IA) nel prossimo futuro.

Un successo che unisce credo diversi ed individua dei criteri minimi per un’etica per l’intelligenza artificiale. Ma quali valori possono dirsi “essenziali” e perché ne abbiamo bisogno?

Cosa si intende per Etica digitale

Il dibattito sulla necessità di un’etica nell’intelligenza artificiale risale fin dalle prime applicazioni tecnologiche degli anni ’60 quando ci si domandava se l’IA sarebbe divenuta “forte” -in grado, cioè di simulare l’intelligenza umana- o sarebbe rimasta un’IA “debole” inferiore alle capacità intellettive umane.

Lo sviluppo di algoritmi sempre più sofisticati in grado di influire su scelte che spaziano dalla finanza alla giustizia, dalle scelte culturali a relazionali pone numerosi rischi: un’intelligenza artificiale “senza regole” può compiere decisioni e previsioni distorte o scorrette, violare i dati (pensiamo agli strumenti biometrici) o influenzare scelte di acquisto, decisioni di voto condizionare il modo in cui ci comportiamo.

Ecco, quindi, la necessità di definire una “etica degli algoritmi” o “algoretica”. Ma cosa si intende per algoretica?
Il termine coniato da Padre Benanti, consigliere di Papa Francesco per l’intelligenza artificiale, si riferisce allo studio e all’applicazione di principi etici nella progettazione, implementazione e uso degli algoritmi e individua principi e criteri che scongiurino la cosiddetta “algocrazia”, ovvero forme di predominio degli algoritmi delle applicazioni tecnologiche sulla società.

Rome Call for AI etichs: arrivano i principi dell’etica dell’intelligenza artificiale

Nella visione proposta dalla Roma Call for AI Ethics i principi algoretici mirano a salvaguardare la dignità e integrità dell’individuo, ad escludere le logiche del profitto, la sostituzione uomo-macchina e a rimettere l’uomo al centro dello sviluppo dell’intelligenza artificiale.

La forza della Call for AI Ethics vaticana sta nel proporre un approccio “etico” all’intelligenza artificiale largamente condiviso sia sul versante laico (diverse multinazionali l’hanno firmata già nel 2020) che religioso, ponendosi come universalistico.

Ma quali sono questi criteri etici da seguire? La Carta li individua nei principi di

  1. Trasparenza: (intesa come comprensibilità dell’IA per tutti)
  2. Inclusione: (non discriminazione)
  3. Responsabilità (rispetto a ciò che fa la macchina)
  4. Imparzialità (l’IA non deve influenzare la capacità di giudizio)
  5. Affidabilità
  6. Sicurezza e privacy (garantire la sfera individuale)

Anche l’unico atto regolatorio sull’intelligenza artificiale, l’AI-Act europeo ha tentato, non senza difficoltà, di garantire una regola “normativa” per lo sviluppo responsabile ed etico dell’intelligenza artificiale rintracciano dei principi guida nei valori europei racchiusi nella Carta dei diritti fondamentali dell’Unione europea. Anche nell’ultimo G7 si è parlato di sviluppo etico, cercando soluzioni condivise a livello internazionale.

Ma a cosa ci serve un’etica dell’intelligenza artificiale?

A cosa ci serve un’algoretica?

Paolo Benanti ha paragonato efficacemente l’algoretica ad un guardrail essenziale a qualsiasi macchina algoritmica in corsa per non andare fuori strada, soprattutto quando questa viene resa indipendente dall’Uomo.

Come abbiamo visto nella scorsa intervista all’esperto di IA, Fabrizio Bolognesi sui valori dell’intelligenza artificiale, l’algoretica fissa dunque dei paletti e lo fa per progettisti, sviluppatori, finanziatori e fruitori di sistemi di IA. Lo fa, però, anche per tutti noi, per evitare che ogni individuo “abdichi” dalla propria coscienza abbandonando il pensiero critico, lasciando alla macchina di agire per suo conto, smarrendo così il senso delle cose che facciamo.

È quindi essenziale che tutti si assumano la propria responsabilità etica nell’uso dei sistemi di IA: serve una formazione efficace, una visione universalistica che infonda nella fredda algoritmica un’etica umana minima che pensi a limitare i danni e massimizzare i benefici e soprattutto garantisca il rispetto di quei diritti fondamentali della persona che a quella Intelligenza artificiale ha dato per primo la vita.

Condividi su:
Antonio Mazzuca

Antonio Mazzuca

Dal 2007 sono redattore editoriale tecnico-giuridico esperto e formatore in materia di salute e sicurezza sul lavoro e tutela ambientale. Sono il coordinatore editoriale della Testata tecnica InSic.it e dal 2015 editore della testata culturale registrata Gufetto.press dedicata al mondo della cultura off per le quali scrivo news, articoli, recensioni, interviste e approfondimenti e svolgo formazione ai redattori sia per la parte critica che redazionale e per la scrittura in ottica SEO.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici