L’intelligenza artificiale (IA) è una tecnologia che sembra ormai destinata a trasformare la società e le forme di interazione tra la persona e il mondo che abita; data la portata del suo potenziale, è compito dell’etica tracciare la strada delle sue modalità di applicazione, indirizzandola in favore del benessere degli esseri umani e dell’ambiente: l’IA deve diventare intelligenza artificiale per il bene sociale. 

Questa è la concezione che Luciano Floridi, professore di filosofia ed etica dell’informazione all’Università di Oxford, ha presentato nella sua recente opera “Etica dell’intelligenza artificiale” (Raffaello Cortina, 2022). Nel saggio, il filosofo stabilisce i principi che dovrebbero regolamentare l’impiego dell’IA e fornisce delle prescrizioni pratiche, con l’intento di mettere al riparo il tessuto sociale dai pericoli intrinseci a ogni scoperta in grado di tramutare molti aspetti della realtà.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici

IA: un’innovazione dalle due facce

L’Europarlamento definisce l’IA come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”; l’intelligenza artificiale è una tecnologia ormai presente nel nostro quotidiano da qualche tempo, basti pensare all’istruzione erogata a distanza durante il COVID-19, o ai sistemi di sicurezza implementati sulle automobili.

I servizi che può offrire nel futuro imminente sono parecchi e interessano ambiti diversi: dalla capacità di prevedere un reato al demandare a un robot le mansioni più pericolose; tuttavia, come mette in luce Floridi nel suo libro, se da un lato l’IA rende possibili cose fino a qualche tempo fa inimmaginabili, dall’altro presenta un rovescio di medaglia che si traduce nell’uso criminale di un potenziale tecnologico dai limiti ancora difficilmente ponderabili.

Crimini da intelligenza artificiale: i CIA

Nella sua opera Floridi riporta degli esempi di crimini attuabili tramite l’ausilio dell’IA (i CIA). In campo economico, scrive l’autore, l’IA potrebbe essere sfruttata per “gonfiare artificialmente un titolo finanziario e poi venderlo a soggetti ignari al prezzo gonfiato, che spesso crolla dopo la vendita”.

Nel campo delle droghe nocive, l’IA sarebbe in grado di fungere da strumento per sostenere il traffico e la vendita di sostanze illecite. I CIA potrebbero coinvolgere anche la persona: un malintenzionato, per esempio, “può avvalersi di un social boat come strumento di molestia, diffondendo messaggi di odio contro il soggetto“, fa notare il professore in riferimento a quei programmi automatizzati che agiscono sui social o siti web in modo da sembrare utenti umani, al fine di manipolare l’interlocutore.

Un quadro etico. Cinque principi

Per evitare il più possibile l’uso criminale dell’IA, Floridi indica cinque principi etici, quali condizioni disciplinanti ogni intervento che preveda l’impiego dell’intelligenza artificiale. Il filosofo afferma che “ogni azienda, apparato governativo o istituzione accademica che disegna, sviluppa o implementa l’IA, ha l’obbligo di farlo in linea con un quadro etico”.

Floridi definisce questo quadro in cinque principi comuni alle dichiarazioni per un’etica dell’IA,, messe in campo rispettivamente da sei importanti organizzazioni: il Future of life Institute, l’Università di Montréal, la Commissione europea, iComitato per l’intelligenza artificiale della Camera dei Lord del Regno Unito, la Partnership on AI, e i principi generali offerti nella seconda versione di Ethically Aligned Design: a Vision for Prioritizing Human Wellbeing with Autonomous and Intelligent Systems (2017), un documento che ha ricevuto il contributo di 250 leader di pensiero globali per lo sviluppo etico dell’IA. Nell’ottica del filosofo, tali principi etici devono essere assunti come linee guida universali nell’utilizzo dell’intelligenza artificiale.

Il primo principio è quello di beneficenza, che rileva l’importanza di promuovere il benessere delle persone e del pianeta mediante l’intelligenza artificiale; segue quello di non maleficenza, concentrato sull’importanza di prevenire la violazione della privacy personale e sul dovere degli sviluppatori di assumersi le proprie responsabilità, operando contro i rischi derivanti dalle loro innovazioni tecnologiche.

Il terzo principio, quello di autonomia, punta invece sull’importanza per gli esseri umani di mantenere nelle proprie mani il potere decisionale, limitando e rendendo reversibile l’autonomia delle macchine qualora quella umana debba essere protetta, mentre il principio di giustizia insiste sul compito dell’IA di eliminare tutti i tipi di discriminazione. L’ultimo principio, quello di esplicabilità, pone invece l’accento sull’importanza di rendere comprensibile e visibile a tutti il funzionamento dell’IA.

L’aspetto importante, specifica Floridi, è passare dal “cosa fare” al “come farlo e in forza di questo lo studioso illustra delle raccomandazioni pratiche atte allo sviluppo di un’IA a favore del bene sociale.

Raccomandazioni per un’intelligenza artificiale etica

Il filosofo sostiene come un approccio etico alle tecnologie di IA sia necessario, anche in virtù dell’insufficienza del diritto: “Il rispetto della legge è necessario (il minimo che si possa fare), ma significativamente insufficiente (non il massimo di quanto si possa fare)” chiosa Floridi; insomma, se l’IA vuole davvero fare la differenza in termini di benessere sociale, non può limitarsi a rispettare la legge, ma deve strutturarsi in conformità all’etica.

L’autore quindi espone delle raccomandazioni finalizzate allo sviluppo di un IA capace di ridurre le disuguaglianze, incrementare il potenziamento sociale, rispettare l’ambiente e la dignità umana, accrescendo i benefici condivisibili da tutti.

Le prescrizioni, in tutto una ventina, cercano di indicare soluzioni pratiche che incarnino i principi etici; per citarne qualcuna, le istituzioni esistenti come i tribunali civili nazionali dovrebbero riparare agli errori commessi dai sistemi di IA. Per garantire il rispetto dei valori sociali poi, occorrerebbe valutare quali compiti e funzioni decisionali non dovrebbero essere delegati all’IA.

Floridi raccomanda anche di incentivare finanziariamente l’inclusione di considerazioni etiche, giuridiche e sociali nei progetti di ricerca sull’IA, e sostenere lo sviluppo di codici di condotta per le professioni collegate a questo ambito. Sí a un mondo digitale, quindi, ma modellato dall’etica.

Condividi su:
Carlotta Mantovani

Carlotta Mantovani

Mi sono laureata in filosofia per cercare di comprendere il fondamento dei fenomeni. Questo interesse si è poi veicolato verso la dimensione morale, portandomi a cercare di analizzare le questioni inerenti la società e le nuove tecnologie. Vorrei fornire un’informazione capace di abbracciare questi temi prospettando anche soluzioni alla complessità della realtà. Da qui la scelta del giornalismo costruttivo. Aspirante pubblicista, scrivo per BuoneNotizie.it grazie al laboratorio di giornalismo per diventare giornalista pubblicista.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici