L’intelligenza artificiale non è una minaccia, ma nonostante tutto è spesso al centro di dibatti tra etica e scienza. Questa volta a far discutere è stato il caso di Blake Lemoine, ingegnere di Google, messo in congedo retribuito nel giugno 2022 a causa delle sue argomentazioni a favore del grado di consapevolezza acquisite da LaMDA (Language Model for Dialogue Application), un programma in grado di instaurare conversazioni con gli utenti e di cui si occupava da lungo tempo.

L’ingegnere, sulla base della trascrizione del dialogo avvenuto con l’intelligenza artificiale (IA), sostiene che questa si comporti come un bambino di 8 anni consapevole della sua esistenza, possibilità smentita dallo stesso portavoce di Google Brad Gabriel. La motivazione della sospensione invece sta nella violazione delle norme sulla riservatezza avvenuta con la pubblicazione della conversazione avvenuta tra l’IA e Lemoine, in quanto quest’ultimo non lavorava al progetto in veste di esperto di etica ma di ingegnere. Un episodio che porta alla ribalta timori e domande sul tema dell’intelligenza artificiale. Proviamo a fare chiarezza.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici

Pro e contro dell’IA

Con  il termine intelligenza artificiale ci si riferisce a sistemi che mostrano un comportamento intelligente, ma non cosciente come abbiamo già visto in questo articolo. Ciò che spesso suscita preoccupazione e sui cui bisogna fare chiarezza è che l’intelligenza artificiale non è una minaccia. Gli ambiti in cui l’IA è impiegata sono tra i più disparati: automobili a guida autonoma, app per la navigazione e la ricerca dei percorsi più rapidi, il campo della medicina dove l’IA è largamente diffusa per elaborare diagnosi e profilazione della sintomatologia dei pazienti. Anche i motori di ricerca e i sistemi basati sul riconoscimento facciale e vocale utilizzano algoritmi di intelligenza artificiale.

Si prospettano la possibilità di creare un vero e proprio alter ego digitale, che possa anche alimentare un business basato su identità digitali di personaggi famosi. Anche il settore militare ricorre all’IA per migliorare i processi decisionali, le operazioni di intelligence e l’accuratezza della precisione delle armi con conseguenti dibattiti legati alle responsabilità in caso di errore.

Una preoccupazione ricorrente è che in qualche modo l’intelligenza artificiale prenda il sopravvento sull’uomo cosi come accade nel filone cinematografico fantascientifico che va da “2001. Odissea nello spazio” alla saga di “Terminator“. Una volta appurato che l’intelligenza artificiale non è una minaccia, il vero rischio a cui stare attenti è che l’essere umano si dimentichi di ciò che contraddistingue l’umanità e lo differenzia dal prodotto dell’innovazione tecnologica – la coscienza – con una conseguente antropomorfizzazione dell’intelligenza artificiale che rischia di alimentare timori infondati.

Perché l’intelligenza artificiale non è una minaccia

L’IA si limita a simulare o imitare comportamenti umani quali l’apprendimento e la risoluzione di problemi ed è per questo che l’intelligenza artificiale non è una minaccia. Quando si applica il termine “senziente” all’intelligenza artificiale bisogna tenere a mente che si utilizza impropriamente un vocabolo finora associato all’autoconsapevolezza del soggetto umano. In questo senso l’intelligenza artificiale non è assimilabile alla capacità di autocoscienza delle persone.

Ciò che comunemente si intende per intelligenza artificiale  non è altro che un insieme di funzioni cognitive che simulano quella umana attraverso l’utilizzo di macchine e calcolatori. Ogni volta che si paragona l’intelligenza umana a quella artificiale c’è dunque un restringimento dell’idea di intelligenza a un concetto tecnico-operativo non assimilabile a quella più ampia facoltà umana che viene definita generalmente con il termine “coscienza”.

Studiosi come Luciano Floridi, docente di filosofia ed etica dell’informazione a Oxford e di Sociologia della Cultura e della Comunicazione all’Università di Bologna da diversi anni ritengono opportuno che si parli di etica dell’intelligenza artificiale, con la consapevolezza che questa è uno strumento neutro e che il suo utilizzo è imputabile alla responsabilità umana.

Il diffuso utilizzo dell’intelligenza artificiale nella vita quotidiana rende inevitabile una riflessione etica: l’intero processo di gestione dei dati è cruciale per il dibattito etico in quanto privacy e controllo, sfruttamento e discriminazioni passano dall’insieme delle informazioni che alimenta i sistemi di apprendimento dell’IA. L’uomo non è una macchina meno evoluta né l’IA può considerarsi un’evoluzione dell’uomo. Resta dunque la necessità di promuovere l’innovazione senza lasciare da parte la riflessione etica sui suoi utilizzi guidati dalla convinzione che il ricorso all’intelligenza artificiale non è una minaccia ma una questione di responsabilità.

Leggi anche

Curiosità artificiale. Algoritmi curiosi e sempre più “umani”?

L’intelligenza artificiale sbarca sulle strade: le smart road

Transumanesimo: uomo e tecnologia si fondono

 

Condividi su:
Giacomo Capodivento

Giacomo Capodivento

Insegno religione dal 2012. Laureato in Comunicazione e Marketing e studente in Comunicazione e innovazione digitale. Per me occuparmi di comunicazione è una questione politica. Oggi collaboro con BuoneNotizie.it grazie al laboratorio di giornalismo per diventare giornalista pubblicista.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici