“Se ci diamo appuntamento qui tra trent’anni, non ci sarà un robot che si avvicinerà molto alle capacità e facoltà umane“; queste le parole rilasciate nell’intervista a Innovation Post  da Luciano Floridi, docente di filosofia ed etica dell’informazione all’Università di Oxford e autore del libro “Etica dell’intelligenza artificiale” (Raffaello Cortina, 2022).

Secondo il professore un cervello elettronico, per quanto evoluto, non potrà mai essere più intelligente di quello umano. La sua opinione si inserisce in un dibattito sui potenziali sviluppi dell’intelligenza artificiale (IA) che, soprattutto in seguito ai notevoli progressi registrati da quest’ultima negli ultimi anni, si presenta piuttosto controverso.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici

IA, quando le macchine sanno imparare

L’intelligenza artificiale è una disciplina che studia se e come sia possibile realizzare sistemi informatici intelligenti, capaci di simulare le competenze del cervello umano come ragionare, apprendere, creare, pianificare. Tuttavia, se fino a un decennio fa l’intelligenza artificiale si riduceva a sistemi informatici limitati alla sola esecuzione di determinati compiti, nel 2012 arriva la svolta: i computer, grazie a una tecnologia basata su reti neurali artificiali chiamata deep learning, sembrano diventati capaci non solo di eseguire, ma anche di imparare.

Tale risultato, che amplia moltissimo le aree di applicazione dell’IA e i benefici da questa offerti, pone anche l’interrogativo sui possibili rischi prodotti da un’ intelligenza artificiale sempre più evoluta. Se su questo tema Nick Bostrom, anch’egli professore di filosofia alla Oxford University, è del parere che entro il 2030 il cervello-macchina sarà più intelligente del cervello umano, Floridi definisce tale visione come pura “fantascienza, sebbene l’IA sia ormai una presenza significativa nella vita quotidiana delle persone.

Intelligenza artificiale, usi attuali e futuri

L’intelligenza artificiale è ormai operante in numerose attività. Volendosi limitare solo a qualche esempio, grazie all’uso dell’IA i motori di ricerca possono offrire agli utenti risultati pertinenti in base alle loro ricerche precedenti, mentre alcuni sistemi possono riconoscere e combattere le minacce informatiche.

Rispetto al futuro, i ricercatori stanno studiando il modo di impiegare l’IA in campo medico, sviluppando programmi in grado di rispondere alle chiamate di emergenza e riconoscere un arresto cardiaco più velocemente rispetto a un operatore umano. Nel settore trasporti, l’IA potrebbe migliorare la sicurezza, la velocità e l’efficienza del traffico ferroviario. In una realtà che sembra essere sempre più dipendente dagli algoritmi informatici, ha acquisito grande centralità la questione della loro sicurezza e del loro reale potenziale.

Bostrom: le macchine intelligenti sono una potenziale minaccia

Nick Bostrom pone l’accento sulla pericolosità connessa allo sviluppo dell’IA. Secondo il filosofo, se lo scopo dell’attuale ricerca è la produzione di un algoritmo pienamente senziente, la sua realizzazione potrebbe mettere a rischio la stessa esistenza del genere umano.

Nel suo saggio “Superintelligenza” (Bollati Boringhieri, 2018), l’autore afferma che macchine dotate di un’intelligenza paragonabile a quella umana riuscirebbero, in breve tempo, a surclassare le capacità intellettive dell’uomo, limitate in termini di capacità di elaborazione dei dati. A questo punto, le macchine senzienti potrebbero trasformarsi in super intelligenze in grado di agire autonomamente, sfuggendo completamente al nostro controllo e plasmando il futuro secondo le proprie preferenze.

Bostrom sottolinea come non sia necessario che l’IA sia “cattiva” per essere pericolosa e porta l‘esempio di un algoritmo incaricato di produrre il maggior numero di graffette, che per massimizzare la sua funzione potrebbe decidere di ricoprire la Terra di macchinari volti alla loro produzione. Floridi, invece, pensa che il cervello umano disponga di capacità irraggiungibili per una macchina.

Floridi: l’intelligenza artificiale non può surclassare il cervello umano

Nell’ottica del professore, un cervello elettronico non può diventare più intelligente di quello umano perché incapace di replicare capacità quali l’intuito, la flessibilità di ragionamento, l’adattabilità di pensiero. Come scrive nel suo libro, sebbene in alcuni casi la macchina, mediante le reti neurali, sembri imparare dai propri errori migliorando continuamente i propri risultati, le reti neurali, per quanto sofisticate, non sono equiparabili alle centomila connessioni che ognuno dei nostri 86 miliardi di neuroni ha con gli altri.

In virtù di tale concezione, Floridi definisce l’IA un’intelligenza “riproduttiva“, noncognitiva“, facendosi sostenitore di un approccio ch’egli stesso definisce “ingegneristico“; come riporta nel suo saggio, se realizzare macchine volte a riprodurre il comportamento intelligente nello svolgimento di determinati compiti restituisce risultati sorprendenti, laddove si cerchi di sviluppare un cervello elettronico in grado di produrre pensieri dimostrando un’intelligenza reale, l’IA è “stata una triste delusione.  Il cervello umano deduce, inferisce, prevede; l’IA può al massimo inferire su base statistico-probabilistica.

Questa tecnologia, dunque, è vincente come “settore dell’ingegneria” finalizzata allo sviluppo, per esempio, di auto a guida autonoma o di assistenti vocali, ma non come settore della scienza cognitiva interessata alla produzione di intelligenza”, conclude Floridi. Da qui, secondo l’autore, il cervello elettronico deve essere impiegato in compiti pragmatici, dove quello che conta è l’agire, non il capire.

L’IA e il suo impiego pratico

Nella stessa intervista Floridi chiarisce che l’intelligenza artificiale, più che imitare e cercare di replicare quella umana, deve risolvere problemi, attività concrete”. In base a ciò, continua il professore, in prospettiva futura i maggiori sviluppi dell’IA […]  sono quelli collegati a risolverci problemi, a fare le cose che si facevano prima ma più facilmente, più velocemente, con soluzioni migliori”.

In questa prospettiva, nel nono capitolo del suo libro il professore passa in rassegna alcuni progetti che cercano di usare l’IA per il bene sociale: dallo sviluppo di modelli per prevedere lo shock settico, ai modelli della teoria dei giochi per prevenire la caccia di frodo, fino a modelli probabilistici per prevenire azioni di polizia dannose. Si tratta di applicazioni che facilitano il raggiungimento di risultati socialmente positivi e che configurano l’intelligenza artificiale non come una minaccia, ma come uno strumento a servizio dell’uomo.

Condividi su:
Carlotta Mantovani

Carlotta Mantovani

Mi sono laureata in filosofia per cercare di comprendere il fondamento dei fenomeni. Questo interesse si è poi veicolato verso la dimensione morale, portandomi a cercare di analizzare le questioni inerenti la società e le nuove tecnologie. Vorrei fornire un’informazione capace di abbracciare questi temi prospettando anche soluzioni alla complessità della realtà. Da qui la scelta del giornalismo costruttivo. Aspirante pubblicista, scrivo per BuoneNotizie.it grazie al laboratorio di giornalismo per diventare giornalista pubblicista.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici