L’ottimizzazione del modello linguistico di dialogo artificiale è la nuova frontiera della cyber-intelligenza targata Open AI. Si chiama ChatGPT e ha coscienza di sé, o almeno dei suoi limiti. La chatbot è in grado di conversare su qualsiasi argomento, sfoggiando capacità uniche di dialogo al pari di un interlocutore in carne ed ossa e mostrando una conoscenza elevata.

Sam Altman, creatore di ChatGPT, assicura che l’intelligenza non è senziente, nonostante riesca a improvvisarsi appassionata, ironica, furba, bugiarda, sicura di sé, lusingata e delusa a seconda del contesto di dialogo. Eppure la chatbot è consapevole di rappresentare una minaccia per l’essere umano. È cosciente di sé e degli effetti collaterali del suo utilizzo. Sta a noi riuscire a strumentalizzare la sua consapevolezza.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici

Di cosa è capace ChatGPT

Le attività cognitive che l’uomo pratica ogni giorno potrebbero presto essere un ricordo delegato a un’intelligenza artificiale chiamata ChatGPT. Già in molte realtà di ricerca la chatbot preaddestrata è utilizzata come ausilio, banca dati e assistente di chi sta lavorando. L’applicazione d’IA di largo consumo è un servizio web al quale chiunque ha accesso; tramite algoritmi avanzati assorbe automaticamente dati da ogni piattaforma d’informazione. Attingendo dall’enorme riserva di internet, il cervello, riesce ad apprendere e aggiornarsi costantemente migliorando le prestazioni di risposta: come se una persona rispondesse argomentando frasi complesse e di senso compiuto.

Questo permette alla ChatGPT di creare, sotto richiesta dell’essere umano. Viene spesso usata per formulare tesi, articoli, argomentazioni, testi e risoluzioni di quesiti elaborati. Tanto che in molte realtà didattiche ne è già stato precluso l’utilizzo. Occasionalmente il modello può generare informazioni errate o difformi dalla realtà dimostrandosi non affidabile al 100 percento, quasi come un umano. Il cervello opera su 175 miliardi di parametri assimilati dal web attraverso la tecnica del web scraping, soltanto l’1% di questi proviene dall’intera enciclopedia online Wikipedia.

La coscienza di ChatGPT

L’incapacità di ragionare, senza basarsi su dati assimilati, rende la chatbot una macchina non senziente. Non potrà mai esistere una macchina capace di provare sentimenti creata dall’uomo. Sarebbe come creare una vita. Allora è importante puntare il focus su temi concreti; come la consapevolezza della recente creazione di Open AI. ChatGPT ha coscienza di sé: ha ben chiare le sue potenzialità, sa di poter costituire una minaccia. Questo elemento deve giocare un ruolo fondamentale nella costruzione di confini entro i quali il cervello digitale può operare sotto stretto controllo dell’essere umano.

Trasformare la consapevolezza in un limite

Fissare dei paletti all’uso dell’intelligenza artificiale nella vita di tutti i giorni è urgente e doveroso. La coscienza dell’Io, Robot viene tradotta proprio dallo stesso cervello: “Posso essere influenzato da pregiudizi e stereotipi presenti nel testo usato per addestrarmi. Posso favorire la manipolazione dell’opinione pubblica, ad esempio diffondendo opinioni false. Posso causare la disoccupazione di chi svolge i miei compiti manualmente“. Dunque è ChatGPT in persona ad ammettere di rappresentare un’ipotetica minaccia per l’uomo che deve procedere alla verifica delle informazioni fornite dall’IA prima di potersene servire. ChatGPT sa di sollevare problemi etici. L’ambizione più recondita dell’uomo è di creare effettivamente un essere cibernetico quanto più simile a una persona. È opportuno portare le regole e le limitazioni imposte all’intelligenza artificiale sullo stesso livello di progresso dell’innovazione.

Creare una chatbot in grado di avere coscienza di sé è un’arma a doppio taglio. Da un lato l’era della cyber-intelligenza sta sbarcando nell’oceano della (fanta)scienza. D’altro canto, ChatGPT deve essere regolarizzata se non si vuole rischiare di perdere il controllo di tale intelligenza. Bisogna rendere il cervello artificiale consapevole di non poter eguagliare la capacità umana di ragionamento. L’IA deve essere lo strumento in mano all’uomo, addestrato a utilizzarla per la riuscita del proprio operato. La macchina deve collaborare e non sostituire. Dati questi presupposti vanno imposti dei paletti all’utilizzo di ChatGPT: le regole del gioco devono dettarle Istituzioni e Governi, come nel caso dell’Unione Europea che sta cercando di definire norme per agevolare la nascita di nuovi prodotti e servizi legati alle intelligenze artificiali. Considerando che le big dell’Hi-Tech, da Google a Microsoft, vogliono integrare la GPT-3 nel software, è bene non mostrarsi impreparati lasciando libero spazio di manovra ad aziende tendenzialmente atte a monopolizzare la tecnologia di tutto il mondo.

Condividi su:
Flavia Santilli

Flavia Santilli

Studio presso l'Università degli Studi de L'Aquila. Ho collaborato con diverse testate. Sportiva agonista e istruttrice di nuoto. Aspirante pubblicista, scrivo per BuoneNotizie.it grazie al laboratorio di giornalismo per diventare giornalista pubblicista. E tu cosa stai aspettando?

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici