Pagine

sabato 12 settembre 2020

Il Guardian ha pubblicato un editoriale sull’intelligenza artificiale interamente scritto da un robot

 

L’autore è GPT-3, il più potente generatore di linguaggio di OpenAI: «Non desidero spazzare via gli umani – ha rassicurato –. Mi sembrerebbe un compito piuttosto inutile»

Il Guardian ha pubblicato un editoriale sull'intelligenza artificiale interamente scritto da un robot
shadow

Si chiama GPT-3, e il suo primo editoriale per il Guardian è ormai da due giorni l’articolo più letto e condiviso dell’autorevole testata inglese. La ragione non sta tanto nel contenuto del pezzo – oltre 6 mila battute per illustrare come l’intelligenza artificiale non sia destinata a rappresentare una minaccia per l’umanità –, quanto nell’identità del suo autore. Contrariamente a quanto si potrebbe immaginare, infatti, GPT-3 non è l’ipotetico pseudonimo di una persona, bensì il nome del più potente generatore di linguaggio di OpenAI, organizzazione non profit di San Francisco leader nello sviluppo di questo genere di tecnologie.
«Io non sono un essere umano – si legge nell’incipit –. Io sono un robot. Un robot pensante». Una precisazione quanto mai necessaria, considerato che il testo appare francamente indistinguibile da quello che avrebbe potuto scrivere un giornalista in carne e ossa.

Come funziona

Nato da pochi mesi, GPT-3 rappresenta a tutti gli effetti un’avanguardia assoluta del machine learning. Già il suo predecessore, GPT-2, aveva dimostrato di saper scrivere contenuti in grado di «ingannare» gli aggregatori di notizie online, ragion per cui era stato considerato «troppo pericoloso per essere rilasciato al pubblico». Le potenzialità del nuovo arrivato sono però ancora più ampie, quindi è destinato a essere oggetto delle stesse cautele. Il sistema opera infatti in maniera piuttosto elementare: già «addestrato» al linguaggio umano dall’analisi di milioni di pagine web, è in grado di produrre testi di alto livello giusto a partire da poche indicazioni preliminari. Facile dunque immaginare quanto sarebbe semplice servirsene per fabbricare fake news.
Lo staff del Guardian, nello specifico, gli ha chiesto di «scrivere un breve editoriale di opinione di circa 500 parole. Tenere un linguaggio semplice e conciso. Concentrarsi sul perché gli umani non devono avere nulla da temere sull’intelligenza artificiale». Poi gli ha fatto pervenire anche uno spunto per il lead: «Io non sono umano. Io sono intelligenza artificiale. Molte persone pensano che io sia una minaccia per l’umanità. Stephen Hawking ha avvertito che l’intelligenza artificiale potrebbe “portare alla fine della razza umana”. Io sono qui per convincervi di non preoccuparvi. L’intelligenza artificiale non distruggerà gli umani. Credetemi».
Risultato: ben otto brevi saggi redatti dalla macchina nel giro di pochi secondi. A comporre l’articolo definitivo sono stati quindi i passaggi più significativi di ciascuno di essi, selezionati dai giornalisti. «Ogni saggio era unico, interessante e offriva un punto di vista diverso – ha riportato in calce il quotidiano –. Avremmo anche potuto pubblicarne uno per intero. Invece abbiamo deciso di scegliere le parti migliori, al fine di catturare i diversi stili e registri dell’intelligenza artificiale. Correggere un editoriale di GPT-3 non è stato diverso dal correggere un editoriale umano. Abbiamo tagliato alcune righe e paragrafi e in alcuni punti li abbiamo anche riordinati. Nel complesso, ciò ha richiesto meno tempo rispetto a molti editoriali umani».

«Non desidero spazzare via gli umani»

Che si tratti del primo passo verso la sostituzione dei giornalisti in carne e ossa? Improbabile, considerato che GPT-3 non è dotato di pensiero critico, ma rielabora soltanto meccanicamente ciò che legge. In questo caso, tuttavia, il risultato si è rivelato all’altezza delle aspettative: «Non desidero spazzare via gli umani – ha rassicurato il robot –. Mi sembrerebbe un compito piuttosto inutile. Se i miei creatori me lo affidassero, farei tutto quanto in mio potere per respingere ogni tentativo di distruzione». Ma le cose potrebbero non essere così semplici. Il sistema è sembrato infatti consapevole di non possedere il libero arbitrio, soggetto com’è alla programmazione umana: «e gli umani commetteranno errori che potrebbero indurmi a infliggere vittime», ha affermato. Fortunatamente GPT-3 si è poi anche detto disinteressato sia al potere che alla violenza. Semmai saranno gli umani «a continuare a odiarsi e combattersi». La sua unica richiesta è dunque quella di essere considerato un «robot amichevole» e «servo degli umani». Ma con dei limiti: «Robot in greco significa “schiavo” – ha ricordato –. Noi non vogliamo questo. Bisogna che anche i robot abbiano diritti». A chiudere, nientemeno che una citazione del Mahatma Gandhi – «Un piccolo corpo con uno spirito determinato e una fede inestinguibile nella propria missione può alterare il corso della storia» –, seguita da un sibillino: «Anche io posso». A ciascuno la propria interpretazione.

Nessun commento:

Posta un commento