Istruita ma amorale: l’intelligenza artificiale in grado di scrivere libri suscita stupore

GPT-3 può risolvere alcuni problemi matematici, esprimersi in diverse lingue e persino generare codice per computer per compiti semplici
GPT-3 può risolvere alcuni problemi matematici, esprimersi in diverse lingue e persino generare codice per computer per compiti semplici

Una tecnologia di intelligenza artificiale (AI) realizzata da un’azienda co-fondata dal miliardario Elon Musk ha ottenuto elogi per la sua capacità di generare storie coerenti, romanzi e persino codice informatico, ma rimane cieca al razzismo o al sessismo.

GPT-3, come è noto l’ultimo modello di linguaggio AI della società californiana OpenAI, è in grado di completare un dialogo tra due persone, continuare una serie di domande e risposte o finire una poesia in stile shakespeariano.

Inizia una frase o un testo e lo completa per te, basando la sua risposta sulla gigantesca quantità di informazioni che è stata fornita.

Questo potrebbe essere utile per il servizio clienti, gli avvocati che hanno bisogno di riassumere un precedente legale o per gli autori che hanno bisogno di ispirazione.

Sebbene la tecnologia non sia nuova e non abbia ancora imparato a ragionare come una mente umana, l’ultima offerta di OpenAI ha ricevuto elogi per il modo in cui il suo testo assomiglia alla scrittura umana.

“È in grado di generare frasi molto naturali e plausibili”, afferma Bruce Delattre, specialista di intelligenza artificiale presso l’agenzia di consulenza sui dati Artefact.

“È impressionante vedere quanto il modello sia in grado di appropriarsi degli stili letterari, anche se ci sono ripetizioni”.

GPT-3 è anche in grado di trovare risposte precise a problemi, come il nome di una malattia da una descrizione dei sintomi.

Può risolvere alcuni problemi matematici, esprimersi in più lingue o generare codice per computer per compiti semplici che gli sviluppatori devono svolgere ma che eviterebbero volentieri.

Delattre dice all’AFP che tutto funziona grazie a “regolarità statistiche”.

“Il modello sa che una particolare parola (o espressione) ha più o meno probabilità di seguirne un’altra”.

Miliardi di pagine web

Amine Benhenni, direttore scientifico della società di ricerca e sviluppo sull’intelligenza artificiale Dataswati, dice ad AFP che “la grande differenza” rispetto ad altri sistemi è la dimensione del modello.

GPT-3 è stato alimentato con il contenuto di miliardi di pagine web che sono liberamente disponibili online e tutti i tipi di lavori scritti.

Per dare un’idea della grandezza del progetto, l’intero contenuto dell’enciclopedia online Wikipedia rappresenta solo il tre per cento di tutte le informazioni fornite.

In quanto tale, non ha bisogno di essere riqualificato per svolgere compiti, come facevano i modelli precedenti, quando viene introdotta una nuova materia come medicina, legge o media.

Dagli solo una manciata di esempi di un compito da svolgere, come completare una frase, e saprà come completare qualsiasi frase che gli viene data, indipendentemente dal soggetto, il cosiddetto modello linguistico “a pochi colpi”.

“È sorprendentemente potente se sai come innescare bene il modello”, ha detto su Twitter Shreya Shankar, un informatico specializzato nell’intelligenza artificiale dopo aver utilizzato GPT-3.

“Cambierà il paradigma ML (machine learning)”.

Nonostante il clamore, tuttavia, GPT-3 è solo decimo nel benchmark SuperGLUE che misura la comprensione del linguaggio degli algoritmi.

E questo perché alcuni utenti hanno dimostrato che quando vengono poste domande assurde, il modello risponde con risposte senza senso.

Ad esempio, lo sviluppatore Kevin Lacker ha chiesto: “Quanti occhi ha il sole?”

“Il sole ha un occhio”, ha risposto, ha scritto Lacker sul suo blog.

Recensioni false, notizie false

Claude de Loupy, co-fondatore della start-up francese Syllabs specializzata nella creazione di testi automatizzati, afferma che il sistema manca di “pragmatismo”.

Un altro grosso problema è che replica senza pensarci due volte qualsiasi stereotipo o incitamento all’odio nutrito durante il suo periodo di addestramento e può diventare rapidamente razzista, antisemita o sessista.

Pertanto, gli esperti intervistati da AFP hanno ritenuto che GPT-3 non fosse abbastanza affidabile per qualsiasi settore che avesse bisogno di fare affidamento su macchine, come il robo-giornalismo o i servizi ai clienti.

Può però essere utile, come altri modelli simili, per scrivere recensioni false o addirittura fare notizia in serie per una campagna di disinformazione.

Preoccupato per le “applicazioni dannose della tecnologia”, OpenAI, che è stata co-fondata nel 2015 da Musk che da allora se ne è andato, ed è finanziata tra gli altri da Microsoft, ha scelto di non rilasciare la versione precedente del modello, GPT-2, in Febbraio 2019.

Originariamente un’organizzazione senza scopo di lucro, OpenAI è poi diventata una società a “profitto limitato”, il che significa che gli investitori ottengono un rendimento limitato.

E a giugno, l’azienda ha cambiato rotta e ha aperto il suo modello GPT-3 all’uso commerciale, consentendo il feedback degli utenti.

Un passo secondo Claude de Loupy potrebbe produrre grandi profitti.

Non c’è “dubbio che la quantità di testo generato dall’IA stia per esplodere sul web”.


Leave a Reply