La OpenAI, l’organizzazione non profit di ricerca sull’intelligenza artificiale, ha recentemente rilasciato il suo ultimo modello di intelligenza artificiale, si tratta del generatore di linguaggio attualmente più potente al mondo. Il suo nome è GPT-3 e sta per Generative Pre-trained Transformer, Trasformatore Generativo Pre-addestrato di terza generazione. Come altri sistemi di intelligenza artificiale odierni, GPT-3 si basa su una raccolta ampia e organizzata di parametri che ne determinano il funzionamento. Più parametri ci sono, più l’intelligenza artificiale è capace (definizione da futuroprossimo.it).

Piccolo ripasso di che cos’è un’AI

Se volessimo dare una definizione semplicistica di AI potremmo dire che si tratta della capacità di un sistema tecnologico di svolgere attività e compiti o risolvere problemi tipici della mente e delle abilità umane. La disciplina che ne deriva si occupa di realizzare sistemi intelligenti in grado di agire autonomamente simulando le scelte e i ragionamenti umani, imparando dai propri errori e migliorandosi costantemente. Un po’ come facciamo noi- penserete- ma in modalità 2.0, ed in un certo senso è proprio così, anche se in pratica, questi tipi di software ancora non sono in grado – per fortuna direbbero alcuni- di assomigliarci tanto da prendere completamente il nostro posto nel mondo.

Dentro “il cervello” di GPT-3

neuroni artificiali

Il sistema sviluppato da OpenAI è quindi un tipo di intelligenza artificiale basato su reti neurali sintetiche e deep learning, il suo “cervello” è cioè composto da neuroni artificiali simulati matematicamente da un computer, che imitando perfettamente neuroni umani, sono in grado di ricevere informazioni (nel caso dell’AI valori di tipo numerico), di effettuare un’operazione su di essi e trasmettere il risultato finale a un altro neurone che a sua volta ne ripeterà il processo. Come con un bambino che sta imparando a scrivere, anche al GPT-3 è stata fornita come palestra di allenamento la lettura di testi, ma nel suo caso questi ultimi erano di svariate decine di Gigabyte, e provenivano da milioni di pagine web sugli argomenti più disparati. In questo modo il software si è pian piano istruito su quali parole o frasi venissero scritte più spesso e su quali fossero quelle che di solito venivano utilizzate in successione per formare una frase di senso compiuto.

Se pensiamo ai primi modelli sviluppati dall’azienda OpenAI ci rendiamo subito conto che, in effetti, il software ne ha fatta di strada ed è in continuo aggiornamento; basti pensare che la prima versione GPT è uscita nel 2018, ma era ancora rudimentale (110 milioni di parametri di apprendimento).  Nel giugno 2019 è arrivato GPT-2 (che ne usava 1,5 miliardi) e, infine, nel luglio di quest’anno GPT-3. Il principio è sempre lo stesso, ma come abbiamo visto ad ogni versione è aumentata la complessità della rete neurale e con essa anche le dimensioni del database di testi usato per addestrare il software.

Come funziona GPT-3? All’inizio dell’apprendimento la rete neurale del software procede più o meno a caso. Se la prima frase che gli viene fornita è “Ciao come stai…”, per esempio, GPT-3 prova a completarla con determinate sequenze di caratteri presenti all’interno del proprio database. In caso di errore cambia i pesi delle sue connessioni, cioè le regole matematiche in base al quale il segnale dovrebbe passare ad uno strato successivo, e ricomincia da capo. Quando si avvicina a una parola giusta (quella usata più spesso come continuazione della frase nei testi scritti dagli esseri umani) riceve un input positivo sotto forma di formula matematica e la trasmette a tutti gli altri nodi. Il “procedimento” si ripete su milioni di cicli finché, alla fine, la rete neurale si assesta e il sistema di pesi ne permette il proseguimento fino al completamento del testo. La cosa interessante però e che il sistema è di tipo probabilistico, per tale ragione si avranno diversi testi finali a partire dalla prima frase d’innesco iniziale, ed è per questo che nell’esperimento del Guardian il software ha prodotto ben otto testi completamente diversi l’uno dall’altro.

Dopo questa premessa su che cos’è e come funziona GPT-3 vediamo adesso come se la cava davvero per gli esperti che l’hanno utilizzata.

Secondo i suoi sviluppatori, il software “può generare articoli giornalistici che lettori umani faticano a distinguere da quelli scritti da esseri umani” ottenendo, tra l’altro ottimi risultati. Anche il Guardian non è da meno, tant’è che ha pubblicato un’editoriale composto interamente dal software il cui contenuto trattava delle ragioni per cui l’uomo non deve temere i robot.

A questo punto qualcuno potrebbe pensare che essendo GPT-3 così bravo nel suo lavoro potrà a breve essere utilizzato per comporre racconti, lettere, addirittura pezzi di codice. In realtà la sua tecnologia secondo alcuni ricercatori (tra cui Gary Marcus, uno dei maggiori esperti nel settore) presenta non poche criticità, e tutto ciò è dovuto anche al fatto che non tutti possono provare GPT-3. La società infatti, si riserva di decidere a chi concedere l’accesso, non permettendo ai ricercatori di avere una visione chiarissima sull’argomento. Una cosa però, secondo Marcus, è certa e riguarda il fatto che GPT-3 non è in grado di abbattere il “muro del significato”, poiché il suo approccio di tipo probabilistico non riesce davvero a comprendere il senso delle parole e le relazioni con il mondo reale, “è difficile pensare – afferma lo scienziato- che l’intelligenza artificiale possa dominare il mondo, finché avrà problemi a riconoscere il soggetto di una frase”.

A destare attenzione è stata anche la testimonianza del capo della sezione AI di Facebook Jerome Pesenti, il quale ha fatto notare come il software in certi casi, finisca con il generare anche una notevole quantità di opinioni razziste, che incitano all’odio antisemita e al sessismo. La priorità è dunque scongiurare che questo possa accadere con tecnologie così più potenti, che molto spesso rappresentano la finestra su cui la società si mostra lasciandone trasparire le sue virtù, ma anche i lati oscuri che popolano la rete.

Ciononostante, le tecnologie sono essenziali per il mondo in cui viviamo e questo modello è l’ennesima riprova degli enormi passi in avanti che l’intelligenza artificiale sta facendo nel campo dell’interpretazione del linguaggio umano, ma la priorità è senza ombra di dubbio quella di utilizzarle in modo corretto e per i giusti fini.

Le applicazioni business di GPT-3

Durante lo scorso anno, l’organizzazione no profit OpenAI ha annunciato che avrebbe concesso l’esclusività del codice base del GPT-3 a Microsoft, permettendo a quest’ultimo anche di riadattare o modificare il modello a suo piacimento, e passando di conseguenza dal no profit al profit. Il colosso di Redmond, dal canto suo, è stato vago sui dettagli delle applicazioni business, ma potrebbero essere i possibili acquirenti del software?

Nonostante l’entusiasmo iniziale della redazione del Guardian, probabilmente i limiti ancora insuperabili, di comprensione del testo da parte di GPT-3 non permetteranno, almeno per il momento, di generare testi giornalistici se non con la costante supervisione di un umano (e a questo punto la tecnologia parrebbe pressoché inutile, considerando il motivo per il quale era stata pensata e cioè la quasi completa autonomia dall’uomo).

Probabilmente la sua applicazione potrebbe spaziare da un settore all’altro: potrebbe essere molto utile nell’analisi di testi legali per la preparazione dei casi grazie alla possibilità di estrapolare elementi chiave. Per lo smistamento delle email, identificando la posta indesiderata e re-indirizzando le comunicazioni agli uffici preposti; oppure potrebbe essere utilizzato anche dalle “content farms”per produrre testi che hanno come scopo di attirare motori di ricerca e aumentare il traffico e gli introiti di determinati siti.

Come abbiamo visto, GPT-3 può imparare a fare molte cose e per tale motivo i suoi utilizzi possono essere molteplici soprattutto per la creazione di nuovi contenuti e addirittura app.

Quali implicazioni?

L’intelligenza artificiale è uno strumento potentissimo sempre più fondamentale nelle nostre vite completamente immerse nel digitale. Simile ad un bambino che sta iniziando a compiere i primi passi e cade, l’AI ha bisogno di genitori amorevoli che indirizzino verso la strada giusta e cioè per fare una differenza positiva nella vita delle persone, più semplice a dirsi che a farsi- penserete- anche perché ci sono ancora molti quesiti deontologici a cui non sappiamo rispondere: come ad esempio a chi tocca davvero stabilire quali siano le tematiche e i toni corretti? Il carattere rivoluzionario di GPT-3 sta nel fatto che può gestire attività per le quali non è mai stato specificamente addestrato (a differenza di quanto succede con i sistemi classici di AI), usando e comprendendo il linguaggio come fosse un essere umano.

Nonostante tutte le incertezze che ci attendono, secondo gli sviluppatori di Google una cosa è certa e crediamo sia valida sempre: “il futuro dell’IA verrà costruito non soltanto sulla tecnologia. Sarà necessario uno sforzo collettivo, basato in egual misura su strumenti, informazioni e sul desiderio condiviso di avere un impatto positivo sul mondo”.

Buona tecnologia a tutti.

Fonti :

Agenda digitale

ilbolive: università di Padova

 

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Please enter your name here