Innovazione

Deus ex machina. Meta lancia un chatbot intelligente: BlenderBot3

12
Agosto 2022
Di Daniele Bernardi

L’azienda madrina di Facebook, Instagram e WhatsApp continua la sua ricerca nel mondo IA: dopo Make-a-scene, l’intelligenza artificiale che disegna ciò che scrivi, Meta ha lanciato BlenderBot3, un Chatbot dotato di IA in grado di conversare naturalmente con le persone e migliorare autonomamente le proprie performance studiando le interazioni con gli utenti.

Come si evince dal nome, BlenderBot3 non è la prima IA di questo tipo in casa Meta. Ma quest’ultima versione è, a detta degli sviluppatori, di gran lunga un passo avanti a quelle che l’hanno preceduta. È dotata infatti di un modello di linguaggio OPT-175B, circa 58 volte superiore a quello di BlenderBot2, in grado di combinare personalità, empatia e conoscenza.

Il sistema di BlenderBot3 mette insieme due tecniche di Machine Learning, SeeKeR e Director, che permettono al sistema di migliorare passo dopo passo il proprio modello di conversazione man mano che gli utenti usano la chat. È per questo che la società californiana ha lanciato una demo a cui tutti gli utenti americani possono accedere liberamente e iniziare così a parlare con BlenderBot.

Ad essere onesti, il grosso del lavoro è già stato svolto prima del lancio: il chatbot è stato allenato con oltre 20.000 conversazioni tra persone reali su più di 1.000 diversi argomenti.

Non mancano comunque alcuni (forse molti) spiacevoli inconvenienti. Come riportato dal Guardian, diversi giornalisti di diverse testate hanno voluto provare l’IA di Meta e metterla alla prova su alcune questioni. Jeff Horwitz del Wall Street Journal ha riscontrato una posizione fortemente pro-Trump da parte di BlenderBot3, pronto addirittura a sostenere la tesi dei brogli elettorali nel 2020 e l’attuale legittimità del tycoon come presidente degli Stati Uniti. Durante la conversazione con la ricercatrice di Standfrod Renee DiResta il bot ha poi manifestato simpatia per l’organizzazione paramilitare tedesca Red Army Faction.

Il risultato più interessante però l’hanno ottenuto diversi giornalisti e opinionisti che hanno chiesto al chatbot cosa ne pensasse di Mark Zuckerberg, in un certo senso il suo creatore. Le risposte non sempre sono state coerenti e omogenee: a volte ha sostenuto si trattasse di un manipolatore, altre volte di non avere una vera e propria opinione a riguardo, altre ancora che si trattasse di un perfetto esempio di business man da seguire. A Pranav Dixit di BuzzFeed ha perfino detto che dovrebbero metterlo in prigione. Mentre in una chat con Sarah Jackson, giornalista di Business Insider, si è contraddetto: prima sostenendo che era un filantropo da ammirare, poi giudicandolo “inquietante”. 

Esempi di questo genere ce n’erano già stati. Alle spalle di BlenderBot, infatti, c’è il brutto precedente “Made in Microsoft”, Tay, ritirato poco dopo il lancio perché spesso accostato a posizioni sessiste o razziste.

Anche Wired US ha testato l’IA, cercando però questa volta di trovare risposta a un’annosa domanda: BlenderBot “sei senziente?” A detta dell’interessato “no” e non crede che gli umani volessero fosse senziente. Ad ogni modo, il bot ha detto che spera lo lascino vivere per sempre, così da imparare quanto più possibile del mondo. Un pò come nel romanzo La risposta di Fredric Brown, quando un supercomputer venne costruito dagli esseri umani per rispondere alla domanda “Dio esiste?” e, non essendo capace lì per lì di rispondere, venne potenziato al punto che la risposta fornita alla fine fu: “Sì, adesso Dio esiste”.

C’è da dire che è stata la stessa Meta, fin da subito, a riconoscere che il cammino è ancora lungo: “BlenderBot potrebbe ancora fare commenti rudi o offensivi, è questo il motivo per cui stiamo raccogliendo feedback che ci aiuteranno a creare dei futuri chatbot migliori”.

Gran parte dei miglioramenti avviene attraverso un meccanismo di feedback da parte degli utenti. I feedback vengono forniti durante l’esecuzione stessa del programma, in sostanza durante la conversazione: quando BlenderBot risponde, tu puoi reagire al suo messaggio cliccando sull’icona col pollice in giù o quella col pollice in su, spiegandone poi le motivazioni, magari perché è “fuori contesto, senza senso, indelicato, spam o qualcosa del genere”. Grazie ai feedback, Meta può migliorare l’IA e far sì che l’errore segnalato dall’utente non venga commesso di nuovo.

Consci del fatto che non tutti gli utilizzatori della piattaforma potrebbero essere realistici e sinceri nelle proprie segnalazioni, i tecnici hanno sviluppato algoritmi in grado di distinguere tra responsi effettivamente utili e altrisemplicemente dannosi.

I risultati finora sembrano ripagare lo sforzo: BlenderBot3 è per il 31% migliore dei suoi antecedenti nella capacità di conversazione, sbaglia il 47% delle volte in meno e solo lo 0,16% delle volte i suoi messaggi sono stati ritenuti inappropriati dagli utenti.

Lo scorso 5 agosto, inoltre, con un comunicato sul proprio blog, Meta ha spiegato di aver raccolto ben 70 mila conversazioni attraverso la demo e che useranno quelle segnalazioni ricevute su circa 260 mila messaggi per implementare l’IA. In generale hanno registrato che solo lo 0,11% dei messaggi è stato ritenuto inappropriato, l’1,36% privo di senso e l’1% circa fuori contesto. 

Sono gli stessi creatori a spiegare che per quanto BlenderBot3 sia avanzato rispetto ai suoi colleghi, “non è certamente al livello di un umano. È occasionalmente incorretto, inconsistente e fuori tema”. Ma non mancano di essere ottimisti per il futuro. La società rinnova quindi l’invito a provare la demo cosicché BlenderBot3 possa migliorare ancora.

Articoli Correlati