Innovazione

Artificial Art, Meta lancia Make-A-Scene

23
Luglio 2022
Di Daniele Bernardi

Un orso gigante seduto su un treno, delle alghe che sembrano provenire da un altro pianeta. A prima vista sembrano dei normali disegni, ma sono stati prodotti da un’intelligenza artificiale. Certo… non completamente da sola, l’immaginazione per il momento la mette ancora l’uomo, ma la macchina fa tutto il resto. Si tratta delle IA che trasformano testi in disegni, una delle nuove frontiere dell’arte e dell’innovazione. Sono già tanti i prodotti di questo genere: da DALL-E 2 di Open AI ad Imagen di Google. Ma ora anche Meta, il colosso di Facebook, Instagram e WhatsApp (e tanto altro), ha messo a punto il proprio prodotto e non poteva scegliere un nome più esplicativo: Make-A-Scene

Ma come riescono questi programmi a fare ciò che fanno? Beh, dare una risposta univoca non è semplice. Imagen di Google, ad esempio, parte da uno schema di punti casuali che vengono via via convertiti in immagini sempre più in alta definizione. Ma il punto di partenza è sempre lo stesso: software evoluti di Intelligenza artificiale in grado di esaminare e analizzare qualsiasi tipo di testo, cogliendone nessi e collegamenti. 

Nel caso di Make-A-Scene, la frase viene fatta passare attraverso un modello trasformatore, una rete neurale che analizza le parole e sviluppa una comprensione contestuale, cerca di comprenderne il significato in altre parole. Una volta fatto ciò, l’IA crea un’immagine utilizzando una serie di GAN (generative adversial networks). 

Qual è però il passo in avanti di Make-A-Scene rispetto alla concorrenza? La piattaforma di Meta permette agli utenti di interagire con l’output prodotto dall’IA fornendo al sistema delle prime immagini o dei disegni che orientano la scelta della macchina assieme al testo scritto. “I risultati della nostra ricerca in questo spazio possono attivare nuove forme di espressione creativa alimentate dall’IA, mettendo i creatori e le loro visioni al centro del processo” spiegano da Meta.

Una maggiore personalizzazione, dunque, ma anche un miglior controllo sull’operato della piattaforma. Pare infatti che la corrispondenza tra testo e immagine aumenti nel 99,5% dei casi. “Come dimostrato nei nostri esperimenti, condizionando la disposizione della scena, il nostro metodo fornisce una nuova forma di controllabilità implicita, migliora la coerenza e la qualità strutturale e aderisce alle preferenze umane”.

Il tutto senza comunque escludere la possibilità, per chi lo preferisse, di limitarsi a ottenere immagini da un testo, come nelle versioni concorrenti della piattaforma.

Per pubblicizzare l’IA, Meta ha fornito una versione demo ad importanti artisti di livello mondiale. Tra questi, anche Sofia Crespo che si è concentrata su creature ibride a cavallo tra tecnologia e natura. “Come artista visivo, a volte vuoi giusto essere in grado di creare una composizione di base a mano, disegnare una storia da seguire per l’occhio, e questo ti permette proprio ciò” ha spiegato la Crespo.

Ma non solo artisti. Andy Boyatzis, program manager in Meta, ad esempio, l’ha fatto provare ai suoi due figli di 2 e 4 anni. “Se loro volevano disegnare qualcosa, io gli dicevo giusto: “e se…?” E questo li guidava nel creare cose fantastiche, come una giraffa blu o un aereo arcobaleno. Dimostra proprio la sconfinatezza di ciò che potremmo immaginare”.

Della versione aperta al pubblico non si hanno ancora notizie. Spoiler: è molto probabile che il lancio verrà annunciato alla Conferenza europea sulla visione artificiale che si terrà a Tel Aviv il prossimo ottobre. Ad ogni modo, Make-A-Scene è solo l’inizio: Meta sta “continuando ad esplorare come l’IA può espandere l’espressione creativa” e vedremo quale sarà il prossimo passo.