Innovazione
Messaggi vocali, a ChatGpt non seccano. Quali scenari con la nuova modalità
Di Giuliana Mastri
La piattaforma di intelligenza artificiale più popolare presso il grande pubblico compie un nuovo salto di usabilità integrando la modalità vocale nel cuore della sua interfaccia. L’invio dei comandi diventa così più immediato: basta toccare l’icona del microfono per parlare e lasciare che la propria voce venga trasformata in testo, mentre le risposte possono comparire non solo in forma scritta, ma anche sotto forma di mappe, immagini o altri elementi visivi. Il cambiamento elimina passaggi intermedi e rende la conversazione più fluida, con un’interazione che scorre senza dover accedere a sezioni separate dell’app.
La nuova esperienza e la possibilità di tornare indietro
Nell’annuncio diffuso martedì 25 novembre si sottolinea come la novità renda più naturale il dialogo con il sistema, riducendo interruzioni e migliorando la continuità tra audio e contenuti visuali. Per chi preferisce la configurazione precedente, resta disponibile un’opzione di ripristino: la modalità Separate mode, inserita tra le impostazioni dell’app mobile, consente di tornare alla vecchia interfaccia.
Una scelta coerente con la visione originaria di Altman
L’integrazione della voice mode appare quasi inevitabile osservando il percorso dell’azienda. Sam Altman ha citato più volte il film distopico «Lei» come bussola culturale dello sviluppo tecnologico di OpenAI, immaginando un’interazione più simile possibile a un vero scambio umano. L’obiettivo implicito sembra essere proprio questo: rendere il confronto con il chatbot più spontaneo, senza sacrificare la possibilità di gestire contenuti multimodali o di rispondere a necessità pratiche degli utenti.
Dalla comodità all’empatia artificiale
Il movimento non riguarda solo OpenAI ma riflette una tendenza più ampia dell’industria: trasformare i sistemi di IA in assistenti vocali capaci di richiamare familiarità, calore ed empatia. Una direzione che, pur migliorando l’usabilità, apre a nuovi rischi. L’utente, sentendosi accolto, può condividere informazioni personali che finiscono nei server delle aziende o affidarsi a suggerimenti che non hanno alcuna garanzia di affidabilità, con potenziali derive psicologiche, dipendenze o illusioni di intimità.
Il caso Friend e l’esplosione delle relazioni parasociali con l’IA
Il fenomeno ha già trovato terreno fertile in altri progetti. Ha fatto discutere Friend, un dispositivo indossabile come una collana che dialoga con un’app sullo smartphone. Nato come Tab, un agente pensato per ottimizzare la produttività, è stato trasformato dal giovane fondatore Avi Schiffmann in un prodotto che gioca apertamente sul desiderio di compagnia. La risposta del pubblico, però, è stata quasi interamente negativa, complice un prezzo molto alto e campagne promozionali giudicate aggressive. Eppure lo stesso approccio si ritrova altrove: X ha lanciato chatbot dotati di avatar con cui è possibile sviluppare rapporti di amicizia o persino relazioni sentimentali, mentre prolifera un’intera costellazione di app che imitano legami affettivi e intimità simulata.
Promesse grandiose, priorità molto diverse
Nel racconto pubblico delle grandi aziende dell’IA, le tecnologie emergenti dovrebbero ripulire il pianeta, sconfiggere le malattie e liberarci dal lavoro ripetitivo. Ma osservando i prodotti realmente rilasciati sul mercato, il quadro appare meno visionario e più commerciale: invece di affrontare i problemi sistemici evocati nei manifesti, molti manager sembrano concentrati su dispositivi e servizi pensati per creare un legame emotivo tra utente e macchina, estendendo la permanenza nella piattaforma e rafforzando la dipendenza dal prodotto, più che realizzare gli obiettivi epocali annunciati.





