Cultura

Perché siamo così aggressivi sui social? Ce lo spiega Walter Quattrociocchi

20
Agosto 2022
Di Marco Cossu

La polarizzazione sui social è un fenomeno sul quale si è dibattuto tantissimo negli ultimi anni e l’argomento torna a galla ora in periodo di campagna elettorale per via delle sue manifestazioni più evidenti. In realtà la polarizzazione abbraccia tante tematiche, non solo quelle politiche. Anche il mondo dell’informazione ne è stato travolto. Ma quali sono i meccanismi che l’alimentano? Abbiamo incontrato Walter Quattrociocchi direttore del Center for Data Science and Complexity for Society della Sapienza di Roma per spiegarci bene quello che ci succede quando stiamo sui social. Qui tutto quello che dobbiamo sapere su echo chambers, tribalizzazione, fake news.

Polarizzazione sui social. Come si attiva questo meccanismo?
«La polarizzazione riguarda tutte le tematiche a 360° sui social. Non c’è n’è una che ne sia esente. Il punto è che si attiva un confirmation bias a livello individuale che ti porta a selezionare i contenuti che ti piacciono e lì rimani. A livello sociale il confirmation bias si innesca perché incontri persone che la pensano come te, si formano così le echo chambers. Le echo chamber sono la forma strutturale che porta all’emergenza della polarizzazione. Qui la comunicazione diventa tribale. Difendi il tuo totem e contrasti quello degli altri. È questa la polarizzazione. Questo accade perché esiste un business model delle piattaforme, premiale per quanto riguarda la fruizione aderenti alla visione del mondo dell’utente, che si schianta sul sistema informativo. Anche il sistema informativo prende quella dinamica. Non è che prima non ce l’avesse, ma viene massimizzato in questo contesto e quindi anche il mondo dell’informazione segue le dinamiche e le logiche della piattaforma social. È così che tutto ciò che raggiunge una certa soglia di viralità crea polarizzazione».    

Walter Quattrociocchi (Dipartimento di Informatica – Sapienza Università di Roma) è direttore del Center for Data Science and Complexity for Society

Questo può plasmare le opinioni e le scelte degli utenti, ad esempio quelle politiche?
«Che l’informazione sia in grado di cambiare l’opinione delle persone è molto disquisito, assolutamente non certo. Anzi indicazioni scientifiche vanno nella parte opposta. Ad esempio laddove c’è stata molta infodemia sui vaccini non c’è stato un cambiamento dei trend sulla certificazione vaccinale. Tanta informazione non corrisponde necessariamente ad un cambiamento di volontà sociale ma si traduce nella cristallizzazione delle posizioni pregresse. Visto che ognuno cerca quello che gli piace, tanta informazione permette anche più scelta e quindi anche trovare conferma di quello che già pensavi prima». 

Fake news, cosa si è fatto negli ultimi anni? Ci sono stati dei passi avanti?
«Si è capito che il problema era stato posto male. Il problema delle fake news viene posto come il conflitto per l’attenzione degli utenti tra informazione vera e informazione falsa, così si ignora totalmente il quadro e l’ecosistema in cui si diffonde l’informazione. Il vero problema è la diffusione delle narrative in un sistema che premia la visibilità e la polarizzazione. Cioè il business model delle piattaforme che è diventato il driver del mondo dell’informazione. Questo è il problema vero. Le fake news sono un problema collaterale. Concentrarsi su fake news e sul fact checking è sbagliato. Ormai l’hanno capito pure i sassi. Cambia quindi il meccanismo della diffusione dell’informazione. C’è molta più informazione e sei incentivato a cercare quella che ti piace, questo alimenta il processo narrativo delle echo chambers. Il problema sono le narrative e la segregazione degli utenti, non sono le fake news. Ogni echo chamber ha delle proprie fake news, non c’è un’echo chamber scevra da strumentalizzazione dell’informazione».  

Segregazione degli utenti. È un problema legato agli algoritmi?
«Parzialmente sì. Abbiamo evidenze empiriche. L’anno scorso abbiamo fatto uno studio su questo, dove abbiamo messo a confronto l’effetto echo chamber su quattro piattaforme diverse. Su Twitter e Facebook la segregazione è più forte che per sulle piattaforme di estrema destra americana. Quindi l’algoritmo ha un ruolo». 

Perché sui social siamo più aggressivi?
«C’è chi la chiama “legge della polarizzazione dei gruppi”. Se tu stai in un gruppo che la pensa come te, a furia di commentare tendi a diventare ancora più estremista perché sei alla ricerca di un’immagine confermatoria. Abbiamo fatto degli studi su questo. Più sei immerso nella tua echo chamber più tendi ad andare verso la tossicità dei commenti. Ora stiamo facendo uno studio che speriamo di concludere entro l’anno dove andiamo a vedere la tossicità su varie piattaforme, per capire quali sono i tempi di degenerazione in tossicità della conversazione su otto piattaforme diverse». 

Gli utenti scelgono le piattaforme in base alla loro opinione? 
«Si va verso questo. Al momento c’erano le piattaforme mainstream come Facebook e Twitter, però si sono create delle maggioranze all’interno che stanno influenzando l’ipotesi di moderazione. Quindi quali contenuti sono accettati oppure no. Questo sta causando un effetto emigrazione degli utenti su altre piattaforme che porta alla nascita delle echo platform, nicchie in cui vince l’attrattiva e la narrativa, non la piattaforma in sé». 

Dal punto di vista della regolamentazione esterna e di strumenti di moderazione da parte delle stesse piattaforme come si sta lavorando?
«Male. Il problema non è mai stato affrontato per quello che è e si sono creati dei cortocircuiti. Il delirio ideologico non ha portato all’applicazione, l’intervento normativo è avvenuto infatti al di fuori del reale. All’orizzonte non vedo grossi cambiamenti, si sta proponendo la coregolamentazione nel senso che lo Stato impone le linee guida e spetta alla piattaforma implementare il monitoraggio. Non si è capito però come verrà fatto e come sarà implementato. Il problema è stato comunque affrontato male. Se sono giuristi e giornalisti ad affrontare una problematica che è essenzialmente informatica e algoritmica quello che ne viene fuori è qualcosa di inapplicabile. Questo soprattutto per quanto riguarda la regolamentazione delle piattaforme sui temi di discorso d’odio e disinformazione». 

L’intelligenza artificiale può giocare un ruolo in questo?
«Se pubblichi l’immagine della Venere di Botticelli è probabile che venga scambiata per un’immagine porno. La capacità di discernimento dell’intelligenza artificiale non è in grado di gestire la responsabilità editoriale delle piattaforme, perché si pensa di utilizzarla come un sostitutivo dell’umano nei processi di selezione dei contenuti, quindi per scegliere quelli che devono essere rimossi oppure no. Il problema è che i criteri che vengono attuati non sono implementabili facilmente e l’intelligenza artificiale fa confusione. Il machine learning non sarà mai in grado infatti di discernere un commento sarcastico da un commento reale. Se non cogli l’ironia non cogli un sacco di cose e la maggior parte delle volte escono fuori cose paradossali. Ci sono persone che si ritrovano bannate perché hanno detto una frase che contiene una parola che secondo l’AI è altamente lesiva di qualche diritto». 

È cambiato il modo delle persone di stare sui social? C’è una percezione diversa, una maggiore diffidenza, è stata sviluppata una diversa consapevolezza?
«Sì, si sta iniziando a capire meglio il mondo dei social che è il vero antidoto contro le distorsioni delle dinamiche sociali nelle piattaforme. Per tanto tempo l’alfabetizzazione digitale andava nella direzione “questa è la fonte corretta/questa è la fonte sbagliata”, questo approccio lascia il tempo che trova. Chi ha ragionato ha preferito spiegare come funzioniamo noi quando stiamo nelle piattaforme. L’approccio di questo taglio sta andando ora per la maggiore, funziona e aumenta la consapevolezza dell’utente, tanto che parole che prima appartenevano alla nicchia scientifica come echo camber e polarizzazione sono ormai di senso comune. Questo fa si che ci sia una sensibilità maggiore. Ora stiamo facendo dei lavori in Rai per quanto riguarda la formazione, sia dei giornalisti e del grande pubblico. A maggio dell’anno scorso abbiamo lanciato una trasmissione sperimentale su Rai News che continuerà anche all’anno prossimo. Ha come volontà quello di spiegare alle persone come funzionano i social, non cosa è bene e cosa è male; quindi la tendenza a polarizzazione, il fatto che è si tratta di spazi orizzontali dove il principio d’autorità viene meno, il fatto che si tende sempre verso la negatività dei commenti… dinamiche che sono state dimostrate dagli studi e che aiutano ad avvicinarsi in modo più consapevole al mondo delle piattaforme, ormai integrate completamente con la vita reale». 

Che ruolo svolgono gli influencer?
«L’influencer alimenta e veicola processi di intrattenimento. È l’incarnazione dei processi di polarizzazione. Diventa un avatar e quando il contenuto diventa secondario rispetto all’avatar si creano delle situazioni per cui la gente si stufa e cambia aria. C’è una stagionalità negli influencer, c’è un decadimento fisso, una regolarità statistica…».      

Guerra e social.
«I social network sono diventati il piano su come si svolge la propaganda da entrambe le parti. Il punto è che la narrativa russa si basa su paradigmi del ‘900, potenza, grande leader. Mentre dalla parte ucraina, Zelensky è un influencer che potrebbe far scuola alla Ferragni e sul piano mediatico narrativo l’Ucraina ha vinto 8 a 0. Dal punto di vista della circolazione delle informazioni di propaganda i meccanismi sono sempre gli stessi, io devo dare informazioni che accendano l’animo di quelli che sono già dalla mia parte. Questo gioco quindi attecchisce in chi deve attecchire e non attecchisce dove non avrebbe mai attecchito. La dinamica è esattamente sempre la stessa». 

I bot che ruolo hanno svolto? Le piattaforme hanno imparato a gestire il problema?
«No. I bot sono dei tentativi di barare con l’algoritmo dei feed. Quindi funziona entro una certa soglia e nella fase iniziale, quella del lancio del post. Gli effetti che hanno sono però marginali. Tutti usano comunque i bot, ci provano tutti a fare quel tipo di inflation e cheating all’interno del marchingegno social. Poi i russi hanno speso tanti soldi ma i risultati sono stati limitati».

Come cambieranno i social nel futuro?
«Penso che il conflitto rimarrà. Cambieranno le modalità e il linguaggio man mano che cambia la piattaforma. Già lo switching da Facebook a Instagram ha portato grossi cambiamenti, ad un linguaggio molto più iconografico e con molte più immagini. Adesso invece Tik Tok si basa sui video. Cambiando la modalità di comunicazione cambia anche il potenziale di impatto, si va verso nuove forme di comunicazione ma le dinamiche di fondo che tendono alla polarizzazione e alla formazione del gruppo tribale resteranno le stesse». 

Articoli Correlati

di Alessandro Caruso | 03 Dicembre 2022

La fragilità della Pax

ittiti
di Giulia Borderi | 02 Dicembre 2022

A Roma rivive la musica degli antichi ittiti