Salute

Intelligenza artificiale e salute mentale: siamo pronti per i terapeuti umanoidi?

03
Gennaio 2024
Di Ilaria Donatio

Quando gli chiedono, “professore, ma quando è nata l’intelligenza artificiale?”, Edoardo Fleischner, di solito, risponde: “Nel momento in cui un australopiteco ha preso la prima selce in mano”. E dunque, con quella pietra, l’umano avrebbe aggiunto qualcosa al proprio corpo e alla propria “intelligenza naturale” e dalla reciproca combinazione sono nati “neuroni e sinapsi nuovi, proprio in virtù di quello strumento”.

Con Edoardo Fleischner – già docente di comunicazione crossmediale e autore di “Media e dintorni” su Radio Radicale – proviamo a capire se la tecnologia intelligente e basata sull’apprendimento automatico possa offrire soluzioni utili alla crescente domanda sollevata da chi soffre di un disagio collegato alla salute mentale.

Dall’inizio della pandemia di Covid-19, quattro anni fa, un numero elevatissimo di persone ha chiesto aiuto per problemi legati alla salute mentale, tra cui depressione e ansia. In tutto il mondo, il suicidio è oggi la quarta causa di morte tra i 15 e i 29 anni. Questo ha portato, inevitabilmente, a una pressione sempre più elevata sui servizi sanitari e terapeutici a cui, tuttavia, non è scontato che si acceda: per ragioni  di natura economica ma anche a causa di resistenze di tipo culturale.

L’intelligenza artificiale per la diagnostica, spiega Fleischner, è uno “strumento che si sta affermando in modo assoluto per lo sviluppo di nuove terapie e di nuovi farmaci”, perché, questa possibilità di avere a disposizione “non dieci ma un milione di radiografie che hanno la stessa macchietta bianca sul polmone sinistro, per l’oncologo che sta studiando una radiografia di un paziente, fa differenza”.

Una differenza abissale.

Allo stesso modo, maggiore è la raccolta di casi di disagio mentale, calati nel contesto sociale di riferimento, e più sarà possibile ottenere dalle ricerche risposte utili.

Per esempio, argomenta Fleischner, i disagi mentali a New York saranno diversi da quelli di cui soffrono in Sudan e avranno caratteristiche che li differenziano dai disturbi accusati da chi vive nelle Pampas argentine che, ancora, sono sicuramente diversi dagli abitanti di Tokyo.

Non solo. Esistono, poi, innumerevoli differenziazioni di cui la precisione dei dati che si immettono possono tenere conto: “È vero che il contesto sociale di Napoli è decisamente diverso da New York, ma se studio una persona che soffre di un disagio mentale a New York ma so che è proveniente da una famiglia di prima immigrazione napoletana, allora ho già una serie di dati a cui poi dovrò aggiungere quelli dell’impatto con la metropoli e con una nuova lingua come l’americano”.

È ovvio che “più dati la tecnologia elabora, maggiore è il numero di ricerche di cui riesce ad alimentarsi e più elevato sarà il numero di domande che farò e che avranno risposte interessanti e utili”.

Ecco uno dei punti su cui il professor Fleischner torna a conclusione di ogni ragionamento sulla questione della salute mentale collegata all’intelligenza artificiale: si dovrebbe pensarla come lo “strumento di raccolta massima di dati”. D’altra parte, lo ha sempre sostenuto l’Umanesimo e Galileo Galilei lo ripeteva, “più dati ho a disposizione come scienziato, e più sono aderente a quella che chiamo realtà oggettiva”. In modo verosimile, certo.

Ora, tutta questa mole di dati ha fatto radicalmente aumentare la percentuale di diagnosi corrette:  se si confrontano le percentuali relative ad accertamenti svolti da medici, queste arrivano all’80%, dato inferiore a quello relativo alle diagnosi formulate dall’intelligenza artificiale che possono raggiungere il 98%.

Questo confronto “sta dando sempre più sicurezza all’utenza finale”, sostiene Fleischner. E apre il dibattito tra apocalittici e integrati, secondo la nota distinzione operata da Umberto Eco, in questo caso, applicata ai fenomeni sociali innovativi: “Gli apocalittici sono sostanzialmente spinti dalle paure” – di perdere il posto, delle opinioni, delle diagnosi, di una terapia sbagliata – “gli integrati sono al contrario quelli che fideisticamente si affidano all’intelligenza artificiale”. Sono entrambi atteggiamenti che soffrono un pregiudizio di percezione che è il contrario della “realtà oggettiva” di cui parlava Galilei.

Ed è sempre la percezione a guidare, per esempio, la percentuale dei pazienti intervistati (non solo quelli che hanno una fragilità mentale ma tutti) che si fidano più della diagnosi dell’intelligenza artificiale rispetto a quella emessa da medici in carne ed ossa: circa l’80%. Perché? Perché sulla formazione del giudizio, pesa di più un’unica esperienza negativa, magari vissuta in prima persona, che non un’indagine statistica accuratissima: “la chiamo statistica aneddotica e fa dire alla mente umana quello che magari è esattamente il contrario”, chiosa Fleischner.

Per salvarsi da percezioni distorte, da paure o da eccessi di fiducia, ecco che il professore aggiunge alle prime due, una terza categoria che chiama dei “proattivi”: questi ultimi si preoccupano di approfondire e di provare ad usare lo strumento, “armati della curiosità degli integrati ma con tutta la prudenza dei pessimisti”.

Ed ecco il futuro, a cui ci si prepara da tempo: “Le intelligenze artificiali saranno multiple” conclude Fleischner, “le piattaforme saranno multiple, sempre più specializzate”. Ed è bene che sia così per ottenere risposte sempre più accurate.

Il boom mediatico ottenuto da ChatGPT – finanziata da Microsoft con 10 miliardi di dollari – è aver puntato tutto su quella che si chiama “intelligenza artificiale generativa”, che genera appunto un discorso, con un linguaggio naturale: finalmente si è potuta avere un’interlocuzione “come se” si parlasse con un altro essere umano.

“Si voleva fare e si è fatto il chatbot perfetto: a una richiesta vocale si riceve una risposta sia scritta che vocale, con un linguaggio assolutamente naturale”: certo, magari non sostituirà lo psicologo però aiuta moltissimo, per esempio, nelle diagnosi di sindromi molto semplici.

Il prossimo passo che Fleischner prefigura anche sulla base delle tante sperimentazioni già realizzate è quello secondo cui “la salute mentale sia affidata anche ad avatar: terapeuti umanoidi, modelli a tre dimensioni creati dal computer e dall’intelligenza artificiale: che ci rispondono, ci guardano e riescono a leggere la nostra espressione attraverso la telecamera, in forza di un database che raccoglie centinaia di pareri esperti, migliaia di informatici e milioni di dati. Non abbiano paura i medici, senza di loro, niente avatar”.

Ai più giovani il terapeuta-avatar ricorderà un po’ i videogiochi, così non gli sembrerà così strano parlare con lui/lei dei loro problemi: si fideranno “come se” fosse umano e, con i dati giusti, avrà meno margini di errore. Il futuro.