Innovazione

Indagine conoscitiva sull’intelligenza artificiale: le audizioni alla Camera

07
Febbraio 2024
Di Ilaria Donatio

La Commissione Attività produttive della Camera dei deputati, nell’ambito dell’indagine conoscitiva sull’intelligenza artificiale, delle sue opportunità e dei rischi per il sistema produttivo italiano, ha svolto oggi le audizioni di alcuni soggetti.

Tra le altre, quella di Brando Benifei, membro della Commissione per il mercato interno e la protezione dei consumatori del Parlamento europeo, del Cnr, di Antonio Perrucci, Direttore del Laboratorio sull’ecosistema digitale di Astrid, del Garante per la protezione dei dati personali, di Paolo Marzano, docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma. Infine, di Anica, Hewlett Packard, Cgil, Cisl, Uil e Ugl.

L’AI Act europeo
L’8 dicembre Consiglio e Parlamento europeo hanno raggiunto un accordo politico sull’AI Act, il regolamento europeo sulle applicazioni dell’intelligenza artificiale che entrerà gradualmente in vigore, nel corso dei prossimi due anni in tutti i Paesi membri dell’Unione Europea. Il pacchetto europeo di regole rappresenta la prima legge al mondo – le regole esistono in tutto il mondo ma sono solo volontarie – che ambisce ad affrontare complessivamente le numerose sfide poste dallo sviluppo e dalle applicazioni dell’intelligenza artificiale. Dal mese di aprile il sistema entra in vigore come «regole consigliate» poi via via diventerà obbligatorio.

Brando Benifei, eurodeputato, è stato co-relatore dell’AI Act al Parlamento europeo: «L’esigenza di costruire una legislazione ad hoc sull’intelligenza artificiale», spiega Benifei, «nasce innanzitutto dalla crescente importanza che questi sistemi stanno assumendo nella vita dei cittadini. Inizialmente, l’Ai era utilizzata principalmente nell’ambito della ricerca scientifica e operativa. Successivamente, è stata introdotta nel mondo dell’impresa e del lavoro. Nel corso del tempo, è diventata sempre più parte integrante delle abitudini quotidiane dei cittadini, grazie all’utilizzo di applicazioni generative e altre tecnologie».

Dal punto di vista dell’Unione Europea, l’intuizione dell’AI Act nasce da un percorso di confronto avviato dalle istituzioni europee con gli stakeholder del settore. 

Ma non arriva in uno spazio vuoto: «Per esempio, in Italia ChatGPT è stato bloccato per un certo tempo per via di una decisione del Garante della protezione dei dati personali, che ovviamente ha applicato delle norme esistenti, senza rifarsi all’AI Act o ad un altro tipo di legislazione specificamente pensata per l’intelligenza artificiale». 

Due obiettivi ultimi di questa legge, strettamente legati l’uno all’altro. Il primo è rendere l’intelligenza artificiale compatibile con la democrazia. Il secondo è rafforzare la fiducia, far sapere ai cittadini che ci sono misure per ridurre i rischi e i pericoli, ha proseguito l’eurodeputato.

Il senso del regolamento è infatti anche quello di dare un nuovo equilibrio alla catena delle responsabilità tra i vari attori dell’ecosistema dell’intelligenza artificiale. È necessario che gli sviluppatori si prendano le loro responsabilità, non scaricandola tutta sugli utilizzatori intermedi o i cittadini/utenti. Il processo richiederà in ogni caso un po’ di tempo: dal voto finale previsto per marzo o aprile inizierà un’entrata in vigore graduale.

L’AI Act distingue i vari sistemi di intelligenza artificiale in base a diverse categorie di rischio:  «Le categorie di rischio sono tre, con una variante. La prima è il basso rischio e in questo caso i sistemi di AI devono sottostare solo ai principi generali di buona programmazione. Esiste poi una variante, il rischio limitato. Si fa riferimento a quei sistemi a cui chiediamo una maggiore trasparenza. L’alto rischio è il cuore del regolamento. Contiene le aree di potenziale alto rischio: luoghi di lavoro, amministrazione della giustizia, democrazia, impatto sui minori in alcuni contesti, assegnazione di diritti civili e sociali, infrastrutture digitali critiche».

«Una delle principali critiche rivolte all’AI Act è quella di mettere un freno allo sviluppo tecnologico: parlando con i policymakers di tutto il mondo (americani, canadesi, brasiliani, giapponesi) abbiamo notato l’attenzione globale su ciò che stiamo facendo. È un dibattito in corso, ma c’è una direzione di marcia in cui si dà per scontato che servono dei framework per la riduzione del rischio basati su leggi e non solo accordi volontari», ha concluso.

A regolamento vigente, l’intenzione del legislatore europeo è di siglare un vero e proprio patto per far crescere la fiducia della cittadinanza nell’AI e di sostegno alle imprese.

Economia e Intelligenza artificiale
Secondo Antonio Perrucci, Direttore del Laboratorio sull’ecosistema digitale di Astrid e coautore di tre volumi dal titolo “Intelligenza artificiale e diritto: una rivoluzione?” (il Mulino), «la rilevanza dell’intelligenza artificiale è notevolissima per il sistema economico e lo si vede sia a livello macro –  è impressionante la quotazione che ha raggiunto Open Ai, la società che controlla ChatGPT (l’intelligenza artificiale generativa) arrivata a valere 90 miliardi di dollari – che per quanto riguarda le stime sul valore del mercato dell’intelligenza artificiale generativa sono mostruose – le ha ricordate l’OCSE lo scorso settembre  – e sono tra 2,6 e 4,4 trilioni di dollari».

«Il mercato italiano varrebbe oggi 730 milioni di euro, secondo il Politecnico di Milano, al 2030, arriveremo a oltre 300 miliardi come valore apportato al sistema». Ciò nonostante, c’è un ritardo notevole di tutti i sistemi economici, non solo di quello italiano, nell’adozione da parte delle imprese: quindi i sistemi intelligenza artificiale stentano ad affermarsi non solo nella pubblica amministrazione, ma anche nel mondo produttivo.
Con fondazione Astrid stiamo lanciando un’iniziativa di un osservatorio permanente sui trend della tecnologia, del mercato oltre che del diritto: dunque, un grande tema è questo impatto e su questo purtroppo un po’ ci si divide come al solito tra ottimisti e catastrofici soprattutto in relazione all’ impatto sul mercato del lavoro».

Esistono numerose analisi, «alcune delle quali inciampano in un bias molto grave» secondo cui si ripeterà, con i sistemi di intelligenza artificiale, quello che è accaduto dopo le precedenti rivoluzioni industriali. «Questo è un errore metodologico gravissimo», dice Perrucci: ad oggi non siamo in grado di dare una risposta risolutiva. «Come Astrid, da due anni, studiamo l’impatto delle tecnologie Ai sul mercato del lavoro: sui livelli occupazionali, sui livelli di qualifica e sui livelli retributivi».

«Su questo, ci sono due mondi che si parlano molto poco: da un lato, un oligopolio di alcune grandi imprese che l’amministrazione Biden prova ad arginare con l’Excutive Order e l’Antitrust, dall’altro abbiamo un regime con le industrie di Stato».

In mezzo, l’Europa che «non può limitarsi a produrre solo regole ma dovrebbe avere una propria politica industriale nel settore». E dà un numero: «4 miliardi di euro di misure sull’intelligenza artificiale da parte dell’Unione europea», auspicando che vi sia presto una «via italiana» all’Ai.

L’entrata in vigore del regolamento e la sua corretta applicazione sarà «condizione necessaria ma non sufficiente» perché l’Europa sia in grado di rispondere alle altre due aree del mondo, andando oltre il dato del quanto siamo bravi a fare regole. Il tema centrale è quello di politica industriale.

La protezione dei dati personali
Il Garante per la protezione dei dati personali ha avviato, lo scorso novembre, una indagine conoscitiva sui siti internet pubblici e privati, per verificare l’adozione di adeguate misure di sicurezza volte a impedire la raccolta massiva (webscraping) di dati personali a fini di addestramento degli algoritmi di intelligenza artificiale (IA) da parte di soggetti terzi.

Spiega Pasquale Stanzione, presidente del Garante: «La privacy negli anni si è affermata come potente strumento di redistribuzione del potere informativo, di fronte al quale la persona rischia di divenire sempre più vulnerabile. E oggi la sfida è rendere questo diritto di libertà protagonista di uno sviluppo inclusivo e umano-centrico del digitale».

«L’autonomia decisionale», spiega, «che taluni sistemi d’intelligenza artificiale sono pronti a sviluppare preoccupa dunque, anche in campo militare, soprattutto in uno scenario internazionale ancora dominato dalla guerra – ha spiegato – Si temono, infatti, rischi non fronteggiabili neppure con quel, pur innovativo, “codice etico” per un’intelligenza artificiale, “responsabile” in campo bellico, adottato dagli Usa già due anni fa, all’insegna della trasparenza e della supervisione umana».

Di qui la necessità e l’urgenza di regolare questi sistemi. E Stanzione fa riferimento anche l’effetto attrattivo delle norme europee nel promuovere la regolazione delle nuove tecnologie a livello globale, sottolineando ancora una volta l’importanza di garantire la protezione dei dati e la tutela della persona rispetto al potere della tecnica a livello universale.

Stanzione ha poi messo in risalto l’importanza di garantire protezioni adeguate per evitare gli effetti negativi dell’intelligenza artificiale (AI) sulla società. Le norme di protezione dei dati, come il divieto di discriminazione e il diritto alla spiegazione, rappresentano un elemento cruciale per limitare l’uso scorretto dei dati personali e preservare la libertà e la dignità delle persone, soprattutto dei minori.

Serve dunque porre un «indirizzo e un limite etico e giuridico alla volontà di potenza della tecnica» altrimenti  il rischio è che «le tecniche divengano sempre più opache, mentre le persone sempre più trasparenti, secondo l’idea dell’uomo di vetro cara a sistemi tutt’altro che democratici».

Le industrie creative e culturali
Per il presidente di Anica –  Associazione Nazionale Industrie Cinematografiche Audiovisive Digitali – Francesco Rutelli, l’Ai rappresenta uno straordinario progresso tecnologico con un immenso potenziale, tanto che una parte delle industrie relative al settore utilizzano sistemi di Ai, come quella degli effetti speciali. E l’impatto relativo sarà, sempre di più, nelle fasi di post-produzione.

L’altro tema cruciale è quello dell’occupazione: «Alcuni attori hanno venduto la propria voce e dopo la loro morte, sarà possibile utilizzarla. Dunque, esiste ed è problematico il grande tema dei fake, che sono nel settore audiovisivo. Cosa accadrà?». Pensiamo alla «manipolazione di immagini storiche»: cosa potrebbe comportare?

Dunque, è importante riconoscere che, insieme a questi benefici, molte volte le «opere protette, le voci e le immagini sono utilizzate senza il consenso dei titolari dei diritti per generare nuovi contenuti. Alcuni di questi utilizzi possono ledere non solo i diritti d’autore ma anche i diritti morali e della personalità degli autori e pregiudicare la loro reputazione personale e professionale: per questa ragione mi preme sottolineare l’importanza dell’educazione e della formazione sui giovani. Senza dimenticare mai l’importanza di questo settore industriale, in Italia».