Innovazione

Prove tecniche di futuro: l’IA tra policy, innovazione e business

21
Aprile 2022
Di Daniele Bernardi

Il mercato italiano dell’intelligenza artificiale vale ben 330 milioni di euro, una cifra non da poco, ma, quando la andiamo a comparare con il resto d’Europa, ci rendiamo conto che vale solo il 4,5% della torta. In effetti solo il 6% delle PMI italiane ha implementato l’IA nella propria organizzazione. Questo è l’esito da un lato di una fatica, in termini anche economici, che le nostre aziende fanno per dotarsi di questi strumenti, dall’altro di un contesto culturale complicato e, per certi versi arretrato, che spesso si riflette in uno skill mismatch. «Creare una cultura dell’IA, in modo misto e concreto, non marketing della tecnologia ma dimostrare come aziende e cittadini possono sviluppare il loro business e la loro vita civile», è questa la formula secondo Marco Gay, presidente Anitec-Assinform.

L’associazione ha recentemente prodotto un White paper sull’IA, per fare il punto sulla situazione e avanzare proposte ai policy makers. Hanno partecipato ai lavori anche grandi imprese come Accenture, Tim o Xiaomi, ma anche meno note come Nvidia, un’azienda specializzata nella produzione di chip per l’IA. Un primo elemento che emerge dallo studio è che il mercato sta cambiando e si sta spostando sempre più dalle grandi aziende alle piccole e medie imprese, la stessa Nvidia ad esempio sta iniziando a produrre chip pensati per le piccole aziende. Questo rientra nel paradigma più ampio, presente anche nel PNRR, per cui l’utilizzo di IA non deve più essere limitato al solo settore del digitale ma diventare un elemento presente in ogni ambito del mercato: dalla manifattura a settori ad alto rischio come sanità ed educazione e, se possibile, dovrebbe portare alla creazione di nuovi mercati.

Per quanto riguarda le policies, il governo e le istituzioni europee non sono rimaste con le mani in mano. L’Italia, spiega la professoressa Rita Cucchiara (docente di Unimore e membro del gruppo di lavoro sulla strategia nazionale per l’Intelligenza Artificiale), ha varato già un Piano strategico per l’IA. Si tratta di un progetto pluriennale volto a reinserire il nostro paese nei giochi, sviluppando un’intelligenza artificiale che ponga al centro l’essere umano e che sia affidabile e sostenibile. Per la compilazione del piano sono stati fatti sedere ad un tavolo nove docenti universitari che hanno stilato una lista di undici priorità: dalla manifattura all’agri-food, la salute, l’ambiente ma anche la finanza, il turismo, il mondo dell’educazione e dell’information technology. Il governo ha elaborato ventiquattro differenti strategie da mettere in atto per raggiungere gli obiettivi.

Il primo e più importante problema da risolvere è quello della formazione. «L’Italia ha un problema di talenti. Produciamo buoni talenti ma fuggono all’estero» ha detto la professoressa Cucchiara. Nel nostro paese è inoltre difficile fare sperimentazioni e spesso non si dà il giusto peso alla ricerca. Le cose ovviamente stanno cambiando e migliorando: il piano strategico nazionale ha messo in moto un dottorato di ricerca specifico sulle IA che conta già 140 ricercatori, ma non basta. È quanto conferma anche Isabella Andrieu (CEO della Pi School, School of Artificial Intelligence): se è vero che la sua scuola forma ingegneri specializzati che vengono poi affiancati alle imprese che richiedono lo sviluppo di progetti riguardanti le IA, è altrettanto vero che difficilmente questi ragazzi riescono poi ad essere assunti dalle aziende sponsor.

L’altra grande regolamentazione è quella europea. Oltre ad alcuni importanti provvedimenti che toccano l’argomento solo in maniera periferica, come i più noti Digital Service Act e Digital Market Act, la Commissione ha recentemente proposto l’AI Act, legge in discussione in Parlamento Europeo e in Consiglio. A parlarne durante il webinar è stato l’Onorevole Brando Benifei, eurodeputato del Partito Democratico. Il tema centrale della legge è la tutela del cittadino, per far questo, sono stati previsti obblighi e divieti a seconda del rischio riguardante ogni materia: si va da alcune pratiche vietate come quella manipolative, il social scoring (il monitoraggio e l’assegnazione di un punteggio ad ogni cittadino) e i sistemi di identificazione biometrica, ad altre molto o poco rischiose, come il riconoscimento facciale, l’assistenza sociale o il riconoscimento delle emozioni, che prevedono solo alcuni obblighi di gestione e controllo o, nel caso di quelle pratiche con rischio limitato, obblighi di trasparenza.

Il tutto cercando di minimizzare comunque le interferenze nella vita delle imprese. Roberto Saracco (Coordinatore del Tavolo di lavoro IA di Anitec-Assinform), nella presentazione del White Paper, spiega infatti il rischio derivante da una regolamentazione troppo pesante e la tendenza dei regolatori europei ad agire preventivamente rispetto ad esempio agli omologhi angloamericani, ponendo così le nostre aziende in una posizione di subalternità rispetto a quelle americane o inglesi, leader del settore nel mondo.

Per concludere, le proposte avanzate da Anitec-Assinform prevedono: l’approccio all’IA come un elemento integrante di tutta la Transizione 4.0 (non trattata come materia a sé), un maggiore impulso ai Data Spaces, la creazione di una libreria di Case studies cui ispirarsi, demistificare lo strumento Intelligenza artificiale e, infine, trasformare gli attuali fornitori di IA in formatori per chi ne farà uso.