L’Italia e la sfida della governance dell’Intelligenza Artificiale: tra opportunità e regolamentazione
L’Europa si trova di fronte a una sfida cruciale: regolamentare l’intelligenza artificiale senza soffocare l’innovazione. Il recente Vertice di Parigi del 10-11 febbraio 2025 ha rafforzato la necessità di una governance coordinata per l’intelligenza artificiale (IA), portando i governi a riflettere su come bilanciare sviluppo tecnologico e tutela dei diritti. Durante l’evento, Ursula von der Leyen, presidente della Commissione Europea, ha annunciato l’iniziativa “InvestAI”, che punta a mobilitare 200 miliardi di euro per incentivare l’IA e a creare un fondo europeo da 20 miliardi per le gigafactory dell’intelligenza artificiale. A seguito di questi annunci, il Senato italiano ha ospitato un dibattito per discutere il ruolo del Paese nella regolamentazione del digitale e nella costruzione di un modello sostenibile per il futuro dell’IA.
Un equilibrio tra regole e innovazione
Il senatore Lorenzo Basso (Pd) ha sottolineato l’importanza di sfruttare l’IA per affrontare le sfide della società moderna: “Dobbiamo mettere questa innovazione al servizio delle persone il prima possibile”. Vincenzo Manfredi, direttore responsabile di Parlamento Magazine e direttore scientifico di FerpiLab, moderatore durante il dibattito, ha ricordato come le euristiche cognitive e i bais possano pregiudicare le scelte che dovrebbero essere aperte alla creazione del futuro. C’è troppo rumore nelle scelte fatte da una parte e dall’altra; e come ci ha insegnato Kahneman dove c’è giudizio c’è anche rumore, ovvero una variabilità sistematica di cui spesso non si tiene conto nelle proprie valutazioni e azioni. Per questo è necessario che le strutture decisionali, complesse e diversificate, rimettano al centro la creazione di valore condiviso per essere capaci di generare sviluppo.
Nel corso del dibattito è stato presentato il libro Le sfide delle politiche digitali in Europa di Serena Silleoni e Carlo Stagnaro, che approfondisce le implicazioni della regolamentazione digitale e le sfide per il futuro dell’innovazione. Il libro inizia parlando del grafico a torta, rimasto fissato per molti mesi sul profilo X dell’ex commissario europeo al Mercato interno, Thierry Breton, che rappresentava tutti i continenti aventi una regolamentazione dell’intelligenza artificiale. In questo grafico si proponevano due colori: blu (l’Europa) e arancione (tutti gli altri stati). Soltanto l’Unione europea si è data una disciplina per l’IA. Una delle prime risposte, postata dal ricercatore Matteo Zullo, rovescia il grafico, mostrando le regioni in cui l’intelligenza artificiale è maggiormente sviluppata. In questo caso i colori sono completamente invertiti. L’Europa sarà anche l’unico continente a regolamentare l’IA, ma è anche del tutto assente dalla frontiera della ricerca e dell’innovazione in tale settore.
Normare l’IA: un’urgenza ma anche un rischio per la competitività
L’Europa si distingue per una regolamentazione stringente in materia digitale, che include il GDPR, il Digital Markets Act (DMA) e il Digital Services Act (DSA). Eleonora Faina, Direttore Generale di Anitec-Assinform, ha sottolineato che un eccesso di norme potrebbe frammentare il mercato unico europeo, ostacolando lo sviluppo dell’industria tecnologica. Anche Innocenzo Genna, esperto di regolamentazione digitale, ha evidenziato il rischio di un’eccessiva legislazione che potrebbe limitare la competitività europea rispetto a Stati Uniti e Cina.
Un punto di vista condiviso anche da Flavio Arzarello, responsabile affari economici e regolamentari di Meta, che ha sostenuto che la proliferazione normativa negli ultimi cinque anni ha penalizzato l’innovazione in Europa, disincentivato gli investimenti e ridotto la capacità di attrarre talenti e capitali. Tuttavia, secondo la deputata di Forza Italia Deborah Bergamini, l’Europa ha il compito di garantire un equilibrio tra sviluppo tecnologico e tutela dei diritti fondamentali, evitando che il progresso avvenga a discapito della democrazia e della privacy.
Per Francesca Buttara, caporedattrice di Parlamento Magazine, il vero ostacolo alla crescita dell’innovazione in Europa è un mix di fattori sia culturali che politici. Secondo la sua opinione, bisognerebbe interrogarsi su come rendere l’IA più inclusiva e sostenibile, rispettando i valori di equità, trasparenza e responsabilità.
Etica e protezione dei diritti
La crescita dell’IA porta con sé anche questioni etiche e di sicurezza. Elisabetta Piccolotti, deputata di Alleanza Verdi e Sinistra, ha ribadito l’importanza di garantire la trasparenza degli algoritmi, che dovrebbero essere open source e studiati da esperti indipendenti del ministero, e che dovrebbero diventare un terreno di negoziazione e discussione democratica. Anche Daniela Bianchi, segretaria generale di Ferpi, ha sottolineato il pericolo della disinformazione, evidenziando il ruolo strategico che le fake news possono giocare nell’influenzare le opinioni pubbliche.
Il divario con gli Stati Uniti
Rosario Cerra, presidente del Centro Economia Digitale, sottolinea come la cosa più importante per la democrazia sia la capacità di innovare. Per colmare il profondo divario tra Europa e Stati Uniti, l’unica strada percorribile è quella di adottare un approccio competitivo, collaborando con chi già possiede le competenze necessarie. Il gap negli investimenti è infatti evidente: per ogni euro investito dalle aziende europee in intelligenza artificiale, le controparti americane ne investono 20. Marco Bani, responsabile affari istituzionali Pd, ha evidenziato come, nel panorama attuale, i principali modelli di IA siano di matrice americana, con l’eccezione di Mistral, unica realtà europea con il potenziale per competere con i giganti del settore. Inderogabile dovrebbe essere l’impegno da parte dell’Europa nell’investire in semiconduttori e super computer, sostiene Bani. Laura Aria, commissario Agcom, ha analizzato i tre modelli di governance dell’IA a livello globale: quello americano, più orientato al libero mercato; quello cinese, basato su un forte controllo statale; e quello europeo, focalizzato sulla tutela dei diritti. L’Europa dovrebbe evitare di imporsi troppi vincoli che ne limitino la crescita, trovando un equilibrio con un diritto all’innovazione. “La disciplina dei mercati digitali all’interno dell’Unione europea si caratterizza proprio per la tutela di twin objectives (obiettivi gemelli), vale a dire favorire, da un lato, lo sviluppo del mercato interno dell’innovazione e, dall’altro, garantire un elevato livello di protezione dei diritti fondamentali” ha concluso la dottoressa Aria.
L’Europa si trova a un bivio: da un lato, la necessità di proteggere i diritti fondamentali; dall’altro, l’urgenza di restare competitiva sullo scenario globale. Mentre il dibattito continua, diventa sempre più chiaro che la governance dell’intelligenza artificiale dovrà bilanciare regole e innovazione, garantendo che questa tecnologia rappresenti un motore di progresso per l’intera società.
Jacopo Trulli, Public Affairs Specialist Assoholding
