La sicurezza dell’AI è un progetto democratico

La sicurezza dell’AI è un progetto democratico

La recente ridenominazione dell’AI Safety Institute britannico in AI Security Institute riaccende l’attenzione sul significato della “sicurezza” nell’intelligenza artificiale. In Italia, dove il lessico non distingue tra safety e security, servono nuove cornici concettuali e progettuali per garantire sistemi AI affidabili. È necessario agire sulla data governance, valutare il rischio prima ancora del design delle soluzioni e sviluppare capacità di anticipazione strategica in contesti regolatori in evoluzione.

Mentre cresce l’adozione dell’intelligenza artificiale in ambito pubblico e privato, assistiamo ai primi interventi per garantirne l’affidabilità. In ambito internazionale, la decisione del Regno Unito di rinominare l’AI Safety Institute in AI Security Institute riflette non solo una svolta terminologica, ma un cambiamento culturale: il nuovo istituto – con un gruppo di esperti selezionati e una missione che include la ricerca di infrastrutture, collaborazione con laboratori globali e la valutazione di rischi emergenti come quelli posti dagli agenti AI – intende rafforzare la sicurezza nazionale e il controllo sulle modalità con cui circola il dato. Nel contesto anglosassone, safety e security sono concetti distinti: la prima riguarda la protezione dagli effetti indesiderati che un sistema può generare sull’ambiente circostante; la seconda si concentra sulle minacce esterne che possono compromettere il sistema stesso. In italiano, l’uso del solo termine “sicurezza” genera ambiguità che rischia di riflettersi nelle scelte regolatorie e progettuali.

Quando la sicurezza che intendiamo garantire è riferita alle informazioni prodotte dall’AI, tale distinzione non è solo teorica: aiuta a definire sin dall’inizio quali attori coinvolgere e quale debba essere il perimetro degli interventi. L’information security è l’incapacità dell’ambiente – naturale, tecnico o sociale – di influenzare l’informazione in modo indesiderato. L’information safety, al contrario, è l’incapacità dell’informazione di produrre effetti negativi sull’ambiente in cui viene utilizzata. Se la security protegge i sistemi, la safety protegge le persone e le organizzazioni dagli esiti potenzialmente dannosi delle informazioni generate.

Attori e perimetro sono elementi chiave di un ecosistema infrastrutturale ampio e interdipendente, fatto di server, servizi web, agenti AI, dati, contratti, processi e pratiche di lavoro. In questi sistemi, la qualità e l’affidabilità dell’output prodotto dall’intelligenza artificiale dipendono in larga misura da come viene progettata la data governance che li sostiene. Una riflessione attenta su questi aspetti – fondata sulla conoscenza dei contesti d’uso e delle tecnologie sottostanti – può contribuire in modo determinante a prevenire vulnerabilità e disfunzioni. Questo è particolarmente cruciale nei settori ad alta criticità, dove un’implementazione mal calibrata può avere effetti profondi e sistemici sull’operatività pubblica e privata. Eppure, questi rischi vengono ancora troppo spesso affrontati in modo reattivo, solo dopo l’introduzione dei sistemi, quando emergono effetti inattesi o si rendono necessarie correzioni normative. In molti casi, è proprio l’assenza di una valutazione preventiva a generare incertezza, paralizzare le decisioni e frenare l’innovazione.

Da qui l’importanza di affrontare la safety e la security by design come temi di valore. Le parti in gioco – dai vertici aziendali ai partner di un consorzio – devono valutare questi aspetti prima dell’avvio dei progetti, per acquisire consapevolezza sulle scelte architetturali e di governance da cui dipenderanno l’affidabilità e la sicurezza delle soluzioni adottate. In questo contesto, la ricerca interdisciplinare che integra competenze organizzative, giuridiche e tecnologiche gioca un ruolo centrale. È solo grazie a questo intreccio di saperi che è possibile costruire soluzioni sostenibili, anche di fronte alle nuove minacce digitali, dalla manipolazione dei dati agli attacchi alle infrastrutture critiche.

In questa direzione si stanno muovendo alcune esperienze di ricerca applicata, che mirano a integrare la dimensione sperimentale con l’analisi delle sfide normative e strategiche. Tra queste, il Cyber Safe AI Innovation Lab (XAI Lab) – nato all’interno del centro di ricerca AI4Society della Luiss, in collaborazione con il Centro di Competenza Cyber 4.0 – si propone come spazio di confronto tra accademia, istituzioni e imprese. Il laboratorio supporta la co‑progettazione di pratiche, strumenti e modelli organizzativi per un’adozione responsabile dell’intelligenza artificiale. I requisiti di sicurezza scaturiscono dunque da processi di negoziazione, ricerca intervento e anticipazione strategica per riflettere sulle implicazioni di soluzioni innovative da implementare in ambienti regolatori sperimentali, come le sandbox normative. In tali contesti, valutare ex ante i rischi – sia in termini di safety sia di security – sarà cruciale per bilanciare innovazione, tutela dei diritti e protezione degli interessi strategici.

Nel dibattito italiano sull’AI, è urgente riconoscere che la “sicurezza” non è un concetto univoco, e che il modo in cui lo decliniamo influenzerà profondamente le scelte politiche, normative e strategiche dei prossimi anni. Non si tratta solo di proteggere i sistemi: si tratta di proteggere la società dagli effetti collaterali di tecnologie potenti ma opache, attraverso la progettazione consapevole e partecipata delle infrastrutture AI. In questo senso, plasmare la sicurezza dei sistemi AI non è solo un compito tecnico. È un progetto democratico.

Paolo Spagnoletti, Professore ordinario di Organizzazione Aziendale alla Luiss Guido Carli e titolare della Fastweb+Vodafone Chair in Cybersecurity and Digital Transformation

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *