L’1 e il 2 novembre, il Regno Unito ha ospitato il primo Vertice mondiale sulla sicurezza dell’AI. I rappresentanti di 28 Paesi, tra cui Stati Uniti, Cina, Francia e Giappone, si sono riuniti a Bletchley Park per discutere le implicazioni del rapido avanzamento di modelli di IA generici altamente capaci, noti come ‘IA di frontiera’.
Il Vertice ha accolto altre parti interessate chiave, tra cui aziende leader nel settore dell’IA, esperti ed emissari di importanti istituzioni, tra cui l’Alan Turing Institute, l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) e l’Unione Europea.
Il summit di due giorni mirava a dare il via a un dibattito internazionale sulla regolamentazione dell’IA – riconoscendo che, mentre il suo potenziale dirompente latente potrebbe portare a benefici significativi nella maggior parte dei settori, potrebbe anche avere conseguenze catastrofiche se non viene monitorato. Le intense discussioni tenute durante il Vertice sono culminate nella cosiddetta´Dichiarazione di Bletchley´
, che è stata approvata all’unanimità dai 28 Paesi partecipanti. Di seguito, un breve riassunto dei suoi contenuti.
La Dichiarazione di Bletchley
La Dichiarazione inizia con due riconoscimenti chiave. In primo luogo, viene posta una forte enfasi sulle significative opportunità e sfide globali presentate dall’IA. In secondo luogo, riconosce che il fenomeno dell’IA non è più un concetto futuristico, in quanto viene già applicato in vari aspetti della vita quotidiana. Questa realtà richiede con urgenza che l’IA sia progettata, sviluppata e utilizzata in modo sicuro, incentrato sull’uomo, affidabile e responsabile. La dichiarazione elabora la duplice natura dell’IA – che rappresenta un potenziale dirompente e offre opportunità di trasformazione, ma che presenta anche rischi importanti per quanto riguarda i diritti umani, l’equità, la trasparenza, la sicurezza, la responsabilità, l’etica e la mitigazione dei pregiudizi. Un’attenzione particolare è rivolta ai rischi per la sicurezza che i modelli di IA altamente capaci comportano. Spiega come anche l’uso di modelli di IA che si trovano all’avanguardia nello sviluppo dell’IA potrebbe portare a conseguenze impreviste, in particolare su questioni legate a domini sensibili, come la sicurezza informatica e la biotecnologia.
La dichiarazione attribuisce un’importanza fondamentale alla cooperazione internazionale per affrontare questi rischi in modo efficace. A tal fine, la dichiarazione invita alla collaborazione tra l’intero spettro delle nazioni, le organizzazioni internazionali, il settore privato, le CSO e il mondo accademico. Prevede anche la necessità di una rete internazionale di ricerca scientifica sulla sicurezza dell’AI di frontiera. Inoltre, si pone l’accento sulla collaborazione, che deve essere inclusiva, al fine di colmare il divario digitale, garantendo così che anche i Paesi in via di sviluppo possano raccogliere i benefici dell’IA in modo sicuro e consapevole.
Tenendo conto di tutto questo, l’agenda delineata per affrontare i rischi dell’AI di frontiera è principalmente duplice. Inizialmente, è necessario identificare, comprendere e mantenere un insieme condiviso di rischi per la sicurezza basati su prove scientifiche, man mano che le capacità intrinseche dell’IA continuano a crescere. In seguito, e in adempimento a ciò, i Paesi sono invitati a collaborare allo sviluppo di politiche comuni, consapevoli del fatto che gli approcci tra le nazioni possono differire in conformità con i rispettivi quadri giuridici. Durante il processo necessario per la formulazione di queste politiche, la dichiarazione esorta i Paesi a sostenere la trasparenza, le metriche di valutazione, gli strumenti di verifica della sicurezza e lo sviluppo delle capacità del settore pubblico.
La dichiarazione si conclude con una nota di incoraggiamento. Sottolinea il potenziale unico e positivo dell’IA e, allo stesso tempo, cerca di impegnarsi per un dialogo globale continuo, la ricerca e la cooperazione per sfruttare l’IA in modo responsabile, assicurando così i suoi benefici per tutti. Infine, impegna gli Stati partecipanti a riunirsi nuovamente nel 2024 per valutare i progressi di questi sforzi.
La strada da percorrere
Grazie alla sua partecipazione di alto livello, la Dichiarazione di Bletchley rimane una pietra miliare nella storia della regolamentazione dell’IA. Rappresenta il primo riconoscimento collettivo dei rischi che l’IA di frontiera comporta e può benissimo fungere da catalizzatore per le collaborazioni e le iniziative normative che mirano a garantire che lo sviluppo dell’IA avvenga entro i parametri della legge. L’AI Security Summit dovrebbe diventare un evento annuale, dato che la Francia si è già impegnata ad ospitare la prossima edizione.
Matthias Grech è avvocato presso Ganado Advocates. Ha un forte interesse per la legge, la tecnologia e l’intersezione tra le due.