Hiroshima AI Process: approvato al G7 il Codice di condotta per sviluppatori di Intelligenza Artificiale

Il 30 ottobre 2023, i leader del G7 hanno varato una dichiarazione congiunta riconoscendo il potenziale dei sistemi avanzati di intelligenza artificiale (AI) e dei modelli di AI generativa.

Allo stesso tempo, il Gruppo dei 7 ha sottolineato l’importanza di mantenere la centralità dell’essere umano, contenendo i rischi connessi allo sviluppo delle nuove tecnologie, soprattutto per quanto riguarda i singoli individui e i valori democratici.

Hiroshima AI Process

Il quadro strategico globale dell’Hiroshima AI Process si fonda innanzitutto sull’analisi dei rischi, delle sfide e delle opportunità dell’IA generativa.

Nella consapevolezza che la gestione di questi aspetti richiede un’azione coordinata dei diversi attori internazionali coinvolti, i leader del G7 hanno accolto con favore l’emanazione di un Codice di Condotta internazionale per gli sviluppatori, elaborato sulla base di corrispondenti Principi Guida Internazionali per le Organizzazioni che sviluppano sistemi di AI avanzati.

L’obiettivo è quello di promuovere un’AI sicura e affidabile in tutto il mondo, per far sì che la rapida evoluzione di questa tecnologia si muova lungo un percorso tracciato da valori condivisi a livello globale.

Il Codice di Condotta Internazionale dell’Hiroshima AI Process

Il documento racchiude un elenco di 11 indicazioni che tutte le organizzazioni dovrebbero osservare nello sviluppo di sistemi di AI e di modelli di AI generativa. 

In particolare, si richiede agli sviluppatori di adottare tutte le misure di sicurezza appropriate ad identificare e contenere i possibili rischi durante tutto il ciclo di vita dell’AI, incluse le fasi di immissione e diffusione sul mercato. Si chiede la massima trasparenza sul funzionamento e sulle corrette modalità di utilizzo dei sistemi di AI, da realizzare anche mediante la pubblicazione periodica di report tecnici comprensibili agli utenti e la condivisione di informazioni utili a prevenire rischi, l’illecito trattamento di dati personali o la violazione di diritti di proprietà intellettuale.

Si evidenzia la necessità di implementare meccanismi affidabili di autenticazione e provenienza dei contenuti, per consentire agli utenti di identificare quelli generati dall’AI e di capire quando stanno interagendo con un’AI.

Una particolare attenzione è riservata agli obiettivi che queste nuove tecnologie dovrebbero puntare a realizzare: si chiede infatti agli sviluppatori di dare priorità e di investire nello sviluppo di sistemi avanzati di AI per affrontare le maggiori sfide del mondo, con particolare riguardo alla crisi climatica, alla salute globale e all’istruzione.

I prossimi passi: l’AI per l’inclusione digitale

I leader del G7 concludono la loro dichiarazione congiunta invitando i ministri competenti ad accelerare il processo di sviluppo dell’Hiroshima AI Process e di sviluppare, entro la fine dell’anno, un piano di lavoro che includa la cooperazione con il Partenariato Globale per l’Intelligenza Artificiale (GPAI) e l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE).

Si invita altresì a condurre un’attività di sensibilizzazione e consultazione tra più soggetti su questo tema, inclusi i singoli governi, il mondo accademico, la società civile e il settore privato, anche di Paesi esterni a quelli del G7.

L’auspicio, condiviso dai 7, è quello di riuscire a promuovere un ambiente inclusivo e stimolante dove sviluppare e distribuire sistemi di AI sicuri e affidabili, per massimizzare i benefici della tecnologia e mitigarne i rischi.

Tutto questo, nell’ottica di ottenere dalla tecnologia un vantaggio condiviso a livello globale, sia per il pianeta stesso che per le economie emergenti e in via di sviluppo, con l’obiettivo colmare il divario tecnologico e raggiungere l’inclusione digitale.

 

Ilaria Feriti