I paesi europei trovano l'accordo sull'AI Act
Regolamentare l'Intelligenza Artificiale per promuovere un'innovazione sostenibile
Dopo lunghe trattative arriva la bozza finale dell’AI Act: l’Unione Europea vota a favore del testo che regolamenterà l’utilizzo dell’Intelligenza Artificiale e lo sviluppo dei modelli che saranno progettati. La firma definitiva del testo avverrà in Aprile e si tratta del risultato di un iter di studio e negoziazioni lungo tre anni che ha visto gli Stati membri confrontarsi su posizioni anche nettamente contrastanti.
Vediamo in estrema sintesi da dove nasce, perché è così importante e quali sono i punti salienti dell'accordo.
L’AI Act e l’OECD.AI: gli standard per uno sviluppo tecnologico innovativo ed etico su scala globale
L’AI Act si basa su un importante sistema di standard condivisi a livello mondiale che nel maggio del 2019 sono stati raccolti e formalizzati nel testo ufficiale dell’OECD (Organizzazione per lo Sviluppo Economico e la Cooperazione) cui aderiscono ufficialmente 38 paesi membri e che stima una ricaduta politica su più di 100 paesi e territori nel mondo). In particolare l’OECD.AI è lo sportello unico per i responsabili politici dell’AI a livello globale che costituisce un luogo di confronto significativo e determinante per i governi.
Il testo pubblicato dall'OECD.AI nel 2019 (l'ultimo aggiornamento è datato 8 novembre 2023) è uno strumento giuridico pratico, condiviso e sufficientemente flessibile da poter essere aggiornato nel tempo senza perdere il focus sui principali valori che ispirano l’OECD stessa:
- la crescita e lo sviluppo sostenibili, equi e inclusivi devono essere i principali scopi a medio-lungo termine dello sviluppo dell’AI
- trasparenza, trasmissibilità e comprensibilità dei contenuti, delle regole e dei processi devono essere continuamente ricercate, nell’ottica di una diffusione democratica, equa e che tuteli i diritti e le differenze
- la sicurezza, la protezione dai rischi e la resistenza dei sistemi AI durante tutto il ciclo di vita devono essere costantemente monitorati e garantiti
- le organizzazioni e gli individui che sviluppano e implementano i sistemi AI sono responsabili del rispetto dei valori suddetti e delle ricadute sulla popolazione e i singoli cittadini
- le organizzazioni e i governi sono inoltre invitati a investire nella ricerca e nello sviluppo dei sistemi AI promuovendo un ecosistema digitale (infrastrutture, device e modalità di condivisione) accessibile e affidabile e collaborando tra loro affinché la transizione del mercato del lavoro sia sicura, supportata e equa per chiunque.
Alcune specificità dell’AI Act europeo in attesa dell'entrata in vigore
Punti cardine dell’AI Act sono:
- l'individuazione di differenti livelli di rischio connessi sia ai modelli AI finora conosciuti o che saranno sviluppati in futuro sia ai contenuti e agli effetti generati
- la distinzione tra Gen AI e altre forme di AI e tecnologie digitali “intelligenti”.
Questi aspetti sono così importanti in quanto a ricaduta sulla produzione e l’implementazione dei sistemi AI da aver indotto nei mesi scorsi alcuni paesi europei a bloccare l’iter di negoziazione per il presunto timore che l’Atto limitasse la ricerca, l'innovazione e un mercato che si prevede crescerà in modo esponenziale.
La Gen AI è considerata nell'AI Act una tecnologia “general purpose”, dunque di natura pervasiva, e questo la rende, secondo il regolamento in questione, una tecnologia a rischio sistemico (elevato). In particolare inoltre sono considerati ad alto rischio i modelli Gen AI che hanno un impatto diretto sulle persone e che risultano particolarmente “avanzati” in base a criteri che ne misurano la complessità e la diffusione capillare (tra cui misurazione di parametri, dataset, operazioni di addestramento, modalità di output, numero di utenti con scopi commerciali…).
Vengono pertanto imposti tempi molto brevi agli sviluppatori tra la produzione di un modello Gen AI considerato a rischio sistemico e la presentazione della relativa documentazione alla Commissione Europea: si tratta di una documentazione che dettagli i processi di input e i contenuti utilizzati per l’addestramento del modello, garantisca il rispetto del diritto di autore (in base alle norme UE) e contenga una valutazione verosimile dei rischi collegati e delle azioni volte a ridurli. In ogni caso anche qualora il modello non rientri in una tipologia ad alto rischio vengono comunque richieste trasparenza, trasmissibilità e comprensibilità delle caratteristiche tecniche e delle modalità di creazione nonché delle informazioni sull’utilizzo dei dati degli utenti. Altro aspetto sottolineato con chiarezza è l’obbligo di garantire all’utente la possibilità di revocare la concessione dei propri dati e l’accesso alle informazioni personali senza alcun vincolo di tempo o di altra natura.
Un caso a parte è quello che riguarda i sistemi AI open source ad accesso libero dove i parametri, le informazioni e la possibilità di modificare e distribuire il modello sono pubbliche e comunitarie. La regolamentazione non prevede l’applicazione degli obblighi suddetti quando i sistemi AI open source non rientrano in nessuna delle classificazioni individuate dall’AI Act in base a:
- livelli di rischio (sistemi totalmente proibiti; sistemi ad alto rischio; sistemi Gen AI a rischio sistemico)
- obblighi di trasparenza
- immissione sul mercato (pertanto è esente solo l’uso personale).
Infine, dal momento che l’AI Act regolamenterà i sistemi immessi sul mercato europeo chi progetta e distribuisce sistemi AI al di fuori dell’Unione dovrà essere rappresentato da un intermediario autorizzato dall’UE stessa per poter ottemperare a quanto richiesto dal Consiglio e dall’Ufficio dell’Ai, che tra gli altri aspetti, vigileranno sull’obbligo di tutela della libertà e dei diritti delle persone.
Sembra dunque che ci siano tutti gli ingredienti per una capillare regolamentazione che possa porre le basi a livello giuridico per uno sviluppo dei sistemi AI che si vorrebbe equo e sicuro per ogni persona e comunità. Il futuro del mercato del lavoro e di tantissimi aspetti del nostro quotidiano è già qui ed avere chiarezza e linee guida condivise a livello governativo e comunitario non può che essere una buona notizia.