di Giovanni Reho – Nell’aprile 2021, la Commissione europea ha presentato una proposta per una disciplina orizzontale in materia di intelligenza artificiale (IA). Il 14 giugno 2023, è stata emendata dal Parlamento Europeo e promulgata con la denominazione “Artificial Intelligence Act”.
Si tratta in assoluto del primo tentativo di disciplinare in modo organico ed articolato un progetto di legge per l’IA, con la consapevolezza delle prossime importanti sfide ma anche dei rischi associati.
L’obiettivo è promuovere la diffusione dei benefici derivanti dall’uso dei sistemi di IA, garantire innovazione e occupazione, proteggendo le persone, le imprese, l’ambiente, la democrazia e lo Stato di diritto.
La Commissione ha adottato una definizione tecnologicamente neutra dei sistemi di IA.
L’ autonomia dei sistemi di IA è considerata “variabile” in rapporto al grado di controllo umano ovvero alla loro capacità di funzionare senza l’intervento dell’uomo. il concetto di “automazione” è riferito alla possibilità dell’IA di funzionare con l’uso di macchine, i cui obiettivi espliciti (definiti dall’uomo) o impliciti dipendono dalle finalità proprie della macchina in un dato contesto, in relazione al grado di determinazione umana.
Gli obiettivi del sistema di IA possono essere distinti dalle sue finalità o previsioni. Queste ultime comprendono il contenuto del sistema che a sua volta può essere una forma di previsione come possibile output del sistema di IA.
Il diverso contesto in cui operano i sistemi di IA sono definiti “ambienti”, mentre le previsioni, raccomandazioni o decisioni, sono il risultato di output generati dal sistema sulla base degli input prevenienti dall’ambiente di riferimento. Il sistema ha uno sviluppo continuo in quanto l’introduzione di nuove informazioni genera ed influenza ulteriormente il menzionato “ambiente”.
Il testo normativo riconosce in modo esplicito l’importanza dei sistemi di IA, considerati una “famiglia di tecnologie” in rapida evoluzione che contribuisce al conseguimento di un’ampia gamma di benefici a livello economico, ambientale e sociale nell’intero spettro delle attività industriali e sociali, a condizione che sia sviluppata in conformità di principi generali in linea con i principi e i valori su cui si fonda l’Unione.
L’uso dell’intelligenza artificiale, garantendo un miglioramento delle previsioni, favorisce l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni.
Significativa la lungimiranza del legislatore europeo che individua nello sviluppo dell’IA tre diversi piani di vantaggi: (a) competitivi per le imprese; (b) di progresso sociale; (c) di tutela ambientale.
Particolare attenzione viene riservata:
– ai temi dell’assistenza sanitaria, alla sicurezza alimentare e alla gestione delle grandi crisi; dell’istruzione, della formazione, della cultura, dei media e dello sport;
– al settore dell’agricoltura, dell’efficientamento energetico e delle risorse;
– alla gestione delle infrastrutture, dell’energia, dei trasporti e della logistica;
– all’implementazione dei servizi pubblici, della sicurezza e della giustizia;
– al monitoraggio ambientale, alla conservazione e ripristino della biodiversità e degli ecosistemi, sino alla mitigazione dei cambiamenti climatici e all’adattamento ad essi.
Si comprende la vastità degli ambiti nei quali i sistemi di IA avranno un impatto rivoluzionario senza precedenti nella storia, con profonde trasformazioni sociali, economiche e culturali e notevoli opportunità in termini di innovazione, sviluppo e occupazione.
Come avverte il Parlamento europeo saranno tuttavia possibili molti rischi, anche gravi ed irreversibili, se non correttamente previsti, disciplinati e monitorati, per gli interessi generali pubblici o privati, per i diritti fondamentali delle persone fisiche, con associati danni materiali e immateriali “compreso il pregiudizio fisico, psicologico, sociale o economico”.
Il Parlamento europeo ha espressamente previsto che “alcuni sistemi di IA possono avere un impatto sulla democrazia, sullo Stato di diritto e sull’ambiente”.
Tema di grande rilevanza e delicatezza etico-politica che richiede uno sviluppo critico approfondito.
Il testo normativo denominato “Artificial Intelligence act” ha quindi un doppio registro di lettura, l’innovazione sfidante per il prossimo futuro e i grandi rischi correlati per l’umanità.
L’ emergente tecnologia nel settore dell’IA, secondo le indicazioni normative europee, deve essere antropocentrica, non deve sostituire l’autonomia umana e non può compromettere anche potenzialmente il diritto alla libertà individuale. E’ necessario che lo sviluppo e l’utilizzo di IA siano eticamente integrati, al servizio della società e del bene comune, nel rispetto dei valori dell’Unione sanciti dall’articolo 2 TUE, dei diritti e delle libertà fondamentali previsti dai trattati, dalla Carta dei diritti fondamentali dell’Unione Europea e dal diritto internazionale in materia di diritti umani.
Per queste ragioni, il protocollo normativo prevede una classificazione dei sistemi di IA secondo un “approccio basato sul rischio” con requisiti e obblighi adattati al grado di rischio del sistema in rapporto ai diritti e ai valori di riferimenti.
Alcuni sistemi di IA che presentano rischi definiti “inaccettabili” sono espressamente vietati. Un’ampia gamma di sistemi di IA “ad alto rischio” può invece essere autorizzata, ma soggetta a una serie di requisiti e obblighi per ottenere l’accesso al mercato dell’UE. I sistemi di IA che presentano un “rischio limitato” sono comunque soggetti ad un obbligo di trasparenza e di monitoraggio.
Rispetto al progetto del Consiglio del dicembre 2021 e gli emendamenti del Parlamento europeo del giugno 2023, i legislatori dell’UE stanno ora avviando i negoziati per finalizzare la normativa europea, con modifiche sostanziali alla proposta della Commissione, tra cui la revisione della definizione di sistemi di IA, l’ampliamento dell’elenco dei sistemi di IA vietati e l’imposizione di obblighi per l’IA generica e i modelli di IA generativa come ChatGPT.
La priorità del Parlamento è garantire che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di IA devono potere essere supervisionati direttamente dalla persona umana anziché da altri sistemi di automazione. Per evitare qualsivoglia rischio di errore interpretativo, dovrà essere confermata una definizione uniforme e neutrale dal punto di vista tecnologico per l’IA.
E’ utile considerare che le nuove norme stabiliscono obblighi per i fornitori e gli utenti a seconda del livello di rischio derivante dall’intelligenza artificiale. Sebbene molti sistemi di IA comportino un rischio minimo essi dovranno essere sempre oggetto di attento monitoraggio.
I sistemi di IA considerati una minaccia per i diritti umani sono categoricamente vietati.
Essi comprendono:
– la possibilità di manipolazione cognitivo-comportamentale di persone o di specifici gruppi vulnerabili: ad esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini;
– il pericolo del cd. “punteggio sociale”, cioè la classificazione delle persone in base al comportamento, allo status socio-economico o alle caratteristiche personali;
– l’impiego di sistemi di identificazione biometrica in tempo reale e remoti, come il riconoscimento facciale, fatte salve alcune eccezioni per i sistemi di identificazione biometrica remota cd. “post”, previa approvazione dell’autorità giudiziaria per fattispecie di reato specificamente previste dalla legge.
I sistemi di IA ad alto rischio che incidono negativamente sulla sicurezza o sui diritti fondamentali saranno suddivisi in due categorie:
– sistemi di IA utilizzati per la realizzazione di beni che rientrano nella legislazione dell’UE in materia di sicurezza dei prodotti (giocattoli, aviazione, automobili, dispositivi medici e ascensori);
– sistemi di IA che rientrano in otto settori specifici che dovranno essere registrati in una banca dati dell’UE: identificazione biometrica e categorizzazione delle persone fisiche; gestione e funzionamento delle infrastrutture critiche; istruzione e formazione professionale; occupazione, gestione dei lavoratori e accesso al lavoro autonomo; accesso e godimento dei servizi privati essenziali e dei servizi e prestazioni pubbliche; Forze dell’ordine; gestione della migrazione, dell’asilo e del controllo delle frontiere; assistenza nell’interpretazione giuridica e nell’applicazione della legge.
Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e durante il loro ciclo di vita. L’IA generativa, come ChatGPT, dovrà rispettare i requisiti di trasparenza: dichiarare che il contenuto è stato generato dall’IA; rendere visibile il progetto del modello per impedire che generi contenuti illegali; pubblicare riepiloghi di dati protetti da copyright utilizzati per l’addestramento dei sistemi di IA.
La versione ultima dell’AI Act sarà approvata entro la fine del 2023. La revisione finale del testo normativo è ora nelle mani dei paesi dell’UE in sede di Consiglio europeo. Senza dubbio un completo e necessario corpo normativo che sarà in grado di dotare l’Europa di una legislazione sistematica, innovativa ed avanzata senza precedenti nel resto del Mondo in tema di IA.
Giovanni Reho
#avvgiovannireho#rehoandpartners
Alice è scomparsa, il gioco di ruolo via smartphone fortemente immersivo
L’evoluzione del Digital Signage nel trasporto pubblico
La storia di Cesena protagonista al Festival di Spoleto: Andrea Sirotti Gaudenzi premiato per la terza volta
Soluzioni personalizzate di dragaggio