di Giovanni Reho – Nell’epoca del crescente sviluppo tecnologico digitale il timore di frodi e di furti d’identità ha catalizzato per molti anni il dibattito politico, giuridico e sociale. L’uso di internet e la possibilità che una ricerca casuale fosse intercettata da molte imprese, per la pubblicità dei propri prodotti e il rilevamento di informazioni sensibili, ha imposto una legislazione di tutela contro gli abusi dei dati personali.
Negli Stati Uniti e in Europa sono state introdotte norme che arginano l’uso illecito, come ad esempio nell’UE, la General Data Protection Regulation (GDPR) del 2018. Una legislazione minuziosa che ha aperto un dibattito sull’impatto concorrenziale di normative restrittive che possono comprimere la performance delle imprese europee e statunitensi a vantaggio dei Paesi che non adottano identiche tutele. Allo stesso modo, è stata segnalata la difficoltà delle imprese dell’UE rispetto a quelle statunitensi dotate di maggiori risorse finanziarie che possono convivere con un’incisiva applicazione di norme protettive grazie all’impiego di organizzazioni e sistemi più evoluti per la gestione del rischio e della concorrenza.
Nel frattempo, la discussione sulla tutela dei dati personali ha conosciuto una nuova e più complessa area di confronto che attiene all’uso dei dati personali da parte di complessi algoritmi, utilizzati per indirizzare o governano il processo decisionale e operativo aziendale in favore della clientela e dei consumatori in generale.
Le imprese incorporano sempre più intelligenza artificiale nei propri prodotti, servizi e processi aprendo la necessità di valutare le conseguenze negative sul gradimento dei consumatori dovute ad un’ampia “delega” decisionale all’IA. Questi ultimi, infatti, non sempre ammettono una decisione sulla propria situazione o condizione sottratta alla valutazione dell’uomo, alle sue competenze, esperienze e possibilità empatiche.
Un algoritmo può diagnosticare un tumore, guidare un’automobile o approvare un prestito. Quali sono i limiti consentiti e quale l’affidamento possibile?
I rischi connessi all’integrazione dell’IA nei processi decisionali e operativi possono produrre risultati iniqui e discriminatori. È noto che molti algoritmi ubiquitari utilizzati per la pubblicità online rischiano di selezionare i destinatari discriminando razza, religione o genere. Grazie ad un recente studio di Science è emerso che negli Stati Uniti alcuni strumenti previsionali impiegati nell’assistenza sanitaria hanno presentato un accentuato pregiudizio di tipo razziale. In altri casi, secondo uno studio pubblicato sul Journal of General Internal Medicine, le priorità dei destinatari per il trapianto dei reni, secondo il sistema di IA adottato, discriminava ancora una volta i pazienti di colore.
Quale la causa del risultato discriminatorio? I dati utilizzati per addestrare l’IA possono essere compromessi dal pregiudizio. In questo caso, l’IA recepisce le differenze razziali di matrice pregiudiziale con il risultato frequente di provocare la loro amplificazione. L’addestramento di una chatbot che interagiva con un social ha provocato ad esempio la diffusione di una miriade di messaggi razziali offensivi e denigratori.
Si è pensato che il ridimensionamento di tale rischio sia possibile con l’eliminazione delle informazioni demografiche. Questo espediente trova tuttavia il limite di escludere nell’addestramento dell’IA alcuni dati demografici indispensabile per correggere i cd. bias (cioè, distorsioni sul campione di riferimento).
La soluzione potrebbe essere quella di introdurre nel sistema algoritmico un concetto equitativo di base che consenta di ottenere risultati equanimi con riferimento ad input predefiniti. Si tratta di indicatori di equità o di disparità sui quali molte aziende stanno elaborando un proprio sistema che, tuttavia, incontrerà la difficolta di codificare un concetto di equità o di correttezza globalmente condiviso.
Le complicazioni lungo tale percorso sono state in parte ovviate ricorrendo alla normativa vigente contro le discriminazioni. Questa possibilità può garantire risultati appaganti quando la responsabilità di decisioni problematiche può attribuirsi al processo decisorio imputabile alla persona. Non sembra invece soddisfacente quando all’implementazione dell’IA corrispondere un proporzionale affievolimento della responsabilità personale, che in molti casi sfuggirà alla possibilità di concreto accertamento.
Non deve peraltro trascurarsi che ogni forma implementativa dell’algoritmo se, da un lato può spersonalizzare la responsabilità del risultato discriminatorio, dall’altro non elimina il rischio di class action nei confronti di imprese che, a causa di un difetto del proprio sistema algoritmico, provocano un pregiudizio che riguarda la vita di milioni di persone.
Dovrà considerarsi che quando l’IA ha un incisivo impatto esistenziale su molte persone (ad esempio diagnosticano malattie, raccomandano pene detentive, selezionano canditati all’assunzione o approvano mutui e finanziamenti) il processo decisionale non può essere delegato all’IA ma dovrà essere subordinato al giudizio umano.
La complessità di una soluzione convincente è confermata dal rischio che il giudizio umano produca un errore che la previa considerazione dell’algoritmo avrebbe evitato. In questo caso, si registrerà una potenziale dilatazione della sfera di responsabilità della persona con l’inconveniente che il processo decisionale potrebbe essere drasticamente delegato all’algoritmo, con appiattimento del giudizio che risentirà della completa assenza di una dimensione umana legittimamente desiderabile dal destinatario.
Sarà utile evidenziare che la fiducia del destinatario nell’IA può variare in base alla natura e alla portata delle decisioni assegnate all’algoritmo. Quando il software deve compiere un discernimento meccanico e limitato – ad esempio prevedere la temperatura in un dato luogo o analizzare una serie di tabelle di vario contenuto – l’efficienza dell’algoritmo sarà notevolmente superiore a quella umana e il destinatario percepirà un livello di affidabilità maggiore o eguale a quello umano.
Diverso è il caso in cui la variabilità dell’analisi è influenzata da componenti soggettive di giudizio. Si pensi ad esempio all’applicazione del sistema delle attenuanti a carico dell’imputato nel giudizio penale. La variabilità soggettiva e le componenti del giudizio condizioneranno il campionamento della decisione inducendo a privilegiare il giudizio umano per la capacità di empatia delle persone.
Compito delle aziende sarà quello di informare i destinatari sulle ragioni per le quali il giudizio processato dall’IA è preferibile a quello umano sulla base di una chiara esplicazione della natura e della portata della decisione.
È comprensibile che, in ambito sanitario, una diagnosi digitale della TAC, addestrata su miliardi di data point predefiniti, sia considerata affidabile e credibile. Diversamente non lo sarà quando la diagnosi algoritmica è campionata sulla salute mentale. In questo caso la complessità dei comportamenti da valutare è altamente contestualizzata e il processamento digitale sarà considerato fuori luogo e non appropriato.
Non meno complesso sarà l’impiego di IA nel caso di estensione indiscriminata sul piano dimensionale. Un algoritmo addestrato sulla media della popolazione potrebbe condurre a risultati di impervia analisi oggettiva quando possono riscontrarsi eccezioni rilevanti sul piano geografico. È evidente il rischio di compromettere un risultato credibile per determinate regioni o aree geografiche che non rispondono all’input sulla media predeterminata, con conseguente iniquità di giudizio. In questo caso potrà essere inevitabile customizzare l’algoritmo per segmenti di popolazione allo scopo di evitare mascheramenti discriminatori.
La principale finalità di adottare l’IA in ambito aziendale è quella di pervenire ad una efficiente economia di scala che sarà tuttavia compromessa dalla presenza di varie forme di segmentazione della popolazione con il rischio di bias locali.
È evidente che l’addestramento dell’algoritmo in funzione di una intensa variabilità locale e della customizzazione di prodotti e servizi in ragione del luogo geografico destinatario può richiedere investimenti e costi generali molto alti. In alcuni casi, diverse imprese hanno sospeso la presenza in varie regioni a causa della complessità dell’impatto organizzativo imposto da norme restrittive previste ad esempio dal GDPR.
Nella gestione delle descritte problematicità gioca un ruolo essenziale la compliance e la capacità di governance. Per evitare obiezioni e interventi da parte dei regolatori, con conseguenze negative anche sul piano reputazionale, sarà necessario adottare un accurato audit dei sistemi, elaborare protocolli di tracciabilità dei dati e addestrare gli algoritmi alla diversity con costante verifica. Molte aziende globali di alto profilo (Google, Microsoft, BMW e Deutsche Telekom) hanno avviato articolati e complessi progetti di emancipazione dell’IA allo scopo di ottenere un risultato ottimale in tema di tutele della privacy, diversity ed equità.
Si prospetta peraltro l’utilità di integrare nell’organigramma aziendale veri e propri chief ethics officer, supportati da comitati etici con finalità di monitoraggio e controllo della coerenza e solidità delle nuove politiche addestrative dell’IA.
La nuova direzione di prevedibile sviluppo è quella relativa alla trasparenza del processo decisionale affidato all’IA. Sarà richiesto di dare conto della decisione adottata dall’algoritmo e di spiegare le ragioni di eventuali default dei risultati.
I regolatori sono indirizzati verso questo fondamentale obiettivo con particolare attenzione a tutte le ipotesi in cui gli algoritmi produrranno risultati iniqui o addirittura pericolosi.
In conclusione, nella sintetica analisi dell’attuale evoluzione dell’IA e del suo impatto sul contesto decisionale ed operativo, la riflessione è sugli effetti collaterali che ogni innovazione porta con sé di cui l’esperienza umana ha avuto storicamente ampia conferma. Nel caso dell’IA applicata ai processi decisionali le evidenziate criticità richiedono la massima attenzione sul piano della politica tecnologica e della verifica giuridica. Non può trascurarsi peraltro che la verifica della concreta possibilità di interazione, armonizzazione e coesione tra intelligenza umana e intelligenza artificiale apre un dibattito molto complesso, da cui deriva, in una prospettiva sempre più realistica, il dilemma tra impossibilità di rinunciare all’IA e rischio di minimizzazione dell’utilità dell’intelligenza umana nelle molteplici forme possibili di probabile prossima sperimentazione.
Avv. Giovanni Reho
Uno spot pubblicitario sulla separazione dei genitori fa discutere. Possiamo davvero ignorare il dolore dei bambini?
Come integrare Social Media e SEO nel 2023
Libri dell’Arco pubblica tutti i dialoghi platonici: un’operazione culturale di qualità e rigore filosofico
Lavoro e tempo libero. I giovani devono davvero crederci? La giusta dimensione tra due esperienze conciliabili