Intelligenza artificiale ed etica: un mondo a due velocità?

L'intelligenza artificiale (AI) è passata dai laboratori di ricerca universitari ai team di ricerca delle grandi aziende per diventare una parte indispensabile - e quasi trasparente - della nostra vita quotidiana con notevole rapidità. Non solo i suoi successi, come le applicazioni che analizzano le immagini per rilevare cellule potenzialmente cancerose o come supporto nello sviluppo di nuovi farmaci. Anche i loro fallimenti fanno notizia quotidiana. Abbiamo visto, quasi dal vivo, il primo incidente mortale che ha coinvolto un veicolo autonomo. L'uso di tecnologie basate sull'intelligenza artificiale per delegare il processo decisionale umano crea inevitabilmente nuovi rischi con conseguenze tanto imprevedibili quanto incontrollabili.

Ciò ha portato l'Unione Europea a proporre il suo regolamento. Sosteniamo che il tentativo di un sistema generale di regolamentazione dell'IA sia un primo passo che, tra l'altro, conferisce natura legale al possibile uso improprio di queste tecnologie. Lo crediamo anche noi si dovrebbe lavorare sui regimi giuridici e normativi esistenti che assegnano la responsabilità per l'uso della tecnologiae, quindi, responsabilità nei confronti delle persone e delle imprese.

"Mentre si discutono i regolamenti sull'IA, le grandi aziende tecnologiche stanno portando avanti proposte che potrebbero renderlo obsoleto prima che venga approvato"

L'Unione europea vuole affrontare i rischi generati da usi specifici dell'IA attraverso una serie di norme complementari, proporzionate e flessibili. Allo stesso tempo, vuole guidare un consenso globale sulla standardizzazione di questo regolamento per il bene comune. Questo approccio cerca combinare una legislazione che protegga gli aspetti etici, legali, socio-economici, culturali e dei diritti umani con la promozione della ricerca e della capacità industriale europea nel settore.

L'elemento che permetterà alla normativa proposta di funzionare correttamente è la trasparenza, la capacità di spiegare le decisioni dell'AI, cosa non facile. Trasparenza ex post può spesso essere ottenuto mediante un'analisi retrospettiva delle operazioni di calcolo effettuate, e questo sarà sufficiente, ad esempio, se l'obiettivo principale è quello di risarcire le vittime di decisioni sbagliate. Trasparenza da prima presenta una sfida maggiore e può - forse dovrebbe - limitare l'uso di determinate tecnologie di apprendimento automatico, incorporate nel cosiddetto apprendimento approfondito.

L'Unione Europea propone di classificare i sistemi basati sull'IA in tre categorie principali, a seconda del possibile rischio derivante dal loro utilizzo. Definisce “tecnologie a medio rischio” quei sistemi che interagiscono con le persone, sono in grado di riconoscere le emozioni e/o sono utilizzati per l'identificazione basata su misurazioni biometriche. Il gruppo delle "tecnologie ad alto rischio" include prodotti o componenti che possono interferire con i diritti umani e il cui funzionamento dipende dalle decisioni prese da un modello basato sull'intelligenza artificiale. Infine ci sono le pratiche che una macchina può svolgere e che devono essere evitate, quelli che si riferiscono alla manipolazione di individui, lo sfruttamento di individui o gruppi vulnerabili, pratiche di governo connesse al cosiddetto credito sociale e, anche, l'identificazione a distanza e persistente di individui sulla base di misurazioni biometriche, salvo autorizzazione del giudice o in caso di emergenza.

"Ci si potrebbe chiedere se non si debba andare oltre la regolamentazione, creando agenzie non governative ma efficaci"

Allo stesso tempo, mentre i regolamenti sono in discussione, le grandi aziende tecnologiche stanno avanzando proposte che potrebbero renderlo obsoleto prima che venga approvato. Tale è il caso dell'IA nel bordo –ovvero, sul dispositivo stesso, senza che i dati vadano nel cloud. O proposizioni come FLoC (Apprendimento di coorte federato) destinato a sostituire il biscotti da un sistema di classificazione che collocherebbe un utente in gruppi diversi già nel browser, quindi smetteremmo di essere perseguitati dagli annunci pubblicitari poiché saremmo noti solo per appartenere a uno specifico gruppo di affinità, coorte o gruppo di utenti. O mascherando i dati con il rumore in quello che viene chiamato intimità differenziale. Sebbene queste proposte non intendano scavalcare le nuove normative europee – poiché esistono ancora applicazioni ad alto rischio – cambiano le regole del gioco dal cloud con dati pubblici al dispositivo senza condivisione dei dati.

La legislazione proposta dall'Unione Europea si basa sulla classificazione, valutazione da prima procedure e ex post risultati che non sono quelli desiderati. Indubbiamente sarà ricco di documentazione delle procedure e del loro controllo. Da prima. Tuttavia, dobbiamo diffidare dei loro risultati, Considerando le precedenti esperienze come il Porta Volkswagen. L'esplicazione ex post può essere complicato.

Viene da chiedersi se non sarebbe necessario prendere in prestito una pagina dal mondo di i pirati e di Fonte aperta e andare oltre la regolamentazione, creando agenzie non governative ma efficaci – un Apache o un Numfocus per la supervisione del codice – per proteggerlo, attraverso concorsi di i pirati e API aperte, consentono il monitoraggio attivo e continuo dei sistemi e Materiale chi li sostiene. Si tratta di soluzioni che hanno dimostrato la loro efficacia, con una governance chiara e che permetterebbero anche la nascita del codice Open Source europeo – esiste già una prima piattaforma chiamata AI4EU – al servizio dell'Amministrazione e dei cittadini, rispettosi dei nostri valori democratici.

Esteve Almirall è professore di operazioni, innovazione e scienza dei dati presso Esade e Ulises Cortés è professore di intelligenza artificiale presso UPC.

Go up