Per convivere con l’intelligenza artificiale abbiamo bisogno di un quadro normativo eticamente ineccepibile e condiviso che scongiuri discriminazioni ed ingiustizie
di
Rita Cucchiara.• Dall’allegato al numero 90 (ottobre 2019) della rivista Wired Italia
Solo oggi ci si accorge che l’informatica è potente davvero. Ora che l’intelligenza artificiale prende decisioni, che i robot hanno capacità cognitive e che uno smartphone ascolta e capisce, ci si accorge della potenza dell’intelligenza artificiale e dei rischi insiti nella tecnologia. L’IA non è infallibile e può sbagliare, così come gli esseri umani. Ancor peggio, la sua realizzazione in modo non regolato, non consapevole o addirittura malevolo può portare a pericoli per la nostra società: discriminazioni, creazioni di dati falsificati, armi informatiche più potenti di quelle convenzionali. Ma non dobbiamo opporci al progresso, facendoci prendere da facili paure: dobbiamo progettare razionalmente il nostro mondo futuro dove conviveranno diversi sistemi pensanti.
L’intelligenza artificiale lavora per gli esseri umani, assieme agli esseri umani. Ci suggerisce come scrivere un’email, formula diagnosi mediche o propone premi assicurativi e ristoranti per la cena. Da anni condividiamo con l’informatica la nostra vita e sfruttiamo programmi sempre più scaltri per azzeccare le strategie di marketing, predire i malfunzionamenti di macchinari industriali e calcolare la possibilità di valanghe nelle zone di montagna. L’informatica e ora l’IA realizzano processi complessi, elaborando dati. E spesso tutte le informazioni utilizzate le abbiamo (in)consapevolmente cedute noi o sono state facilmente acquistate dal nostro ambiente.
L’intelligenza artificiale deve avere le sue regole, che siano eticamente universali e normativamente ben definite. Una grande sfida. L’IA è in velocissima evoluzione e si fa via via sempre più sofisticata; il processo normativo è invece lento e potenzialmente soggetto a distorsioni politiche. Poi la tecnologia è globale, non ha confini né fusi orari: anche la regolamentazione dovrebbe avere un carattere planetario, ma questo è un sogno sempre più irrealizzabile in un mondo dove le superpotenze, come Usa e Cina si fronteggiano con modelli distonici.
L’Europa si distingue, si muove sul terreno normativo ergendosi per la salvaguardia dei fondamenti della nostra società civile. L’orientamento è chiaro: applicare anche per le IA leggi universali. Zuiderveen Borgesius, in un suo documento del Council of Europe, ha ricordato gli strumenti normativi fondamentali che devono essere applicati ai sistemi di intelligenza artificiale, fin dalla loro creazione: la non-discrimination law, che proibisce ogni forma di discriminazione diretta o indiretta, e la data protection law che, a partire dal Gdpr, garantisce i principi di protezione dei dati personali in tutta Europa. I problemi vanno affrontati in modo esplicito e trasparente, la tecnologia non scappa da questo principio.
Diventa indispensabile oggi mitigare gli inutili allarmismi, favorire la ricerca soprattutto europea e nel contempo analizzare le implicazioni etiche e costruire un quadro regolatorio. Dobbiamo fare in modo che ciò che viene prodotto dall’uomo in campo dell’IA non nuoccia né provochi discrimina zioni e ingiustizie. Nulla può essere contra rio alle leggi della società civile.
Oren Etzioni, ceo dell’istituto Allen per l’IA, ha suggerito cinque punti fondamentali di regolamentazione universale, aspetti imprescindibili per costruire un quadro normativo che ci permetta di convivere con l’intelligenza artificiale. Il primo, prioritario, è bandire le armi basate sull’IA e bloccare a livello mondiale il pericolo di guerre decise da algoritmi intelligenti. II secondo è la trasparenza: è necessario poter individuare i responsabili dei prodotti dell’IA: deve essere noto e certo chi ha progettato il sistema, come Io è chi costruisce una diga, e chi paga le conseguenze in caso di errore. Bisogna inoltre sapere, aggiungo io, da dove provengono i componenti usati e con quali dati le reti neurali sono addestrate, per evitare abusi dovuti a dati distorti che possono portare discriminazioni sociali o funzionamenti malevoli. II terzo punto è la lealtà: indicare chiaramente l’identità umana o artificiale di un sistema. La riservatezza è il quarto snodo centrale: garantire la privacy e sviluppa re la capacità di proteggere informazioni. I dati non devono essere diffusi, a meno che non venga fatto in misura regolamentata, esplicita e a fin di bene. E questo avviene: noi dell’Università di Modena e Reggio Emilia, analizzando i video condivisi sui social network dagli utenti, abbiamo contribuito a sviluppare con il Facebook AI Research di Parigi il software che viene usato per rendere internet sicura da video di abusi sessuali e ultrà terroristici e che ora, dopo averlo ingegnerizzato, Facebook mette a disposizione open-source di tutti gli sviluppatori.
Ultimo punto, le reti non devono generalizzare, creando pregiudizi razziali o comportamentali solo in base a correlazioni statistiche. Le generalizzazioni, come Aristotele ci insegnava, hanno senso se esistono postulati generali, come «Tutti gli uomini sono mortali», e non particolari. Si deve evitare che una macchina in futuro ci dica che tutti gli uomini con i baffi a punta sono degli artisti o che tutte le donne belle sono stupide. Perché sappiamo che potrebbe far molto peggio.
*Rita Cucchiara è professore ordinario di Sistemi di elaborazione dell’informazione all’Università di Modena e Reggio Emilia. È responsabile del Laboratorio AlmageLab dedicato all’intelligenza artificiale e dirige il Laboratorio nazionale di Artificial Intelligence and Intelligent Systems del Cini (Consorzio interuniversitario nazionale per l’informatica). Conta centinaia di pubblicazioni.