Governare i rischi dell’Intelligenza Artificiale

I sistemi di Intelligenza Artificiale (AI) sono software capaci di fornire una previsione o un contenuto generato automaticamente in risposta ad una richiesta dall’utente (il cosiddetto prompt).

Gli esempi più recenti e noti sono ChatGPT, un modello linguistico specializzato nella conversazione, capace di generare automaticamente testi, e Midjourney, un sistema in grado di creare immagini partendo da descrizioni degli utenti.

Ma a cosa serve la AI?

Sistemi di generazione automatica dei testi come ChatGPT sono usati per esempio per gestire chatbot e assistenti virtuali, per fornire supporto agli clienti, o per generare testi per articoli, descrizioni di prodotti o mail.

I modelli linguistici sono usati anche per analizzare testi in linguaggio naturale: recensioni dei clienti, post sui social media, mail ricevute, per comprendere le esigenze dei clienti e attivare di conseguenza i processi aziendali.

Sistemi generativi di immagini come Midjourney sono usati per creare automaticamente fotografie e illustrazioni per articoli, presentazioni, comunicazioni commerciali, post sui social media e siti web.

Un’accelerazione esponenziale

A partire dalla fine del 2022, lo sviluppo dei sistemi di Intelligenza Artificiale ha avuto un’accelerazione esponenziale, e nuove funzionalità sono rilasciate con cadenza sempre più ravvicinata.

Moltissime organizzazioni e professionisti si stanno affrettando a sfruttare le opportunità offerte dai sistemi di AI, creando nuovi modelli di business potenzialmente molto remunerativi: stiamo assistendo ad una vera e propria “corsa all’oro“, con un’adozione entusiastica e acritica delle funzionalità offerte dai sistemi di AI.

Chi adotta e implementa correttamente le applicazioni dei sistemi di AI riesce ad automatizzazione attività ripetitive e a ridurre i tempi di lavorazione, aumentando la produttività e riducendo i costi operativi.

I problemi nascosti dell’AI

Un modello di AI, prima di essere reso disponibile agli utenti, deve essere addestrato fornendo grandi quantità di informazioni affinché il sistema le analizzi, trovi delle correlazioni e in base a queste crei un modello di previsione probabilistico.

È importante capire quindi alcune implicazioni di questa logica di funzionamento:

  • I dati di addestramento determinano la qualità delle risposte: la qualità dei dati forniti per l’addestramento è cruciale perché determina le risposte che gli utenti otterranno; per questo motivo, i dati di addestramento devono essere selezionati con cura per assicurare che siano rilevanti, completi, accurati, coerenti, e includano una bilanciata diversità di casi
  • È impossibile risalire alle fonti e correggerle: le risposte alle richieste degli utenti sono generate come sintesi probabilistica in base alle informazioni di addestramento: non c’è quindi una correlazione diretta alle fonti, come siamo abituati a vedere nei tradizionali motori di ricerca. Non è quindi possibile verificare le fonti o correggerle se contengono errori
  • I risultati sono imprevedibili e non riproducibili: negli software tradizionali, ad un determinato input corrisponde un output certo e riproducibile; con i sistemi di AI abbiamo un ribaltamento della logica deterministica a cui siamo abituati nell’uso dei computer: i sistemi di AI generano le risposte con metodi probabilistici, quindi allo stesso prompt forniscono risposte sempre diverse, simili tra loro, ma mai prevedibili.

Ignorare queste caratteristiche comporta il rischio di basare le nostre decisioni e quindi azioni su risposte fornite da sistemi di cui non conosciamo la qualità dei dati di addestramento, per i quali non possiamo risalire alle fonti e che forniscono risultati non riproducibili.

 I rischi di un’adozione indiscriminata

L’urgenza di sfruttare le potenzialità dei sistemi di AI porta molti a un’adozione indiscriminata, dove i problemi appena visti e le loro conseguenze sono trascurati.

Quali sono le possibili conseguenze di non valutare e gestire i rischi dei sistemi di AI?

  • Pregiudizi e discriminazioni: se i dati di addestramento sono sbilanciati e parziali, i risultati possono essere discriminatori nei confronti di determinati gruppi di persone
  • Manipolazione dell’opinione pubblica: i sistemi generativa possono essere utilizzati per creare contenuti falsi o manipolatori per influenzare l’opinione pubblica e la percezione della realtà
  • Perdita di posti di lavoro: i sistemi di AI possono sostituire alcune attività come il supporto agli utenti e le attività amministrative, portando alla perdita di posti di lavoro
  • Responsabilità: in caso di danni causati da indicazioni fornite da sistemi generativi, o addirittura da azioni intraprese autonomamente da sistemi di AI, non c’è ancora una normativa chiara su chi sarà ritenuto responsabile

Guidare sviluppo e adozione dell’AI

Per permettere di trarre tutti ai benefici delle nuove tecnologie, ma al contempo controllarne i rischi, è fondamentale che le istituzioni, che per missione mirano a tutelare la comunità essendo estranee agli interessi economici, definiscano un insieme di regole per guidare uno sviluppo e un uso responsabile dei sistemi di intelligenza artificiale.

Dobbiamo fare in modo che la AI sia a beneficio della società, minimizzando i rischi di un’adozione incontrollata

Quali sono gli obiettivi che una regolamentazione sui sistemi di AI dovrebbe raggiungere?

  1. Prevenire la discriminazione nei risultati dei sistemi di AI
  2. Assicurare che i sistemi siano adeguatamente testati per evitare che possono causare danni agli utenti
  3. Garantire che i dati personali siano protetti e che gli utenti abbiano il controllo sulle loro informazioni personali
  4. Assicurare trasparenza sulle informazioni utilizzate per addestrare i sistemi di AI
  5. Garantire che la tecnologia sia utilizzata a beneficio della società nel suo complesso

Come controllare i rischi?

In che modo questi obiettivi potrebbero essere raggiunti? Queste sono alcune possibili misure:

  • Trasparenza e spiegabilità: i sistemi di IA devono essere progettati in modo da consentire di capire come prendono le decisioni
  • Privacy e sicurezza: la raccolta e l’utilizzo dei dati per l’addestramento e immessi dagli utenti deve essere gestita nel rispetto dei dati personali degli utenti
  • Equità e non discriminazione: garantire che gli algoritmi utilizzati nel processo decisionale non siano discrimitatori
  • Responsabilità: stabilire linee guida chiare per valutare la responsabilità quando i sistemi di IA causano danni
  • Supervisione e controllo umano: prevedere la supervisione e il controllo umano sui sistemi di IA, per evitare che prendano decisioni dannose o non etiche
  • Standard e cooperazione internazionali: sviluppare standard e cooperazione internazionali per garantire che la tecnologia dell’IA sia sviluppata e impiegata in modo responsabile e che sia utilizzata a beneficio di tutta l’umanità

Un’ipotesi di regolamentazione

L’Unione Europea sta definendo una proposta di regolamentazione per l’uso dei sistemi di AI:

Proposal for Artificial Intelligence Act: a regulation of harmonised rules for Artificial Intelligence governance EUR-Lex - 52021PC0206 - EN - EUR-Lex (europa.eu)

La bozza di regolamentazione EU prevede prescrizioni e restrizioni all’uso in base ai livelli di rischio:

  • In caso di rischio medio-basso, come l’uso di chatbot o la generazione automatica di immagini, sarebbero previsti degli obblighi di trasparenza, come la notifica agli utenti che si sta interagendo con AI o l’etichettatura di immagini generate artificialmente
  • In casi ad alto rischio, come la selezione del personale o le applicazioni mediche, sarebbe richiesta una certificazione di conformità a dei requisiti definiti per la qualità dei dati di addestramento, la tracciabilità e ispezionabilità, la trasparenza sulla modalità di uso del sistema e la supervisione umana
  • Sarebbero infine proibili usi considerati a livello di rischio inaccettabile come il social scoring, ovvero la limitazione di diritti delle persone in base all’elaborazione automatica di informazioni sui comportamenti.

Il dilemma della regolamentazione

Mentre diverse proposte di regolamentazione sono in corso di definizione in tutto il mondo, molti si chiedono se la regolamentazione dell’intelligenza artificiale può limitare l’innovazione.

Una delle sfide più difficili nella preparazione delle normative sarà bilanciare le possibilità dell’evoluzione della tecnologia e i suoi rischi.

È comunque importante che la legislazione sull’IA sia creata con il coinvolgimento della comunità scientifica e dell’industria tecnologica, poiché i governi non sempre riescono a tenere il passo con la velocità delle trasformazioni e delle complessità del mercato.

Ciò che una AI non può fare

Nel frattempo, ognuno di noi come utente può da subito iniziare ad utilizzare i sistemi di AI con più consapevolezza, ricordando che ogni risultato che ci forniscono deve essere considerato solo come un supporto, e non un sostituto, nelle nostre valutazioni e decisioni.

Nessuna macchina può sostituirsi alle nostre capacità di valutare e agire considerando valori ed etica, elementi che nessuna AI sa gestire per noi.