L’intelligenza artificiale è una tecnologia in rapida crescita e in continua evoluzione, che sta cambiando il modo in cui viviamo e lavoriamo. Ma come tutte le tecnologie, ha anche i suoi lati oscuri e i suoi problemi. Uno di questi problemi è il bias, ovvero l’inclinazione o il pregiudizio presente nei sistemi di intelligenza artificiale.
I bias nell’intelligenza artificiale possono avere conseguenze gravi, sia a livello individuale che a livello di società. Possono influire sulla decisione di un’azienda di assumere un candidato o sulla quantità di denaro che viene prestata a una persona.
In questo articolo, esamineremo i diversi tipi di bias presenti nell’intelligenza artificiale, le cause di questi bias e come cercare di prevenirli o correggerli. Inoltre, vedremo alcuni esempi di biased AI e come questi bias possono avere conseguenze negative sulla società.
Cos’è il bias nell’intelligenza artificiale
Il bias nell’intelligenza artificiale è l’inclinazione o il pregiudizio presente nei sistemi di intelligenza artificiale, che può influire sulla loro capacità di prendere decisioni o di produrre risultati accurati. Il bias può essere presente in diversi modi, ad esempio nei dati utilizzati per addestrare il sistema, nell’algoritmo che governa il sistema o nell’interfaccia utente del sistema.
Quali sono le cause del bias nell’intelligenza artificiale
Ci sono diverse cause del bias nell’intelligenza artificiale. Una delle principali cause è l’utilizzo di dati non rappresentativi o di qualità inferiore per addestrare il sistema. Se i dati utilizzati per addestrare il sistema sono sbilanciati o incompleti, il sistema potrebbe trarre conclusioni errate o fare previsioni imprecise.
Un’altra causa del bias nell’intelligenza artificiale è l’algoritmo stesso. Se l’algoritmo è stato progettato in modo non equo o non inclusivo, potrebbe risultare in un sistema che produce risultati biased o che prende decisioni discriminatorie. Ad esempio, se un algoritmo di intelligenza artificiale è stato progettato in modo da favorire determinati gruppi di persone rispetto ad altri, potrebbe contribuire alla discriminazione e all’oppressione di questi ultimi.
Conseguenze del bias nell’intelligenza artificiale
Ci sono numerosi esempi di conseguenze negative del bias nell’intelligenza artificiale. Ad esempio, un sistema di intelligenza artificiale utilizzato per valutare i candidati per un lavoro potrebbe essere biased a favore di candidati di un determinato sesso o etnia, escludendo così candidati meritevoli solo perché diversi. Un sistema di intelligenza artificiale utilizzato per determinare il tasso di interesse sui prestiti potrebbe essere biased a favore di alcuni gruppi di prestatori a discapito di altri, causando discriminazioni ingiuste.
Le conseguenze del bias nell’intelligenza artificiale non sono limitate alle singole persone o aziende, ma possono avere un impatto sulla società nel suo insieme e di recente hanno toccato argomenti molto delicati, come quello della giustizia predittiva, portando alla promulgazione di nuove regole europee per l’intelligenza artificiale, che ovviamente interesseranno tutti noi.
Ad esempio, se un sistema di intelligenza artificiale utilizzato per la sicurezza pubblica è biased nei confronti di determinati gruppi etnici, ciò potrebbe contribuire alla discriminazione e all’oppressione di questi gruppi. Inoltre, il bias nell’intelligenza artificiale può limitare l’accesso di alcune persone a opportunità e servizi, causando disuguaglianze sociali e economiche.
Prevenire e correggere il bias nell’intelligenza artificiale
Ci sono diverse misure che è possibile adottare per prevenire il bias nell’intelligenza artificiale. Una delle misure più importanti è quella di utilizzare dati rappresentativi e di alta qualità per addestrare il sistema. È inoltre importante progettare algoritmi equi e inclusivi e verificare che l’interfaccia utente del sistema non presenti elementi biased o discriminatori.
Attualmente però la migliore soluzione è quella di adottare sistemi ibridi, ovvero che utilizzano sia il giudizio umano che l’intelligenza artificiale.
Se da un lato gli algoritmi possono portare maggiore precisione e riproducibilità a un processo e sono in grado di individuare e rimuovere i pregiudizi dovuti all’errore umano, il lavoro di un professionista permette di valutare singolarmente ogni situazione, rapportandola in un contesto più ampio, aggiungendo consapevolezza, abilità di ricerca e comprensione del processo decisionale.
Ciò può avvenire per esempio nella creazione di annunci pubblicitari (ads) che sono uno strumento importante per le aziende per promuovere i loro prodotti o servizi e raggiungere un pubblico più ampio. Per eliminare questi bias negli annunci pubblicitari, è importante che ci sia un controllo da parte di professionisti umani che possano verificare che gli annunci siano equi e non discriminatori.
Un esempio di professionista che si occupa di questo è Luca De Santis, esperto in marketing e pubblicità con una profonda conoscenza dell’impatto delle tecnologie digitali sulla comunicazione. Con l’intervento umano quindi, gli annunci pubblicitari creati da una IA che presentino dei bias, ovvero pregiudizi o discriminazioni involontarie basati su fattori come razza, età, genere o orientamento sessuale, possono essere corretti prima di essere pubblicati.
Esempi di bias nell’IA
Un esempio di bias nell’intelligenza artificiale è stato identificato nel sistema OPTUM, utilizzato negli ospedali degli Stati Uniti per prevedere quali pazienti avrebbero potuto avere bisogno di ulteriori cure mediche. Questo sistema è stato oggetto di dibattito a seguito della scoperta di alcune teorie secondo cui l’algoritmo discriminava i pazienti neri rispetto a quelli bianchi, nonostante il colore della pelle non fosse una delle variabili considerate. Tuttavia, un dato correlato, ovvero la cronologia dei costi sanitari, ha mostrato che i pazienti di colore avevano sostenuto in media spese sanitarie inferiori rispetto ai pazienti bianchi con le stesse condizioni. Se questo errore del modello di intelligenza artificiale non fosse stato individuato, il sistema sanitario avrebbe continuato a discriminare gravemente e ingiustamente una parte significativa della popolazione.
Un altro esempio di discriminazione nell’utilizzo dell’intelligenza artificiale è stato osservato nel sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), utilizzato in alcuni sistemi giudiziari statunitensi per prevedere la probabilità di recidiva di un imputato. Questo software presentava un forte pregiudizio che ha portato a un tasso di falsi positivi per recidiva, doppio per i trasgressori neri (circa il 45%) rispetto ai trasgressori caucasici (circa il 23%). Come in altri casi, il bias di COMPAS è stato causato da diversi fattori, come i dati utilizzati, il modello scelto e il processo di creazione dell’algoritmo.
Considerazioni finali
È importante affrontare il problema dei bias nell’intelligenza artificiale per garantire che questa tecnologia sia equa e inclusiva per tutti. Ciò richiede l’adozione di misure per prevenire e correggere il bias nell’IA, come l’utilizzo di dati rappresentativi e di alta qualità, la progettazione di algoritmi equi e inclusivi, la verifica dell’interfaccia utente del sistema per eliminare elementi biased o discriminatori e il controllo finale di un professionista.
In conclusione, il bias nell’intelligenza artificiale è un problema importante che va affrontato per garantire che questa tecnologia sia equa e inclusiva per tutti. Solo in questo modo sarà possibile garantire che l’intelligenza artificiale sia una tecnologia che beneficia veramente tutti e non solo alcuni.