Tempo di lettura: 6 minuti
0
(0)

I bias dell’intelligenza artificiale

Intelligenza artificiale, AI, big data: ormai siamo sommersi da attività in cui le intelligenze artificiali sono coinvolte.

Pensare ad un oggetto e vedere subito la sua pubblicità “apparire” magicamente sui nostri smartphone, così come trovare informazioni su chiunque in qualunque momento. E quella che vediamo è solo la punta dell’iceberg: molto sta sotto l’acqua. Gli sviluppi che ci sono stati negli anni, la capacità delle macchine di imparare dalle esperienze, ossia da set di dati, per essere in grado di ragionare in maniera propria.

Il machine learning: l’apprendimento delle macchine.

Il punto cruciale è: da dove provengono questi set di dati da cui apprendono le macchine? E come facciamo a essere sicuri che siano completamente imparziali?

La risposta è che non possiamo esserlo. E che in alcuni casi i bias che influenzano i dati in input si traducono in bias dell’AI stessa. (Se volete avere una piccola idea di tutti i bias che ci affliggono l’esistenza senza che ce ne accorgiamo potete leggere questo articolo)

Il primo problema: il ruolo cruciale dei database

Il primo motivo che genera diversità sono i dati a disposizione per l’apprendimento delle macchine.

Molti database hanno caratteristiche poco eterogenee che portano l’AI ad apprendere in maniera pregiudizievole .

Come riporta questo interessante articolo di agendadigitale la scarsità dei database può influenzare molto le capacità di un algoritmo.

Un esempio ne sono stati gli algoritmi di riconoscimento facciale. La percentuale di riconoscimento di un uomo bianco è del 99%, mentre scende al 35% nel caso di una donna di carnagione scura. Perchè? Semplicemente perchè i database con foto di uomini bianchi sono molto più comuni di quelli con persone di colore.

Il secondo problema: il maggior numero di sviluppatori di AI è maschio

In termini di genere i comportamenti delle intelligenze artificiali dovrebbero essere neutrali: ma come possono se la maggior parte degli sviluppatori è di genere maschile?

La percentuale di donne che lavora nell’AI è ancora molto bassa (meno del 20% del totale) e questo porta a delineare un’intelligenza artificiale inconsciamente “maschilista”.

Lo hanno provato diverse ricerche: una delle principali è stata fatta dalla Carnegie Mellon University, come riporta questo articolo del Washington Post. Gli studiosi hanno verificato le offerte di lavoro che comparivano su Google Ads per due gruppi di persone con stesso curriculum e come unica differenza il genere (uomo o donna).

Il risultato è stato abbastanza sconcertante: nel caso dei profili di genere maschile le offerte mostrate da Google ads erano

  • molto più frequenti: circa 1852 apparizioni di offerte contro le 318 mostrate al gruppo femminile
  • con livelli di retribuzione più alta rispetto a quelle che comparivano al gruppo femminile

Persino Amazon si è accorta di avere un algoritmo che soffriva di un bias simile. L’algoritmo che supportava nelle assunzioni prediligeva infatti caratteristiche caratteriali maschili rispetto a quelle femminili.

Due esempi pratici dei bias dell’intelligenza artificiale

Esempi di questa problematica ce ne sono a dozzine, ma due dei più significativi sono senz’altro questi:

#1 – Google translate e i lavori “da uomo” e “da donna”

La lingua filippina declina i lavori e le attività senza il genere. Tuttavia, traducendo alcune professioni dal filippino all’italiano (o all’inglese) Google Translate associa autonomamente un genere, come nell’esempio in figura: le professioni più quotate assumono un pronome maschile, quelle meno femminile.

Grafico con traduzione di professioni dal filippino all'italiano: quelle maggiormente qualificate vengono tradotte con pronome maschile, quelle meno qualificate femminile - guidaglinvestimenti.it
Bias dell’intelligenza artificiale

In Italia lamentiamo spesso come il discorso sulla parità di genere sia molto indietro rispetto agli altri paesi: vedere bias del genere in azione in programmi sviluppati da paesi su questo tema ben più avanzati lascia qualche perplessità.

#2 – Le persone di colore penalizzate dai programmi di healthcare

Il secondo esempio riguarda un bias identificato nei programmi di assistenza speciale dei pazienti negli ospedali statunitensi. 

In america come si sa la sanità è a pagamento, tuttavia ci sono dei programmi specializzati che consentono alle persone abbienti di ricevere delle cure.

Come riporta questo interessante articolo di Nature, a parità di condizione medica le persone di colore hanno minor probabilità rispetto a un “bianco” di ricevere cure più personalizzate. Ed è un dato importante se si pensa che ogni anno gli ospedali americani usano gli algoritmi per determinare le cure di più di 200 milioni di pazienti. 

In questo caso entrano, oltre ai bias “razziali”, anche le caratteristiche fisiche e predisposizioni mediche delle diverse etnie. Oltre ai set di dati da cui si parte.

Essendo algoritmi che servono per aumentare l’efficienza degli ospedali, altri due parametri presi in considerazione sono il costo delle cure e la durata della degenza
Da qui si è notato, ad esempio, che le cure delle persone di colore hanno un costo minore rispetto a quelle di un “bianco”, ma spesso la degenza è più lunga soprattutto negli ospedali di zone poco agiate. 

Questo accade perchè intervengono dei fattori sociali: spesso manca il supporto sociale per fornire, ad esempio, oggetti di necessità come le sedie a rotelle. O ancora, le persone poco abbienti o con situazioni familiari difficili chiedono di poter rimanere una notte in più. 

Questo ultimo punto ci dovrebbe far riflettere sul compito che abbiamo verso i risultati dell’intelligenza artificiale. Se è vero che gli input sono in qualche lontana maniera determinati da noi, è anche vero che l’interpretazione degli output non deve essere ritenuta una verità assoluta: bensì un parametro oggettivo che supporti una decisione, ma non che la determini. 

Un algoritmo non potrà valutare la condizione al contorno. Non potrà sapere che una mamma single con due bambini si trova in una determinata condizione di difficoltà: sta a noi fare la differenza.

Essendo consapevoli che noi, come le macchine da noi programmate, possiamo sbagliare.

Ray Dalio contro i bias: “come so di avere ragione”?

Come abbiamo appurato dai casi riportati, alla base di qualunque sviluppo dell’AI ci dovrebbe essere una conscia autoanalisi degli sviluppatori sull’influenza dei bias sul proprio lavoro.

Per alcuni versi dovrebbero tutti avere l’approccio di Ray Dalio, il fondatore dell’Hedge Found più grande del mondo, Bridgewater (se volete saperne di più sulle sue meraviglie leggete questo articolo). Dalio ha creato la propria fortuna partendo proprio da un dubbio che lo attanagliava quando doveva fare un investimento:

“Come so di avere ragione”? 

Ray Dalio

Ovvero: come faccio a sapere che il mio giudizio non è influenzato da fattori esterni?

Dalio, complice anche una scarsa memoria, aveva l’abitudine di tabulare tutte le valutazioni e i ragionamenti che lo portavano a fare determinati investimenti. 
Il problema era che la logica umana è influenzata dai bias tipici degli investitori: cosa che ha portato Dalio anche ad atroci “sconfitte”. Sconfitte da cui ha saputo riprendersi egregiamente, come potete leggere in questo articolo su Ray Dalio. 

Quindi Ray decise di creare un tool in cui inserire gli investimenti fatti e le relative condizioni al contorno, aggiornando poi il tool con l’esito di quegli investimenti nel futuro. In pratica Dalio scriveva sia le sue “scommesse” che gli esiti finali, e li dava in pasto al tool. 

In questa maniera il tool era in grado di imparare dai dati storici e dare indicazioni in maniera imparziale sulla bontà di un determinato investimento (certo con un margine di errore, il mercato è sempre imprevedibile). 

Dalio quindi faceva prima le sue valutazioni “indipendenti”, e alla fine – per esser certo di non esser stato influenzato dai bias o dal sentiment del mercato, chiedeva il parere del tool che restituiva in maniera fredda e senza influenze “come era andata le altre volte che aveva fatto un investimento del genere in condizioni del genere”. Geniale. 

Come superare i bias dell’Intelligenza artificiale

Appurato come i bias siano una costante frequente degli algoritmi di IA, la notizia positiva è che c’è chi si sta muovendo in questa direzione per ridurli. 

L’UNESCO, infatti, ha unito una ampia gamma di gruppi, tra cui rappresentanti della società civile, del settore privato e pubblico, per stilare uno standard internazionale sull’intelligenza artificiale per garantire che la tecnologia abbia una solida base etica che comprende lo stato di diritto e la promozione dei diritti umani.

Le aree importanti che devono essere considerate includono l’importanza di portare maggiore diversità nel campo della scienza per ridurre i pregiudizi e gli stereotipi razziali e di genere. L’uso appropriato dell’IA nei sistemi giudiziari può renderli più equi oltre che più efficienti; e trovare modi per garantire che i vantaggi della tecnologia siano distribuiti al maggior numero di persone possibile.

Ti è piaciuto questo articolo? Potrebbero interessarti anche:

bilancia tra bias e fatti guidaglinvestimenti.it

Quanto ti è piaciuto il post?

  • Post category:Bias

Marta Cavaliere

Ingegnere fuori e inseguitrice di farfalle dentro, appassionata di crescita personale, fotografia e viaggi. Credo nell'importanza di conoscere la finanza personale per diventare responsabili del nostro futuro, e nel miglioramento continuo sia personale che professionale. Instancabile procrastinatrice, mi occupo delle sezioni Crescita e Risparmio del blog guidaglinvestimenti.it

Lascia un commento