Seleziona una pagina

Un team di ricercatori dell’Università di Stanford ha deciso di sfruttare la variabilità del processo decisionale umano per compensare due difetti nei modelli di apprendimento automatico: il fattore dell’ignoto e quello dell’inconoscibile.

 

In tutto il mondo, l’intelligenza artificiale viene sfruttata da aziende, governi e organizzazioni per aiutare a prendere decisioni che prima erano interamente demandate al giudizio umano. Questo perché si presume che gli algoritmi alla base delle intelligenze artificiali siano più efficienti e obiettivi rispetto ad un umano. Ma chi lo ha deciso? Le macchine sono realmente più eque nel loro giudizio rispetto ad un essere umano oppure è solamente un mito da sfatare? A rispondere ci hanno pensato i ricercatori della Stanford University.

Il primo dilemma: come fare a confrontare l’equità di una macchina con quella di un uomo? Le decisioni vengono prese in base alle informazioni disponibili, ma le informazioni sono esse stesse mediate. Non esiste una scienza del “giusto” e dello “sbagliato”. Gli esseri umani sono inclini ad ogni sorta di pregiudizio, ma sono loro a fornire alle intelligenze artificiali gli algoritmi che le animano. Quindi come fanno gli algoritmi stessi a non essere intrisi di questi pregiudizi?

Partiamo dal principio. Ad esempio, come si insegna alle macchine la differenza tra un cane ed un gatto? Il sistema viene alimentato da immagini di gatti e cani etichettati come tali, finché l’algoritmo non impara a distinguere tra le due specie senza la necessità di un’indicazione di genere. Ma come si fa ad insegnare ad una intelligenza artificiale come svolgere un compito che normalmente richiederebbe un giudizio umano?

Gli specialisti dell’apprendimento automatico, per insegnare ad una macchina a prendere decisioni, inseriscono all’interno dei suoi algoritmi le informazioni riguardanti decisioni già prese in precedenza da esseri umani. Di fatto ai computer si insegna ad effettuare una scelta sulla base di informazioni già “contaminate” dal pregiudizio. Non è possibile sapere cosa sarebbe successo se la decisione fosse stata diversa e questo viene definito dagli informatici il problema dell’“etichettatura selettiva”.

Ma non è il solo ostacolo da affrontare per addestrare i sistemi computazionali ad esprimere giudizi: non è possibile conoscere tutti i fattori che hanno influenzato i responsabili delle decisioni umane le cui azioni passate sono state presentate all’algoritmo. Questo viene definito il problema delle “informazioni non osservate”.

I ricercatori di Stanford stanno cercando la strada giusta per superare questo “enigma formativo”. Hanno cominciato studiando i “track record” dei “decision maker”, cercando di individuare quale tra questi abbia preso la decisione più equa, studiando i risultati ottenuti. Il nuovo approccio, per valutare quale sia la scelta più “giusta”, utilizza un sistema simile a ciò che avviene in tribunale quando l’accusato di un crimine in attesa di processo richiede la cauzione. Questa può essere concessa o negata sulla base di parametri ”relativamente” oggettivi.

L’idea è quindi di utilizzare le decisioni prese storicamente dai giudici, per riscrivere gli algoritmi con l’obiettivo di contribuire a rendere il sistema sempre più equo e giusto. Ma decidere se concedere la cauzione è più complicato che distinguere tra cani e gatti, quindi come insegnare ad una intelligenza artificiale come fare? Il sistema di addestramento deve comunque insegnare all’algoritmo sulla base di decisioni prese da umani. Quindi, i risultati etichettati saranno comunque selettivi.

Inoltre, un giudice nelle sue decisioni in tribunale verrà sempre influenzato da variabili esterne, come lo sguardo della famiglia del condannato, oppure l’approccio della giuria e molti altri fattori. Gli algoritmi non registreranno mai tutte le informazioni “soft” disponibili per i giudici, quindi come potrebbero gli algoritmi prendere decisioni più giuste?

Gli studiosi di Stanford propongono di prendere quello che sembra un problema – la variabilità e l’opacità del giudizio umano – e renderlo un input del sistema di formazione. Il loro metodo sfrutta la variabilità naturale tra i giudici umani per addestrare i sistemi usando i giudizi degli umani più indulgenti, e poi sfidando gli algoritmi a fare meglio. Imparando dai giudici più indulgenti, che rilasciano il maggior numero di imputati, gli algoritmi sono in grado di scoprire regole che portano a decisioni più giuste.

In conclusione: un’intelligenza artificiale, esattamente come la mente di un essere umano, viene influenzata nel proprio giudizio da pregiudizi intrinsechi al proprio algoritmo. Grazie ai ricercatori la strada per il superamento di questo ostacolo comincia a delinearsi.

 

Fonte: https://engineering.stanford.edu/magazine/article/which-more-fair-human-or-machine