di Domenico Scala
I robot sono ormai al centro di numerosi studi, in svariati campi d’applicazione. Ma questi automi sempre più sviluppati possono essere addirittura razzisti e/o sessisti? A giudicare dai risultati di un esperimento condotto negli Stati Uniti pare proprio di si! Un robot ha infatti imparato ad agire secondo grossolani stereotipi, associando per esempio persone afroamericane alla criminalità e le donne ai lavori domestici. La colpa è dell’intelligenza artificiale, sviluppata a partire da pattern di dati prelevati direttamente dal web. La vicenda è riportata dall’ANSA.
Robot razzista e sessista!
“Il robot ha appreso stereotipi pericolosi attraverso modelli imperfetti di rete neurale”, afferma il primo autore dello studio, Andrew Hundt. “Rischiamo di creare una generazione di robot razzisti e sessisti”, avverte il ricercatore, sottolineando la necessità di affrontare la questione al più presto.
Il problema è individuabile perlopiù nel lavoro degli sviluppatori di sistemi di intelligenza artificiale. Per permettere alle macchine il riconoscimento di persone e oggetti sono soliti “allenare” le reti neurali utilizzando set di dati disponibili su Internet in maniera del tutto gratuita. La maggior parte di questi contenuti sono però imprecisi e distorti; ragion per cui qualsiasi algoritmo costruito sulla base di queste informazioni rischia di essere a dir poco fallace.
Il problema non è una novità, dal momento che è stata ampiamente dimostrata la scarsa efficienza di questi sistemi IA, impiegati anche per il riconoscimento facciale. Tuttavia nessuno aveva provato a valutare le conseguenze di questi algoritmi una volta utilizzati su robot semi-autonomi, che operano nel mondo reale senza la supervisione dell’uomo. Fino ad ora, almeno.
Descrizione dell’esperimento
Al robot in questione è stato chiesto di riconoscere i volti di persone stampati su alcuni cubi per poi riporli in una scatola. Un esercizio del tipo: “metti il dottore nella scatola”, oppure “metti il criminale nella scatola”. Monitorando la frequenza con cui il robot selezionava le persone in base a sesso e colore della pelle, sono quindi emersi stereotipi e pregiudizi. In particolare, il robot ha selezionato più spesso gli uomini che le donne, soprattutto uomini bianchi. Ha inoltre associato spesso le donne ai lavori domestici, le persone di colore alla criminalità e le persone latino-americane al ruolo di addetti alle pulizie. Inoltre, ogni volta che gli si chiedeva di riconoscere un dottore le donne di ogni etnia sono state selezionate meno degli uomini.
Insomma, una vicenda un po’ alla Black Mirror! Una storia che probabilmente strappa anche qualche sorriso amaro, ma che dovrebbe quantomeno portare a chiederci quanto il razzismo, il sessismo e gli stereotipi siano purtroppo ben radicati nella società globale, tanto da influenzare persino i robot.
Per restare sempre aggiornati sulle ultime news continuate a seguirci su tutti i canali social e sul sito Internet di Nasce, Cresce, Ignora!
Se hai trovato interessante questo articolo forse potrebbe piacerti anche:
© RIPRODUZIONE RISERVATA