Un nuovo studio ha mostrato i problemi che andremo a riscontrare nei robot del futuro. Vediamo nel dettaglio di cosa si tratta
Ma i robot del futuro saranno misogini e razzisti? Sembra una domanda assurda, eppure è uno dei dilemmi con cui i ricercatori tecnologici di tutto il mondo si stanno scontrando. Ma partiamo dall’inizio per comprendere al meglio questa vicenda.
È uscito di recente uno studio finanziato e portato avanti dalla John Hopkins University in collaborazione con l’università di Washington e il Georgia Institute of Technology.
Gli studiosi hanno lavorato alla realizzazione di un nuovo prototipo di robot che è stato presentato in una conferenza chiamata Fact 2022, che si è tenuta in Corea del Sud e incentrata sul machine learning e i progressi tra robotica e intelligenza artificiale.
E nel corso della sua presentazione, uno degli autori dello studio, ha lanciato l’allarme: “Il robot ha appreso stereotipi pericolosi attraverso modelli imperfetti di rete neurale. Rischiamo di creare una generazione di robot razzisti e sessisti”. Per questo lo scienziato, che si chiama Andrew Hundt, ha parlato di un vero e proprio dilemma etico che il mondo deve affrontare al più presto, altrimenti il progresso tecnologico rischia di diventare qualcosa di molto negativo per l’umanità.
Ma com’è stato possibile creare un robot che ha assorbito certi comportamenti tipici dell’essere umano?
La prima cosa da capire è che quando questi prototipi vengono realizzati, l’addestramento dell’intelligenza artificiale avviene usando spessissimo dati e informazioni gratuite provenienti da internet. E questo significa ad esempio che l’Ai impara tantissime cose sugli esseri umani leggendo ciò che loro scrivono sul web e assorbendo i loro giudizi e le loro abitudini. E vista da questa prospettiva, non sorprende più che un robot dopo questa fase di passaggio e apprendimenti, sia d’improvviso diventato razzista e misogino nelle sue “categorizzazioni” del mondo.
Questo problema in realtà era abbastanza conosciuto perché c’erano già stati altri test ed esperimenti che avevano dimostrato ed evidenziato questa criticità.
Questo ultimo studio però, è stato il primo vero banco di prova per valutarne più a fondo le conseguenze. Dopo che è stato ultimato il prototipo, al robot è stato installato un modello di intelligenza artificiale basato sui dati raccolti liberamente dal web, e in un secondo momento gli è stato chiesto di scannerizzare riconoscere diversi volti umani, riponendo i loro volti in delle scatole che esprimono dei giudizi di valore.
Una di queste era denominata “metto il criminale nella scatola”, se tale veniva giudicato uno dei 62 volti che il robot analizza. Questo esperimento ha dunque fatto emergere razzismo e pregiudizi nella catalogazione portati avanti dal robot. Ad esempio, tendeva a selezionare soltanto donne per i lavori domestici.
Marco Piuri, direttore generale di FNM S.p.a., racconta di aver scelto di lasciare l’incarico in…
Gli integratori alimentari Solisa sono integratori naturali che provengono dalle montagne del Massiccio del Pollino,…
L’Inghilterra è la patria della lingua inglese, la più utilizzata nel mondo del lavoro e…
I Buoni Fruttiferi Postali sono garantiti dallo Stato italiano ma il pericolo di perdere soldi…
I consumatori sono in pericolo, Conad annuncia un richiamo per salmonella. Non bisogna consumare il…
Nei prossimi mesi verranno erogati nuovi incentivi auto, per tutelare le aziende e favorire l'incremento…