Gli algoritmi valgono quanto cio' di cui li alimentiamo
MARKETING |

Gli algoritmi valgono quanto cio' di cui li alimentiamo

GLI ALGORITMI DI MACHINE LEARNING IMPARANO CON L'ESPERIENZA. COSI', POSSONO REPLICARE I PREGIUDIZI SOCIALI CONTENUTI NEI DATI CHE LI ALIMENTANO, SOSTENGONO DIRK HOVY E DEBORA NOZZA NEL TERZO EPISODIO DEL PODCAST CLARITY IN A MESSY WORLD

Gli algoritmi sono arrivati a governare aspetti molto delicati della nostra vita, ma non sempre ci trattano in modo equo. Potrebbero non capirci o addirittura lavorare contro di noi, secondo gli ospiti del terzo episodio della serie podcast Clarity in a Messy World, Dirk Hovy, professore associato di Computer Science al Dipartimento di Marketing della Bocconi, e Debora Nozza, post-doctoral researcher presso l'unità di ricerca Data and Marketing Insights della Bocconi.
 
Se noi siamo ciò che mangiamo, gli algoritmi valgono quanto ciò di cui li alimentiamo. Per addestrare un algoritmo basato sul machine learning, lo si alimenta con grandi quantità di dati e lo si lascia imparare dall'esperienza. Se lo si alimenta con dati che riflettono gli stereotipi della società, l'algoritmo li replicherà.
 

 
“Negli Stati Uniti”, esemplifica Hovy nel podcast, “hanno cercato di automatizzare i giudizi sulle decisioni di libertà su cauzione e hanno addestrato il sistema su dati storici, sentenze reali. Quando lo hanno fatto funzionare, il sistema prestava attenzione solo al colore della pelle dell'imputato e ne faceva l'unica caratteristica decisiva, perché le decisioni storiche erano effettivamente distorte contro gli imputati di colore. L'algoritmo in sé non aveva un'ideologia, ma rifletteva il pregiudizio con cui era stato addestrato - rifletteva esattamente gli stereotipi contenuti nelle decisioni che i giudici avevano preso”.
 
Nozza, che sta lavorando su algoritmi di rilevamento dell’hate speech, si è imbattuta in qualcosa di simile. “nel mondo ci sono pregiudizi sociali”, dice, “e un modello può imparare alcune regolarità pericolose, come associare a connotazioni negative la presenza di parole legate a quelle che dovrebbero essere minoranze protette. Un esempio è un algoritmo volto a rilevare la misoginia nei testi sui social media, che ha classificato come misogini tutti i testi contenenti la parola donne, indipendentemente dal significato. Questo è qualcosa chiamato bias involontario e non vogliamo che accada”.
 
Clarity in a Messy World, condotto da David W. Callahan, è il podcast della Bocconi che va a fondo delle le questioni più controverse e impattanti del nostro tempo. Potete seguire il podcast su Apple Podcasts, Google Podcasts, Spotify, Spreaker e YouTube.

di Fabio Todesco
Bocconi Knowledge newsletter

News

  • I fornitori di cure a lungo termine per gli anziani devono evolversi

    Presentato il 6 Rapporto Osservatorio Long Term Care promosso dal Cergas con Essity  

  • Postdoc Bocconi invitato a una conferenza di alto profilo

    Gianluigi Riva fara' parte di un gruppo di giovani scienziati che parteciperanno nel corso dell'anno a un incontro con alcuni premi Nobel  

Seminari

  Dicembre 2021  
Lun Mar Mer Gio Ven Sab Dom
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31    

Seminari

  • Markus Arnold (University of Bern)

    MARKUS ARNOLD - University of Bern

    5-b3-sr01, 5th floor, Roentgen building

  • Alireza Aghaee Shahrbabaki, Bocconi: The flattening demand curve

    ALIREZA AGHAEE SHAHRBABAKI - Università Bocconi

    Common Room, 2nd floor - Finance Department, sector D3