Gli algoritmi valgono quanto cio' di cui li alimentiamo
MARKETING |

Gli algoritmi valgono quanto cio' di cui li alimentiamo

GLI ALGORITMI DI MACHINE LEARNING IMPARANO CON L'ESPERIENZA. COSI', POSSONO REPLICARE I PREGIUDIZI SOCIALI CONTENUTI NEI DATI CHE LI ALIMENTANO, SOSTENGONO DIRK HOVY E DEBORA NOZZA NEL TERZO EPISODIO DEL PODCAST CLARITY IN A MESSY WORLD

Gli algoritmi sono arrivati a governare aspetti molto delicati della nostra vita, ma non sempre ci trattano in modo equo. Potrebbero non capirci o addirittura lavorare contro di noi, secondo gli ospiti del terzo episodio della serie podcast Clarity in a Messy World, Dirk Hovy, professore associato di Computer Science al Dipartimento di Marketing della Bocconi, e Debora Nozza, post-doctoral researcher presso l'unità di ricerca Data and Marketing Insights della Bocconi.
 
Se noi siamo ciò che mangiamo, gli algoritmi valgono quanto ciò di cui li alimentiamo. Per addestrare un algoritmo basato sul machine learning, lo si alimenta con grandi quantità di dati e lo si lascia imparare dall'esperienza. Se lo si alimenta con dati che riflettono gli stereotipi della società, l'algoritmo li replicherà.
 

 
“Negli Stati Uniti”, esemplifica Hovy nel podcast, “hanno cercato di automatizzare i giudizi sulle decisioni di libertà su cauzione e hanno addestrato il sistema su dati storici, sentenze reali. Quando lo hanno fatto funzionare, il sistema prestava attenzione solo al colore della pelle dell'imputato e ne faceva l'unica caratteristica decisiva, perché le decisioni storiche erano effettivamente distorte contro gli imputati di colore. L'algoritmo in sé non aveva un'ideologia, ma rifletteva il pregiudizio con cui era stato addestrato - rifletteva esattamente gli stereotipi contenuti nelle decisioni che i giudici avevano preso”.
 
Nozza, che sta lavorando su algoritmi di rilevamento dell’hate speech, si è imbattuta in qualcosa di simile. “nel mondo ci sono pregiudizi sociali”, dice, “e un modello può imparare alcune regolarità pericolose, come associare a connotazioni negative la presenza di parole legate a quelle che dovrebbero essere minoranze protette. Un esempio è un algoritmo volto a rilevare la misoginia nei testi sui social media, che ha classificato come misogini tutti i testi contenenti la parola donne, indipendentemente dal significato. Questo è qualcosa chiamato bias involontario e non vogliamo che accada”.
 
Clarity in a Messy World, condotto da David W. Callahan, è il podcast della Bocconi che va a fondo delle le questioni più controverse e impattanti del nostro tempo. Potete seguire il podcast su Apple Podcasts, Google Podcasts, Spotify, Spreaker e YouTube.

di Fabio Todesco
Bocconi Knowledge newsletter

News

  • L'innovazione e' nel DNA di ICRIOS

    ICRIOS, centro di ricerca, guidato da Stefano Breschi si conferma leader sui temi della tecnologia e dello sviluppo. E fa il pieno di riconoscimenti europei, compreso un ERC Advanced Grant  

  • Una chiamata alla partecipazione politica femminile

    Le donne africane tendono ad avere atteggiamenti piu' positivi verso la partecipazione femminile alla politica se possiedono un telefono cellulare, mentre la resistenza degli uomini e' piu' difficile da superare, secondo uno studio di Carlotta Varriale et al.  

Seminari

  Gennaio 2022  
Lun Mar Mer Gio Ven Sab Dom
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31            

Seminari

  • Trading Non-Tradables: The Implications of Europe's Job Posting Policy

    Mathilde Muñoz (Paris School of Economics)    

    Webinar

  • Do Health Risks Shape Firm Boundaries

    Adrian Lam, Imperial College Business School Job Market Paper

    Webinar