Le opinioni di una macchina
COMPUTING SCIENCES |

Le opinioni di una macchina

L'ALGORITHMIC BIAS PUO' SPINGERE I SISTEMI DI MACHINE LEARNING A DISCRIMINARE CONTRO LE MINORANZE. LA QUESTIONE VA AFFRONTATA SUBITO, DICE LUCA TREVISAN NEL SESTO EPISODIO DEL PODCAST THINK DIVERSE

Siamo diffidenti nei confronti delle intelligenze artificiali per le ragioni sbagliate. La possibilità che una di loro prenda il controllo del mondo, come in un film di Hollywood, è piccolissima, ma possono comunque danneggiare ampie fette del genere umano (ad esempio le donne) o alcune minoranze (per etnia, preferenze sessuali o altro) attraverso il cosiddetto algorithmic bias.
 
In The Opinionated Machine, sesto episodio del podcast THINK DIVERSE, Luca Trevisan, professore ordinario di Informatica alla Bocconi, chiarisce come il Machine Learning (un tipo di Intelligenza Artificiale) possa perpetuare i bias della società o rivelarsi tanto inefficace nel trattare le minoranze da finire per discriminarle a tutti gli effetti.
 

 
“L'uso dei sistemi di Machine Learning può sembrare per ora limitato,” avverte Trevisan, “ma il loro tasso di adozione sta aumentando a un ritmo esponenziale, e dobbiamo affrontare la questione al più presto. A tal fine, abbiamo bisogno di uno sforzo multidisciplinare che includa informatici, matematici, politologi, avvocati e altri scienziati.”
 
Quando vogliamo che un sistema di Machine Learning prenda delle decisioni, li alleniamo attarverso una serie di dati (decisioni prese in passato) e lasciamo che si calibri (cioè capisca quali sono le variabili rilevanti) fino a quando non prende all’incirca le stesse decisioni.
 
Se le decisioni passate sono distorte, dice Trevisan alla conduttrice Catherine De Vries, tale distorsione si perpetua. Può essere il caso di giudici che discriminano contro le persone di colore nelle decisioni per la cauzione, o di datori di lavoro che discriminano le donne quando selezionano i curriculum.
 
Le minoranze possono essere danneggiate anche in modi più sottili. Se sono sottorappresentate nel set di dati usati per il training, per esempio, un sistema di riconoscimento facciale può essere inefficace con loro. Ma anche quando sono adeguatamente rappresentati, la soluzione di calibrazione ottimale per un sistema può essere quella di risultare molto accurata con la maggioranza e molto meno accurata, o completamente inaccurata, con la piccola minoranza. “Questo tipo di bias è più difficile da rilevare e da correggere,” dice Trevisan.
 
Ascolta l’episodio e segui la serie su:
 
Spotify
Apple Podcasts
Spreaker
Google Podcasts
 

di Fabio Todesco
Bocconi Knowledge newsletter

News

  • I fornitori di cure a lungo termine per gli anziani devono evolversi

    Presentato il 6 Rapporto Osservatorio Long Term Care promosso dal Cergas con Essity  

  • Postdoc Bocconi invitato a una conferenza di alto profilo

    Gianluigi Riva fara' parte di un gruppo di giovani scienziati che parteciperanno nel corso dell'anno a un incontro con alcuni premi Nobel  

Seminari

  Novembre 2022  
Lun Mar Mer Gio Ven Sab Dom
  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30        

Seminari

  • Dave Donaldson - Putting Quantitative Models to the Test: An Application to Trump's Trade War

    DAVE DONALDSON - MIT

    Alberto Alesina Seminar Room 5.e4.sr04, floor 5, Via Roentgen 1

  • Camillo De Lellis: Besicovitch's 1/2 problem and linear programming

    CAMILLO DE LELLIS - Institute for Advanced Studies

    Room 3-E4-SR03 (Rontgen)