Le opinioni di una macchina
COMPUTING SCIENCES |

Le opinioni di una macchina

L'ALGORITHMIC BIAS PUO' SPINGERE I SISTEMI DI MACHINE LEARNING A DISCRIMINARE CONTRO LE MINORANZE. LA QUESTIONE VA AFFRONTATA SUBITO, DICE LUCA TREVISAN NEL SESTO EPISODIO DEL PODCAST THINK DIVERSE

Siamo diffidenti nei confronti delle intelligenze artificiali per le ragioni sbagliate. La possibilità che una di loro prenda il controllo del mondo, come in un film di Hollywood, è piccolissima, ma possono comunque danneggiare ampie fette del genere umano (ad esempio le donne) o alcune minoranze (per etnia, preferenze sessuali o altro) attraverso il cosiddetto algorithmic bias.
 
In The Opinionated Machine, sesto episodio del podcast THINK DIVERSE, Luca Trevisan, professore ordinario di Informatica alla Bocconi, chiarisce come il Machine Learning (un tipo di Intelligenza Artificiale) possa perpetuare i bias della società o rivelarsi tanto inefficace nel trattare le minoranze da finire per discriminarle a tutti gli effetti.
 

 
“L'uso dei sistemi di Machine Learning può sembrare per ora limitato,” avverte Trevisan, “ma il loro tasso di adozione sta aumentando a un ritmo esponenziale, e dobbiamo affrontare la questione al più presto. A tal fine, abbiamo bisogno di uno sforzo multidisciplinare che includa informatici, matematici, politologi, avvocati e altri scienziati.”
 
Quando vogliamo che un sistema di Machine Learning prenda delle decisioni, li alleniamo attarverso una serie di dati (decisioni prese in passato) e lasciamo che si calibri (cioè capisca quali sono le variabili rilevanti) fino a quando non prende all’incirca le stesse decisioni.
 
Se le decisioni passate sono distorte, dice Trevisan alla conduttrice Catherine De Vries, tale distorsione si perpetua. Può essere il caso di giudici che discriminano contro le persone di colore nelle decisioni per la cauzione, o di datori di lavoro che discriminano le donne quando selezionano i curriculum.
 
Le minoranze possono essere danneggiate anche in modi più sottili. Se sono sottorappresentate nel set di dati usati per il training, per esempio, un sistema di riconoscimento facciale può essere inefficace con loro. Ma anche quando sono adeguatamente rappresentati, la soluzione di calibrazione ottimale per un sistema può essere quella di risultare molto accurata con la maggioranza e molto meno accurata, o completamente inaccurata, con la piccola minoranza. “Questo tipo di bias è più difficile da rilevare e da correggere,” dice Trevisan.
 
Ascolta l’episodio e segui la serie su:
 
Spotify
Apple Podcasts
Spreaker
Google Podcasts
 

di Fabio Todesco
Bocconi Knowledge newsletter

News

  • Ecodesign alla prova dei fatti. Il Monitor for Circular Fashion testa la circolarita' del settore moda

    Nel report 2022 dell'osservatorio di SDA Bocconi School of Management e powered by Enel X l'analisi degli indicatori di sostenibilita' nel settore tessile e' applicata a otto prototipi innovativi realizzati dalle aziende partner  

  • Proteggere un Paese dai cyberattacchi… con un podcast

    Greta Nasi conduce una serie di incontri su come gli Stati moderni intendono proteggere le persone, le imprese e la societa' da un nemico invisibile  

Seminari

  Dicembre 2022  
Lun Mar Mer Gio Ven Sab Dom
      1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31  

Seminari

  • Matthias Rodemeier, Bocconi University: Willingness to Pay for Carbon Mitigation: A Field Experiment in the Market for Carbon Offsets

    MATTHIAS RODEMEIER - Università Bocconi

    Sala seminari 2-e4-sr03 - Via Roentgen, 1

  • Circular Business Models: Product Design and Consumer Participation

    DANIEL HALBHEER - HEC Paris

    Meeting room 4-E4-SR03, Via Roentgen, 1, 4th floor