Come proteggere i diritti dell'utente di fronte a un algoritmo
NEWS |

Come proteggere i diritti dell'utente di fronte a un algoritmo

IL DIRITTO A CONOSCERE LE MOTIVAZIONI DI UNA DECISIONE PRESA DA UN'INTELLIGENZA ARTIFICIALE E' DIFFICILE DA APPLICARE. L'EUROPA MIRA ALLORA A RAFFORZARE LA POSIZIONE DEGLI UTENTI ATTRAVERSO OBBLIGHI PROCEDURALI A CARICO DELLE PIATTAFORME, SPIEGA ORESTE POLLICINO

Chi subisce le conseguenze di una decisione presa da un algoritmo avrebbe il diritto di conoscerne le motivazioni (il cosiddetto right to explanation o right to explicability) e il General Data Protection Regulation (GDPR) dell’Unione Europea, infatti, lo prevede.
 
“L’effettiva applicabilità della clausola è però controversa per almeno due motivi,” avverte Oreste Pollicino, professore di Diritto Costituzionale alla Bocconi, anticipando alcuni dei contenuti del suo intervento al workshop Fairness in AI del 27 giugno. “Il primo motivo è il linguaggio: gli algoritmi sono prodotti con un linguaggio tecnico, che li rende opachi alla stragrande maggioranza dei cittadini. Il secondo concerne il segreto industriale: quando si tratta di algoritmi proprietari, può non esistere l’obbligo di disclosure.”
 
La legislazione europea, con il Digital Services Act di prossima introduzione, mira allora a rafforzare la posizione dell’utente attraverso l’introduzione di obblighi procedurali per le piattaforme, e soprattutto per le cosiddette “very large platforms” che, raccogliendo più dati, hanno anche maggiori possibilità di profilazione.
 
Immagine con link ad articoli su temi simili. L'immagine che raffigura i colori dell'arcobaleno rimanda all'articolo intitolato: Pride: le discipline STEM combattono la discriminazione algoritmica Immagine con link ad articoli su temi simili. L'immagine di due schwa rimanda all'articolo intitolato: Come rendere più inclusive le tecnologie linguistiche Immagine con link ad articoli su temi simili. L'immagine di un CPU di un computer rimanda all'articolo intitolato: Quando le macchine imparano i pregiudizi Immagine con link ad articoli su temi simili. L'immagine di una persona incappucciata e simboli che richiamano il cyber bullismo rimanda all'articolo intitolato: Le macchine sbagliano: come evitare che gay e donna vengano scambiate per parole offensive

Tra gli obblighi supplementari ai quali saranno sottoposti questi operatori, ci sono soprattutto una valutazione preliminare del rischio di danneggiare i diritti degli utenti; la possibilità di un contraddittorio effettivo, che si concretizzerà con possibilità di ricorso e interlocuzioni obbligatorie tra piattaforma e utente; la necessità di intraprendere azioni positive (e non solo la rimozione dei contenuti contestati) per rimediare agli eventuali danni apportati dalla discriminazione algoritmica.
 
In alcune legislazioni, gli algoritmi cominciano a essere utilizzati anche in campo giuridico per prendere decisioni, ad esempio, sulla libertà condizionata o quella su cauzione. Oreste Pollicino osserva una diversa sensibilità negli Stati Uniti, dove la fiducia in questi strumenti è notevole, e in Europa. “In particolare,” conclude, “per l’Italia parlerei di umanesimo digitale: la giurisprudenza del Consiglio di Stato chiarisce che un algoritmo non può essere l’elemento esclusivo di valutazione in nessun giudizio, rimettendo sempre la decisione finale alla ‘prudente valutazione’ di un giudice.”

di Fabio Todesco
Bocconi Knowledge newsletter

Persone

  • Kapacinskaite nominata da AOM tra le migliori 5 tesi di dottorato in due categorie

    Aggiornamento importante: Kapacinskaite ha vinto il TIM Division Best Dissertation Award all'Annual Meeting dell'Academy of Management  

  • Due docenti Bocconi tra gli esperti europei per gli arbitrati commerciali

    Paola Mariani e Claudio Dordi nel panel di esperti giuridici che la Commissione puo' nominare come arbitri nelle controversie relative all'applicazione dei trattati internazionali  

Seminari

  Agosto 2022  
Lun Mar Mer Gio Ven Sab Dom
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        

Seminari

  • ELLIS@Milan Artificial Intelligence workshop

    GABOR LUGOSI - Department of Economics, Pompeu Fabra University
    RICARDO BAEZA-YATES - Khoury College of Computer Sciences Northeastern University
    NOAM NISAN - School of Computer Science and Engineering, Hebrew University of Jerusalem
    MICHAL VALKO - Institut national de recherche en sciences et technologies du numérique

    AS02 DEUTSCHE BANK - Roentgen building

  • tbd

    ANDREW KING - Questrom School of Business

    Meeting room 4E4SR03 (Roentgen) 4