Come proteggere i diritti dell'utente di fronte a un algoritmo
NEWS |

Come proteggere i diritti dell'utente di fronte a un algoritmo

IL DIRITTO A CONOSCERE LE MOTIVAZIONI DI UNA DECISIONE PRESA DA UN'INTELLIGENZA ARTIFICIALE E' DIFFICILE DA APPLICARE. L'EUROPA MIRA ALLORA A RAFFORZARE LA POSIZIONE DEGLI UTENTI ATTRAVERSO OBBLIGHI PROCEDURALI A CARICO DELLE PIATTAFORME, SPIEGA ORESTE POLLICINO

Chi subisce le conseguenze di una decisione presa da un algoritmo avrebbe il diritto di conoscerne le motivazioni (il cosiddetto right to explanation o right to explicability) e il General Data Protection Regulation (GDPR) dell’Unione Europea, infatti, lo prevede.
 
“L’effettiva applicabilità della clausola è però controversa per almeno due motivi,” avverte Oreste Pollicino, professore di Diritto Costituzionale alla Bocconi, anticipando alcuni dei contenuti del suo intervento al workshop Fairness in AI del 27 giugno. “Il primo motivo è il linguaggio: gli algoritmi sono prodotti con un linguaggio tecnico, che li rende opachi alla stragrande maggioranza dei cittadini. Il secondo concerne il segreto industriale: quando si tratta di algoritmi proprietari, può non esistere l’obbligo di disclosure.”
 
La legislazione europea, con il Digital Services Act di prossima introduzione, mira allora a rafforzare la posizione dell’utente attraverso l’introduzione di obblighi procedurali per le piattaforme, e soprattutto per le cosiddette “very large platforms” che, raccogliendo più dati, hanno anche maggiori possibilità di profilazione.
 
Immagine con link ad articoli su temi simili. L'immagine che raffigura i colori dell'arcobaleno rimanda all'articolo intitolato: Pride: le discipline STEM combattono la discriminazione algoritmica Immagine con link ad articoli su temi simili. L'immagine di due schwa rimanda all'articolo intitolato: Come rendere più inclusive le tecnologie linguistiche Immagine con link ad articoli su temi simili. L'immagine di un CPU di un computer rimanda all'articolo intitolato: Quando le macchine imparano i pregiudizi Immagine con link ad articoli su temi simili. L'immagine di una persona incappucciata e simboli che richiamano il cyber bullismo rimanda all'articolo intitolato: Le macchine sbagliano: come evitare che gay e donna vengano scambiate per parole offensive

Tra gli obblighi supplementari ai quali saranno sottoposti questi operatori, ci sono soprattutto una valutazione preliminare del rischio di danneggiare i diritti degli utenti; la possibilità di un contraddittorio effettivo, che si concretizzerà con possibilità di ricorso e interlocuzioni obbligatorie tra piattaforma e utente; la necessità di intraprendere azioni positive (e non solo la rimozione dei contenuti contestati) per rimediare agli eventuali danni apportati dalla discriminazione algoritmica.
 
In alcune legislazioni, gli algoritmi cominciano a essere utilizzati anche in campo giuridico per prendere decisioni, ad esempio, sulla libertà condizionata o quella su cauzione. Oreste Pollicino osserva una diversa sensibilità negli Stati Uniti, dove la fiducia in questi strumenti è notevole, e in Europa. “In particolare,” conclude, “per l’Italia parlerei di umanesimo digitale: la giurisprudenza del Consiglio di Stato chiarisce che un algoritmo non può essere l’elemento esclusivo di valutazione in nessun giudizio, rimettendo sempre la decisione finale alla ‘prudente valutazione’ di un giudice.”

di Fabio Todesco
Bocconi Knowledge newsletter

Persone

  • Un libro di statistica si aggiudica un importante premio

    Omiros Papaspiliopoulos e' uno dei due autori premiati dalla International Society for Bayesian Analysis  

  • Un finanziamento per contribuire a rafforzare il ruolo globale dell'UE

    Alexander Kentikelenis rappresenta la Bocconi nel consorzio che sviluppera' lo strumento  

Seminari

  Settembre 2022  
Lun Mar Mer Gio Ven Sab Dom
      1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30    

Seminari

  • Enrico Diecidue: Timing and skewness of information revelation: evidence on information structures and compound lotteries

    ENRICO DIECIDUE - INSEAD

    Room 3-E4-SR03 (Rontgen)

  • Stefano Rossi, Bocconi University: The Coherence Side of Rationality: Rules of Thumb, Narrow Bracketing, and Managerial Incoherence in Corporate Forecasts

    STEFANO ROSSI - Università Bocconi

    Sala seminari 2-e4-sr03 - Via Roentgen, 1