Come proteggere i diritti dell'utente di fronte a un algoritmo
NEWS |

Come proteggere i diritti dell'utente di fronte a un algoritmo

IL DIRITTO A CONOSCERE LE MOTIVAZIONI DI UNA DECISIONE PRESA DA UN'INTELLIGENZA ARTIFICIALE E' DIFFICILE DA APPLICARE. L'EUROPA MIRA ALLORA A RAFFORZARE LA POSIZIONE DEGLI UTENTI ATTRAVERSO OBBLIGHI PROCEDURALI A CARICO DELLE PIATTAFORME, SPIEGA ORESTE POLLICINO

Chi subisce le conseguenze di una decisione presa da un algoritmo avrebbe il diritto di conoscerne le motivazioni (il cosiddetto right to explanation o right to explicability) e il General Data Protection Regulation (GDPR) dell’Unione Europea, infatti, lo prevede.
 
“L’effettiva applicabilità della clausola è però controversa per almeno due motivi,” avverte Oreste Pollicino, professore di Diritto Costituzionale alla Bocconi, anticipando alcuni dei contenuti del suo intervento al workshop Fairness in AI del 27 giugno. “Il primo motivo è il linguaggio: gli algoritmi sono prodotti con un linguaggio tecnico, che li rende opachi alla stragrande maggioranza dei cittadini. Il secondo concerne il segreto industriale: quando si tratta di algoritmi proprietari, può non esistere l’obbligo di disclosure.”
 
La legislazione europea, con il Digital Services Act di prossima introduzione, mira allora a rafforzare la posizione dell’utente attraverso l’introduzione di obblighi procedurali per le piattaforme, e soprattutto per le cosiddette “very large platforms” che, raccogliendo più dati, hanno anche maggiori possibilità di profilazione.
 
Immagine con link ad articoli su temi simili. L'immagine che raffigura i colori dell'arcobaleno rimanda all'articolo intitolato: Pride: le discipline STEM combattono la discriminazione algoritmica Immagine con link ad articoli su temi simili. L'immagine di due schwa rimanda all'articolo intitolato: Come rendere più inclusive le tecnologie linguistiche Immagine con link ad articoli su temi simili. L'immagine di un CPU di un computer rimanda all'articolo intitolato: Quando le macchine imparano i pregiudizi Immagine con link ad articoli su temi simili. L'immagine di una persona incappucciata e simboli che richiamano il cyber bullismo rimanda all'articolo intitolato: Le macchine sbagliano: come evitare che gay e donna vengano scambiate per parole offensive

Tra gli obblighi supplementari ai quali saranno sottoposti questi operatori, ci sono soprattutto una valutazione preliminare del rischio di danneggiare i diritti degli utenti; la possibilità di un contraddittorio effettivo, che si concretizzerà con possibilità di ricorso e interlocuzioni obbligatorie tra piattaforma e utente; la necessità di intraprendere azioni positive (e non solo la rimozione dei contenuti contestati) per rimediare agli eventuali danni apportati dalla discriminazione algoritmica.
 
In alcune legislazioni, gli algoritmi cominciano a essere utilizzati anche in campo giuridico per prendere decisioni, ad esempio, sulla libertà condizionata o quella su cauzione. Oreste Pollicino osserva una diversa sensibilità negli Stati Uniti, dove la fiducia in questi strumenti è notevole, e in Europa. “In particolare,” conclude, “per l’Italia parlerei di umanesimo digitale: la giurisprudenza del Consiglio di Stato chiarisce che un algoritmo non può essere l’elemento esclusivo di valutazione in nessun giudizio, rimettendo sempre la decisione finale alla ‘prudente valutazione’ di un giudice.”

di Fabio Todesco
Bocconi Knowledge newsletter

Persone

  • Daniele Durante vince un premio per giovani ricercatori

    Un riconoscimento solo raramente conseguito da un accademico appartenente a una istituzione non americana  

  • Premio alla carriera per Peter Pope

    Il prestigioso riconoscimento dell'EAA celebra i risultati di ricerca dell'accademico bocconiano  

Seminari

  Settembre 2022  
Lun Mar Mer Gio Ven Sab Dom
      1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30    

Seminari

  • Dzhamilya Nigmatulina - Military Conflicts, Sanctions, and International Trade: Evidence from Russia

    DZHAMILYA NIGMATULINA - HEC Lausanne

    Alberto Alesina Seminar Room 5.e4.sr04, floor 5, Via Roentgen 1

  • Jacopo Perego: Competitive Markets for Personal Data

    JACOPO PEREGO - Columbia Business School

    Room 3-E4-SR03 (Rontgen)