L'AI che racconta le immagini in italiano
NEWS |

L'AI che racconta le immagini in italiano

CLIPITALIAN, RECENTEMENTE SVILUPPATO DA UN TEAM CHE COMPRENDE FEDERICO BIANCHI, E' IL PRIMO E UNICO MODELLO DI AI PER ASSOCIARE LE IMMAGINI E LE LORO DESCRIZIONI IN ITALIANO SU LARGA SCALA

La ricerca di immagini attraverso parole chiave è familiare a tutti. Questa funzione è resa possibile grazie a modelli che, applicando il machine learning, sono in grado di classificare elementi. CLIP-Italian è il primo e l’unico modello di Intelligenza Artificiale in lingua italiana di grande scala per classificare immagini, sviluppato recentemente da Federico Bianchi, ricercatore del Data and Marketing Insights (DMI) della Bocconi, Giuseppe Attanasio (Politecnico di Torino), Raphael Pisoni (ricercatore indipendente), Silvia Terragni (Università degli Studi di Milano-Bicocca), Gabriele Sarti (Università di Groningen) e Sri Lakshmi (ricercatrice indipendente).
 
Il modello CLIP-Italian associa le immagini e le loro descrizioni, permettendo di svolgere un insieme di task come ricerca di immagini e classificazione in italiano. Questo tipo di modello viene generalmente addestrato su un dataset di elementi (detto training set). CLIP-Italian basato su CLIP, uno dei modelli di machine learning attualmente più avanzati rilasciato dall’azienda OpenAI, è in grado di eseguire classificazioni “zero-shot”, cioè classificare correttamente anche oggetti e concetti in immagini non viste durante la fase di training.
 
Il lavoro di addestramento di CLIP-Italian si è basato su un dataset di circa 1,4 milioni di immagini, ciascuna delle quali associata a una descrizione in italiano. La preparazione del dataset ha coinvolto anche una traduzione automatica per utilizzare dataset preesistenti in altre lingue, oltre a usare dati originali.
 
I modelli di larga scala sono difficili e costosi da addestrare. Il progetto CLIP-Italian è stato possibile partecipando alla competizione internazionale Flax/JAX Community Week, per la quale Google e HuggingFace hanno messo a disposizione potenza di calcolo e fondi. CLIP-Italian è arrivato tra i finalisti della competizione. Inoltre, nella seconda fase è riuscito a ricevere una menzione speciale, che permetterà l’accesso ad ulteriori risorse per lo sviluppo del progetto.
 
Il codice utilizzato dal progetto per allenare il modello è pubblicamente accessibile su GitHub. Inoltre, è possibile provare sia la classificazione che la ricerca delle immagini sulla demo ufficiale, disponibile su HuggingFace.

di Weiwei Chen
Bocconi Knowledge newsletter

Persone

  • Adam Eric Greenberg in una selezione finale della American Marketing Association

    Un lavoro sui fattori psicologici che influenzano la decisione di richiedere i benefici pensionistici negli Stati Uniti e' stato selezionato per il Paul E. Green Award  

  • Riconoscimento per Graziella Romeo

    L'International Journal of Constitutional Law ha una nuova Associate Editor  

Seminari

  Aprile 2024  
Lun Mar Mer Gio Ven Sab Dom
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          

Seminari

  • EXITING THE ENERGY CHARTER TREATY UNDER THE LAW OF TREATIES
    Bocconi Conversations in International Law

    ROGER MICHAEL O'KEEFE - Università Bocconi
    LORAND BARTELS - University of Cambridge
    TIBISAY MORGANDI - Queen Mary University of London

    Seminar Room 1.C3-01

  • Dave Donaldson - Putting Quantitative Models to the Test: An Application to Trump's Trade War

    DAVE DONALDSON - MIT

    Alberto Alesina Seminar Room 5.e4.sr04, floor 5, Via Roentgen 1