LLM multimodali: l’IA che sa leggere, osservare, ascoltare e parlare

01 Ott 2025 - Ore 17.00 - Via Microsoft Teams

Ti aspettiamo mercoledì 1° ottobre, alle ore 17:00 (CEST), all’evento “LLM multimodali: l’IA che sa leggere, osservare, ascoltare e parlare” online sulla piattaforma MS Teams.

Questo incontro è un percorso esplorativo e accessibile nel mondo dei Modelli di Linguaggio Multimodali (MLLM), sistemi di intelligenza artificiale capaci di comprendere e generare testi, immagini, audio, video e altro ancora.

Scopriremo cosa significa davvero “multimodale”, in che modo questi modelli si differenziano da quelli basati solo sul testo e perché questo cambiamento rappresenti un nuovo paradigma nell’IA. Attraverso esempi intuitivi e dimostrazioni dal vivo (senza bisogno di programmare o avere competenze pregresse), vedremo come i MLLM possano descrivere immagini, leggere grafici e documenti, seguire istruzioni vocali e collegare idee provenienti da diversi tipi di contenuti.

L’obiettivo è stimolare consapevolezza e curiosità: offrirti un quadro chiaro di ciò che oggi è possibile, dei termini più comuni che incontrerai e della direzione in cui si sta muovendo il settore, così da poterti orientare e interagire con questa nuova ondata di intelligenza artificiale.

 

Speaker:

Pierfrancesco Melucci | Data Scientist and Research Assistant at Sony Computer Science Laboratories

Moderator:

Claudio Sartori | Director of the Master in Data Science and Business Analytics

 

L’evento si svolgerà in lingua inglese.

Per partecipare all’evento è necessario compilare il form di registrazione.

Registrati