Ti aspettiamo mercoledì 1° ottobre, alle ore 17:00 (CEST), all’evento “LLM multimodali: l’IA che sa leggere, osservare, ascoltare e parlare” online sulla piattaforma MS Teams.
Questo incontro è un percorso esplorativo e accessibile nel mondo dei Modelli di Linguaggio Multimodali (MLLM), sistemi di intelligenza artificiale capaci di comprendere e generare testi, immagini, audio, video e altro ancora.
Scopriremo cosa significa davvero “multimodale”, in che modo questi modelli si differenziano da quelli basati solo sul testo e perché questo cambiamento rappresenti un nuovo paradigma nell’IA. Attraverso esempi intuitivi e dimostrazioni dal vivo (senza bisogno di programmare o avere competenze pregresse), vedremo come i MLLM possano descrivere immagini, leggere grafici e documenti, seguire istruzioni vocali e collegare idee provenienti da diversi tipi di contenuti.
L’obiettivo è stimolare consapevolezza e curiosità: offrirti un quadro chiaro di ciò che oggi è possibile, dei termini più comuni che incontrerai e della direzione in cui si sta muovendo il settore, così da poterti orientare e interagire con questa nuova ondata di intelligenza artificiale.
Speaker:
Pierfrancesco Melucci | Data Scientist and Research Assistant at Sony Computer Science Laboratories
Moderator:
Claudio Sartori | Director of the Master in Data Science and Business Analytics
L’evento si svolgerà in lingua inglese.
Per partecipare all’evento è necessario compilare il form di registrazione.