Quando l'IA impara più che semplici parole
L'intelligenza artificiale sta iniziando a riconoscere anche le nostre risposte emotive.
Le descrizioni testuali delle immagini utilizzate per addestrare i moderni modelli di IA generativa contengono non solo informazioni sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che fornisce la descrizione: i risultati della ricerca pubblicata dal team padovano sulla rivista «Royal Society Open Science».
Zaira Romeo, dell'Istituto di Neuroscienze del CNR, e Alberto Testolin, del Dipartimento di Psicologia Generale e Dipartimento di Matematica dell'Università di Padova, hanno pubblicato sulla rivista «Royal Society Open Science» l’articolo dal titolo “Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes”. In questo studio hanno testato vari modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane di fronte a una varietà di scene visive. Le valutazioni fornite dall’IA hanno mostrato una sorprendente corrispondenza con quelle umane, nonostante questi sistemi non fossero stati addestrati specificamente per fornire giudizi emozionali sulle immagini. Questo studio non solo dimostra che il linguaggio può supportare lo sviluppo di concetti emotivi nei moderni sistemi di IA, ma solleva anche importanti interrogativi su come si potranno impiegare queste tecnologie in contesti sensibili, come l’assistenza agli anziani, l’istruzione e il supporto alla salute mentale.