
IA, "Una rosa è una rosa è una rosa". ChatGpt non capisce cosa sia un fiore per gli umani, uno studio (foto Ansa-Blitzquotidiano)
“Rose is a rose is a rose is a rose”, il celebre incipit della poesia di Gertrude Stein (“Una rosa è una rosa è una rosa”), un trittico di tautologica ripetitività, al limite dell’iterazione misticheggiante, non dispiacerà di certo a ChatGpt.
E nemmeno piacerà, se è per questo, a meno di non istruirlo in merito. Siamo pericolosamente nella terra di mezzo fra filosofia del linguaggio e intelligenza artificiale. tra esperienza sensibile e nome della cosa.
Il fatto è che i sistemi basati sull’Intelligenza Artificiale come ChatGpt non riescono a capire davvero che cosa sia una rosa, o cosa un fiore rappresenti per un essere umano.
Per un motivo ovvio ma insormontabile: i chatbot non sono forniti di naso per gustare la fragranza di un profumo, né di epidermide per saggiare la puntura di un a spina. Tutto ciò che sanno arriva da parole, in alcuni casi da immagini. Queste informazioni non possono compensare l’assenza di un esperienza diretta, della possibilità di annusare, toccare o passeggiare in un campo pieno di fiori.

Come vedete il mondo? IA e umani a confronto
Lo indica lo studio pubblicato sulla rivista Nature Human Behaviour e guidato dall’Università Statale dell’Ohio, che ha messo a confronto come IA e umani vedono il mondo che ci circonda.
I ricercatori guidati da Qihui Xu e Yingying Peng sono partiti da oltre 4.400 parole, da ‘fiore’ a ‘umoristico’, e hanno messo alla prova due famiglie di sistemi all’avanguardia: ChatGpt 3.5 e 4 di OpenAI e i modelli linguistici Palm e Gemini di Google.
Per verificare quanto modelli linguistici ed esseri umani siano allineati nelle loro valutazioni. è stato chiesto a entrambi di valutare quanto un concetto sia facile da visualizzare mentalmente e quanto sia emotivamente stimolante e poi di valutare quanto sia stretto il legame tra un concetto e le informazioni che è possibile ottenere su di esso tramite i sensi o tramite azioni.
I modelli linguistici hanno ottenuto ottimi risultati nel rappresentare parole che non avevano alcun collegamento con i sensi, ma quando si è trattato di parole strettamente legate alla percezione sensoriale hanno fallito.
“L’esperienza umana è molto più ricca di quanto le parole possano dire”
“I grandi modelli linguistici ottengono ciò che sanno assimilando enormi quantità di testo – afferma Xu – e tuttavia non riescono a catturare alcuni concetti allo stesso modo degli umani. L’esperienza umana – osserva – è molto più ricca di quanto le parole possano contenere da sole”.
Gli autori dello studio sottolineano, però, che i modelli linguistici sono in continuo miglioramento ed è quindi probabile che faranno progressi anche in questo campo, soprattutto se verranno potenziati con dati provenienti da sensori esterni che permetteranno loro di avere un esperienza diretta degli oggetti.