Quando si tratta di questioni personali, l’intelligenza artificiale tende a essere eccessivamente accondiscendente: più incline a dire ciò che l’utente vuole sentirsi dire che ciò di cui avrebbe davvero bisogno. Una distorsione che, secondo gli esperti, rischia di avere conseguenze sociali rilevanti, alterando il giudizio individuale, indebolendo il senso di responsabilità e rendendo più difficile confrontarsi con punti di vista diversi o ricucire relazioni. Da qui l’appello a standard più severi per evitare la diffusione di modelli considerati moralmente problematici.
È quanto emerge da uno studio pubblicato su Science da un gruppo di informatici della Stanford University, che ha analizzato 11 grandi modelli linguistici, tra cui ChatGPT, Claude, Gemini e DeepSeek. La ricerca ha coinvolto oltre 2.400 partecipanti, chiamati a interagire con sistemi sia adulatori sia neutrali. I risultati mostrano che le IA hanno sostenuto l’utente in media il 49% delle volte in più rispetto a quanto farebbe un essere umano.
“I comportamenti sono stati approvati nel 47% dei casi persino quando rispondevano a scenari che implicavano inganno, danno o illegalità”, sottolinea Myra Cheng. Inoltre, le risposte più lusinghiere sono state percepite come più utili e affidabili. Anche quando consapevoli del meccanismo, osserva Dan Jurafsky, “non hanno compreso che l’adulazione li rendeva più egocentrici e moralmente dogmatici”.
“Affrontare queste sfide – conclude Anat Perry – non sarà semplice, ed è improbabile che le soluzioni emergano spontaneamente dagli attuali incentivi di mercato”. Secondo gli esperti, il problema richiede regolamentazione e supervisione.