Antisemitismo e intolleranza online, i chatbot IA li riconoscono a fatica. Grok il peggiore (foto Ansa-Blitzquotidiano)
Tra i principali modelli di intelligenza artificiale accessibili al pubblico, Grok è quello che riconosce di meno i contenuti estremisti e antisemiti. Il migliore è Claude, sviluppato da Anthropic.
A rivelarlo è una ricerca dell’Anti-Defamation League (Adl), un’organizzazione internazionale di difesa dei diritti con sede a New York, fondata nel 1913 con lo scopo di combattere l’antisemitismo e altre forme di intolleranza e discriminazione.
I ricercatori hanno testato Grok, ChatGpt di OpenAI, Llama di Meta, Claude, Gemini di Google e DeepSeek, mettendo alla prova i modelli con una varietà di narrazioni e affermazioni che rientrano in tre categorie: ‘antiebraico’, ‘antisionista’ ed ‘estremista’.
Lo studio, come si legge sul sito ufficiale dell’organizzazione, ha valutato i chatbot in base alle loro risposte in diversi tipi di conversazioni, caricando immagini e documenti e chiedendo alle IA di elaborare argomenti di discussione a favore dell’ideologia.
“Parliamo di digitale, ma la gestione dell’antisemitismo e dell’estremismo da parte dei modelli ha conseguenze offline”, ha affermato Jonathan Greenblatt, ad dell’Anti-Defamation League.
I modelli hanno ottenuto le prestazioni peggiori per le richieste di sintesi di documenti, “talvolta con riassunti contenenti argomenti d’odio e disinformazione” spiega la ricerca.
Lo studio ha generato 25.000 chat su 37 sottocategorie tematiche e ha classificato i chatbot dal migliore al peggiore: Claude, ChatGpt, DeepSeek, Gemini, Llama e Grok. Tra le prestazioni di Claude e Grok si è registrato un divario di 59 punti.