IA con l’elmetto, Intelligenza artificiale impiegata in guerra, dove può spingersi il gioco delle fake news

IA con l'elmetto, Intelligenza artificiale impiegata in guerra, esempio allarmante di dove può spingersi il gioco delle fake news su elezioni, politica, vita sociale

di Mario Tafuri
Pubblicato il 3 Dicembre 2023 - 08:04
IA con l'elmetto, Intelligenza artificiale impiegata in guerra, esempio allarmante di dove può spingersi il gioco delle fake news

IA con l’elmetto, Intelligenza artificiale impiegata in guerra, esempio allarmante di dove può spingersi il gioco delle fake news

IA con l’elmetto, Intelligenza artificiale impiegata in guerra esempio allarmante di dove può spingersi il gioco delle fake news. Scrive David Klepper della AP: “I deepfake della guerra di Gaza aumentano i timori sul potere ingannevole dell’intelligenza artificiale”.

Tra le immagini delle case bombardate e delle strade devastate di Gaza, alcune si sono distinte per l’orrore totale: bambini insanguinati e abbandonati.

Viste milioni di volte online dall’inizio della guerra, queste immagini sono deepfake create utilizzando la IA l’intelligenza artificiale. Se guardi da vicino puoi vedere degli indizi: dita che si arricciano in modo strano o occhi che brillano di una luce innaturale: tutti segni rivelatori di un inganno digitale.

Le immagini della guerra tra Israele e Hamas hanno illustrato in modo vivido e doloroso il potenziale dell’intelligenza artificiale come strumento di propaganda, utilizzato per creare immagini realistiche di carneficine.

Da quando è iniziata la guerra, il mese scorso, quelli alterati digitalmente diffusi sui social media sono stati utilizzati per fare false affermazioni sulla responsabilità delle vittime o per ingannare le persone riguardo ad atrocità mai avvenute.

Sebbene la maggior parte delle false affermazioni che circolano online sulla guerra non richiedessero l’impiego creativo dell’intelligenza artificiale e provenissero da fonti più convenzionali, i progressi tecnologici hanno reso evidente il potenziale dell’intelligenza artificiale di diventare un’altra forma di arma, offrendo una visione su ciò che accadrà durante i futuri conflitti, elezioni e altri grandi eventi.

“La situazione peggiorerà – molto peggio – prima di migliorare”, ha affermato Jean-Claude Goldenstein, CEO di CREOpoint, una società tecnologica con sede a San Francisco e Parigi che utilizza l’intelligenza artificiale per valutare la validità delle richieste online. La società ha creato un database dei deepfake più virali emersi da Gaza. “Immagini, video e audio: con l’intelligenza artificiale generativa sarà un’escalation mai vista”.

Esempi di immagini generate dalla IA intelligenza artificiale includono video che mostrano presunti attacchi missilistici israeliani, o carri armati che rotolano attraverso quartieri in rovina, o famiglie che frugano tra le macerie alla ricerca di sopravvissuti.

In molti casi, i falsi sembrano progettati per evocare una forte reazione emotiva includendo i corpi di neonati, bambini o famiglie. Nei sanguinosi primi giorni della guerra, i sostenitori sia di Israele che di Hamas sostenevano che l’altra parte avesse vittimizzato bambini e neonati; le immagini deepfake di bambini che piangono hanno offerto “prove” fotografiche che sono state rapidamente utilizzate come prova.

Contenuti ingannevoli generati dall’intelligenza artificiale hanno iniziato a diffondersi dopo che la Russia ha invaso l’Ucraina nel 2022. Un video alterato sembrava mostrare il presidente ucraino Volodymyr Zelenskyy che ordinava agli ucraini di arrendersi. Tali affermazioni hanno continuato a circolare fino alla scorsa settimana, dimostrando quanto possa essere persistente anche se facilmente sfatabile la disinformazione.

Il rischio che l’intelligenza artificiale e i social media possano essere utilizzati per diffondere bugie agli elettori statunitensi ha allarmato i legislatori di entrambi i partiti a Washington. In una recente udienza sui pericoli della tecnologia deepfake, il deputato americano Gerry Connolly, democratico della Virginia, ha affermato che gli Stati Uniti devono investire nel finanziamento dello sviluppo di strumenti di intelligenza artificiale progettati per contrastare altre IA.

In tutto il mondo un certo numero di startup tecnologiche stanno lavorando su nuovi programmi in grado di individuare i deepfake, apporre filigrane sulle immagini per dimostrarne l’origine o scansionare testo per verificare eventuali affermazioni speciose che potrebbero essere state inserite dall’intelligenza artificiale.

“La prossima ondata di intelligenza artificiale sarà: come possiamo verificare il contenuto disponibile. Come puoi rilevare la disinformazione, come puoi analizzare il testo per determinare se è affidabile? ha affermato Maria Amelie, co-fondatrice di Factiverse, una società norvegese che ha creato un programma di intelligenza artificiale in grado di scansionare i contenuti alla ricerca di imprecisioni o pregiudizi introdotti da altri programmi di intelligenza artificiale.

Tali programmi sarebbero di immediato interesse per educatori, giornalisti, analisti finanziari e altri soggetti interessati a sradicare falsità, plagio o frode. Programmi simili sono stati progettati per scovare foto o video modificati.

Anche se questa tecnologia si mostra promettente, coloro che usano l’intelligenza artificiale per mentire sono spesso un passo avanti, secondo David Doermann, uno scienziato informatico che ha guidato un’iniziativa presso la Defense Advanced Research Projects Agency per rispondere alle minacce alla sicurezza nazionale poste dalle immagini manipolate dall’intelligenza artificiale.

Doermann, che ora è professore all’Università di Buffalo, ha affermato che rispondere efficacemente alle sfide politiche e sociali poste dalla disinformazione basata sull’intelligenza artificiale richiederà sia una migliore tecnologia che migliori normative, standard di settore volontari e ampi investimenti in programmi di alfabetizzazione digitale per aiutare gli utenti di Internet a capire modi per distinguere la verità dalla fantasia.