Facebook prova il tasto anti-bufale. Ma forse non è una buona notizia

di Redazione Blitz
Pubblicato il 24 Dicembre 2014 6:48 | Ultimo aggiornamento: 23 Dicembre 2014 19:56
Facebook prova il tasto anti-bufale. Ma forse non è una buona notizia

Facebook prova il tasto anti-bufale. Ma forse non è una buona notizia

ROMA – Facebook prova il tasto anti-bufale. Ma forse non è una buona notizia. Il social network di Mark Zuckerberg sta sperimentando un opzione nuova quando si segnala che “questo post non mi piace”: quella in cui si possono nascondere le “notizie false”, ovvero le “bufale”.

Sembrerebbe una buona notizia, ma prima si dovrebbe stabilire con precisione la definizione di “notizia falsa”. Facebook propone esempi di questo tipo: “Notizia deliberatamente falsa” o “truffa smascherata da fonte affidabile”. Fabio Chiusi di Repubblica non ha trovato chiari questi esempi e ha rivolto un paio di domande direttamente a Facebook:

Non esattamente lo stesso, e in ogni caso resta da capire cosa significhi “smascherata”, e cosa “una fonte affidabile”; soprattutto, chi lo valuti e secondo quali criteri.

Interpellato da Repubblica, un portavoce di Facebook Italia risponde che quella per rimuovere le “notizie false” è una opzione in fase di sperimentazione; in altre parole, uno degli infiniti test che la piattaforma compie sui suoi utenti, e che il grande pubblico ha cominciato a conoscere con l’esperimento, divulgato lo scorso giugno e molto discusso, sulle emozioni di 700 mila iscritti.

“Segnalare storie che non si desidera vedere”, scrive ancora Facebook Italia, “aiuta il News Feed a fare un lavoro migliore per mostrare contenuti più rilevanti in futuro”. La ratio, insomma, è la stessa di sempre: massimizzare l’esposizione a ciò che ci piace, e minimizzare quella a ciò che non ci piace; solo a questo modo gli utenti aumenteranno tempo trascorso sul sito e interazioni, con la speranza — questo l’obiettivo — che prima o poi clicchino su contenuti pubblicitari, o quantomeno producano informazioni utili a crearne di nuovi sempre più mirati ed efficaci.

Nell’attesa di scoprire dai data scientist di Menlo Park come vi hanno reagito gli iscritti, Facebook tiene a precisare di non stare operando alcun giudizio di merito sui contenuti segnalati. Ma sembra una contraddizione in termini, quando ci sono di mezzo il vero e il falso. Soprattutto, la posizione giustifica una preoccupazione, che poi è la stessa ogniqualvolta si parli di segnalazione di contenuti su Facebook: e se gruppi organizzati di utenti, magari a scopi di propaganda politica, si decidessero a segnalare in massa un contenuto vero, ma scomodo, per farlo passare come falso e dunque renderlo meno visibile, per al limite farlo scomparire?

La posizione di Facebook è che le segnalazioni «vengono trattate da un team dedicato composto da esperti qualificati in ambito sicurezza». Ma equivale a dotarsi di un pugno di fact-checker, di giornalisti che scandaglino per bene la veridicità dei contenuti segnalati? Perché, ed è il risvolto potenzialmente positivo, di questo si tratta: di una introduzione graduale e sperimentale di una sorta di verifica dal basso della bontà delle notizie che circolano sul social network, in modo distribuito e collaborativo.

Contrariamente ad altri tentativi, la massa critica c’è, suggerisce Sergio Maistrello, autore di “Fact-checking, dal giornalismo alla rete” (Apogeo). E potrebbero darsi sviluppi interessanti, come la possibilità di riconoscere ed evidenziare le bufale più note prima della pubblicazione. «Tuttavia come verrebbero trattati i contenuti deliberatamente falsi, ma satirici?», si chiede Maistrello. Inoltre, la verifica delle notizie «il più delle volte è questione di sfumature».