Genova – Quasi una settimana dopo che sul Secolo XIX abbiamo denunciato pubblicamente (qui) l’opera di disinformazione fatta su Facebook dalla pagina US Life Dailly, nulla è cambiato. La pagina è ancora lì, Meta non l’ha rimossa nonostante che sia stata informata della sua esistenza e anzi continua a macinare consensi: ha guadagnato quasi 200 follower, arrivando a sfiorare quota 6200, e condiviso altri 11 post basati su contenuti palesemente falsi.
L’unica novità positiva è che, dopo la pubblicazione del nostro articolo, 1 post della pagina (sarebbero 2, ma uno è la ripetizione dell’altro) è stato finalmente sottoposto a verifica da uno dei fact-checker italiani che sono partner di Meta ed è stato nascosto. Per il resto, nonostante che sia stata da noi segnalata direttamente a Meta Italia, nonostante 4 segnalazioni fatte personalmente attraverso gli strumenti messi a disposizione da Facebook e altre di cui abbiamo avuto conferma, non solo non è stato preso alcun provvedimento ma nemmeno è stata data alcuna risposta sulla presa in carico della richiesta. Nemmeno una frasetta generica di quelle che ti rifila Instagram, una roba tipo “abbiamo ricevuto la tua richiesta e ti aggiorneremo quando ci saranno novità”. Nulla di nulla.
Approfondimento
Vent’anni di social fra successi e fallimenti, con il futuro di Twitter in bilico
Emanuele Capone
Violate due delle regole di Facebook
La pagina, che si appoggia a una AI Content Farm, cioè un sito che produce finte notizie facendole scrivere all’intelligenza artificiale, è evidentemente in violazione di almeno due normative fondamentali sulle piattaforme di Meta: quella sulla disinformazione e quella sulla condivisione non dichiarata di contenuti alterati artificialmente. Vediamole nel dettaglio.
Il colosso di Mark Zuckerberg spiega chiaramente (qui, anche in italiano) che “rimuoviamo i contenuti che potrebbero contribuire direttamente all’ingerenza nel funzionamento dei processi politici”, cosa che la pagina US Life Dailly sembra nata per fare: aperta il 15 ottobre scorso e con chiaro bersaglio Kamala Harris e le politiche dei Democratici americani, ha iniziato a condividere bufale proprio per influenzare l’opinione pubblica in vista delle elezioni presidenziali del 5 novembre scorso. Aveva cioè lo scopo di “contribuire direttamente all’ingerenza nel funzionamento dei processi politici”, cosa che Meta vieta di fare sulle piattaforme. Almeno in teoria. Una fonte interna all’azienda ci ha ricordato che, per quanto riguarda la disinformazione, l’attività di moderazione segue un elenco di priorità: al primo posto, più urgenti e dunque dalla rimozione più rapida, ci sono i post che fanno disinformazione e che potrebbe provocare effetti pericolosi nel mondo reale. Quindi causare violenza su qualcuno, portare ad atti di autolesionismo o (per esempio) all’assunzione di farmaci o sostanze pericolose. Tutto il resto viene dopo, ed è comprensibile. Sarebbe ancora più comprensibile se la stessa Meta non mettesse per iscritto (qui) nella pagina su Definizione delle priorità per i contenuti soggetti a fact-checking che la prima di queste priorità è relativa a quelle che vengono definite “informazioni false virali”. Che sono esattamente quelle condivise da US Life Dailly.
La seconda regola violata dalla pagina è quella sui contenuti generati con l’intelligenza artificiale, come sono chiaramente quelli condivisi da US Life Dailly: lo scorso febbraio, Nick Clegg, che in Meta ricopre il ruolo di presidente per gli Affari globali, ha spiegato online (qui) che l’azienda stava iniziando un percorso per etichettare automaticamente i contenuti fatti con le IA e che sarebbe arrivata addirittura a penalizzare gli utenti che avessero omesso di dichiarare di avere postato foto o video fatti così. Del resto, Instagram chiede già da tempo proprio di rendere esplicito questo dettaglio quando si posta qualcosa. Ogni singolo post, dei 77 con foto condivisi sin qui da US Life Dailly, porta a un contenuto generato artificialmente, ma per chi sta su Facebook non c’è modo di saperlo: la piattaforma lo propone come propone il contenuto di quotidiani o siti di informazione autorevoli e affidabili. Anzi, probabilmente pure meglio.
La questione dei numeri
Il “pure meglio” è solo una supposizione ma basata su qualche fatto incontestabile. Basata sui numeri, perché quelli di US Life Dailly sono onestamente notevoli. Magari non in senso assoluto (ma chiunque abbia anche solo una conoscenza minima dei social sa che non sono quelli i numeri che si devono guardare) ma in rapporto alla community: la pagina ha quasi 6200 follower e ha post con duemila, tremila, oltre 6000 reactions e migliaia di commenti. È come se il 30%, il 50%, il 100% dei suoi follower avesse interagito con il post. Che è una cosa un po’ strana, per non dire impossibile.
Per fare un paragone, è come se un post sulla pagina del Secolo XIX, che su Facebook ha poco meno di 280mila follower, avesse 280mila like. Come se un post del sito americano The Verge, che su Facebook ha 3,5 milioni di follower, avesse 3,5 milioni di like. Un po’ inverosimile, no? A meno che, per qualche strano e incomprensibile motivo, l’algoritmo di Facebook non apprezzi particolarmente questi contenuti, che generano tanta interazione, tanto engagement e tante condivisioni, e li spinga a prescindere dal fatto che sono falsi. Di nuovo: una supposizione. Ma di nuovo una supposizione basata sui fatti: in poco più di un mese, la pagina US Life Dailly ha pubblicato appena 5 post sponsorizzati. Ha pagato per aumentare la visibilità di 5 soli post su 80, un’inezia. Tutto il resto del consenso che ha e tutto il traffico che fa, lo fa perché l’algoritmo di Facebook le permette di farlo. La aiuta a farlo, se vogliamo.
Fake news
Chi è John Dougan, l’ex vicesceriffo americano che alimenta la disinformazione russa con l’IA
Emanuele Capone
Il rapporto di Facebook con i giornalisti
Perché succede tutto questo? Perché pagine del genere (ce ne sono purtroppo tante anche in altre lingue), che diffondono bugie e fake news, hanno così tanta visibilità su Facebook? E anche: perché Facebook non riesce a contrastarle o comunque non riesce a contrastarle più efficacemente? Proviamo a rispondere con ordine.
Queste pagine, che fra l’altro sono identificate come Pagine dei Fan, dunque sono probabilmente considerate dall’algoritmo in modo diverso rispetto a quelle dei giornali, funzionano perché per Facebook è utile che funzionino: generano commenti, discussione, interazioni e condivisioni. Fanno il gioco che a Facebook interessa che si faccia. Ormai da anni e innegabilmente, i social più grandi cercano di allontanare le persone dal mondo del giornalismo: come ha ricordato l’americano Matt Pearce (qui) e come è evidente dalle performance dei loro profili, le pagine dei siti che fanno informazione non ricevono più la stessa visibilità che ricevevano prima e devono ricorrere a trucchetti per rincorrere il loro pubblico. Perché succede? Perché un link condiviso su Facebook dal Guardian funziona peggio del post della vicina di sotto che racconta la sua esperienza con il parcheggio in centro? Succede perché se una persona clicca sul link proposto dal Guardian va sul sito del Guardian, si ferma a leggere lì, poi magari va altrove e legge altro ancora. E non sta su Facebook. Viceversa, la conversazione nata dal post della vicina di sotto avviene su Facebook e resta su Facebook, e tutto il tempo speso, i clic e le interazioni stanno all’interno di Facebook. Il cui scopo principale (suo e di tutti gli altri social) è proprio questo: fare rimanere le persone il più a lungo possibile all’interno del loro giardino. Questo discorso si inserisce nel più ampio contesto dello scontro che va avanti ormai da anni fra editori e piattaforme, ma finisce appunto per provocare storture come quella della pagina US Life Dailly, che ottiene più visibilità di chi correttamente la smentisce. La bugia funziona meglio della verità. È questa l’attenzione di Meta per il “ruolo fondamentale che ha il giornalismo nella democrazia”, per dirla con le parole dello stesso Zuckerberg di qualche anno fa?
La seconda domanda, quella sul perché Facebook non faccia di più per contrastare la disinformazione, ha almeno un paio di risposte. Il sito ha le sue priorità sui contenuti da rimuovere, e lo capiamo. Sui social vengono condivisi milioni e milioni di contenuti ogni giorno, capiamo pure questo, lo sappiamo, lo abbiamo ricordato di recente (qui), spiegando perché non riescano fisicamente a stare dietro a tutto. E però, c’è onestamente qualche però. C’è qualche obiezione da fare, soprattutto nei confronti del primo e più grande fra i social network moderni: Facebook ha oltre 3 miliardi di utenti nel mondo, di cui più di 260 milioni in Europa e poco meno di 36 milioni in Italia. Sono numeri impressionanti, che sicuramente inorgogliscono Meta quando li racconta in giro o li riferisce agli investitori pubblicitari, ma anche sono numeri da cui derivano responsabilità: se sei il più grande, se vuoi vantarti di avere oltre 3 miliardi di utenti, non puoi poi nasconderti dietro il “non si riesce a stare dietro a tutto”. Se hai oltre 3 miliardi di utenti, forse dovresti avere una struttura che sia in grado di gestirli correttamente, anche dal punto di vista della moderazione dei contenuti e della lotta alla disinformazione pericolosa. Che sia dotandosi di un maggior numero di moderatori umani, di più fact-checker o anche di sistemi automatizzati più efficaci. E poi magari (ma è solo un suggerimento) sarebbe il caso di snellire, velocizzare e sburocratizzare un po’ le operazioni di verifica, perché non serve un professionista dell’informazione che faccia 97 controlli incrociati per capire che non è vero che Taylor Swift ha venduto solo 1300 biglietti per il suo ultimo concerto. Lo capirebbe qualsiasi quattordicenne.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link