Rimuovi, riduci, informa: nuovi passaggi per gestire il contenuto problematico

0
22

Di Guy Rosen, VP di Integrity, e Tessa Lyons, responsabile di News Feed Integrity

Dal 2016, abbiamo usato una strategia chiamata “rimuovere, ridurre e informare“Per gestire i contenuti problematici nella famiglia di app di Facebook. Ciò comporta rimozione contenuto che viola le nostre politiche, riducendo la diffusione di contenuti problematici che non violano le nostre politiche e informando persone con informazioni aggiuntive in modo che possano scegliere cosa cliccare, leggere o condividere. Questa strategia si applica non solo durante i periodi critici come elezioni, ma per tutto l'anno.

Oggi a Menlo Park, ci siamo incontrati con un piccolo gruppo di giornalisti per discutere della nostra ultima rimozione, ridurre e informare gli aggiornamenti per mantenere le persone al sicuro e mantenere l'integrità delle informazioni che scorre attraverso la famiglia di app di Facebook:

RIMUOVERE (leggi di più)

  • Stendere una nuova sezione sul sito di Facebook Community Standards in cui le persone possono tenere traccia degli aggiornamenti che apportiamo ogni mese.
  • Aggiornamento della politica di applicazione per i gruppi di Facebook e avvio di una nuova funzione di qualità del gruppo.

RIDURRE (leggi di più)

  • Prendendo il via da un processo collaborativo con esperti esterni per trovare nuovi modi per combattere più false notizie su Facebook, più rapidamente.
  • Espandendo il contenuto che l'Associated Press esaminerà come un fact-checker di terze parti.
  • Ridurre la portata di Facebook Gruppi che condividono ripetutamente disinformazione.
  • Incorporando un segnale “Click-Gap” nella classifica dei feed di notizie per garantire che le persone vedano contenuti di bassa qualità nel loro feed di notizie.

FAR SAPERE (leggi di più)

  • Espansione del contesto del feed di notizie Pulsante per immagini. (Aggiornato il 10 aprile 2019 alle 11:00 PT per includere queste notizie.)
  • Aggiunta di indicatori di attendibilità al pulsante di contesto del feed di notizie su contenuti in inglese e spagnolo.
  • Aggiunta di ulteriori informazioni alla scheda Qualità pagina Facebook.
  • Consentire alle persone di rimuovere i loro post e commenti da un gruppo Facebook dopo che hanno lasciato il gruppo.
  • Combattere le imitazioni portando il Badge verificato da Facebook in Messenger.
  • Avvio delle impostazioni di messaggistica e una funzione di blocco aggiornato su Messenger per un maggiore controllo.
  • Avviato Indicatore di inoltro e Pulsante di scelta rapida su Messenger per aiutare a prevenire la diffusione di informazioni errate.

Rimuovere

Facebook

abbiamo Norme comunitarie che delinea ciò che è e non è permesso su Facebook. Riguardano cose come bullismo, molestie e discorsi di incitamento all'odio, e rimuoviamo contenuti che vanno contro i nostri standard non appena ne veniamo a conoscenza. L'anno scorso, abbiamo reso più facile per le persone capire cosa eliminassimo pubblicare la nostra linea guida interna per l'applicazioneS e dare alla gente il diritto di fare appello alle nostre decisioni su singoli post.

Gli standard comunitari si applicano a tutte le parti di Facebook, ma aree diverse pongono sfide diverse quando si tratta di applicazione. Negli ultimi due anni, ad esempio, abbiamo lavorato a qualcosa chiamata Safe Communities Initiative, con la missione di proteggere le persone dai gruppi dannosi e danneggiare i gruppi. Utilizzando una combinazione di tecnologia più recente, revisione umana e rapporti degli utenti, identifichiamo e rimuoviamo i gruppi dannosi, siano essi pubblici, chiusi o segreti. Ora possiamo rilevare in modo proattivo molti tipi di contenuti violati pubblicati nei gruppi prima che qualcuno li segnali e qualche volta prima che poche persone, se ce ne sono, li vedano.

Allo stesso modo, Stories presenta il proprio insieme di sfide di applicazione quando si tratta di rimuovere e ridurre la diffusione di contenuti problematici. L'effimerità del formato significa che dobbiamo lavorare ancora più velocemente per rimuovere i contenuti in violazione. Gli strumenti creativi che consentono alle persone di aggiungere testo, adesivi e disegni a foto e video possono essere sfruttati per mascherare i contenuti in violazione. E poiché le persone si divertono ad accoppiare più Story Story, dobbiamo considerare le Storie come olistiche – se valutiamo le singole story card nel vuoto, potremmo perdere le violazioni degli standard.

Oltre a descrivere questo contesto e questa storia, oggi abbiamo discusso di come saremo:

  • Esponendo una nuova sezione sul sito degli standard della community in cui le persone possono tenere traccia degli aggiornamenti che apportiamo ogni mese. Rivisitiamo le politiche esistenti e ne redigiamo nuove per diversi motivi, tra cui quello di migliorare la nostra accuratezza delle norme o di anticipare le nuove tendenze sollevate dai revisori dei contenuti, dalla discussione interna, dalla critica degli esperti o dall'impegno esterno. Tracciamo tutte le modifiche alle norme in questa nuova sezione e condividiamo le specifiche sul perché ne abbiamo apportate di più sostanziali. A partire da oggi, in inglese.
  • Aggiornamento della politica di applicazione per i gruppi e avvio di una nuova funzione di qualità del gruppo. Come parte della Safe Communities Initiative, terremo gli amministratori dei gruppi di Facebook più responsabili delle violazioni degli standard comunitari. A partire dalle prossime settimane, quando esaminiamo un gruppo per decidere se eliminarlo o meno, esamineremo le violazioni del contenuto di admin e moderatore in quel gruppo, inclusi i post dei membri che hanno approvato, come segnale più forte che il gruppo viola i nostri standard . Stiamo anche introducendo una nuova funzionalità chiamata Qualità del gruppo, che offre una panoramica dei contenuti rimossi e segnalati per la maggior parte delle violazioni, nonché una sezione per le notizie false trovate nel gruppo. L'obiettivo è dare agli amministratori una visione più chiara su come e quando applicare i nostri standard comunitari. A partire dalle prossime settimane, a livello globale.

Per ulteriori informazioni sul lavoro di “rimozione” di Facebook, vedere questi video su persone e processi dietro lo sviluppo dei nostri standard comunitari.

Ridurre

Facebook

Ci sono tipi di contenuti che sono problematici ma non soddisfano gli standard per la rimozione sotto il nostro Norme comunitarie, come disinformazione e clickbait. Le persone spesso ci dicono che a loro non piace vedere questo tipo di contenuto e mentre noi permettiamo che venga pubblicato su Facebook, vogliamo essere sicuri che non sia distribuito su vasta scala.

Negli ultimi due anni ci siamo concentrati molto ridurre la disinformazione su Facebook. Stiamo migliorando l'esecuzione account falsi e comportamenti non autentici coordinati; stiamo usando sia la tecnologia sia le persone per combattere l'ascesa disinformazione di foto e video; abbiamo implementato nuove misure per aiutare le persone individuare notizie false e ottenere di più contesto sulle storie che vedono in News Feed; e abbiamo sviluppato il nostro programma di controllo dei fatti di terze parti per includere 45 partner di verifica dei fatti certificati che esaminano i contenuti in 24 lingue.

Oggi, i membri del team di News Feed di Facebook hanno discusso di come saremo:

  • Prendendo il via da un processo collaborativo con esperti esterni per trovare nuovi modi per combattere più notizie false, più rapidamente. I nostri partner professionali per il controllo dei fatti sono una parte importante della nostra strategia contro la disinformazione, ma devono affrontare sfide di scala: semplicemente non ci sono abbastanza ispettori professionisti in tutto il mondo e, come ogni buon giornalismo, il controllo dei fatti richiede tempo. Un'idea promettente per sostenere il loro lavoro, che siamo stati esplorando dal 2017, coinvolge gruppi di utenti di Facebook che puntano a fonti giornalistiche per corroborare o contraddire affermazioni fatte in contenuti potenzialmente falsi. Nei prossimi mesi, costruiremo queste esplorazioni, continuando a consultare una vasta gamma di accademici, esperti di controllo dei fatti, giornalisti, ricercatori di sondaggi e organizzazioni della società civile per comprendere i vantaggi e i rischi di idee come questa. Abbiamo bisogno di trovare soluzioni che supportino la segnalazione originale, promuovano informazioni affidabili, completino i nostri attuali programmi di controllo dei fatti e permettano alle persone di esprimersi liberamente – senza che Facebook sia il giudice di ciò che è vero. Qualsiasi sistema che implementiamo deve avere protezioni da gioco o manipolazione, evitare di introdurre pregiudizi personali e proteggere le voci minoritarie. Condivideremo gli aggiornamenti con il pubblico durante questo processo esplorativo e solleciteremo il feedback di gruppi più ampi di persone in tutto il mondo. A partire da oggi, a livello globale.
  • Espansione del ruolo di The Associated Press come parte del programma di controllo fattuale di terze parti. Come parte del nostro programma di controllo fattuale di terze parti, AP espanderà i suoi sforzi smantellando la disinformazione video falsa e fuorviante e il contenuto in lingua spagnola che appare su Facebook negli Stati Uniti. A partire da oggi, negli Stati Uniti.
  • Ridurre la portata dei gruppi che condividono ripetutamente disinformazione. Quando le persone in un gruppo condividono ripetutamente contenuti ritenuti falsi da ispettori indipendenti, ridurremo la distribuzione complessiva del feed di notizie di quel gruppo. A partire da oggi, a livello globale.
  • Incorporando un segnale “Click-Gap” nella classifica di News Feed. classifica utilizza molti segnali per garantire che le persone vedano contenuti di bassa qualità nel loro feed di notizie. Questo nuovo segnale, Click-Gap, si basa sul grafico web, una “mappa” concettuale di Internet in cui i domini con molti link in entrata e in uscita sono al centro del grafico e domini con meno link in entrata e in uscita sono a i bordi. Click-Gap cerca domini con un numero sproporzionato di clic Facebook in uscita rispetto al loro posto nel grafico web. Questo può essere un segno che il dominio ha successo su News Feed in un modo che non riflette l'autorità che hanno costruito al di fuori di esso e sta producendo contenuti di bassa qualità. A partire da oggi, a livello globale.

Per maggiori informazioni su come definiamo gli obiettivi per le nostre iniziative “ridurre” su Facebook, leggi questo post sul blog.

Instagram

Oggi abbiamo discusso di come Instagram sta lavorando per garantire che il contenuto che raccomandiamo alle persone sia sicuro e appropriato per la comunità. Abbiamo iniziato a ridurre la diffusione di post inappropriati ma che non vanno contro Linee guida della community di Instagram, limitando questi tipi di post a essere consigliati nelle nostre pagine Explore e hashtag. Ad esempio, un post sessualmente allusivo apparirà ancora nel feed se segui l'account che lo pubblica, ma questo tipo di contenuti potrebbe non essere visualizzato per la comunità più ampia nelle pagine di esplorazione o hashtag.

Facebook

Stiamo investendo in funzionalità e prodotti che offrono alle persone maggiori informazioni per aiutarli a decidere cosa leggere, avere fiducia e condividere. Nell'ultimo anno, abbiamo iniziato a offrire maggiori informazioni sugli articoli in News Feed con il Contesto Button, che mostra la voce di Wikipedia dell'editore, l'età del sito web, e dove e quanto spesso il contenuto è stato condiviso. Abbiamo aiutato i proprietari delle pagine a migliorare il loro contenuto con Scheda Qualità della pagina, che mostra loro quali post sono stati rimossi per violazione dei nostri standard comunitari o sono stati valutati “Falso”, “Miscela” o “Falso titolo” da ispettori di fatti di terze parti. Abbiamo anche discusso di come saremo:

  • Espansione del contesto Pulsante per immagini. Originariamente lanciato nell'aprile 2018, il Pulsante di contesto La funzione offre alle persone ulteriori informazioni di base sui publisher e gli articoli che vedono nel feed delle notizie in modo che possano decidere meglio cosa leggere, avere fiducia e condividere. Stiamo testando l'abilitazione di questa funzione per le immagini che sono state esaminate da verificatori di fatti di terze parti. Test ora negli Stati Uniti. (Aggiornato il 10 aprile 2019 alle 11:00 PT per includere queste notizie.)
  • Aggiunta di indicatori di attendibilità al pulsante di contesto. Gli indicatori di fiducia sono divulgazioni standardizzate, creato da un consorzio di organizzazioni di notizie noto come Trust Project, che fornisce chiarezza sull'etica di un'organizzazione di notizie e altri standard per correttezza e accuratezza. Gli indicatori che mostriamo nel pulsante di contesto riguardano le pratiche di controllo dei fatti della pubblicazione, le dichiarazioni di etica, le correzioni, la proprietà e il finanziamento e il team editoriale. Avviato a marzo 2019, su contenuti in inglese e spagnolo.
  • Aggiunta di ulteriori informazioni alla scheda Qualità pagina. Nel corso del tempo forniremo maggiori informazioni nella scheda, a partire da ulteriori informazioni nei prossimi mesi sullo stato di una pagina rispetto a clickbait. A partire presto, a livello globale.
  • Consentire alle persone di rimuovere i loro post e commenti da un gruppo dopo che hanno lasciato il gruppo. Le persone avranno questa capacità anche se non sono più membri del gruppo. Con questo aggiornamento, miriamo a portare maggiore trasparenza e controllo personale ai gruppi. A partire presto, a livello globale.

Messaggero

Nell'evento di oggi, Messenger ha evidenziato nuove e aggiornate funzionalità di privacy e sicurezza che offrono alle persone un maggiore controllo della propria esperienza e aiutano le persone a rimanere informate.

  • Combattere le imitazioni portando il Badge verificato da Facebook in Messenger. Questo strumento aiuterà le persone a evitare i truffatori che fingono di essere persone di alto profilo fornendo un indicatore visibile di un account verificato. Messenger continua a incoraggiare l'uso dello strumento Report Impersonations, introdotto lo scorso anno, se qualcuno ritiene di interagire con qualcuno fingendo di essere un amico. A partire da questa settimana, a livello globale.
  • Avvio delle impostazioni di messaggistica e una funzionalità di blocco aggiornato per un maggiore controllo. Le Impostazioni di messaggistica ti consentono di controllare se le persone a cui non sei connesso, come gli amici dei tuoi amici, le persone con il tuo numero di telefono o le persone che ti seguono su Instagram possono raggiungere il tuo elenco di chat. La funzione Aggiornato blocco facilita il blocco ed evita contatti indesiderati. A partire da questa settimana, a livello globale.
  • Lanciato Indicatore Avanti e Pulsante Contesto per aiutare prevenire la diffusione di disinformazione. L'indicatore di inoltro consente a qualcuno di sapere se un messaggio che hanno ricevuto è stato inoltrato dal mittente, mentre il pulsante di contesto fornisce più informazioni sugli articoli condivisi. Iniziato all'inizio di quest'anno, a livello globale

LEAVE A REPLY

Please enter your comment!
Please enter your name here