Informazioni su Content Review su Facebook

0
8

Ieri, il New York Times ha pubblicato un articolo sul modo in cui modifichiamo i contenuti su Facebook. Siamo stati accusati di essere “ad hoc”, “disorganizzati”, “riservati” e fare cose “a buon mercato”. Questo non potrebbe essere più lontano dalla verità.

Accogliamo con favore il dibattito su come mantenere Facebook un luogo sicuro in cui le persone possano esprimere le proprie idee. Ma quel dibattito dovrebbe essere basato sui fatti, non sui caratteri errati. Ecco dove non siamo d'accordo con il Times:

Le nostre politiche sono pubbliche, non “segrete” o “strettamente tenute”.
Per anni abbiamo pubblicato i nostri standard comunitari, la guida generale che delinea ciò che è e non è consentito su Facebook. All'inizio di quest'anno abbiamo fatto un ulteriore passo avanti e pubblicato le linee guida interne che usiamo per applicare tali standard. Chiunque può vederli a facebook.com/communitystandards.

Le nostre politiche sono attentamente considerate, non risposte “ad hoc”.
Il Times ha ragione di aggiornare regolarmente le nostre politiche per tener conto delle mutevoli norme culturali e linguistiche in tutto il mondo. Ma il processo è ben lungi dall'essere “ad hoc”. Modifichiamo le nostre politiche in base alle nuove tendenze che i nostri revisori vedono, i feedback interni ed esterni all'azienda, nonché cambiamenti inaspettati, a volte drammatici, sul campo. E pubblichiamo le modifiche che apportiamo ogni mese.

Ciò a cui il Times fa riferimento come un incontro “a colazione” tra “giovani ingegneri e avvocati” è, infatti, un forum globale che si tiene ogni due settimane dove discutiamo di potenziali cambiamenti alle nostre politiche. Comprende esperti di tutto il mondo con profonda conoscenza delle leggi pertinenti, sicurezza online, antiterrorismo, operazioni, politiche pubbliche, comunicazioni, prodotti e diversità. Sì, avvocati e ingegneri sono presenti, ma lo sono anche esperti in diritti umani, persone che hanno studiato organizzazioni di odio ed estremismo, ex forze dell'ordine e altri funzionari pubblici e accademici. Come parte di questo processo, cerchiamo input da persone esterne a Facebook in modo da poter meglio comprendere molteplici punti di vista sulla sicurezza e l'espressione, nonché sull'impatto delle nostre politiche su comunità diverse.

Il mese scorso abbiamo iniziato minuti di pubblicazione da questi incontri e all'inizio del prossimo anno prevediamo di includere un registro delle modifiche in modo che le persone possano tenere traccia degli aggiornamenti dei nostri standard comunitari nel tempo.

Le persone che applicano le nostre politiche sono focalizzate sull'accuratezza, non sulle quote.
Il team responsabile della sicurezza su Facebook è composto da circa 30.000 persone, circa 15.000 di chi sono revisori di contenuti in tutto il mondo, come il Times ha aggiornato la sua storia da notare. Contrariamente a quanto riporta la storia, i revisori dei contenuti non hanno quote per la quantità di rapporti che devono completare. Il compenso dei revisori non è basato sulla quantità di contenuti che esaminano, e non ci si aspetta che i nostri revisori facciano affidamento su Google Translate poiché sono forniti con risorse di formazione e di supporto.

Assumiamo revisori per la loro competenza linguistica e il contesto culturale: esaminiamo i contenuti in oltre 50 lingue e li incoraggiamo a dedicare il tempo necessario per rivedere i rapporti. Lavorano in più di 20 siti in tutto il mondo, che assomigliano agli uffici di Facebook e forniscono assistenza 24 ore su 24, 7 giorni su 7. Come nota il Times, alcuni revisori hanno sede in Marocco e nelle Filippine, mentre altri hanno sede negli Stati Uniti, in Germania, Lettonia, Spagna e altre località in tutto il mondo.

Abbiamo adottato un approccio attento in Myanmar sulla base del feedback degli esperti.
Quando si discute dei nostri sforzi per frenare l'incitamento all'odio in Myanmar, il Times afferma erroneamente che un errore burocratico consentiva a un gruppo estremista di rimanere su Facebook. In effetti, avevamo designato il gruppo – Ma Ba Tha – come un'organizzazione di odio nell'aprile 2018, sei mesi prima che il Times ci contattasse per questa storia. Mentre c'era un mazzo di allenamento obsoleto in circolazione, abbiamo immediatamente iniziato a rimuovere il contenuto che rappresenta, elogia o supporta l'organizzazione nel mese di aprile – sia attraverso swap proattivi per questo contenuto che alla ricezione di segnalazioni degli utenti.

Questo era uno di parecchi passaggi abbiamo preso in Myanmar nel 2018. Un altro oggetto della storia è stato la nostra decisione rimuovere account Facebook appartenenti a alti funzionari militari in Myanmar senza informare il governo. Lo abbiamo fatto basandoci sulle indicazioni degli esperti internazionali, che ci hanno messo in guardia sulle potenziali reazioni dei militari, sulla responsabilità che potrebbe essere imputata al governo e sui rischi per la sicurezza delle persone sul terreno.


Svolgiamo un ruolo importante nel modo in cui le persone comunicano e con ciò ci si aspetta che identifichiamo costantemente i modi in cui possiamo fare meglio. Ecco come dovrebbe essere. Ed è il motivo per cui lavoriamo costantemente con esperti di tutto il mondo per ascoltare le loro idee e critiche e apportare modifiche laddove siano giustificate. Per tutto il 2018, abbiamo introdotto maggiore trasparenza nelle nostre politiche e fornito dati su come le applichiamo. Ne abbiamo di più in negozio nel 2019 e non vediamo l'ora di ricevere i feedback delle persone.

[ad_2]

LEAVE A REPLY

Please enter your comment!
Please enter your name here