Come stiamo andando ad applicare i nostri standard comunitari?

0
5

Di Guy Rosen, VP of Product Management

Le persone si sentiranno a proprio agio se condividono su Facebook se si sentono al sicuro. Quindi negli ultimi due anni abbiamo investito molto in tecnologia e persone rimuovere in modo più efficace i contenuti non validi dai nostri servizi. Questa primavera, per la prima volta, noi pubblicato le linee guida interne che i nostri team di revisione utilizzano per rafforzare il nostro Norme comunitarie – così la nostra comunità può capire meglio cosa è permesso su Facebook e perché. A maggio abbiamo pubblicato numeri che mostrano quanto violazioni dei contenuti abbiamo rilevato nel nostro servizio, in modo che le persone possano giudicare da soli quanto bene stiamo facendo.

Oggi pubblichiamo il nostro secondo Rapporto di applicazione degli standard comunitari. Questo secondo rapporto mostra i nostri sforzi di applicazione delle nostre politiche contro la nudità degli adulti e l'attività sessuale, i falsi account, l'incitamento all'odio, lo spam, la propaganda terroristica e la violenza e il contenuto grafico, per i sei mesi a partire dal Da aprile 2018 a settembre 2018. Il rapporto include anche due nuove categorie di dati: bullismo e molestie, nudità infantile e sfruttamento sessuale dei minori.


Trovare contenuti che violano i nostri standard

Stiamo migliorando nell'identificare in modo proattivo i contenuti violenti prima che qualcuno li denunci, in particolare per l'incitamento all'odio, la violenza e il contenuto grafico. Ma ci sono ancora aree in cui abbiamo più lavoro da fare.

  • Dal nostro ultimo rapporto, la quantità di discorsi di incitamento che rileviamo in modo proattivo, prima che qualcuno la comunichi, è più che raddoppiata dal 24% al 52%. La maggior parte dei post che prendiamo per incitamento all'odio sono post che abbiamo trovato prima che qualcuno li segnalasse a noi. Questo è un lavoro incredibilmente importante e continuiamo a investire pesantemente dove il nostro lavoro è nelle fasi iniziali e a migliorare le nostre prestazioni in lingue meno diffuse.
  • Il nostro tasso di rilevamento proattivo per violenza e contenuto grafico è aumentato di 25 punti percentuali, dal 72% al 97%.

(Grafico aggiornato sopra il 19 novembre 2018 alle 10.30 PT per correggere la percentuale di discorsi di incitamento all'odio identificati in modo proattivo tra gennaio e marzo 2018.)

Rimozione di contenuti e account che violano i nostri standard

Non stiamo solo migliorando la ricerca di contenuti negativi, ma ne stiamo anche prendendo di più. Nel terzo trimestre del 2018, abbiamo intrapreso azioni su 15,4 milioni di contenuti violenti e grafici. Ciò includeva la rimozione del contenuto, la visualizzazione di una schermata di avviso, la disabilitazione dell'account in violazione e / o l'escalation dei contenuti per le forze dell'ordine. Questo è più di 10 volte la quantità su cui abbiamo agito nel quarto trimestre 2017. Questo aumento è dovuto ai continui miglioramenti della nostra tecnologia che ci consente di applicare automaticamente la stessa azione su contenuti estremamente simili o identici. Inoltre, come noi annunciato la scorsa settimana c'è stato un aumento significativo della quantità di contenuti terroristici che abbiamo rimosso nel secondo trimestre del 2018. Abbiamo ampliato l'uso del nostro sistema di corrispondenza dei media – tecnologia in grado di rilevare in modo proattivo foto estremamente simili alla violazione dei contenuti già presenti nel nostro database – per cancellare vecchie immagini di propaganda terroristica. Parte di questo aumento era anche dovuto alla correzione di un bug che ci impediva di rimuovere alcuni contenuti che violavano le nostre norme.

Abbiamo anche ritirato più conti falsi nel secondo trimestre e nel terzo trimestre rispetto ai precedenti trimestri, rispettivamente 800 milioni e 754 milioni. La maggior parte di questi falsi account erano il risultato di spam commercialmente motivato attacchi che cercano di creare account falsi alla rinfusa. Poiché siamo in grado di rimuovere la maggior parte di questi account entro pochi minuti dalla registrazione, la prevalenza di account falsi su Facebook è rimasta costante dal 3% al 4% degli utenti attivi mensili come segnalati nei nostri guadagni Q3.

Aggiungere nuove categorie

Per le due nuove categorie che abbiamo aggiunto a questo rapporto – bullismo e molestie e nudità infantile e sfruttamento sessuale dei bambini – i dati serviranno come punto di partenza in modo da poter misurare i nostri progressi su queste violazioni nel tempo.

Il bullismo e le molestie tendono ad essere personali e specifici al contesto, quindi in molti casi abbiamo bisogno di una persona che ci riferisca questo comportamento prima che possiamo identificarlo o rimuoverlo. Ciò si traduce in un tasso di rilevamento proattivo inferiore rispetto ad altri tipi di violazioni. Nell'ultimo trimestre, abbiamo intrapreso azioni su 2,1 milioni di contenuti che hanno violato le nostre politiche in materia di bullismo e molestie, eliminando il 15% di esso prima che fosse segnalato. Abbiamo scoperto proattivamente questo contenuto durante la ricerca di altri tipi di violazioni. Il fatto che le vittime in genere debbano segnalare questi contenuti prima che possiamo agire può essere sconvolgente per loro. Siamo determinati a migliorare la nostra comprensione di questi tipi di abusi, in modo che possiamo migliorare nel rilevarli in modo proattivo.

Nostro Norme comunitarie vietare lo sfruttamento minorile. Ma per evitare potenziali abusi, rimuoviamo anche i contenuti non sessuali, ad esempio le foto innocenti di bambini nella vasca da bagno – che in un altro contesto potrebbero essere facilmente utilizzati impropriamente. Solo nell'ultimo trimestre, abbiamo rimosso 8,7 milioni di contenuti che hanno violato la nudità o lo sfruttamento sessuale delle politiche sui bambini – il 99% è stato identificato prima che qualcuno li segnalasse. Abbiamo anche di recente annunciato nuova tecnologia per combattere lo sfruttamento dei minori su Facebook, che sono fiducioso ci aiuterà a identificare più contenuti illegali ancora più velocemente.

Nel complesso, sappiamo che abbiamo molto più lavoro da fare quando si tratta di prevenire gli abusi su Facebook. L'apprendimento automatico e l'intelligenza artificiale continueranno ad aiutarci a rilevare e rimuovere i contenuti non validi. Misurare i nostri progressi è fondamentale anche perché mantiene i nostri team concentrati sulla sfida e responsabili del nostro lavoro. Per aiutarci a valutare le nostre metodologie di processo e dati con cui abbiamo lavorato Gruppo consultivo sulla trasparenza dei dati (DTAG), un gruppo di esperti di misurazione e governance. Continueremo a migliorare questi dati nel tempo, quindi è più preciso e significativo.

È possibile visualizzare la relazione aggiornata sull'applicazione degli standard della comunità e informazioni aggiornate sulle richieste governative e le richieste di rimozione IP Qui. Entrambe le relazioni saranno disponibili in più di 15 lingue all'inizio del 2019.

Ecco la nota di Mark Zuckerberg su questo argomento:

Contenuto del forum standard:

11.13.18 Minuti
11.27.18 Minuti
12.11.18 Minuti

[ad_2]

LEAVE A REPLY

Please enter your comment!
Please enter your name here