Facebook heeft de afgelopen zes maanden bijna 1,3 miljard nepaccounts uitgeschakeld

Facebook zal beginnen met het publiceren van meer gegevens over het aantal berichten dat het verwijdert.

Facebook-CEO Mark Zuckerberg, links, grapt met komiek Andy Samberg, die verkleed is als en Mark Zuckerberg imiteert

Echte Mark Zuckerberg op het podium met nep Mark Zuckerberg

Justin Sullivan / Getty

Dit verhaal maakt deel uit van een groep verhalen genaamd hercoderen

Ontdekken en uitleggen hoe onze digitale wereld verandert - en ons verandert.



Facebook heeft de afgelopen twee kwartalen bijna 1,3 miljard nepaccounts uitgeschakeld, waarvan vele bots met de bedoeling spam te verspreiden of illegale activiteiten uit te voeren, zoals oplichting, bedrijf zei op maandag .

Facebook heeft in het eerste kwartaal van 2018 583 miljoen accounts uitgeschakeld, vergeleken met 694 miljoen accounts in het vierde kwartaal van vorig jaar, een daling die het bedrijf toeschrijft aan de variabiliteit van het vermogen van onze detectietechnologie om ze te vinden en te markeren.

is postmates populair in mijn omgeving

De meeste accounts werden binnen enkele minuten na registratie uitgeschakeld, beweerde Facebook in een blogpost, maar Facebook vangt niet alle nepaccounts op. Het bedrijf schat dat 3 tot 4 procent van zijn maandelijks actieve gebruikers nep is, een stijging van 2 procent tot 3 procent in het derde kwartaal van 2017, volgens de indieningsdocumenten .

Die cijfers zijn groot, een herinnering aan waar Facebook mee te maken heeft, slechts 18 maanden nadat werd vernomen dat een Russische trollenboerderij Facebook gebruikte om de Amerikaanse presidentsverkiezingen van 2016 te beïnvloeden.

Facebook zegt dat het de meeste accounts zelf vindt met behulp van software-algoritmen, maar een klein percentage - ongeveer 1,5 procent van de uitgeschakelde accounts - werd ontdekt nadat ze waren gemarkeerd door Facebook-gebruikers.

Facebook publiceerde de cijfers dinsdag voor het eerst, samen met een andere reeks cijfers die de andere soorten inhoud schetsen die het bedrijf regelmatig verwijdert.

Het publiceren van de gegevens is een manier voor Facebook om zichzelf verantwoordelijk te houden, maar het is ook een kans voor Facebook om gebruikers te laten zien dat het daadwerkelijk op de achtergrond aan deze problemen werkt, iets dat niet altijd duidelijk is voor de gemiddelde gebruiker die door haar nieuwsfeed scrolt.

Dit is het begin, zei Guy Rosen, een Facebook-product VP die werkt aan veiligheid en beveiliging. Mensen kunnen veel meer soorten slechte dingen melden [dan we hier updaten.] Dus we willen meer cijfers hebben om [de volgende keer] te delen.

De cijfers die Facebook deze keer deelt, zijn gericht op belangrijke inhoudscategorieën. Het bedrijf verwijderde bijvoorbeeld 21 miljoen stukjes naaktheid voor volwassenen of porno, waarvan de overgrote meerderheid werd ontdekt met behulp van softwareprogramma's. Het verwijderde ook 2,5 miljoen stukjes aanzetten tot haat, 56 procent meer inhoud dan de 1,6 miljoen stukjes die het in het vierde kwartaal verwijderde.

In tegenstelling tot naaktheid of aan terrorisme gerelateerde inhoud, wordt haatdragende taal echter nog steeds voornamelijk ontdekt door mensen, niet door softwareprogramma's. Slechts 38 procent van de haatuitingen die Facebook in het eerste kwartaal verwijderde, werd voor het eerst geïdentificeerd door algoritmen. Dat is een verbetering van meer dan 23,6 procent in het vierde kwartaal, maar nog steeds veel kleiner dan sommige van de andere inhoudscategorieën waarnaar Facebook op zoek is.

Dat is logisch, want aanzetten tot haat is veel subjectiever dan naaktheid. Wat de een zou kunnen omschrijven als haatzaaien, zou de ander kunnen omschrijven als vrijheid van meningsuiting. Het feit dat Facebook nog steeds moeite heeft om het te detecteren zonder menselijke hulp, laat zien dat het probleem niet snel zal verdwijnen.

Aanzetten tot haat is echt moeilijk, zei Alex Schultz, Facebook's VP of Analytics, in een briefing met verslaggevers. Er is nuance, er is context. De technologie is er gewoon niet om dat allemaal echt te begrijpen, laat staan ​​in een lange lijst met talen.

Facebook werkt sinds de verkiezingen van 2016 aan het terugwinnen van het vertrouwen van zijn gebruikers – en het recentere Cambridge Analytica-privacyschandaal waarbij gebruikersgegevens werden verzameld door een extern onderzoeksbureau zonder toestemming van de gebruikers.

Facebook herschreef zijn gegevensbeleid en ook heeft het rulebook gepubliceerd dat wordt gebruikt voor beslissingen over inhoudsbeleid de afgelopen maanden. Het is van plan om gegevens te publiceren over het soort berichten dat het elke zes maanden of zo verwijdert.

We hopen dat we beter worden, maar er is een interessante balans tussen wat er in de echte wereld gebeurt en wat er op onze site gebeurt, zei Schultz. Het zou goed zijn voor de wereld als oorlogen zouden eindigen, en ik weet zeker dat dat goed zou zijn voor het aantal gewelddadige beelden op Facebook. Er kan ook nog een oorlog uitbreken, en dat zou verschrikkelijk zijn, en dat zou slecht zijn voor die aantallen.

Ik denk dat we ze goed moeten meten, en we zouden goed moeten zijn in het uitleggen waarom ze zijn verplaatst, voegde hij eraan toe.

Dit artikel verscheen oorspronkelijk op Recode.net.