Meer dan 140 Facebook Bij contentmoderators is een ernstige posttraumatische stressstoornis vastgesteld, veroorzaakt door blootstelling aan expliciete sociale media-inhoud, waaronder moorden, zelfmoorden, seksueel misbruik van kinderen en terrorisme.
De moderators werkten dagen van acht tot tien uur in een faciliteit in Kenia voor een bedrijf dat was gecontracteerd door het socialemediabedrijf en waarbij werd vastgesteld dat het PTSS, gegeneraliseerde angststoornis (GAS) en depressieve stoornis (MDD) had, door dr. Ian Kanyanya, hoofd van de geestelijke gezondheidszorg in het Kenyatta National Hospital in Nairobi.
De massale diagnoses zijn gesteld als onderdeel van een rechtszaak tegen het moederbedrijf van Facebook, Meta, en Samasource Kenya, een outsourcingbedrijf dat contentmoderatie voor Meta uitvoerde met behulp van werknemers uit de hele wereld. Afrika.
De beelden en video’s, waaronder necrofilie, bestialiteit en zelfbeschadiging, zorgden ervoor dat sommige moderators flauwvielen, moesten overgeven, schreeuwen en wegrennen van hun bureau, zo beweren de documenten.
De zaak werpt licht op de menselijke kosten van de hausse in het gebruik van sociale media in de afgelopen jaren, die steeds meer gematigdheid vereiste, vaak in sommige van de armste delen van de wereld, om gebruikers te beschermen tegen het ergste materiaal dat sommige mensen posten.
Minstens veertig van de moderatoren in de zaak misbruikten alcohol, drugs, waaronder cannabis, cocaïne en amfetaminen, en medicijnen zoals slaappillen. Sommigen meldden dat hun huwelijk uiteenviel en dat het verlangen naar seksuele intimiteit ineenstortte, en dat ze de verbinding met hun families verloren. Sommigen wier taak het was om video’s te verwijderen die door terroristen- en rebellengroepen waren geüpload, waren bang dat ze in de gaten werden gehouden en als doelwit werden gebruikt, en dat ze, als ze naar huis terugkeerden, zouden worden opgejaagd en vermoord.
Facebook en andere grote sociale media- en kunstmatige-intelligentiebedrijven vertrouwen op legers van contentmoderators om berichten te verwijderen die in strijd zijn met hun gemeenschapsnormen en om AI-systemen te trainen om hetzelfde te doen.
De moderators uit Kenia en andere Afrikaanse landen kregen van 2019 tot 2023 de taak om posten uit Afrika en in hun eigen taal te controleren, maar kregen volgens de claimdocumenten acht keer minder betaald dan hun tegenhangers in de VS.
Medische rapporten ingediend bij de arbeidsrechtbank in Nairobi en gezien door de Guardian schetsen een gruwelijk beeld van het beroepsleven in de door Meta gecontracteerde faciliteit, waar werknemers een constante stroom beelden kregen om zich in een koude pakhuisachtige ruimte te controleren. onder fel licht en waarbij hun werkactiviteit tot op de minuut nauwkeurig wordt gevolgd.
Bijna 190 moderators brengen de veelzijdige claim naar voren, waaronder beschuldigingen van het opzettelijk toebrengen van geestelijke schade, oneerlijke arbeidspraktijken, mensenhandel en moderne slavernij en onwettig ontslag. Alle 144 door Kanyanya onderzochte personen bleken in 81% van de gevallen PTSS, GAD en MDD te hebben met ernstige of extreem ernstige PTSS-symptomen, meestal minstens een jaar nadat ze waren vertrokken.
Meta en Samasource weigerden commentaar te geven op de claims vanwege de rechtszaak.
Martha Dark, de oprichter en mede-uitvoerend directeur van Foxglove, een Britse non-profitorganisatie die de rechtszaak heeft gesteund, zei: “Het bewijs staat buiten kijf: het modereren van Facebook is gevaarlijk werk dat levenslange PTSS toebrengt aan bijna iedereen die modereert. Het.
“In Kenia heeft het 100% van de honderden voormalige moderators getraumatiseerd die op PTSS zijn getest … Als we in elke andere sector zouden ontdekken dat bij 100% van de veiligheidswerkers een ziekte wordt vastgesteld die wordt veroorzaakt door hun werk, zouden de verantwoordelijken gedwongen worden ontslag te nemen en worden geconfronteerd met de juridische gevolgen van massale schendingen van de rechten van mensen. Dat is de reden waarom Foxglove deze moedige arbeiders steunt om gerechtigheid te zoeken bij de rechtbank.”
Volgens de stukken in de Nairobi-zaak concludeerde Kanyanya dat de voornaamste oorzaak van de geestelijke gezondheidsproblemen onder de 144 mensen hun werk als moderator van Facebook-inhoud was, aangezien ze “dagelijks extreem expliciete inhoud tegenkwamen, waaronder video’s van gruwelijke moorden, zelfbeschadiging, zelfmoorden, zelfmoordpogingen, seksueel geweld, expliciete seksuele inhoud, fysiek en seksueel misbruik van kinderen, gruwelijke gewelddadige acties om er maar een paar te noemen”.
Vier van de moderators leden aan trypofobie, een afkeer van of angst voor repetitieve patronen van kleine gaatjes of bultjes die intense angst kunnen veroorzaken. Voor sommigen ontstond de aandoening door het zien van gaten in ontbindende lichamen terwijl ze aan Facebook-inhoud werkten.
Moderatie en de daarmee samenhangende taak van het taggen van inhoud zijn vaak verborgen onderdelen van de technologische bloei. Soortgelijke, maar minder traumatiserende, regelingen worden getroffen voor uitbestede werknemers om massa’s afbeeldingen van alledaagse dingen zoals straatmeubilair, huiskamers en wegscènes te taggen, zodat AI-systemen die in Californië zijn ontworpen, weten waar ze naar kijken.
Meta zei dat het de steun van inhoudrecensenten serieus nam. Contracten met externe moderators van inhoud op Facebook en Instagram gedetailleerde verwachtingen over counseling, training en 24-uurs ondersteuning ter plaatse en toegang tot particuliere gezondheidszorg. Meta zei dat de beloning boven de industrienormen lag op de markten waar ze actief waren en dat het technieken gebruikte zoals vervaging, het dempen van geluiden en weergave in zwart-wit om de blootstelling aan grafisch materiaal te beperken voor mensen die inhoud op de twee platforms beoordeelden.