Sstenen tegen de zijkant van je huis stampen is geen normale manier om tot rust te komen na het werk. Evenmin is het bijten in je eigen arm of bang zijn om te gaan slapen. Maar dat was de realiteit voor een van de 144 mensen met de diagnose ernstige posttraumatische stressstoornis nadat ze gruwelijke inhoud hadden gematigd Facebook.
De jonge moeder van in de twintig deed het werk ruim twee jaar in Nairobi, waarin ze naar eigen zeggen onuitsprekelijk grafische video’s moest doornemen. Deze omvatten extreme seksuele afwijkingen en bestialiteit, kindermisbruik, marteling, verminking en moord, waardoor ze moest overgeven, volgens de rechtbankdocumenten. Op een keer herinnerde ze zich dat ze moest zien hoe iemand seks had met een slang.
De vrouw was een van de honderden jonge Afrikanen, velen uit Kenia, die van 2019 tot 2023 werkten bij een outsourcingbedrijf, Samasource, dat door Facebook-eigenaar Meta werd gebruikt om zijn honderden miljoenen gebruikers te beschermen tegen de ergste stortvloed aan afbeeldingen en video. wordt elke minuut geüpload naar het sociale mediaplatform.
Volgens een schadevergoedingsclaim die door 185 moderators bij de Keniaanse rechtbank was ingediend, zwoegden ze dag- en nachtdiensten in een faciliteit met felle felle lichten, koude airconditioning en oncomfortabele stoelen en schermen op volle helderheid. Er werd nauwlettend toezicht gehouden op de prestatieniveaus die bij een daling tot contractbeëindiging zouden kunnen leiden. Normaal gesproken hadden ze een minuut de tijd om elk stukje inhoud te beoordelen, maar het bleef veel langer in hun geestesoog gebrand.
Van buitenaf zien de Samasource-kantoren eruit als een gewone zakelijke werkplek. Aan de voorkant van het gebouw, dat op een bruisend bedrijventerrein aan een drukke weg ligt, bevindt zich een fontein en een poster met de tekst ‘de ziel van AI’. Het zou een zeldzame voorbijganger zijn die de duisternis zou vermoeden die door de schermen binnenstroomde.
Een vrouw van in de dertig vertelde aan psychiaters als getuige-deskundige dat ze aan een video werkte waarop te zien was hoe een man ledemaat voor ledemaat uiteengereten werd totdat hij stierf. Ze huilde en liep haar werkplek uit om tot rust te komen, maar de teamleider volgde haar en vroeg haar weer aan het werk te gaan. Andere inhoud die ze moest verwerken, waren onder meer video’s van standrechtelijke executies tijdens de burgeroorlog in Ethiopië. Ze kreeg migraine, flashbacks en nachtmerries. Terwijl ze vroeger ‘aangenaam en gelukkig’ was, ‘is ze nu verdrietig en huilt ze meestal, zelfs zonder aanleiding, ze is snel van streek en heeft de neiging voortdurend ruzie te maken met haar man’, aldus een psychiatrisch onderzoek.
En dan was er nog de moderator bij wie de diagnose trypofobie werd gesteld, de angst om een patroon van gaten te zien, zoals in een honingraat, mogelijk als gevolg van het herhaaldelijk zien van video’s van maden die uit gaten kruipen in een ontbindende menselijke hand gedurende haar drie jaar als moderator. Facebook-inhoud. Deze beelden kwamen regelmatig voor en zorgden ervoor dat ze hyperventileerde, schreeuwde en huilde.
Moderators zeiden dat hun managers “over de hele vloer gepositioneerd waren en aspecten van hun werk in de gaten hielden, zoals de snelheid en nauwkeurigheid van taken en de tijd die aan pauzes werd besteed.
Meta heeft geweigerd commentaar te geven op de specifieke claims terwijl de rechtszaak nog loopt, maar zei dat het outsourcingbedrijven verplichtte om advies en gezondheidszorg aan te bieden, boven de lokale industrienormen te betalen en zei dat het technische oplossingen bood om de blootstelling aan grafisch materiaal, zoals vervaging en een opt-out, te beperken van de autoplay-functie waarbij video’s of foto’s non-stop worden afgespeeld. Samasource weigerde commentaar te geven.
De diagnoses van de moderators over PTSS, depressie en gegeneraliseerde angststoornis, veroorzaakt door hun werk als Facebook-moderators, maken allemaal deel uit van de verborgen menselijke kosten van het toezicht op het internet.
Het is gebruikelijk om aan te nemen dat AI nu voor contentmoderatie zorgt, maar dat is nog niet het geval. Sommige moderators zijn nog steeds belast met het doorlichten van een stortvloed aan verachtelijk materiaal dat op sociale-mediaplatforms als zorgelijk wordt aangemerkt, terwijl anderen de AI trainen die op een dag het over kan nemen.
Ondanks de vooruitgang op het gebied van AI beschikt Facebook over een leger van 40.000 contentmoderators. Het labelen van afbeeldingen en tekst als verontrustend of traumatisch is een van de kosten die gepaard gaat met het leveren van generatieve AI aan consumenten, aangezien de systemen moeten worden geleerd hoe ze moeten modereren. Het is een van de redenen, naast de behoefte aan enorme hoeveelheden water om datacentra te koelen en de stroombehoefte om ze te laten draaien, dat AI door sommige waarnemers wordt omschreven als een ‘winningsindustrie’.
In het geval van Facebook waren de potentiële risico’s voor moderators tot op zekere hoogte bekend voordat de 185 werknemers in Kenia die juridische stappen hadden ondernomen, de taak kregen om griezelige inhoud door te lichten. In september 2018 klaagden een in de VS gevestigde moderator, Selina Scola, en anderen Facebook aan en in 2020 wonnen ze een uitbetaling van $ 52 miljoen (£ 41 miljoen) als compensatie voor haar en de meer dan 10.000 voormalige en huidige contentmoderators in de VS voor hun blootstelling aan grafische inhoud. In 2019 zei Chris Gray, een voormalig Facebook-inhoudsmoderator in Dublin, begon een soortgelijke juridische actie tegen het platform en het outsourcingbedrijf waarmee hij werkte. Zijn zaak moet nog voor de rechter komen.
Maar de Keniaanse arbeiders waren tijdens de pandemie in goede handen en werkten alleen in hotelkamers, ver weg van hun familie, en tot 2023 weer in de faciliteit.
Meta en Samasource zorgden voor welzijnsadviseurs, maar zij waren geen artsen, konden geen psychiatrische ondersteuning bieden of waren niet opgeleid om om te gaan met mensen die met een geestelijke gezondheidscrisis te kampen hadden, zo beweert de claim. Verzoeken om psychiatrische zorg onder de ziektekostenverzekering van werknemers werden “genegeerd”, maar Meta en Sama “waren zich bewust van de schade aan de geestelijke gezondheid en de symptomen waarmee indieners worstelden”, aldus de claim.
Omdat veel van de moderatoren jong waren, was het seksuele geweld tegen kinderen en volwassenen dat ze moesten beoordelen soms hun eerste blootstelling aan seksuele inhoud. Sommigen raakten ongevoelig voor seksuele driften en werden afgewezen door hun eigen seksuele partners; anderen raakten verslaafd aan seks en pornografie.
Ondertussen waren Ethiopiërs die belast waren met het verwerken van inhoud uit de oorlog in hun thuisland het doelwit van een van de strijdende partijen, en werden bedreigd dat ze schade zouden lijden als ze door zouden gaan met het verwijderen van berichten uit die groep. Eén moderator moest maanden in een veilig huis doorbrengen. Religieuze moderators voelden zich beschaamd omdat ze naar seksuele inhoud moesten kijken.
Nadat één moderator, Daniel Motaung, een juridische procedure had gestart, werd andere werknemers verteld dat hun samenwerking met hem tot ontslagen zou leiden, het toezicht werd vergroot en het aantal ontslagen nam toe. Vervolgens vonden er in januari massaontslagen plaats, hoewel dit door de rechtbanken in Kenia werd stopgezet. De moderatoren die de huidige juridische stappen ondernemen, geloven dat de massaontslagen een vergelding waren voor de zaak van Motaung.
De gronden voor de zaak tegen Meta en Samasource omvatten Keniaanse wetten tegen dwangarbeid, mensenhandel en moderne slavernij, oneerlijke arbeidspraktijken, het opzettelijk toebrengen van schade aan de geestelijke gezondheid, het inperken van het recht op toegang tot de rechter, discriminatie op de arbeidsmarkt en onrechtmatig ontslag.