Een eerste studie in zijn soort benadrukt de grote genderongelijkheid in door AI gegenereerde, niet-consensuele intieme beelden – en brengt de zich ontwikkelende risico’s voor vrouwen in de politiek en het openbare leven onder de aandacht.
Door Barbara Rodriguez En Jasmijn Mithanivoor De 19e
Meer dan twintig leden van het Congres zijn het slachtoffer geworden van seksueel expliciete deepfakes – en een overweldigende meerderheid van de getroffenen zijn vrouwen, blijkt uit een nieuwe studie die de grote genderongelijkheid in deze technologie belicht en de zich ontwikkelende risico’s voor de deelname van vrouwen aan de politiek en de politiek. andere vormen van burgerbetrokkenheid.
Het Amerikaanse zonlichtprojecteen denktank die desinformatie onderzoekt en pleit voor beleid dat de democratie bevordert, heeft woensdag bevindingen vrijgegeven die meer dan 35.000 vermeldingen identificeren van niet-consensuele intieme beelden van 26 leden van het Congres – 25 vrouwen en één man – die onlangs op deepfake-websites zijn gevonden. De meeste beelden werden snel verwijderd toen onderzoekers hun bevindingen deelden met de getroffen congresleden.
“We moeten rekening houden met deze nieuwe omgeving en het feit dat het internet zoveel van deze schade heeft aangericht die disproportioneel vrouwen en gemarginaliseerde gemeenschappen treft”, zegt Nina Jankowicz, een online desinformatie- en intimidatie-expert die The American Sunlight heeft opgericht. Project en is een auteur van het onderzoek.
Intieme beelden zonder wederzijds goedvinden, in de volksmond ook wel bekend als deepfake-porno (hoewel voorstanders de voorkeur geven aan het eerste), kan worden gemaakt via generatieve AI of door het overlappen van headshots op media van volwassen artiesten. Er is momenteel beperkt beleid om de creatie en verspreiding ervan te beperken.
ASP deelde de eerste bevindingen in zijn soort exclusief met The 19th. De groep verzamelde gegevens gedeeltelijk door een aangepaste zoekmachine te ontwikkelen om leden van het 118e Congres te vinden op voor- en achternaam, afkortingen of bijnamen op elf bekende deepfake-sites. Noch het lidmaatschap van een partij, noch de geografische locatie hadden invloed op de kans om het slachtoffer te worden van misbruik, hoewel de kans groter was dat jongere leden het slachtoffer zouden worden. De grootste factor was geslacht, waarbij vrouwelijke congresleden 70 keer meer kans hadden dan mannen om doelwit te worden.
ASP heeft de namen van de wetgevers die op de beelden voorkomen niet vrijgegeven om zoekopdrachten te voorkomen. Ze hebben contact opgenomen met de kantoren van alle betrokkenen om hen te waarschuwen en informatie aan te bieden over online schade en ondersteuning op het gebied van de geestelijke gezondheidszorg. De auteurs van het onderzoek merken op dat in de onmiddellijke nasleep de beelden die gericht waren op de meeste leden geheel of bijna geheel van de sites werden verwijderd – een feit dat ze niet kunnen verklaren. Onderzoekers hebben opgemerkt dat dergelijke verwijderingen niet voorkomen dat materiaal opnieuw wordt gedeeld of geüpload. In sommige gevallen waarbij wetgevers betrokken waren, bleven pagina’s met zoekresultaten op Google geïndexeerd, ondanks dat de inhoud grotendeels of geheel werd verwijderd.
“De verwijdering kan toevallig zijn. Ongeacht wat er precies heeft geleid tot de verwijdering van deze inhoud – of het nu gaat om ‘cease and desist’-brieven, claims van inbreuk op het auteursrecht of ander contact met de sites die deepfake-misbruik hosten – het wijst op een groot verschil in privileges”, aldus het onderzoek. “Het is zeer onwaarschijnlijk dat mensen, en vooral vrouwen, die niet over de middelen beschikken die leden van het Congres krijgen, deze snelle reactie van de makers en distributeurs van door AI gegenereerde NCII zullen bereiken als ze zelf een verwijderingsverzoek zouden indienen.”
Volgens de eerste bevindingen van het onderzoek is bijna 16% van alle vrouwen die momenteel in het Congres zetelen – of ongeveer 1 op de 6 congresvrouwen – het slachtoffer van door AI gegenereerde, niet-consensuele intieme beelden.
Jankowicz is het doelwit geweest van online intimidatie en bedreigingen voor haar binnenlandse en internationale werk in het ontmantelen van desinformatie. Ze heeft ook publiekelijk gesproken over het feit dat ze het slachtoffer is van deepfake-misbruik, een feit dat ze in 2023 via een Google Alert ontdekte.
“Je kunt zonder jouw toestemming in deze gecompromitteerde, intieme situaties verschijnen, en die video’s, zelfs als je dat zou zeggen, dienen een auteursrechtclaim in tegen de originele poster, want in mijn geval verspreiden ze zich zonder jouw controle over het internet. en zonder enige consequentie voor de mensen die deepfake-porno versterken of creëren”, zei ze. “Dat blijft een risico voor iedereen die in de publieke belangstelling staat, die deelneemt aan het publieke debat, maar in het bijzonder voor vrouwen en voor gekleurde vrouwen.”
Op beelden gebaseerd seksueel misbruik kan verwoestende gevolgen hebben voor de geestelijke gezondheid van de slachtoffers, waaronder gewone mensen die niet betrokken zijn bij de politiek, inclusief kinderen. Het afgelopen jaar zijn er berichten geweest dat middelbare scholieren het doelwit waren van seksueel misbruik op basis van afbeeldingen in staten als de Verenigde Staten Californië, New JerseyEn Pennsylvania. Schoolambtenaren hebben in verschillende mate gereageerd, hoewel de De FBI heeft ook een nieuwe waarschuwing afgegeven dat het delen van dergelijke beelden van minderjarigen illegaal is.
De volledige impact van deepfakes op de samenleving komt nog steeds in beeld, maar onderzoek blijkt al dat 41% van de vrouwen tussen de 18 en 29 jaar zelfcensuur hanteert om online intimidatie te vermijden.
“Dat is een enorm krachtige bedreiging voor de democratie en de vrijheid van meningsuiting, als bijna de helft van de bevolking zichzelf het zwijgen oplegt omdat ze bang zijn voor de intimidatie die ze zouden kunnen ervaren”, zegt Sophie Maddocks, onderzoeksdirecteur bij het Centrum voor media in gevaar aan de Universiteit van Pennsylvania.
Er bestaat geen federale wet die strafrechtelijke of civielrechtelijke straffen vastlegt voor iemand die door AI gegenereerde, niet-consensuele intieme beelden genereert en verspreidt. Ongeveer een dozijn staten hebben de afgelopen jaren wetten aangenomenhoewel de meeste civielrechtelijke straffen omvatten, en geen strafrechtelijke.
Door AI gegenereerde, niet-consensuele, intieme beelden komen ook aan bod bedreigingen voor de nationale veiligheid door voorwaarden te scheppen voor chantage en geopolitieke concessies. Dat zou een rimpeleffect kunnen hebben op beleidsmakers, ongeacht of zij direct het doelwit van de beelden zijn.
GERELATEERD VERHAAL: Deskundigen waarschuwen voor de gevolgen voor de verkiezingen nu deepfakes van AI mainstream worden
„Mijn hoop hier is dat de leden tot actie worden aangezet als ze erkennen dat het niet alleen Amerikaanse vrouwen treft, maar ook hen“, zei Jankowicz. “Het heeft gevolgen voor hun eigen collega’s. En dit gebeurt simpelweg omdat ze in de publieke belangstelling staan.”
Op afbeeldingen gebaseerd seksueel misbruik is een uniek risico voor vrouwen die zich kandidaat stellen voor een ambt. Susanna Gibson verloor ternauwernood haar competitieve wetgevende race nadat een Republikeinse agent zonder wederzijdse toestemming opnames van seksueel expliciete livestreams met de Virginia Democrat en haar man deelde met The Washington Post. In de maanden na haar verlies vertelde Gibson aan The 19th waar ze van hoorde jonge vrouwen worden ontmoedigd zich kandidaat te stellen voor een ambt uit angst dat intieme beelden worden gebruikt om hen lastig te vallen. Gibson is sindsdien een non-profitorganisatie begonnen die zich inzet voor de bestrijding van seksueel misbruik op basis van beelden begeleidend politiek actiecomité om vrouwelijke kandidaten te steunen tegen schendingen van de intieme privacy.
Maddocks heeft onderzocht hoe vrouwen die zich in het openbaar uitspreken een grotere kans hebben om digitaal seksueel geweld te ervaren.
“We hebben dit veel langer patroon van ‘vrouwen moeten gezien en niet gehoord worden’ waar ik aan denk Mary Beard’s schrijven en onderzoek op dit idee dat vrouwelijkheid in strijd is met publieke toespraak. Dus als vrouwen in het openbaar spreken, is het bijna zoiets als: ‚Oké. Tijd om ze te schande te maken. Tijd om ze te strippen. Tijd om ze weer in huis te halen. Tijd om ze tot zwijgen te brengen.‘ En dat zwijgen en die beschamende motivatie … we moeten dat begrijpen om te begrijpen hoe deze schade zich manifesteert in relatie tot congresvrouwen.
ASP moedigt het Congres aan om federale wetgeving aan te nemen. De Verstoor de wet op expliciete vervalste afbeeldingen en bewerkingen zonder wederzijds goedvinden van 2024ook bekend als de DEFIANCE Act, zou mensen in staat stellen iedereen aan te klagen die dergelijke beelden maakt, deelt of ontvangt. De Take It Down-wet zou strafrechtelijke aansprakelijkheid voor dergelijke activiteiten omvatten en technologiebedrijven verplichten deepfakes te verwijderen. Beide wetsvoorstellen zijn met steun van beide partijen door de Senaat aangenomen, maar moeten in het Huis omgaan met de zorgen rond vrijheid van meningsuiting en schadedefinities, die typische hindernissen zijn voor het technologiebeleid.
“Het zou een plichtsverzuim zijn als het Congres deze zitting zou laten verlopen zonder minstens één van deze wetsvoorstellen goed te keuren”, zei Jankowicz. “Het is een van de manieren waarop de schade van kunstmatige intelligentie momenteel daadwerkelijk door echte Amerikanen wordt gevoeld. Het is geen toekomstige schade. Het is niet iets dat we ons moeten voorstellen.”
Bij gebrek aan actie van het Congres heeft het Witte Huis dat wel gedaan samengewerkt met de particuliere sector creatieve oplossingen bedenken om op beelden gebaseerd seksueel misbruik tegen te gaan. Maar critici zijn niet optimistisch over het vermogen van Big Tech om zichzelf te reguleren, gezien de geschiedenis van schade veroorzaakt door zijn platforms.
“Het is zo gemakkelijk voor daders om deze inhoud te creëren, en het signaal is niet alleen gericht op de individuele vrouw die het doelwit is”, zei Jankowicz. „Het is tegen vrouwen overal ter wereld die zeggen: ‚Als je deze stap zet, als je je stem verheft, is dit een gevolg waar je misschien mee te maken krijgt.'“
Als u slachtoffer bent geworden van seksueel misbruik op basis van beelden, kan de Cyber-burgerrechteninitiatief houdt een lijst bij van juridische bronnen.