Een wetsvoorstel dat de opkomst van deepfake-pornografie wil bestrijden, is opgenomen in de overheidsfinancieringsovereenkomst voor het einde van het jaar die dinsdag werd onthuld, waardoor het vooruitzicht werd gewekt dat de wetgeving de komende dagen de eindstreep zou kunnen halen.
De TAKE IT DOWN Act zou niet-consensuele intieme beelden strafbaar stellen, inclusief inhoud gegenereerd door kunstmatige intelligentie (AI), en zou platforms verplichten dergelijk materiaal te verwijderen nadat ze op de hoogte zijn gesteld van het bestaan ervan.
Het wetsvoorstel werd eerder deze maand door de Senaat aangenomen, maar moest nog door het Huis van Afgevaardigden worden aangenomen. De opname ervan in de doorlopende resolutie aan het einde van het jaar, die vrijdag moet worden aangenomen om een shutdown van de overheid te voorkomen, vergroot de kansen ervan.
“De afgelopen maanden hebben moedige slachtoffers van AI-deepfake ‘wraakporno’ hun verhalen gedeeld om het bewustzijn te vergroten en de inspanningen van wetgevers te informeren om dit verachtelijke gedrag te stoppen”, zei senator Ted Cruz (R-Texas), die de wetgeving introduceerde. , aldus een verklaring.
“Het aannemen van onze tweeledige TAKE IT DOWN Act zal onschuldige slachtoffers – van wie velen tienermeisjes zijn – de kans geven om gerechtigheid te zoeken tegen afwijkende personen die deze beledigende beelden publiceren,” vervolgde hij. “Het zal ook Big Tech verantwoordelijk houden door ervoor te zorgen dat websites deze walgelijke nepvideo’s en foto’s onmiddellijk verwijderen.”
Americans for Responsible Innovation (ARI), een belangenorganisatie voor AI-beleid, prees de opname van de wetgeving in de noodwet als een “enorme overwinning voor de slachtoffers en voor iedereen online.”
“Het is ook een positief bewijs dat het Congres de wilskracht heeft om overal aan het AI-beleid te werken”, zei Satya Thallam, senior vice-president overheidszaken van ARI, in een verklaring.
“Goed bestuur op het gebied van AI zal stap voor stap gebeuren, en kwestie voor kwestie”, voegde hij eraan toe. “De brede coalitie en steun van de basis die we zagen voor de TAKE IT DOWN Act zal een sjabloon zijn voor het doorvoeren van veranderingen op het 119e congres.”
De opkomst van publiekelijk toegankelijke AI-modellen in de afgelopen jaren heeft ook de opkomst van deepfake-pornografie gestimuleerd. De kwestie kreeg eerder dit jaar bekendheid toen seksueel expliciete, door AI gegenereerde afbeeldingen van popster Taylor Swift online circuleerden.
De situatie bracht het Witte Huis ertoe te reageren en zei dat dit het geval was “gealarmeerd” door de verspreiding van de beelden.
“Terwijl socialemediabedrijven hun eigen onafhankelijke beslissingen nemen over contentmanagement, geloven wij dat ze een belangrijke rol kunnen spelen bij het handhaven van hun eigen regels om de verspreiding van verkeerde informatie en niet-consensuele, intieme beelden van echte mensen te voorkomen”, aldus persvoorlichter Karine Jean van het Witte Huis. -Pierre zei destijds.
Wetgevers, vooral vrouwelijke wetgevers, zijn ook het doelwit geweest van deepfake-pornografie. Meer dan twintig wetgevers zijn het slachtoffer geworden van seksueel expliciete, door AI gegenereerde beelden recent rapport van het Amerikaanse Sunlight Project.
Het rapport vond meer dan 35.000 vermeldingen van 26 wetgevers op prominente deepfake-websites. Tot de getroffen wetgevers behoorden 25 vrouwen en één man.