WASHINGTON — Een kinderpsychiater die een foto van de eerste schooldag die hij op Facebook zag, veranderde om een groep meisjes naakt te laten lijken. Een soldaat uit het Amerikaanse leger wordt beschuldigd van het maken van afbeeldingen van kinderen waarvan hij wist dat ze seksueel werden misbruikt. Een software-ingenieur belast met het genereren van hyperrealistische seksueel expliciete beelden van kinderen.
Wetshandhavingsinstanties in de VS treden hard op tegen a verontrustende verspreiding van beelden van seksueel kindermisbruik gemaakt door middel van kunstmatige intelligentietechnologie – van gemanipuleerde foto’s van echte kinderen tot grafische afbeeldingen van door de computer gegenereerde kinderen. Ambtenaren van het ministerie van Justitie zeggen dat ze agressief achter overtreders aangaan die AI-tools misbruiken staten racen om ervoor te zorgen dat mensen die ‘deepfakes’ en andere schadelijke beelden van kinderen genereren, volgens hun wetten kunnen worden vervolgd.
“We moeten vroeg en vaak signaleren dat het een misdaad is, dat het onderzocht en vervolgd zal worden als het bewijs dit ondersteunt”, zei Steven Grocki, hoofd van de afdeling Kinderuitbuiting en Obsceniteit van het ministerie van Justitie, in een interview met The Bijbehorende pers. 'En als je daar anders over denkt, heb je het fundamenteel mis. En het is slechts een kwestie van tijd voordat iemand je ter verantwoording roept.”
Het ministerie van Justitie zegt dat de bestaande federale wetten duidelijk van toepassing zijn op dergelijke inhoud, en heeft onlangs naar verluidt de eerste federale zaak aangespannen waarbij uitsluitend door AI gegenereerde beelden betrokken zijn – wat betekent dat de afgebeelde kinderen niet echt maar virtueel zijn. In een ander geval arresteerden de federale autoriteiten in augustus een Amerikaanse soldaat die in Alaska was gestationeerd, ervan beschuldigd dat hij onschuldige foto's van echte kinderen die hij kende via een AI-chatbot had geplaatst om de beelden seksueel expliciet te maken.
De vervolgingen komen op een moment dat pleitbezorgers van kinderen zich dringend inzetten om het misbruik van technologie te beteugelen om een vloed aan verontrustende beelden te voorkomen waarvan ambtenaren vrezen dat het moeilijker zou kunnen worden om echte slachtoffers te redden. Wetshandhavers zijn bang dat onderzoekers tijd en middelen zullen verspillen aan het identificeren en opsporen van uitgebuite kinderen die niet echt bestaan.
Wetgevers nemen ondertussen een hele reeks wetgeving aan om ervoor te zorgen dat lokale aanklagers op grond van de staatswetten aanklachten kunnen indienen voor door AI gegenereerde ‘deepfakes’ en andere seksueel expliciete afbeeldingen van kinderen. Gouverneurs in meer dan een dozijn staten hebben dit jaar wetten ondertekend die hard optreden tegen digitaal gemaakte of gewijzigde beelden van seksueel misbruik van kinderen, blijkt uit een recensie van The National Center for Missing & Uitgebuite kinderen.
“We spelen als rechtshandhaving een inhaalslag op een technologie die, eerlijk gezegd, veel sneller evolueert dan wij”, zegt Erik Nasarenko, officier van justitie in Ventura County.
Nasarenko drong aan op wetgeving vorige maand ondertekend door gouverneur Gavin Newsom, die duidelijk maakt dat door AI gegenereerd materiaal over seksueel misbruik van kinderen illegaal is volgens de Californische wet. Nasarenko zei dat zijn kantoor tussen december en half september acht zaken met betrekking tot door AI gegenereerde inhoud niet kon vervolgen, omdat de Californische wet aanklagers had verplicht te bewijzen dat de beelden een echt kind afbeeldden.
Door AI gegenereerde beelden van seksueel misbruik van kinderen kunnen worden gebruikt om kinderen te verzorgen, zeggen wetshandhavers. En zelfs als ze niet fysiek worden mishandeld, kunnen kinderen diep getroffen worden als hun imago zodanig wordt veranderd dat het er seksueel expliciet uitziet.
“Het voelde alsof een deel van mij werd weggenomen. Ook al werd ik niet fysiek mishandeld”, zegt de 17-jarige Kaylin Hayman, die speelde in de Disney Channel-show “Just Roll with It” en hielp bij het doorvoeren van de wet in Californië nadat ze het slachtoffer werd van “deepfake” beelden.
Hayman getuigde vorig jaar tijdens het federale proces tegen de man die haar gezicht en dat van andere kindacteurs digitaal op lichamen plaatste die seksuele handelingen verrichtten. Hij werd in mei veroordeeld tot ruim veertien jaar gevangenisstraf.
Het is bekend dat open source AI-modellen die gebruikers op hun computers kunnen downloaden de voorkeur genieten van overtreders, die de tools verder kunnen trainen of aanpassen om expliciete afbeeldingen van kinderen te produceren, zeggen experts. Misbruikers wisselen tips uit in darkweb-gemeenschappen over hoe ze AI-tools kunnen manipuleren om dergelijke inhoud te creëren, zeggen functionarissen.
Een verslag van vorig jaar van de Stanford Internet Observatory ontdekte dat een onderzoeksdataset die de bron vormde voor toonaangevende AI-beeldmakers zoals Stable Diffusion links bevatte naar seksueel expliciete afbeeldingen van kinderen, wat bijdroeg aan het gemak waarmee sommige tools schadelijke beelden konden produceren. De dataset werd verwijderd, zeiden onderzoekers later zij hebben verwijderd meer dan 2.000 weblinks naar beelden van vermoedelijk seksueel kindermisbruik.
Toptechnologiebedrijven, waaronder Google, OpenAI en Stability AI, zijn overeengekomen om samen te werken met de anti-kindermisbruikorganisatie Thorn om de verspreiding tegen te gaan van beelden van seksueel misbruik van kinderen.
Maar experts zeggen dat er vanaf het begin meer had moeten worden gedaan om misbruik te voorkomen voordat de technologie algemeen beschikbaar werd. En de stappen die bedrijven nu ondernemen om het moeilijker te maken om toekomstige versies van AI-tools te misbruiken, zullen ‘weinig doen om te voorkomen dat’ overtreders ‘zonder detectie’ oudere versies van modellen op hun computer draaien’, merkte een aanklager van het ministerie van Justitie op in recente rechtszaken.
„Er werd geen tijd besteed aan het veilig maken van de producten, in plaats van aan het efficiënt maken ervan, en het is heel moeilijk om dat achteraf te doen – zoals we hebben gezien“, zegt David Thiel, hoofdtechnoloog van de Stanford Internet Observatory.
Het Nationaal Centrum voor Vermisten & Exploited Children's CyberTipline ontving vorig jaar ongeveer 4.700 meldingen van inhoud waarbij AI-technologie betrokken was – een kleine fractie van de in totaal ruim 36 miljoen meldingen van vermoedelijke seksuele uitbuiting van kinderen. In oktober van dit jaar verwerkte de groep ongeveer 450 rapporten per maand over AI-gerelateerde inhoud, zei Yiota Souras, Chief Legal Officer van de groep.
Deze cijfers kunnen echter een onderwaarde zijn, omdat de beelden zo realistisch zijn dat het vaak moeilijk te zeggen is of ze door AI zijn gegenereerd, zeggen experts.
„Onderzoekers besteden uren aan het proberen vast te stellen of een afbeelding daadwerkelijk een echte minderjarige afbeeldt of dat deze door AI is gegenereerd“, zegt Rikole Kelly, plaatsvervangend officier van justitie in Ventura County, die heeft meegeholpen aan het opstellen van het wetsontwerp in Californië. „Vroeger waren er enkele heel duidelijke indicatoren… met de vooruitgang in de AI-technologie is dat gewoon niet meer het geval.“
Ambtenaren van het ministerie van Justitie zeggen dat ze volgens de federale wetgeving al over de middelen beschikken om daders vanwege dergelijke beelden te vervolgen.
Het Amerikaanse Hooggerechtshof in In 2002 werd een federaal verbod opgeheven op virtueel materiaal over seksueel kindermisbruik. Maar een federale wet die het jaar daarop werd ondertekend, verbiedt de productie van visuele afbeeldingen, inclusief tekeningen, van kinderen die zich bezighouden met expliciet seksueel gedrag dat als ‘obsceen’ wordt beschouwd. Die wet, die volgens het ministerie van Justitie in het verleden is gebruikt om cartoonafbeeldingen van seksueel misbruik van kinderen aan te klagen, merkt specifiek op dat er geen vereiste is “dat de afgebeelde minderjarige daadwerkelijk bestaat.”
Het ministerie van Justitie heeft deze aanklacht in mei ingediend tegen een software-ingenieur uit Wisconsin die ervan werd beschuldigd de AI-tool Stable Diffusion te gebruiken om fotorealistische beelden te maken van kinderen die zich bezighouden met expliciet seksueel gedrag. bericht op Instagram, zeggen de autoriteiten. De advocaat van de man, die aandringt om de aanklacht af te wijzen op grond van het Eerste Amendement, weigerde verder commentaar op de beschuldigingen in een e-mail aan de AP.
Een woordvoerder van Stability AI zei dat de mens ervan wordt beschuldigd een eerdere versie van de tool te hebben gebruikt die is uitgebracht door een ander bedrijf, Runway ML. Stability AI zegt dat het “heeft geïnvesteerd in proactieve functies om misbruik van AI voor de productie van schadelijke inhoud te voorkomen” sinds het de exclusieve ontwikkeling van de modellen heeft overgenomen. Een woordvoerder van Runway ML reageerde niet onmiddellijk op een verzoek om commentaar van de AP.
In gevallen waarbij sprake is van ‘deepfakes’, waarbij de foto van een echt kind digitaal is gewijzigd om deze seksueel expliciet te maken, dient het ministerie van Justitie een aanklacht in op grond van de federale wet op ‘kinderpornografie’. In één geval heeft een kinderpsychiater uit North Carolina die een AI gebruikte Een aanvraag voor het digitaal ‘uitkleden’ van meisjes die op de eerste schooldag poseerden op een decennia oude foto die op Facebook werd gedeeld, werd vorig jaar veroordeeld wegens federale aanklachten.
“Deze wetten bestaan. Ze zullen worden gebruikt. Wij hebben de wil. We hebben de middelen”, zei Grocki. “Dit zal geen lage prioriteit hebben die we negeren omdat er geen echt kind bij betrokken is.”