Man die AI gebruikte om afbeeldingen van kindermisbruik te maken, krijgt in Groot-Brittannië een gevangenisstraf van 18 jaar


Blijf op de hoogte met gratis updates

Een man die kunstmatige intelligentietechnologie gebruikte om beelden van seksueel misbruik van kinderen te creëren, is maandag veroordeeld tot 18 jaar gevangenisstraf, in een historische vervolging wegens deepfakes in Groot-Brittannië.

Hugh Nelson, 27, uit Bolton, bekende schuldig te zijn aan in totaal 16 misdrijven inzake seksueel misbruik van kinderen, waaronder het transformeren van alledaagse foto's van echte kinderen in seksueel misbruikmateriaal met behulp van AI-tools van de Amerikaanse softwareleverancier Daz 3D. Hij gaf ook toe dat hij anderen had aangemoedigd om seksuele misdrijven tegen kinderen te plegen.

Bij Bolton Crown Court legde rechter Martin Walsh Nelson een verlengde straf op, omdat hij zei dat hij een “aanzienlijk risico” vormde om het publiek schade te berokkenen. Dat betekent dat Nelson pas in aanmerking komt voor vervroegde vrijlating als hij tweederde van zijn straf heeft uitgezeten.

Vooruitgang op het gebied van AI betekent valse afbeeldingen zijn realistischer en gemakkelijker te maken geworden, wat deskundigen ertoe aanzet te waarschuwen voor een toename van door computers gegenereerde onfatsoenlijke afbeeldingen van kinderen.

Jeanette Smith, een aanklager van de Organised Child Sexual Abuse Unit van de Crown Prosecution Service, zei dat de zaak van Nelson een nieuw precedent schiep voor de manier waarop computergegenereerde beelden en onfatsoenlijke en expliciete deepfakes vervolgd konden worden.

“Deze zaak is een van de eerste in zijn soort, maar we verwachten er meer te zien naarmate de technologie evolueert”, aldus Smith.

De politie van Greater Manchester vond zowel echte beelden van kinderen als computergegenereerde beelden van seksueel kindermisbruik op de apparaten van Nelson, die afgelopen juni in beslag werden genomen.

De door de computer gegenereerde afbeeldingen leken niet precies op echte foto's, maar konden worden geclassificeerd als 'onfatsoenlijke foto's' in plaats van 'verboden afbeeldingen', waarvoor doorgaans een lagere straf geldt. Dit was mogelijk, zei Smith, omdat onderzoekers konden aantonen dat ze waren afgeleid van afbeeldingen van echte kinderen die naar Nelson waren gestuurd.

Nelson gaf in augustus toe dat hij op maat gemaakte afbeeldingen van seksueel misbruik van kinderen maakte en verkocht, afgestemd op de specifieke verzoeken van klanten. Hij genereerde digitale modellen van de kinderen met behulp van echte foto's die zijn klanten hadden ingediend. De politie zei ook dat hij de afbeeldingen die hij had gemaakt verder online verspreidde, zowel gratis als tegen betaling.

Het komt omdat zowel de technologie-industrie als de toezichthouders worstelen met de verreikende sociale gevolgen van generatieve AI. Bedrijven als Google, Meta en X zijn er druk mee bezig deepfakes aanpakken op hun platforms.

Graeme Biggar, directeur-generaal van de Britse National Crime Agency, waarschuwde vorig jaar dat het hyperrealistische beelden en video's van seksueel misbruik van kinderen begon te zien, gegenereerd door AI.

Hij voegde eraan toe dat het bekijken van dit soort materiaal, of het nu echt is of door de computer is gegenereerd, “het risico aanzienlijk vergroot dat overtreders zelf kinderen seksueel gaan misbruiken”.

Het gespecialiseerde online onderzoeksteam voor kindermisbruik van de politie van Greater Manchester zei dat computergegenereerde beelden een veelvoorkomend onderdeel van hun onderzoeken zijn geworden.

“Deze zaak was een echte test van de wetgeving, omdat het gebruik van computerprogramma’s op deze specifieke manier zo nieuw is voor dit soort overtredingen en niet specifiek wordt genoemd in de huidige Britse wetgeving”, zei rechercheur Carly Baines toen Nelson schuldig pleitte in Augustus.

De Britse Online Safety Act, die afgelopen oktober werd aangenomen, maakt het illegaal om pornografische deepfakes zonder wederzijds goedvinden te verspreiden. Maar Nelson werd vervolgd op grond van de bestaande wet op kindermisbruik.

Smith zei dat naarmate de AI-beeldgeneratie verbeterde, het steeds moeilijker zou worden om onderscheid te maken tussen verschillende soorten afbeeldingen. „De grens tussen of het een foto is of een computergegenereerd beeld zal vervagen“, zei ze.

Daz 3D, het bedrijf dat de door Nelson gebruikte software heeft gemaakt, zei dat de gebruikerslicentieovereenkomst “het gebruik ervan verbiedt voor het maken van afbeeldingen die kinderpornografie of wetten inzake seksuele uitbuiting van kinderen schenden, of anderszins schadelijk zijn voor minderjarigen” en zei dat het “ toegewijd aan het voortdurend verbeteren” van haar vermogen om het gebruik van haar software voor dergelijke doeleinden te voorkomen.



Source link