De populairste zoekopdrachten in Groot-Brittannië, zoals Google, Microsoft's Bing en Yahoo, geven resultaten weer voor tutorials waarin wordt uitgelegd hoe je deepfake-porno kunt maken.
63905
Een onderzoek in de verspreiding van deepfake-pornografie door het vrouwenblad Glamour onthulde dat de populairste zoekmachines van Groot-Brittannië gebruikers naar snode deepfake-tutorials en expliciete AI-software leiden.
Uit het rapport blijkt dat Google, Microsoft's Bing en Yahoo de meest gebruikte zoekmachines in Groot-Brittannië zijn Statistisch– tonen momenteel allemaal resultaten voor tutorials waarin wordt uitgelegd hoe je deepfake-porno kunt maken en face-swapping-technologie kunt gebruiken. Dit is zeer zorgwekkend gezien de productieve en schadelijke aard van deepfake kunstmatige intelligentie (AI).
Andere resultaten boden ook toegang tot expliciete AI-software en uitkleden apps nudificerenwaaruit blijkt dat ondanks regering en de inspanningen van de industrie om de verspreiding van schadelijke pornografie tegen te gaan, blijft de inhoud nog steeds doorzoekbaar En deelbaar.
Natuurlijk heeft niet iedereen kwade bedoelingen, maar de toegankelijkheid van deze tools maakt dit mogelijk iedereen om expliciete afbeeldingen van a na te maken beroemdheidex-vriendin of iemand anders met eenvoudige beelden van hun gezicht – met of zonder hun toestemming.
De afgelopen maanden heeft SCREENSHOT uitgebreid gerapporteerd over de verspreiding van kunstmatig gemaakte pornografie en hoe deze opmerkelijke beroemdheden zoals Taylor Swift, Jenna Ortega, Sabrina TimmermanEn Sydney Sweeney. Ze dienen echter alleen als voorbeeld van hoe deze praktijk de vrijheden heeft beperkt en de angst heeft vergroot van vrouwen over de hele wereld, die kwetsbaar zijn voor uitbuiting via deze methoden.
Onderzoek door McAfee laat zien dat de afgelopen maanden 27 procent van de internetgebruikers heeft hun beeltenis gebruikt om seksueel expliciete inhoud te creëren en dat mensen zich steeds meer zorgen maken over het gebruik van hun afbeeldingen zonder hun toestemming.
Hetzelfde geldt voor rapporten van een identiteitsdiefstalbedrijf Helden op het gebied van huisbeveiliging onthulde een 550 procent toename van het aantal deepfake-video's online in 2023. En nu er steeds meer berichten zijn over adolescenten die aan deze praktijk worden blootgesteld, is het niet alleen een noodzaak, maar ook een plicht voor de Britse regering om de veiligheid van haar burgers online te beschermen.
Bovendien is 91 procent van de 12 miljoen lezers van het tijdschrift Glamour het ermee eens dat deepfake-pornografie een directe bedreiging vormt voor de samenleving. veiligheid van vrouwen.
Nu deepfake-misbruik steeds meer mainstream is geworden, hebben digitale platforms en de Britse overheid beleid en praktijken geïntroduceerd om beledigende inhoud te beteugelen. In april 2024 bijvoorbeeld, de Britse regering kondigde een repressie aan over mensen die seksueel expliciete 'deepfakes' creëren. Dit zou worden bewerkstelligd door wijzigingen in de Wetsvoorstel strafrechtinclusief nieuwe overtredingen voor het maken van dit soort inhoud. Het amendement werd echter bekritiseerd omdat het zich concentreerde op de intentie om schade te veroorzaken, in plaats van op eenvoudige toestemming.
Bedrijven zoals Meta, Pornhub, Alleen fans En TikTok hebben zich allemaal aangesloten bij initiatieven met goede doelen en organisaties die zich richten op de online veiligheid van vrouwen om op het probleem te reageren. Insgelijks, Reddit beweert meer personeel te hebben ingehuurd om schadelijke inhoud te verwijderen die in strijd is met zijn beleid.
Toch wordt het duidelijk dat deze maatregelen niet voldoende zijn om de toename van deepfakes voldoende aan te pakken, aangezien ze alleen deze inhoud beheren in plaats van een daadwerkelijk algeheel verbod in te voeren.
“Het is te weinig, te laat”, vertelde professor Clare McGlynn, een vooraanstaand expert op het gebied van door technologie gefaciliteerd misbruik, aan het vrouwenblad. “Er bestaat een heel ecosysteem rond de creatie en distributie van seksueel expliciete deepfakes dat zich heeft kunnen verspreiden.”