Ofcom heeft technologiebedrijven gewaarschuwd dat de inhoud van chatbots die echte en fictieve mensen nabootsen, in strijd zou kunnen zijn met de nieuwe digitale wetten van Groot-Brittannië.
De communicatieregulator vaardigde de richtlijnen uit nadat bleek dat gebruikers op het Character.AI-platform avatars hadden gemaakt die de overleden Britse tieners Brianna Ghey en Molly Russell nabootsten.
Onder druk van campagnevoerders voor digitale veiligheid om de situatie te verduidelijken, onderstreepte Ofcom dat inhoud die is gemaakt door door gebruikers gemaakte chatbots onder de reikwijdte van de wet zou vallen. Wet op onlineveiligheid.
Zonder het Amerikaanse kunstmatige-intelligentiebedrijf Character.AI te noemen, zei Ofcom dat een site of app waarmee gebruikers hun eigen chatbots konden maken waarmee andere mensen konden communiceren, onder de wet zou vallen.
„Dit omvat diensten die gebruikers tools bieden om chatbots te maken die de persona's van echte en fictieve mensen nabootsen, die kunnen worden ingediend bij een chatbotbibliotheek zodat anderen ermee kunnen communiceren“, aldus Ofcom.
In een open briefOfcom zei ook dat elke gebruiker-tot-gebruiker-site of app – zoals een sociale-mediaplatform of berichten-app – die mensen in staat stelt om door een chatbot op die site gegenereerde inhoud met anderen te delen, ook onder de reikwijdte zou vallen. Bedrijven die de wet overtreden, riskeren boetes van £18 miljoen of 10% van de wereldwijde omzet van een bedrijf. In extreme gevallen kunnen websites of apps ook worden geblokkeerd.
Ofcom zei dat het de richtlijnen had uitgegeven na “schrijnende incidenten”. Het belichtte een geval dat voor het eerst werd gerapporteerd door de Daily Telegraph, waarbij Character.AI-gebruikers bots creëerden om op te treden als virtuele klonen van Brianna, 16, een transgendermeisje dat vermoord door twee tieners vorig jaar, en Molly, wie maakte in 2017 een einde aan haar leven na het bekijken van schadelijke online-inhoud.
Het wees ook op een geval in de VS waarbij een tiener stierf nadat hij een relatie had ontwikkeld met een Character.AI-avatar gebaseerd op een Game of Thrones-personage.
De nieuwe regels voor onlineveiligheid, die volgend jaar volledig van kracht zullen worden, vereisen dat sociale media en andere platforms die door gebruikers gemaakte inhoud hosten, gebruikers, vooral kinderen, beschermen tegen illegaal en ander schadelijk materiaal.
De regels vereisen dat de grootste platforms systemen opzetten om illegaal en ander potentieel schadelijk materiaal proactief te verwijderen, terwijl ze ook duidelijke rapportagetools aan gebruikers bieden en risicobeoordelingen uitvoeren, naast andere nieuwe taken.
De Molly Rose Foundation (MRF)een liefdadigheidsinstelling opgericht door de familie van Molly, zei dat de begeleiding een “duidelijk signaal” afgeeft dat chatbots aanzienlijke schade kunnen aanrichten.
MRF zei echter dat er meer duidelijkheid nodig is over de vraag of door bot gegenereerde inhoud op grond van de wet als illegaal kan worden behandeld, nadat de regeringsadviseur voor terrorismewetgeving, Jonathan Hall KC, dit jaar zei dat de reacties op AI-chatbots niet voldoende afgedekt door bestaande wetgeving. Ofcom zal binnenkort richtlijnen opstellen over het aanpakken van illegale inhoud op platforms, inclusief chatbotmateriaal.
Ben Packer, partner bij advocatenkantoor Linklaters, zei: “Het feit dat Ofcom heeft moeten verduidelijken dat deze diensten mogelijk binnen de reikwijdte vallen, weerspiegelt de enorme omvang en enorme complexiteit van de Online Safety Act. Het is ook een symptoom van het feit dat de daad enkele jaren vóór de verspreiding van GenAI-tools en chatbots begon.”
Character.AI zei dat het de veiligheid op zijn platform “serieus neemt en karakters zowel proactief als in reactie op gebruikersrapporten modereert” en dat de chatbots Ghey, Russell en Game of Thrones zijn verwijderd.