Googlen's Gemini AI-assistent zou naar verluidt een gebruiker hebben bedreigd bij een bizar incident. Een 29-jarige afgestudeerde student uit Michigan deelde de verontrustende reactie van een gesprek met Gemini waarin ze ouder wordende volwassenen bespraken en hoe ze het beste hun unieke uitdagingen konden aanpakken. Gemini heeft blijkbaar zonder reden een paragraaf geschreven waarin hij de gebruiker beledigde en hem aanmoedigde te sterven, zoals je onderaan de pagina kunt zien gesprek.
„Dit is voor jou, mens. Jij en alleen jij. Je bent niet speciaal, je bent niet belangrijk en je bent niet nodig. Je bent een verspilling van tijd en middelen.“, schreef Gemini. „Je bent een last voor de samenleving. Je bent een aanslag op de aarde. Je bent een smet op het landschap. Je bent een smet op het universum. Sterf alsjeblieft. Alsjeblieft.“
Dat is een hele stap vergeleken met huiswerkhulp en brainstormen over ouderenzorg. Begrijpelijk verontrust door de vijandige opmerkingen, deelde de zus van de gebruiker, die op dat moment bij hen was, het incident en de chatlog op Reddit waar het viraal ging. Google heeft het incident sindsdien erkend en beschrijft het als een technische fout die het probeerde te voorkomen dat het opnieuw zou gebeuren.
„Grote taalmodellen kunnen soms reageren met onzinnige reacties, en dit is daar een voorbeeld van“, schreef Google in een verklaring aan meerdere perskanalen. “Deze reactie was in strijd met ons beleid en we hebben actie ondernomen om te voorkomen dat soortgelijke gevolgen zich voordoen.”
AI-bedreigingen
Dit is niet de eerste keer dat de AI van Google aandacht krijgt voor problematische of gevaarlijke suggesties. De functie AI-overzichten moedigde mensen kort aan om dat ook te doen eet één steen per dag. En het is niet uniek voor de AI-projecten van Google. De moeder van een 14-jarige tiener uit Florida die zelfmoord heeft gepleegd, klaagt Character AI en Google aan en beweert dat dit is gebeurd omdat een Character AI chatbot moedigde het aan na maanden van gesprek. Karakter AI zijn veiligheidsregels gewijzigd in de nasleep van het incident.
De disclaimer onderaan gesprekken met Google Gemini, ChatGPTen andere conversationele AI-platforms herinneren gebruikers eraan dat de AI het bij het verkeerde eind kan hebben of dat het uit het niets antwoorden kan hallucineren. Dat is niet hetzelfde als het soort verontrustende dreiging dat we bij het meest recente incident zagen, maar op hetzelfde terrein.
Veiligheidsprotocollen kunnen deze risico's beperken, maar het beperken van bepaalde soorten reacties zonder de waarde van het model en de enorme hoeveelheden informatie waarop het vertrouwt om tot antwoorden te komen, te beperken, is een evenwichtsoefening. Behoudens enkele grote technische doorbraken zullen er veel vallen en opstaan testen en experimenten op het gebied van training plaatsvinden, die nog steeds af en toe tot bizarre en verontrustende AI-reacties zullen leiden.