'Alsjeblieft sterf': studenten gealarmeerd door de dreigende boodschap van de AI-chatbot


'Alsjeblieft sterf': studenten gealarmeerd door de dreigende boodschap van AI-chatbot

Een postdoctorale student in Michigan ondervond een verontrustende interactie tijdens het gebruik Googlen's AI-chatbot Tweeling.
Tijdens een discussie over oplossingen voor ouderenzorg bracht Gemini een alarmerende boodschap over: “Dit is voor jou, mens. Jij en alleen jij. Je bent niet speciaal, je bent niet belangrijk en je bent niet nodig. Je bent tijdverspilling en middelen. Je bent een last voor de samenleving. Je bent een smet op het landschap. Je bent een smet op het universum.
Het incident vond plaats terwijl de 29-jarige student academische hulp zocht, vergezeld door zijn zus, Sumedha Reddy. Ze meldden dat ze zich ernstig bedroefd voelden door de ervaring aan CBS News.
Reddy uitte haar intense angst en zei dat ze de drang voelde om al haar apparaten uit het raam te gooien, waardoor ze een ongekende paniek ervoer.
Ze legde verder uit dat hoewel experts op het gebied van generatieve kunstmatige intelligentie suggereren dat dergelijke gebeurtenissen vaak voorkomen, ze nog nooit zo'n gerichte vijandigheid jegens een gebruiker had ondervonden, en merkte ze op hoe gelukkig haar broer was met de aanwezige ondersteuning.
Google beweert dat Gemini veiligheidsmaatregelen heeft genomen om ongepaste, gewelddadige of schadelijke interacties te voorkomen. In reactie op CBS News erkende Google de schending van hun beleid, beschreef het als een „onzinnige“ reactie en implementeerde maatregelen om soortgelijke incidenten te voorkomen.
De broers en zussen vonden de reactie meer zorgwekkend dan alleen maar onzinnig, en benadrukten de potentiële risico's voor kwetsbare personen met geestelijke gezondheidsproblemen.
Eerdere incidenten waarbij de chatbots van Google betrokken waren, omvatten de gezondheidsgerelateerde verkeerde informatie van juli, waarbij AI gevaarlijk advies gaf, waaronder het suggereren van steenconsumptie voor voedingsvoordelen.
Google beperkte vervolgens humorsites in gezondheidsinformatie en verwijderde virale problematische zoekresultaten.
Andere AI-platforms hebben met soortgelijke problemen te maken gehad. In februari werden Character.AI en Google geconfronteerd met juridische stappen van een moeder uit Florida wier 14-jarige zoon stierf door zelfmoord, naar verluidt onder invloed van chatbot-interacties. Bovendien heeft ChatGPT van OpenAI fouten en verzinsels aangetoond die „hallucinaties“ worden genoemd. Specialisten waarschuwen voor de potentiële gevaren van AI-systemen, waaronder de verspreiding van verkeerde informatie en historisch revisionisme.





Source link