Character.AI heeft nieuwe veiligheidsfuncties en beleid geïntroduceerd voor het bouwen van en communiceren met de door AI aangedreven virtuele persoonlijkheden die het host. De nieuwe maatregelen zijn bedoeld om het platform veiliger te maken voor alle gebruikers, maar vooral voor jongeren. De update biedt meer controle over hoe minderjarigen omgaan met de AI chatbotmeer inhoudsmoderatie en betere detectie van de AI die onderwerpen als zelfbeschadiging bespreekt.
Hoewel niet geciteerd in de blogpost over de update, linkte Character AI naar de aankondiging in een bericht op X waarin hij zijn medeleven betuigde aan de familie van een 14-jarige die maandenlang interactie had gehad met een van Character.AI's chatbots voordat hij zelfmoord pleegde. . Zijn familie heeft nu een rechtszaak aangespannen tegen Character.AI wegens onrechtmatige dood, daarbij verwijzend naar een gebrek aan waarborgen voor de AI-chatbots als bijdrage aan zijn zelfmoord.
We zijn diepbedroefd door het tragische verlies van een van onze gebruikers en willen ons diepste medeleven betuigen aan de familie. Als bedrijf nemen we de veiligheid van onze gebruikers zeer serieus en we blijven nieuwe veiligheidsfuncties toevoegen waarover u hier kunt lezen:…23 oktober 2024