Character.AI introduceert nieuwe veiligheidsmaatregelen voor AI-chatbotgesprekken



Character.AI heeft nieuwe veiligheidsfuncties en beleid geïntroduceerd voor het bouwen van en communiceren met de door AI aangedreven virtuele persoonlijkheden die het host. De nieuwe maatregelen zijn bedoeld om het platform veiliger te maken voor alle gebruikers, maar vooral voor jongeren. De update biedt meer controle over hoe minderjarigen omgaan met de AI chatbotmeer inhoudsmoderatie en betere detectie van de AI die onderwerpen als zelfbeschadiging bespreekt.

Hoewel niet geciteerd in de blogpost over de update, linkte Character AI naar de aankondiging in een bericht op X waarin hij zijn medeleven betuigde aan de familie van een 14-jarige die maandenlang interactie had gehad met een van Character.AI's chatbots voordat hij zelfmoord pleegde. . Zijn familie heeft nu een rechtszaak aangespannen tegen Character.AI wegens onrechtmatige dood, daarbij verwijzend naar een gebrek aan waarborgen voor de AI-chatbots als bijdrage aan zijn zelfmoord.

AI-chat vangrails





Source link