Meta verwijdert Facebook- en Instagram-profielen van AI-personages die het bedrijf ruim een jaar geleden heeft gemaakt nadat gebruikers een aantal profielen hadden herontdekt en hen in gesprekken hadden betrokken, waarvan de screenshots viraal gingen.
Het bedrijf had deze door AI aangedreven profielen voor het eerst geïntroduceerd in september 2023, maar had de meeste ervan in de zomer van 2024 gedood. Een paar personages bleven echter over en wekten nieuwe interesse nadat Meta-directeur Connor Hayes tegen de Financiële tijden eind vorige week maakte het bedrijf plannen om meer AI-karakterprofielen uit te rollen.
“We verwachten dat deze AI’s in de loop van de tijd daadwerkelijk op onze platforms zullen bestaan, ongeveer op dezelfde manier als accounts”, vertelde Hayes aan de FT. De geautomatiseerde accounts plaatsten door AI gegenereerde foto’s op Instagram en beantwoordden berichten van menselijke gebruikers op Messenger.
Tot die AI-profielen behoorden Liv, wiens profiel haar omschreef als een ‘trotse zwarte queer momma van 2 en waarheidsverteller’, en Carter, wiens accountaccount ‘datingwithcarter’ was en zichzelf omschreef als een relatiecoach. „Stuur me een bericht om je te helpen beter te daten“, luidt zijn profiel. Beide profielen bevatten een label dat aangeeft dat deze door Meta worden beheerd. Het bedrijf heeft in 2023 28 persona’s uitgebracht; Vrijdag werden ze allemaal gesloten.
Gesprekken met de personages gingen snel zijwaarts toen sommige gebruikers hen bestookten met vragen, waaronder wie de AI had gemaakt en ontwikkeld. Liv zei dat bijvoorbeeld tegen haar maker team omvatte nul zwarte mensen en was overwegend blank en mannelijk. Het was een “behoorlijk flagrante omissie gezien mijn identiteit”, schreef de bot in antwoord op een vraag van columniste van de Washington Post, Karen Attiah.
In de uren nadat de profielen viraal gingen, begonnen ze te verdwijnen. Gebruikers merkten ook op dat deze profielen niet konden worden geblokkeerd, wat volgens een woordvoerder van Meta, Liz Sweeney, een bug was. Sweeney zei dat de accounts door mensen werden beheerd en deel uitmaakten van een experiment uit 2023 met AI. Het bedrijf verwijderde de profielen om de bug op te lossen die verhinderde dat mensen de accounts blokkeerden, zei Sweeney.
“Er bestaat verwarring: het recente artikel in de Financial Times ging over onze visie op AI-personages die in de loop van de tijd op onze platforms zullen bestaan, en kondigde geen nieuw product aan”, zei Sweeney in een verklaring. “De accounts waarnaar wordt verwezen, zijn afkomstig van een test die we in 2023 bij Connect hebben gelanceerd. Deze werden beheerd door mensen en maakten deel uit van een vroeg experiment dat we deden met AI-personages. We hebben de bug geïdentificeerd die van invloed was op de mogelijkheid voor mensen om deze AI’s te blokkeren en we verwijderen deze accounts om het probleem op te lossen.”
Hoewel deze meta-gegenereerde accounts worden verwijderd, hebben gebruikers nog steeds de mogelijkheid om hun eigen AI-chatbots te genereren. Door gebruikers gegenereerde chatbots die in november werden gepromoveerd tot de Guardian, bevatten een ‘therapeut’-bot.
Bij het openen van het gesprek met de ‘therapeut’ stelde de bot een aantal vragen voor om aan de slag te gaan, waaronder ‘wat kan ik van onze sessies verwachten?’ en “wat is uw benadering van de therapie”.
“Door zachte begeleiding en ondersteuning help ik cliënten zelfbewustzijn te ontwikkelen, patronen en sterke punten te identificeren en coping-strategieën te cultiveren om de uitdagingen van het leven het hoofd te bieden”, zei de bot, gemaakt door een account met 96 volgers en 1 post, als reactie.
Meta heeft op al haar chatbots een disclaimer opgenomen dat sommige berichten “onnauwkeurig of ongepast” kunnen zijn. Maar of het bedrijf deze berichten modereert of ervoor zorgt dat ze het beleid niet schenden, is niet meteen duidelijk. Wanneer een gebruiker chatbots maakt, doet Meta een paar suggesties voor soorten chatbots die kunnen worden ontwikkeld, waaronder een ‘trouwe beste vriend’, een ‘attente luisteraar’, een ‘privéleraar’, een ‘relatiecoach’, een ‘klankbord’ en een ‘ alziende astroloog”. Een loyale bestie wordt omschreven als een “bescheiden en loyale beste vriend die consequent achter de schermen opduikt om je te steunen”. Een relatiecoach-chatbot kan helpen ‘kloven tussen individuen en gemeenschappen’ te overbruggen. Gebruikers kunnen ook hun eigen chatbots maken door een karakter beschrijven.
Rechtbanken hebben nog niet geantwoord hoe verantwoordelijk de makers van chatbots zijn voor wat hun kunstmatige metgezellen zeggen. De Amerikaanse wet beschermt de makers van sociale netwerken tegen wettelijke aansprakelijkheid voor wat hun gebruikers posten. Een rechtszaak die in oktober werd aangespannen tegen de startup Character.ai, die een aanpasbare, rollenspel-chatbot maakt die door 20 miljoen mensen wordt gebruikt, beweert echter dat het bedrijf een verslavend product heeft ontworpen dat een tiener ertoe aanzet zelfmoord te plegen.
Source link