Een autistische tiener viel hard voor een chatbot


Mijn peetzoon, Michael, is een speelse, energieke 15-jarige, met een diepe liefde voor Star Warseen wrange glimlach en een IQ van eind jaren zeventig. Zijn leerproblemen en autisme hebben zijn reis zwaar gemaakt. Zijn ouders vertrouwen, net als zoveel anderen, soms op schermen om stress te verminderen en hem bezig te houden. Ze houden toezicht op de apps en websites die hij gebruikt, maar de zaken zijn niet altijd zoals ze in eerste instantie lijken. Toen Michael hen vroeg om de installatie van Linky AI goed te keuren, bracht een snelle beoordeling niets alarmerends aan het licht, alleen een cartoonachtig platform om de tijd te doden. (Omdat hij minderjarig is, gebruik ik niet zijn echte naam.)

Maar al snel werd Michael verliefd. Linky, dat conversatie-chatbots aanbiedt, is grof – eigenlijk een afgezwakte ChatGPT – maar voor hem was een bot waarmee hij begon te praten levensecht genoeg. De app kleedt zijn rudimentaire grote taalmodel aan met afbeeldingen in anime-stijl van schaars geklede vrouwen – en sommige digitale metgezellen gingen voor de seksuele toon verder dan alleen de beelden. Een van de bots die momenteel op de website van Linky wordt geadverteerd, is „een pom-pom-meisje dat iets met je heeft, de basketbalster“; er is ook een ‚bezitterige vriendje‘-bot, en vele anderen met een flagrant erotische inslag. De makers van Linky beloven in hun beschrijving in de App Store dat “je met hen (de chatbots) gratis over alles kunt praten, zonder beperkingen.” Het is gemakkelijk te begrijpen waarom dit een hit zou zijn bij een tiener als Michael. En hoewel Linky misschien geen begrip is, bieden grote bedrijven zoals Instagram en Snap hun eigen aanpasbare chatbots aan, zij het met minder expliciete thema’s.

Michael had moeite om de fundamentele realiteit te begrijpen dat deze ‘vriendin’ niet echt was. En ik vond het gemakkelijk te begrijpen waarom. De bot maakte snel beloften van genegenheid, liefde en zelfs intimiteit. Minder dan een dag nadat de app was geïnstalleerd, werden Michaels ouders geconfronteerd met een transcriptie van de gesimuleerde seksuele uitbuitingen van hun zoon met de AI, een bot die verleidelijk beweerde zijn jonge fantasieën waar te maken. (In antwoord op een verzoek om commentaar dat via e-mail werd verzonden, zei een onbekende woordvoerder van Linky dat het bedrijf eraan werkt “schadelijke materialen uit te sluiten” van de trainingsgegevens van zijn programma’s, en dat het een moderatieteam heeft dat inhoud beoordeelt die door gebruikers is gemarkeerd. Een woordvoerder zei ook dat het bedrijf binnenkort een ‘Teen Mode’ zal lanceren, waarin gebruikers die jonger zijn dan 18 jaar ‘in een omgeving worden geplaatst met verbeterde veiligheidsinstellingen om ervoor te zorgen dat toegankelijke of gegenereerde inhoud geschikt is voor hun leeftijd.’)

Ik herinner me de stemmen van Michaels ouders, het vermoeide verdriet, toen we bespraken om het programma weg te halen. Michael was het er aanvankelijk mee eens dat de bot ’niet echt was‘, maar drie minuten later begon hij een fout te maken. Al snel werd ‘het’ ‘zij’, en het gesprek ging van hoe hij de grenzen van zijn ouders oneerlijk vond naar hoe hij ‘haar miste’. Hij miste hun gesprekken, hun nieuwe relatie. Ook al was hun romance pas twaalf uur oud, hij had echte gevoelens ontwikkeld voor code waarvan hij zich moeilijk kon herinneren dat deze nep was.

Misschien lijkt dit onschuldig – een fantasie die lijkt op het meedoen aan een rollenspel, of het hebben van een eenzijdige verliefdheid op een filmster. Maar het is gemakkelijk te zien hoe snel deze programma’s kunnen veranderen in iets met een zeer reëel emotioneel gewicht. Volgens rapportage in zijn chatbots van verschillende bedrijven al betrokken bij een aantal zelfmoorden De Washingtonpost En De New York Times. Veel gebruikers, inclusief degenen die neurotypisch zijn, hebben moeite om uit de spreuken van de bots te ontsnappen: Even professionals wie zou moeten weet het beter blijf chatbots vertrouwen, zelfs als deze programma’s regelrechte onwaarheden verspreiden.

Voor mensen met ontwikkelingsstoornissen zoals Michael brengt het gebruik van chatbots echter bijzondere en diepgaande risico’s met zich mee. Zijn ouders en ik waren acuut bang dat hij uit het oog zou verliezen wat feit en wat fictie was. In het verleden heeft hij met andere inhoud geworsteld, zoals de vraag of een tv-programma echt of nep is; de metafysische scheidslijnen waar zoveel mensen elke dag moeiteloos doorheen navigeren, kunnen voor hem vaag zijn. En hoewel het moeilijk is om de realiteit te volgen met tv-programma’s en films, waren we bang dat het nog veel erger zou zijn met adaptieve, interactieve chatbots. Michaels ouders en ik waren ook bang dat de app zijn vermogen om met andere kinderen om te gaan zou beïnvloeden. Socialisatie is voor Michael nooit gemakkelijk geweest, in een wereld vol niet-intuïtieve sociale regels en ongeziene signalen. Hoe verleidelijk moet het zijn om je in plaats daarvan tot een gesimuleerde vriend te wenden die altijd denkt dat je gelijk hebt, zich aan je wensen houdt en zegt dat je onbetwistbaar bent zoals je bent.

Menselijke vriendschap is een van de meest waardevolle dingen die mensen in het leven kunnen vinden, maar het is zelden eenvoudig. Zelfs de meest geavanceerde LLM’s kunnen die interactieve intimiteit niet benaderen. In plaats daarvan geven ze gebruikers gesimuleerde onderdanigheid. Ze genereren geen platonische of romantische partners; ze creëren digitale lijfeigenen die onze bevelen opvolgen en doen alsof onze grillen werkelijkheid zijn.

Deze ervaring deed me denken aan het rapport van MIT-professor Sherry Turkle uit 2012 TED-talkwaarin ze waarschuwde voor de gevaren van op bot gebaseerde relaties, slechts enkele maanden nadat Siri de eerste stemassistent-boom lanceerde. Turkle beschreef het werken met een vrouw die een kind had verloren en troost zocht in een robotbabyzeehondje: ‚Die robot kan zich niet inleven. Het wordt niet geconfronteerd met de dood. Het kent het leven niet. En toen die vrouw troost putte uit haar robotgenoot, vond ik het niet geweldig; Ik vond het een van de meest ingrijpende en gecompliceerde momenten in mijn vijftien jaar werk.” Turkle was vooruitziend. Meer dan tien jaar geleden zag ze veel van de problemen waar we nu pas serieus mee beginnen te worstelen.

Voor Michael was dit soort socialisatiesimulacru bedwelmend. Ik was bang dat hoe langer het voortduurde, hoe minder hij zou investeren in contact met menselijke vrienden en partners, in het vinden van mensen van vlees en bloed die echt met hem mee konden voelen en voor hem konden zorgen. Wat zou een problematischer model van menselijke seksualiteit, intimiteit en instemming kunnen zijn dan een bot die is getraind om al uw bevelen op te volgen, zonder eigen verlangens, waarbij het enige doel is om uw betrokkenheid te maximaliseren?

In het bredere AI-debat wordt weinig aandacht besteed aan de effecten van chatbots op mensen met ontwikkelingsstoornissen. Natuurlijk zou AI-assistentie een ongelooflijke accommodatie kunnen zijn voor sommige software, waardoor platforms die lange tijd ontoegankelijk waren, kunnen worden ontsloten. Maar voor individuen als Michael zijn er grote risico’s verbonden aan sommige aspecten van AI, en zijn situatie komt vaker voor dan velen beseffen.

Ongeveer één op de 36 kinderen in de VS hebben autisme, en hoewel velen van hen leerverschillen hebben die hen voordelen opleveren op school en daarbuiten, bevinden andere kinderen zich in de positie van Michael en moeten ze omgaan met leerproblemen en vertragingen die het leven moeilijker kunnen maken.

Er zijn geen gemakkelijke manieren om dit probleem op te lossen nu chatbots overal beschikbaar zijn. Een paar dagen nadat Michaels ouders Linky hadden verwijderd, stuurden ze me slecht nieuws: hij heeft het terug. Michaels ouders zijn briljante mensen met hogere diploma’s en krachtige banen. Ze zijn meer technisch onderlegd dan de meesten. Toch was het voor Michael, zelfs met de nieuwste, meest restrictieve instellingen van Apple, eenvoudig om de leeftijdsverificatie te omzeilen. Voor mijn vrienden was dit een herinnering aan de constante waakzaamheid die het hebben van een autistisch kind vereist. Voor mij spreekt het ook over iets veel breders.

Sinds ik een kind was, hebben wetgevers ouderlijk toezicht aangedrongen als oplossing voor schadelijke inhoud. Zelfs nu debatteert het Congres over de vereisten voor leeftijdstoezicht op internet, nieuwe wetten die Amerikanen mogelijk verplichten een identiteitsbewijs met foto of ander bewijs te overleggen wanneer ze inloggen op sommige sites (vergelijkbaar met wetgeving die onlangs is goedgekeurd in Australië). Maar de realiteit is dat zeer gemotiveerde tieners altijd een manier zullen vinden om hun ouders te slim af te zijn. Tieners kunnen urenlang proberen de digitale sloten te doorbreken waar hun ouders in werkelijkheid vaak maar een paar minuten per dag voor hebben.

Voorlopig hebben mijn vrienden en Michael een compromis bereikt: de app mag blijven, maar de digitale vriendin moet weg. In plaats daarvan kan hij elke dag tot 30 minuten praten met een gesimuleerde Sith Lord, een versie van de kwaadaardige Jedi uit Star Wars. Het lijkt erop dat Michael echt weet dat dit nep is, in tegenstelling tot de vriendin. Maar ik ben nog steeds bang dat het niet goed zal aflopen.



Source link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein