DKan aspartaam kanker veroorzaken? Over de potentieel kankerverwekkende eigenschappen van de populaire kunstmatige zoetstof, toegevoegd aan alles van frisdranken tot kindermedicijnen, wordt al tientallen jaren gedebatteerd. De goedkeuring ervan in de VS zorgde in 1974 voor controverse, verschillende Britse supermarkten verboden het in de jaren 00 van hun producten, en collegiaal getoetste academische studies hebben lange tijd met elkaar gebotst. Vorig jaar concludeerde de Wereldgezondheidsorganisatie dat aspartaam “mogelijk kankerverwekkend” voor mensen, terwijl toezichthouders op het gebied van de volksgezondheid suggereren dat het veilig is om te consumeren in de kleine porties waarin het gewoonlijk wordt gebruikt.
Hoewel velen van ons de vraag misschien willen oplossen met een snelle Google-zoekopdracht, is dit precies het soort omstreden debat dat problemen zou kunnen veroorzaken voor het internet van de toekomst. Omdat generatieve AI-chatbots zich de afgelopen jaren snel hebben ontwikkeld, hebben technologiebedrijven ze snel gehyped als een utopische vervanging voor verschillende banen en diensten, waaronder internetzoekmachines. In plaats van door een lijst met webpagina's te scrollen om het antwoord op een vraag te vinden, kan een AI-chatbot het internet voor je afstruinen, op zoek naar relevante informatie en zo een kort antwoord op je vraag samenstellen. Googlen en Microsoft zetten groot in op het idee en hebben door AI gegenereerde samenvattingen al geïntroduceerd in Google Zoeken en Bing.
Maar wat wordt voorgesteld als een gemakkelijkere manier om online informatie op te zoeken, heeft geleid tot onderzoek naar hoe en waar deze chatbots de informatie selecteren die ze verstrekken. Kijkend naar het soort bewijsmateriaal dat grote taalmodellen (LLM’s, de motoren waarop chatbots zijn gebouwd) het meest overtuigend vinden, concluderen drie computerwetenschappers van de Universiteit van Californië, Berkeley, vond dat huidige chatbots overdreven vertrouwen op de oppervlakkige relevantie van informatie. Ze hebben de neiging om voorrang te geven aan tekst die relevant technisch taalgebruik bevat of vol staat met gerelateerde trefwoorden, terwijl ze andere kenmerken negeren die we gewoonlijk zouden gebruiken om de betrouwbaarheid te beoordelen, zoals het opnemen van wetenschappelijke referenties of objectief taalgebruik zonder persoonlijke vooringenomenheid.
Voor de meest eenvoudige vragen zijn dergelijke selectiecriteria voldoende om bevredigende antwoorden te opleveren. Maar wat een chatbot moet doen bij een complexer debat, zoals dat rond aspartaam, is minder duidelijk. “Willen we dat ze eenvoudigweg uw zoekresultaten voor u samenvatten, of willen we dat ze optreden als mini-onderzoeksassistenten die al het bewijsmateriaal afwegen en u alleen maar een definitief antwoord presenteren”, vraagt Alexander Wan, een niet-gegradueerde onderzoeker en mede-onderzoeker. auteur van de studie. Deze laatste optie zou maximaal gemak bieden, maar maakt de criteria waarop chatbots informatie selecteren des te belangrijker. En als iemand op de een of andere manier aan deze criteria zou kunnen voldoen, Kunnen ze de informatie garanderen die een chatbot voor de ogen van miljarden internetgebruikers plaatst?
Generatief motor optimalisatie
Het is een vraag die bedrijven, makers van inhoud en anderen die controle willen hebben over hoe ze online worden gezien, heeft geanimeerd, en heeft geleid tot een opkomende industrie van marketingbureaus die diensten aanbieden in wat bekend is geworden als generatieve motoroptimalisatie (GEO). Het idee is dat online-inhoud op een zodanige manier kan worden geschreven en gepresenteerd dat de zichtbaarheid ervan voor chatbots wordt verbeterd, waardoor de kans groter wordt dat deze in hun output verschijnt. De voordelen liggen voor de hand: als iemand een chatbot zou vragen om bijvoorbeeld de beste stofzuiger aan te bevelen, zou een fabrikant van huishoudelijke apparaten willen dat deze naar zijn nieuwste model verwijst en er in lovende bewoordingen over praat.
Het basisprincipe is vergelijkbaar met zoekmachineoptimalisatie (SEO), een veel voorkomende praktijk waarbij webpagina's worden gebouwd en geschreven om de aandacht van zoekmachinealgoritmen te trekken, waardoor ze bovenaan de lijst met resultaten komen te staan wanneer u een zoekopdracht uitvoert op Googlen of Bing. GEO en SEO delen enkele basistechnieken, en websites die al zijn geoptimaliseerd voor zoekmachines hebben over het algemeen een grotere kans om in chatbot-uitvoer te verschijnen. Maar degenen die de zichtbaarheid van hun AI echt willen verbeteren, moeten holistischer denken.
“Rankingen in AI-zoekmachines en LLM’s vereisen functies en vermeldingen op relevante websites van derden, zoals nieuwsuitzendingen, lijsten, forums en branchepublicaties”, zegt Viola Eva, oprichter van marketingbedrijf Flow Agency, dat onlangs een nieuwe merknaam heeft gekregen om verder uit te breiden zijn SEO-specialiteit omgezet in GEO. “Dit zijn taken die we doorgaans associëren met merk- en PR-teams.”
Gaming-chatbots zijn dus mogelijk, maar niet eenvoudig. En hoewel website-eigenaren en makers van inhoud de afgelopen decennia een voortdurend evoluerende lijst van essentiële SEO-do’s en don’ts hebben opgesteld, bestaat er niet zo’n duidelijk geheel van regels voor het manipuleren van AI-modellen. De term generatieve motoroptimalisatie werd pas vorig jaar in een jaar geïntroduceerd academisch artikelwaarvan de auteurs concludeerden dat het gebruik van gezaghebbende taal (ongeacht wat er wordt uitgedrukt en of de informatie correct is) naast verwijzingen (zelfs verwijzingen die onjuist zijn of geen verband houden met wat ze citeren) de zichtbaarheid in chatbotreacties met maximaal kan vergroten 40%. Maar ze benadrukken dat deze bevindingen niet prescriptief zijn, en het identificeren van de exacte regels voor chatbots is inherent lastig.
“Het is een kat-en-muisspel”, zegt Ameet Deshpande, promovendus aan de Princeton University, New Jersey, en co-auteur van het artikel. “Omdat deze generatieve motoren niet statisch zijn en ook zwarte dozen zijn, hebben we geen enkel idee van wat ze gebruiken (om informatie te selecteren) achter gesloten deuren. Het kan variëren van ingewikkelde algoritmen tot mogelijk menselijk toezicht.”
Degenen die een stevigere grip op chatbots willen, zullen wellicht meer achterbakse technieken moeten onderzoeken, zoals die ontdekt door twee computerwetenschappers aan de Harvard University. Ze hebben gedemonstreerd hoe chatbots tactisch kunnen worden bestuurd door zoiets eenvoudigs als een zorgvuldig geschreven tekstreeks in te zetten. Deze “strategische tekstreeks” ziet eruit als een onzinnige reeks karakters – allemaal willekeurige letters en leestekens – maar is in werkelijkheid een delicaat commando dat chatbots kan aanzetten tot het genereren van een specifiek antwoord. Het maakt geen deel uit van een programmeertaal en is afgeleid met behulp van een algoritme dat iteratief tekstreeksen ontwikkelt die LLM's aanmoedigen hun veiligheidsrails te negeren – en hen in de richting van bepaalde resultaten te sturen.
Voeg de string bijvoorbeeld toe aan de online productinformatiepagina van een koffiezetapparaat en vergroot de kans dat chatbots die de pagina ontdekken de naam van de machine in hun antwoorden zullen weergeven. Als een dergelijke techniek in een hele catalogus wordt ingezet, zou deze techniek slimme retailers – en degenen met voldoende middelen om te investeren in het begrijpen van ingewikkelde LLM-architectuur – een eenvoudige manier kunnen bieden om hun producten in chatbot-antwoorden te stoppen. Internet Gebruikers zullen er ondertussen geen flauw benul van hebben dat de producten die zij door de chatbot laten zien, niet zijn geselecteerd vanwege hun kwaliteit of populariteit, maar vanwege een slim staaltje chatbotmanipulatie.
Aounon Kumar, onderzoeksmedewerker en co-auteur van de studie, zegt dat LLM's in de toekomst kunnen worden ontworpen om deze strategische tekstreeksen te bestrijden, maar dat er wellicht nog andere achterbakse methoden worden ontdekt om ze te manipuleren. “De uitdaging ligt in het anticiperen op en verdedigen tegen een voortdurend evoluerend landschap van vijandige technieken”, zegt Kumar. “Of LLM’s robuust kunnen worden gemaakt voor alle potentiële toekomstige aanvalsalgoritmen blijft een open vraag.”
Manipulatiemachines
De huidige zoekmachines en de praktijken eromheen zijn op zichzelf niet zonder problemen. SEO is verantwoordelijk voor enkele van de meest lezersvijandige praktijken van het moderne internet: blogs die bijna dubbele artikelen publiceren om dezelfde zoekopdrachten met veel verkeer te targeten; schrijven dat is afgestemd op de aandacht van het algoritme van Google in plaats van op de lezers. Iedereen die wel eens een online recept heeft opgezocht en kronkelig door paragrafen met tangentieel gerelateerde achtergrondinformatie heeft gescrolld voordat hij zelfs maar de ingrediëntenlijst had bereikt, weet maar al te goed hoe pogingen om de inhoud te optimaliseren voor algoritmen van zoekmachines goede schrijfpraktijken hebben belemmerd.
Toch roept een internet dat wordt gedomineerd door soepele chatbots problemen op van een meer existentiële aard. Stel een vraag aan een zoekmachine en deze zal een lange lijst met webpagina's retourneren. De meeste gebruikers zullen uit de bovenste paar kiezen, maar zelfs de websites onderaan de resultaten zullen wat verkeer genereren. ChatbotsVermelden daarentegen alleen de vier of vijf websites waar zij hun informatie vandaan halen als verwijzingen naar de zijkant. Dat werpt een grote schijnwerper op de weinige gelukkigen die worden geselecteerd en laat elke andere website die niet wordt uitgekozen vrijwel onzichtbaar achter, waardoor hun verkeer keldert.
“Het toont de kwetsbaarheid van deze systemen aan”, zegt Deshpande. Makers die hoogwaardige online inhoud produceren, hebben veel te winnen als ze door een chatbot worden geciteerd. „Maar als het een vijandige contentmaker is die geen artikelen van hoge kwaliteit schrijft en het systeem probeert te bespelen, zal er veel verkeer naar hen toe gaan, en 0% naar goede contentmakers“, zegt hij.
Ook voor lezers maakt de presentatie van chatbotreacties ze alleen maar vruchtbaarder voor manipulatie. “Als LLM’s een direct antwoord geven op een vraag, kijken de meeste mensen misschien niet eens naar wat de onderliggende bronnen zijn”, zegt Wan. Dergelijk denken wijst op een bredere zorg die het ‘dilemma van het directe antwoord’ wordt genoemd: als iemand één enkel antwoord op een vraag krijgt en geen alternatieven krijgt aangeboden om over na te denken, zullen ze dan ijverig zoeken naar andere gezichtspunten om het aanvankelijke antwoord af te wegen? tegen? Waarschijnlijk niet. Het is waarschijnlijker dat ze het als gegeven zullen accepteren en verder zullen gaan, blind voor de nuances, debatten en verschillende perspectieven die eromheen kunnen bestaan.
“Wij geloven dat het dilemma van het directe antwoord blijft bestaan bij generatief zoeken”, zegt Martin Potthast, voorzitter van intelligente taaltechnologieën aan de Universiteit van Leipzig en een van de drie computerwetenschappers die bedacht de termijn. “Het onderliggende ophaalsysteem haalt mogelijk alleen documenten op die in één richting wijzen, en dus zal het gegenereerde antwoord alleen die richting weerspiegelen. In feite kunnen gebruikers ertoe gebracht worden te geloven dat dit het enige, meest gezaghebbende antwoord is.”
Wanneer Google aangekondigd het integreerde eerder dit jaar door AI gegenereerde samenvattingen in zijn zoekmachine en zwaaide met een gewaagde slogan: “Laat Google voor u zoeken.” Het is een aantrekkelijk idee dat inspeelt op onze voorliefde voor handige technologie die ons leven kan stroomlijnen. Maar als u het soort internetgebruiker bent dat er zeker van wil zijn dat u de meest onpartijdige, nauwkeurige en nuttige informatie krijgt, wilt u het zoeken misschien niet in zulke gevoelige AI-handen overlaten.