Volgens onderzoekers van de Universiteit van Cambridge zouden hulpmiddelen voor kunstmatige intelligentie (AI) kunnen worden gebruikt om het online publiek te manipuleren om beslissingen te nemen – variërend van wat te kopen tot op wie te stemmen.
Het artikel belicht een opkomende nieuwe marktplaats voor ‘digitale signalen van intentie’ – bekend als de ‘intentie-economie’ – waar AI-assistenten menselijke bedoelingen begrijpen, voorspellen en manipuleren en die informatie verkopen aan bedrijven die ervan kunnen profiteren.
De intentie-economie wordt door onderzoekers van Cambridge’s Leverhulme Centre for the Future of Intelligence (LCFI) aangeprezen als een opvolger van de aandachtseconomie, waarbij sociale netwerken gebruikers verslaafd houden aan hun platforms en hen advertenties aanbieden.
De intentie-economie houdt in dat AI-slimme technologiebedrijven verkopen wat ze weten over uw motivaties, van plannen voor een verblijf in een hotel tot meningen over een politieke kandidaat, aan de hoogste bieder.
“Al tientallen jaren lang aandacht is de munteenheid van het internet geweest”, zegt dr. Jonnie Penn, technologiehistoricus bij LCFI. “Het delen van je aandacht met sociale mediaplatforms zoals Facebook en Instagram heeft de online economie gestimuleerd.”
Hij voegde eraan toe: “Tenzij gereguleerd, zal de intentie-economie je motivaties als de nieuwe munteenheid behandelen. Het zal een goudkoorts zijn voor degenen die menselijke intenties targeten, sturen en verkopen.
“We moeten beginnen na te denken over de waarschijnlijke impact die een dergelijke marktplaats zou hebben op de menselijke ambities, inclusief vrije en eerlijke verkiezingen, een vrije pers en eerlijke concurrentie op de markt, voordat we het slachtoffer worden van de onbedoelde gevolgen ervan.”
De studie beweert dat grote taalmodellen (LLM’s), de technologie die AI-tools ondersteunt zoals de ChatGPT-chatbot, zal worden gebruikt om gebruikers te ‘anticiperen en te sturen’ op basis van ‘opzettelijke, gedrags- en psychologische gegevens’.
De auteurs zeggen dat de aandachtseconomie adverteerders in staat stelt om toegang te kopen tot de aandacht van gebruikers in het heden via realtime bieden op advertentie-uitwisselingen, of om deze in de toekomst te kopen door advertentieruimte ter waarde van een maand op een billboard te verwerven.
LLM’s zullen ook in realtime toegang kunnen krijgen tot de aandacht, door bijvoorbeeld te vragen of een gebruiker erover heeft nagedacht om een bepaalde film te zien – „heb je erover gedacht om Spider-Man vanavond te zien?“ – en suggesties doen met betrekking tot toekomstige bedoelingen, zoals vragen: „Je zei dat je je overwerkt voelde, zal ik dat bioscoopkaartje voor je boeken waar we het over hadden gehad?“
De studie brengt een scenario naar voren waarin deze voorbeelden “dynamisch worden gegenereerd” om factoren zoals de “persoonlijke gedragssporen” en het “psychologische profiel” van een gebruiker te matchen.
“In een intentie-economie zou een LLM, tegen lage kosten, gebruik kunnen maken van de cadans, de politiek, de woordenschat, de leeftijd, het geslacht, de voorkeuren voor sycophantie, enzovoort van een gebruiker, in combinatie met bemiddelde biedingen, om de kans op het bereiken van een bepaald doel te maximaliseren (bijvoorbeeld om een filmticket te verkopen), suggereert de studie. In een dergelijke wereld zou een AI-model gesprekken sturen ten dienste van adverteerders, bedrijven en andere derde partijen.
Adverteerders zullen generatieve AI-tools kunnen gebruiken om op maat gemaakte online advertenties te maken, zo beweert het rapport. Het haalt ook het voorbeeld aan van een AI-model gemaakt door Meta van Mark Zuckerberg, genaamd Cicero, dat het vermogen op ‘menselijk niveau’ heeft bereikt om het bordspel Diplomacy te spelen – een spel waarvan de auteurs zeggen dat het afhankelijk is van het afleiden en voorspellen van de bedoeling van tegenstanders.
AI-modellen zullen hun resultaten kunnen aanpassen als reactie op “stromen van binnenkomende, door gebruikers gegenereerde gegevens”, voegde de studie eraan toe, daarbij verwijzend naar onderzoek dat aantoont dat modellen persoonlijke informatie kunnen afleiden via dagelijkse uitwisselingen en zelfs gesprekken kunnen “sturen” om meer persoonlijke informatie te verkrijgen. informatie.
De studie brengt vervolgens een toekomstscenario naar voren waarin Meta zal aan adverteerders de intentie van een gebruiker om een restaurant, vlucht of hotel te boeken, veilen. Hoewel er al een industrie bestaat die zich toelegt op het voorspellen van en bieden op menselijk gedrag, aldus het rapport, zullen AI-modellen deze praktijken in een “zeer gekwantificeerd, dynamisch en gepersonaliseerd formaat” distilleren.
De studie citeert het onderzoeksteam achter Cicero dat waarschuwt dat een “(AI) agent kan leren zijn gesprekspartner een duwtje in de rug te geven om een bepaald doel te bereiken”.
Het onderzoek verwijst naar tech-managers die bespreken hoe AI-modellen de intenties en acties van een gebruiker kunnen voorspellen. Het citeert de CEO van de grootste AI-chipmaker, Jensen Huang Nvidiadie vorig jaar zei dat modellen “uitvinden wat uw bedoeling is, wat uw wens is, wat u probeert te doen, gegeven de context, en de informatie op de best mogelijke manier aan u presenteren”.