Interactie met AI-chatbots zoals ChatGPT kan leuk en soms nuttig zijn, maar het volgende niveau van dagelijkse AI gaat verder dan het beantwoorden van vragen: AI-agenten voeren taken voor u uit.
Grote technologiebedrijven, waaronder Open AI, Microsoft, GooglenEn Salesforcehebben onlangs plannen vrijgegeven of aangekondigd om AI-agenten te ontwikkelen en vrij te geven. Ze beweren dat deze innovaties nieuwe efficiëntie zullen brengen in de technische en administratieve processen die ten grondslag liggen aan systemen die worden gebruikt in de gezondheidszorg, robotica, gaming en andere bedrijven.
Eenvoudige AI-agenten kunnen worden geleerd standaardvragen te beantwoorden die via e-mail worden verzonden. Meer gevorderden kunnen vlieg- en hoteltickets boeken voor transcontinentale zakenreizen. Google heeft dit onlangs gedemonstreerd Project Zeeman voor verslaggevers, een browserextensie voor Chrome die kan redeneren over de tekst en afbeeldingen op uw scherm.
In de demonstratie, de agent hielp bij het plannen van een maaltijd door artikelen toe te voegen aan een winkelwagentje op de website van een supermarktketen, en zelfs door vervangingen te vinden als bepaalde ingrediënten niet beschikbaar waren. Er moet nog steeds een persoon betrokken worden om de aankoop af te ronden, maar de makelaar kan de opdracht krijgen om alle noodzakelijke stappen tot dat moment te ondernemen.
In zekere zin ben je een agent. Je onderneemt elke dag acties in jouw wereld als reactie op dingen die je ziet, hoort en voelt. Maar wat is een AI-agent precies? Als een computer wetenschapperbied ik deze definitie aan: AI-agenten zijn technologische hulpmiddelen die veel kunnen leren over een bepaalde omgeving, en vervolgens – met een paar eenvoudige aanwijzingen van een mens – kunnen werken aan het oplossen van problemen of het uitvoeren van specifieke taken in die omgeving.
Regels en doelen
Een slimme thermostaat is een voorbeeld van een heel eenvoudig middel. Zijn vermogen om zijn omgeving waar te nemen is beperkt tot een thermometer die hem de temperatuur vertelt. Wanneer de temperatuur in een kamer onder een bepaald niveau zakt, reageert de slimme thermostaat door de verwarming hoger te zetten.
Een bekende voorloper van de hedendaagse AI-agenten is de Roomba. De robotstofzuiger leert bijvoorbeeld de vorm van een woonkamer met vloerbedekking en hoeveel vuil er op het tapijt zit. Vervolgens onderneemt het actie op basis van die informatie. Na een paar minuten is het tapijt schoon.
De slimme thermostaat is een voorbeeld van wat AI-onderzoekers een noemen eenvoudig reflexmiddel. Het neemt beslissingen, maar die beslissingen zijn eenvoudig en alleen gebaseerd op wat de agent op dat moment waarneemt. De robotstofzuiger is een doelgerichte makelaar met één enkel doel: de hele vloer schoonmaken waartoe hij toegang heeft. De beslissingen die hij neemt – wanneer hij moet draaien, wanneer hij de borstels omhoog of omlaag moet brengen, wanneer hij moet terugkeren naar zijn oplaadbasis – staan allemaal in dienst van dat doel.
Een doelgerichte agent is alleen maar succesvol als hij zijn doel bereikt met welke middelen dan ook. Doelen kunnen echter op verschillende manieren worden bereikt, waarvan sommige meer of minder wenselijk kunnen zijn dan andere.
Veel van de hedendaagse AI-agenten zijn dat wel gebaseerd op nutsvoorzieningenwat betekent dat ze meer aandacht besteden aan de manier waarop ze hun doelen kunnen bereiken. Ze wegen de risico’s en voordelen van elke mogelijke aanpak af voordat ze beslissen hoe verder te gaan. Ze zijn ook in staat doelen te overwegen die met elkaar in strijd zijn en te beslissen welke belangrijker is om te bereiken. Ze gaan verder dan op doelen gebaseerde agenten door acties te selecteren die rekening houden met de unieke voorkeuren van hun gebruikers.
Beslissingen nemen, actie ondernemen
Wanneer technologiebedrijven naar AI-agents verwijzen, hebben ze het niet over chatbots of grote taalmodellen zoals ChatGPT. Hoewel chatbots die basisklantenservice op een website bieden technisch gezien AI-agenten zijn, zijn hun percepties en acties beperkt. Chatbotagenten kunnen de woorden waarnemen die een gebruiker typt, maar de enige actie die ze kunnen ondernemen is antwoorden met tekst die de gebruiker hopelijk een correct of informatief antwoord biedt.
De AI-agents waarnaar AI-bedrijven verwijzen, zijn aanzienlijke vooruitgang ten opzichte van grote taalmodellen zoals ChatGPT, omdat ze het vermogen bezitten om actie te ondernemen namens de mensen en bedrijven die ze gebruiken.
OpenAI zegt dat agenten binnenkort tools zullen worden die mensen of bedrijven ook zullen gebruiken zelfstandig laten lopen dagen of weken achter elkaar, zonder dat u de voortgang of resultaten hoeft te controleren. Onderzoekers bij Open AI En Google Deepmind zeggen dat agenten een volgende stap zijn op weg naar kunstmatige algemene intelligentie of ‘sterke’ AI – dat wil zeggen AI die de menselijke capaciteiten in een grote verscheidenheid aan domeinen en taken te boven gaat.
Er wordt gekeken naar de AI-systemen die mensen vandaag de dag gebruiken smalle AI of “zwakke” AI. Een systeem kan bekwaam zijn in één domein – schaken misschien – maar als het in een damspel wordt gegooid, zou dezelfde AI geen idee hebben hoe hij moet functioneren, omdat zijn vaardigheden zich niet zouden vertalen. Een systeem voor kunstmatige algemene intelligentie zou zijn vaardigheden beter van het ene domein naar het andere kunnen overbrengen, zelfs als het het nieuwe domein nog nooit eerder had gezien.
De risico’s waard?
Zijn AI-agenten klaar om een revolutie teweeg te brengen in de manier waarop mensen werken? Dit zal afhangen van de vraag of technologiebedrijven kunnen bewijzen dat agenten niet alleen zijn toegerust om de hun toegewezen taken uit te voeren, maar ook om nieuwe uitdagingen en onverwachte obstakels te overwinnen wanneer deze zich voordoen.
De acceptatie van AI-agents zal ook afhangen van de bereidheid van mensen om hen toegang te geven tot potentieel gevoelige gegevens: afhankelijk van wat uw agent moet doen, heeft deze mogelijk toegang nodig tot uw internetbrowser, uw e-mail, uw agenda en andere apps of systemen die relevant zijn voor een bepaalde opdracht. Naarmate deze tools steeds gebruikelijker worden, zullen mensen moeten overwegen hoeveel van hun gegevens ze met hen willen delen.
Een inbreuk op het systeem van een AI-agent kan privé-informatie over uw leven en financiën veroorzaken in verkeerde handen vallen. Vindt u het oké om deze risico’s te nemen als dit betekent dat agenten u wat werk kunnen besparen?
Wat gebeurt er als AI-agenten een slechte keuze maken of een keuze maken waar hun gebruikers het niet mee eens zouden zijn? Momenteel houden ontwikkelaars van AI-agenten mensen op de hoogte en zorgen ervoor dat mensen de kans krijgen om het werk van een agent te controleren voordat er definitieve beslissingen worden genomen. In het Project Mariner-voorbeeld Google laat de agent niet toe de definitieve aankoop uitvoeren of de servicevoorwaarden van de site accepteren. Door u op de hoogte te houden, bieden de systemen u de mogelijkheid om terug te komen op keuzes die door de agent zijn gemaakt en die u niet goedkeurt.
Net als elk ander AI-systeem is een AI-agent onderhevig aan vooroordelen. Deze vooroordelen kunnen voortkomen de gegevens waarop de agent in eerste instantie is getraind, het algoritme zelf, of hoe de uitvoer van de agent wordt gebruikt. Mensen op de hoogte houden is een van de manieren om vooringenomenheid te verminderen, en het zorgt ervoor dat beslissingen door mensen worden beoordeeld voordat ze worden uitgevoerd.
De antwoorden op deze vragen zullen waarschijnlijk bepalen hoe populair AI-agents worden, en zullen afhangen van de mate waarin AI-bedrijven hun agenten kunnen verbeteren zodra mensen ze gaan gebruiken.
Dit artikel is oorspronkelijk gepubliceerd op The Conversation door Brian O’Neill bij Quinnipiac Universiteit. Lees de origineel artikel hier.