Silicon Valley neemt AGI serieus – Washington zou dat ook moeten doen


Kunstmatige algemene intelligentieMachines die elke cognitieve taak kunnen leren en uitvoeren die een mens ook kan, zijn al lang verbannen naar het rijk van de sciencefiction. Maar recente ontwikkelingen laten zien dat AGI niet langer een verre speculatie is; het is een naderende realiteit die onze onmiddellijke aandacht vereist.

Op 17 september, tijdens een subcommissie voor de rechterlijke macht van de Senaat gehoor Met de titel ‘Oversight of AI: Insiders' Perspectives’ luidden klokkenluiders van toonaangevende AI-bedrijven de noodklok over de snelle vooruitgang in de richting van AGI en het flagrante gebrek aan toezicht. Helen Tonervoormalig bestuurslid van OpenAI en directeur strategie bij het Centre for Security and Emerging Technology van Georgetown University, getuigde dat “de grootste discrepantie die ik zie tussen de perspectieven van AI-insiders en de publieke perceptie van AI-bedrijven is als het gaat om het idee van kunstmatige algemene intelligentie.” Ze vervolgde dat toonaangevende AI-bedrijven zoals OpenAI, Google en Anthropic “het bouwen van AGI als een volkomen serieus doel beschouwen.”

Toners medegetuige William Saunders, een voormalig onderzoeker bij OpenAI onlangs ontslag genomen nadat hij het vertrouwen had verloren in het verantwoord handelen van OpenAI – herhaalde soortgelijke gevoelens als Toner, getuigen dat “bedrijven als OpenAI werken aan het opbouwen van kunstmatige algemene intelligentie” en dat “ze miljarden dollars inzamelen voor dit doel.”

Lees meer: Wanneer zou AI ons te slim af kunnen zijn? Het hangt ervan af aan wie je het vraagt

Alle drie de toonaangevende AI-laboratoria – OpenAI, Anthropic en Google DeepMind – zijn min of meer expliciet over hun AGI-doelen. De missie van OpenAI luidt: “Ervoor zorgen dat kunstmatige algemene intelligentie – waarmee we zeer autonome systemen bedoelen die beter presteren dan mensen bij economisch waardevol werk – de hele mensheid ten goede komt.” Anthropic richt zich op ‘het bouwen van betrouwbare, interpreteerbare en bestuurbare AI-systemen’, met als doel ‘veilige AGI’. Google DeepMind streeft ernaar ‘intelligentie op te lossen’ en vervolgens de daaruit voortvloeiende AI-systemen te gebruiken ‘om al het andere op te lossen’, waarbij mede-oprichter Shane Legg ondubbelzinnig stelt dat hij verwacht dat ‘AI op menselijk niveau halverwege de jaren twintig zal worden ingevoerd’. Nieuwkomers in de AI-race, zoals XAI van Elon Musk En Ilya Sutskever's Safe Superintelligence Inc.zijn eveneens gericht op AGI.

Beleidsmakers in Washington hebben AGI grotendeels afgedaan als een marketinghype of als een vaag metaforisch instrument dat niet letterlijk bedoeld is. Maar de hoorzitting van vorige maand zou doorgebroken kunnen zijn op een manier die in eerdere verhandelingen van AGI niet is gelukt. Senator Josh Hawley (R-MO), vooraanstaand lid van de subcommissie, merkte op dat de getuigen “mensen zijn die binnen (AI) bedrijven zijn geweest, die aan deze technologieën hebben gewerkt, die ze uit de eerste hand hebben gezien, en ik zou misschien kunnen observeren Ik heb niet echt het gevestigde belang om dat rooskleurige beeld te schetsen en te cheerleaden op dezelfde manier als leidinggevenden van (AI-bedrijven) dat hebben gedaan.”

Senator Richard Blumenthal (D-CT), voorzitter van de subcommissie, was zelfs nog directer. “Het idee dat AGI over 10 of 20 jaar slimmer of op zijn minst net zo slim zou kunnen zijn als mensen, ligt niet meer zo ver weg in de toekomst. Het is verre van sciencefiction. Het is hier en nu: één tot drie jaar is de laatste voorspelling,' zei hij. Over waar de verantwoordelijkheid ligt, nam hij geen blad voor de mond: “Wat we van sociale media moeten leren, is die ervaring: vertrouw Big Tech niet.”

De schijnbare verschuiving in Washington weerspiegelt de publieke opinie die meer bereid is de mogelijkheid van de dreiging van AGI te koesteren. In een Enquête van juli 2023 uitgevoerd door het AI Policy Institute zei de meerderheid van de Amerikanen dat ze dachten dat AGI “binnen de komende vijf jaar” zou worden ontwikkeld. Ongeveer 82% van de respondenten zei ook dat we “langzaam en doelbewust te werk moeten gaan” bij de ontwikkeling van AI.

Dat komt omdat de inzet astronomisch is. Saunders legde uit dat AGI zou kunnen leiden tot cyberaanvallen of de creatie van ‘nieuwe biologische wapens’, en Toner waarschuwde dat veel vooraanstaande AI-figuren geloven dat AGI in het ergste geval ‘zou kunnen leiden tot het letterlijk uitsterven van de mensheid’.

Ondanks deze belangen hebben de VS vrijwel geen regelgevend toezicht ingesteld op de bedrijven die zich in de richting van AGI haasten. Dus waar laat dit ons achter?

Ten eerste moet Washington AGI serieus gaan nemen. De potentiële risico's zijn te groot om te negeren. Zelfs in een goed scenario zou AGI de economieën op zijn kop kunnen zetten en de economie kunnen ontwrichten miljoenen banenwaardoor de samenleving zich moet aanpassen. In een slecht scenario zou AGI dat wel kunnen oncontroleerbaar worden.

Ten tweede moeten we regelgevende vangrails opzetten voor krachtige AI-systemen. Regelgeving moet transparantie van de overheid met zich meebrengen wat er aan de hand is met de krachtigste AI-systemen die worden gecreëerd door technologiebedrijven. Transparantie van de overheid zal de kans verkleinen dat de samenleving platvoeten krijgt van een technologiebedrijf dat AGI ontwikkelt voordat iemand anders het verwacht. En verplichte veiligheidsmaatregelen zijn nodig om te voorkomen dat Amerikaanse tegenstanders en andere slechte actoren AGI-systemen van Amerikaanse bedrijven stelen. Deze eenvoudige maatregelen zouden verstandig zijn, zelfs als AGI geen mogelijkheid zou zijn, maar het vooruitzicht van AGI vergroot het belang ervan.

Lees meer: Hoe een Amerikaanse aanpak van AI-regulering eruit zou moeten zien

In een bijzonder zorgwekkend deel van de getuigenis van Saunders zei hij dat er tijdens zijn tijd bij OpenAI lange perioden waren waarin hij of honderden andere werknemers “de toegangscontroles konden omzeilen en de meest geavanceerde AI-systemen van het bedrijf konden stelen, waaronder GPT-4. .” Deze lakse houding ten opzichte van de veiligheid is op dit moment al erg genoeg voor het Amerikaanse concurrentievermogen, maar het is een absoluut onaanvaardbare manier om systemen op weg naar AGI te behandelen. De commentaren waren opnieuw een krachtige herinnering dat technologiebedrijven niet vertrouwd kunnen worden met zelfregulering.

Tot slot is publieke betrokkenheid essentieel. AGI is niet alleen een technisch probleem; het is een maatschappelijke kwestie. Het publiek moet worden geïnformeerd en betrokken bij discussies over hoe AGI ons hele leven kan beïnvloeden.

Niemand weet hoe lang we nog hebben tot AGI – wat senator Blumenthal ‘de 64 miljard dollar-kwestie’ noemde – maar de periode voor actie zou snel kunnen sluiten. Sommige AI-figuren, waaronder Saunders, denken dat dit mogelijk is slechts drie jaar.

Het negeren van de potentieel dreigende uitdagingen van AGI zal ze niet doen verdwijnen. Het is tijd dat beleidsmakers hun hoofd uit de cloud halen.



Source link