Er is een oplossing voor het existentiële risicoprobleem van AI


TTechnologische vooruitgang kan ons opwinden, de politiek kan ons woedend maken en oorlogen kunnen ons mobiliseren. Maar geconfronteerd met het risico van uitsterven van de mensheid dat de opkomst van kunstmatige intelligentie veroorzaakt, zijn we verrassend passief gebleven. Voor een deel kwam dit misschien doordat er geen oplossing leek te zijn. Dit is een idee dat ik graag wil uitdagen.

De mogelijkheden van AI worden steeds beter. Sinds de release van ChatGPT twee jaar geleden zijn er honderden miljarden dollars in AI gestoken. Deze gecombineerde inspanningen zullen waarschijnlijk leiden tot kunstmatige algemene intelligentie (AGI), waarbij machines misschien mensachtige kennis hebben binnen slechts een paar jaar.

Honderden AI-wetenschappers denken we zouden de controle over AI kunnen verliezen zodra deze te capabel wordt, wat zou kunnen resulteren in het uitsterven van de mens. Dus wat kunnen we doen?

Lees meer: Wat de overwinning van Donald Trump betekent voor AI

Het existentiële risico van AI wordt vaak als uiterst complex gepresenteerd. A Papier uit 2018noemde de ontwikkeling van veilige AI op menselijk niveau bijvoorbeeld een ‘superslecht probleem’. Deze waargenomen moeilijkheid had veel te maken met de voorgestelde oplossing van AI-uitlijningwat inhoudt dat bovenmenselijke AI moet handelen in overeenstemming met de waarden van de mensheid. AI-uitlijning was echter vanaf het begin een problematische oplossing.

Ten eerste is de wetenschappelijke vooruitgang op het gebied van de aanpassing veel langzamer verlopen dan de vooruitgang op het gebied van AI zelf. Ten tweede is de filosofische vraag op welke waarden een superintelligentie moet worden afgestemd, ongelooflijk beladen. Ten derde is het helemaal niet vanzelfsprekend dat afstemming, zelfs als deze succesvol zou zijn, een oplossing zou zijn voor het existentiële risico van AI. Het hebben van één vriendelijke AI houdt niet noodzakelijkerwijs andere onvriendelijke AI tegen.

Vanwege deze problemen hebben velen er bij technologiebedrijven op aangedrongen geen AI te bouwen waarover de mensheid de controle zou kunnen verliezen. Sommigen zijn verder gegaan; activistische groepen zoals PauseAI hebben dat inderdaad gedaan voorgesteld een internationaal verdrag dat de ontwikkeling wereldwijd zou pauzeren.

Dat wordt door velen politiek niet aanvaardbaar gevonden, omdat het nog lang kan duren voordat de ontbrekende stukjes van AGI zijn ingevuld. En moeten we nu al stilstaan, terwijl deze technologie ook veel goeds kan doen? Yann Lecun, AI-chef bij Meta en prominente existentiële risico-scepticus, zegt dat het debat over existentiële risico’s lijkt op ‘zorgen maken over de veiligheid van turbojets in 1920’.

Aan de andere kant kan technologie een sprong voorwaarts maken. Als we nog een doorbraak krijgen, zoals de transformatoreen innovatie uit 2017 die heeft bijgedragen aan de lancering van moderne grote taalmodellen, zouden we AGI misschien binnen een paar maanden trainingstijd kunnen bereiken. Daarom moet er vóór die tijd een regelgevingskader bestaan.

Gelukkig, Nobelprijswinnaar Geoffrey HintonTuring Award-winnaar Yoshua Bengio en vele anderen hebben een deel van de oplossing geleverd. In een beleidsdocument gepubliceerd in Wetenschap eerder dit jaar, zij aanbevolen “als-dan-verplichtingen”: toezeggingen die moeten worden geactiveerd als en wanneer rode lijncapaciteiten worden aangetroffen in grensverleggende AI-systemen.

Voortbouwend op hun werk stellen wij bij de non-profitorganisatie Existential Risk Observatory een voorwaardelijk AI-veiligheidsverdrag voor. De landen die dit verdrag hebben ondertekend, waartoe in ieder geval de VS en China behoren, zijn het erover eens dat zodra we te dicht bij het controleverlies komen, zij elke potentieel onveilige training binnen hun grenzen zullen stopzetten. Zodra de machtigste landen dit verdrag hebben ondertekend, is het in hun belang om elkaars naleving te verifiëren en er zeker van te zijn oncontroleerbare AI wordt ook niet elders gebouwd.

Eén openstaande vraag is op welk punt AI-capaciteiten te dicht bij het verlies van controle komen. Wij stellen voor om deze vraag te delegeren aan de AI-veiligheidsinstituten opgezet in de Groot-Brittannië., ONS., ChinaEn andere landen. Ze beschikken over gespecialiseerde modelevaluatie-knowhow, die verder kan worden ontwikkeld om deze cruciale vraag te beantwoorden. Bovendien zijn deze instituten openbaar, waardoor ze onafhankelijk zijn van de veelal particuliere AI-ontwikkelingslaboratoria. De vraag hoe dicht het verlies van de controle is, zal moeilijk blijven, maar iemand zal deze moeten beantwoorden, en de AI-veiligheidsinstituten zijn het best gepositioneerd om dat te doen.

We kunnen grotendeels nog steeds profiteren van de voordelen van AI onder het Conditional AI Safety Treaty. Alle huidige AI bevindt zich ver onder het verlies van controleniveau en zal daarom onaangetast blijven. Ook smalle AI’s die geschikt zijn voor één enkele taak – zoals klimaatmodellering of het vinden van nieuwe medicijnen – zullen onaangetast blijven. Er kunnen nog algemenere AI’s worden ontwikkeld, als laboratoria aan een toezichthouder kunnen aantonen dat hun model een verlies van controlerisico heeft van minder dan bijvoorbeeld 0,002% per jaar (de veiligheid drempel die wij accepteren voor kernreactoren). Andere AI-denkers, zoals MIT-professor Max TegmarkVermoeden CEO Connor Leahyen ControlAI-directeur Andrea Miottidenken in soortgelijke richtingen.

Gelukkig worden de existentiële risico’s van AI erkend door velen die dicht bij de nieuwgekozen president Donald Trump staan. Zijn dochter Ivanka lijkt te zien de urgentie van het probleem. Elon Musk, een kritische Trump-ondersteuner, is dat ook geweest uitgesproken over de beschavingsrisico's gedurende vele jaren, en recentelijk ondersteund De wetgevende druk van Californië om AI op veiligheid te testen. Zelfs de rechtse Tucker Carlson gaf commentaar op zijn gezond verstand toen hij dat deed gezegd: “Dus ik weet niet waarom we achterover leunen en dit laten gebeuren, als we echt geloven dat dit het menselijk ras zal uitroeien of tot slaaf zal maken. Hoe kan dat nou goed zijn?” Trump van zijn kant heeft dat wel gedaan bezorgdheid geuit ook over de risico’s van AI.

Het Conditional AI Safety Treaty zou een oplossing kunnen bieden voor het existentiële risico van AI, zonder de ontwikkeling van AI nu onnodig te belemmeren. Ervoor zorgen dat China en andere landen het verdrag aanvaarden en handhaven zal ongetwijfeld een grote geopolitieke uitdaging zijn, maar misschien is een regering-Trump precies wat nodig is om dit te overwinnen.

Er bestaat een oplossing voor een van de moeilijkste problemen waarmee we worden geconfronteerd – het existentiële risico van AI. Het is aan ons of we dit waarmaken, of doorgaan op de weg naar mogelijk uitsterven van de mensheid.



Source link