If ongecontroleerd kunstmatige algemene intelligentie– of “God-achtige” AI – doemt op aan de horizon, we zijn nu ongeveer halverwege. Elke dag tikt de klok dichter bij een mogelijk doemscenario.
Daarom heb ik de AI-veiligheidsklok vorige maand. Mijn doel is simpel: ik wil duidelijk maken dat de gevaren van ongecontroleerde AGI reëel en aanwezig zijn. De huidige stand van de klok – 29 minuten voor middernacht – is een maatstaf voor hoe dicht we bij het kritieke omslagpunt zijn waar ongecontroleerde AGI existentiële risico's met zich mee zou kunnen brengen. Hoewel er nog geen catastrofale schade heeft plaatsgevonden, zorgen de razendsnelle ontwikkeling van AI en de complexiteit van de regelgeving ervoor dat alle belanghebbenden alert en betrokken moeten blijven.
Dit is geen alarmisme; het is gebaseerd op harde gegevens. De AI Safety Clock volgt drie essentiële factoren: de toenemende verfijning van AI-technologieën, hun toenemende autonomie en hun integratie met fysieke systemen.
We zien opmerkelijke vooruitgang op het gebied van deze drie factoren. De grootste vinden plaats op het gebied van machinaal leren en neurale netwerken, waarbij AI nu beter presteert dan mensen op specifieke gebieden zoals beeld- en spraakherkenning en complexe games beheerst zoals Gaen zelfs slagen voor tests zoals examens van de bedrijfsschool En Amazon-coderingsinterviews.
Lees meer: Niemand weet hoe je AI op veiligheid moet testen
Ondanks deze vooruitgang zijn de meeste AI-systemen vandaag de dag nog steeds afhankelijk van menselijke leiding. zoals opgemerkt door het Stanford Instituut voor Mensgerichte Kunstmatige Intelligentie. Ze zijn gebouwd om nauw gedefinieerde taken uit te voeren, geleid door de gegevens en instructies die wij leveren.
Dat gezegd hebbende, vertonen sommige AI-systemen al tekenen van beperkte onafhankelijkheid. Autonome voertuigen real-time beslissingen nemen over navigatie en veiligheid, terwijl aanbevelingsalgoritmen op platforms als YouTube en Amazon suggereren inhoud en producten zonder menselijke tussenkomst. Maar we zijn nog niet op het punt van volledige autonomie: er zijn nog steeds grote hindernissen, van het garanderen van veiligheid en ethisch toezicht tot het omgaan met de onvoorspelbaarheid van AI-systemen in ongestructureerde omgevingen.
Op dit moment blijft AI grotendeels onder menselijke controle. Het is nog niet volledig geïntegreerd in de cruciale systemen die onze wereld draaiende houden – energienetwerken, financiële markten of militaire wapens – op een manier die het mogelijk maakt autonoom te opereren. Maar vergis je niet: we gaan die kant op. AI-aangedreven technologieën boeken al winst, vooral in het leger met systemen zoals autonome dronesen in civiele sectoren, waar AI helpt bij het optimaliseren energieverbruik en helpt mee financiële handel.
Zodra AI toegang krijgt tot meer kritieke infrastructuren, vermenigvuldigen de risico's zich. Stel je voor dat AI besluit de stroomvoorziening van een stad af te sluiten, de financiële markten te manipuleren of militaire wapens in te zetten – allemaal zonder enig of beperkt menselijk toezicht. Het is een toekomst die we ons niet kunnen veroorloven te verwezenlijken.
Maar het zijn niet alleen de doemscenario's waar we bang voor moeten zijn. De donkere kant van de mogelijkheden van AI maakt zich al bekend. Door AI aangedreven desinformatiecampagnes zijn dat wel het publieke discours verstoren en destabiliserende democratieën. Een berucht voorbeeld zijn de Amerikaanse presidentsverkiezingen van 2016, waar het Russische Internet Research Agency gebruik van maakte geautomatiseerde bots op sociale mediaplatforms om verdeeldheid zaaiende en misleidende inhoud te verspreiden.
Deepfakes worden ook steeds populairder serieus probleem. In 2022 zagen we een huiveringwekkend voorbeeld bij een deepfake video van de Oekraïense president Volodimir Zelenski kwam naar voren en portretteerde hem ten onrechte waarin hij opriep tot overgave tijdens de Russische invasie. Het doel was duidelijk: het moreel eroderen en verwarring zaaien. Deze bedreigingen zijn niet theoretisch; ze gebeuren nu al, en als we niets doen, zullen ze alleen maar geavanceerder worden en moeilijker te stoppen.
Terwijl AI zich razendsnel ontwikkelt, blijft de regelgeving achter. Dat geldt vooral in de VS, waar pogingen zijn ondernomen om AI-veiligheidswetten te implementeren op zijn best gefragmenteerd. Regulering is vaak aan de staten overgelaten, wat heeft geleid tot een lappendeken van wetten met wisselende effectiviteit. Er bestaat geen samenhangend nationaal raamwerk om de ontwikkeling en inzet van AI te regelen. Het recente besluit van de gouverneur van Californië, Gavin Newsom, om een veto uitspreken over een AI-veiligheidswetuit angst dat dit de innovatie zou belemmeren en technologiebedrijven naar elders zou duwen, benadrukt alleen maar hoe ver het beleid achterloopt.
Lees meer: Het reguleren van AI is eenvoudiger dan u denkt
We hebben een gecoördineerde, mondiale aanpak van AI-regulering nodig – een internationaal orgaan dat de ontwikkeling van AGI monitort, vergelijkbaar met het Internationaal Atoomagentschap voor nucleaire technologie. AI is, net als kernenergie, een technologie zonder grenzen. Als zelfs maar één land AGI ontwikkelt zonder de juiste waarborgen, kunnen de gevolgen zich over de hele wereld verspreiden. We kunnen niet toestaan dat lacunes in de regelgeving de hele planeet blootstellen aan catastrofale risico's. Dit is waar internationale samenwerking cruciaal wordt. Zonder mondiale overeenkomsten die duidelijke grenzen stellen en de veilige ontwikkeling van AI garanderen, riskeren we een wapenwedloop richting een ramp.
Tegelijkertijd kunnen we de ogen niet sluiten voor de verantwoordelijkheden van bedrijven als Google, Microsoft en OpenAI – bedrijven die voorop lopen op het gebied van AI-ontwikkeling. Er zijn steeds meer zorgen dat de race om dominantie op het gebied van AI wordt gedreven door hevige concurrentie en commerciële druk zouden de langetermijnrisico's kunnen overschaduwen. OpenAI heeft onlangs de krantenkoppen gehaald door te verschuiven naar een structuur met winstoogmerk.
Pionier op het gebied van kunstmatige intelligentie Geoffrey Hinton waarschuwing over de race tussen Google en Microsoft was duidelijk: “Ik denk niet dat ze dit verder moeten opschalen voordat ze hebben begrepen of ze er controle over kunnen uitoefenen.”
Een deel van de oplossing ligt in het inbouwen van fail-safes in AI-systemen – ‘kill-switches’ of achterdeurtjes waardoor mensen kunnen ingrijpen als een AI-systeem zich onvoorspelbaar gaat gedragen. Californië AI-veiligheidswet bepalingen voor dit soort waarborgen opgenomen. Dergelijke mechanismen moeten vanaf het begin in AI worden ingebouwd en niet achteraf worden toegevoegd.
Het valt niet te ontkennen risico's zijn reëel. We staan op het punt onze planeet te delen met machines die de menselijke intelligentie kunnen evenaren of zelfs overtreffen – of dat nu over een jaar of over tien gebeurt. Maar we zijn niet hulpeloos. De mogelijkheid om de ontwikkeling van AI in de goede richting te sturen ligt nog steeds binnen ons bereik. We kunnen een toekomst veiligstellen waarin AI een positieve kracht is.
Maar de klok tikt.