De ambities van Groot-Brittannië om een centrale rol te spelen in het toezicht op de kunstmatige intelligentie wereldwijd zijn getroffen door de strijd om een buitenpost in de VS te lanceren en door een nieuwe regering-Trump die dreigt een ‘sterk’ andere benadering van AI-regulering te gaan hanteren.
De Britse regering wil haar AI Safety Institute (AISI), vorig jaar opgericht met een budget van £ 50 miljoen en 100 medewerkers, versterken, omdat het haar positie als ’s werelds best toegeruste orgaan dat onderzoek doet naar de risico’s rondom AI.
Toonaangevende technologiebedrijven, waaronder Open AI en Google hebben de AISI toegestaan hun nieuwste AI-modellen te testen en beoordelen. Maar plannen om verder uit te breiden door in mei een kantoor in San Francisco te openen, werden uitgesteld vanwege verkiezingen in zowel de VS als Groot-Brittannië en moeilijkheden bij het rekruteren voor de buitenpost in Silicon Valley, aldus mensen met kennis van zaken.
In een poging haar invloed te behouden, denken mensen die dicht bij de Britse regering staan dat zij de AISI steeds meer zal positioneren als een organisatie die zich richt op de nationale veiligheid, met directe banden met inlichtingendienst GCHQ.
Te midden van een gespannen periode van de betrekkingen tussen de Britse linkse Labour-regering en de nieuwe Amerikaanse regering, geloven sommigen dat het veiligheidswerk van de AISI zou kunnen functioneren als een krachtig diplomatiek instrument.
“Het is duidelijk dat de regering-Trump op bepaalde terreinen een totaal andere aanpak zal hanteren, waarschijnlijk op het gebied van regelgeving”, zei de Britse technologiesecretaris Peter Kyle, die de nadruk legde op de “veilige relaties” van Groot-Brittannië met de VS, ook op het gebied van veiligheid en defensie. De Britse minister voegde eraan toe dat hij “een weloverwogen beslissing zou nemen” over wanneer de AISI een kantoor in San Francisco zou openen zodra het voldoende bemand zou kunnen zijn.
De toenemende nadruk weerspiegelt veranderende prioriteiten in de VS, de thuisbasis van ’s werelds toonaangevende AI-bedrijven. De nieuwgekozen president Donald Trump heeft beloofd het uitvoerend bevel van president Joe Biden inzake kunstmatige intelligentie, waarmee een Amerikaans AI-veiligheidsinstituut werd opgericht, in te trekken. Trump benoemt ook durfkapitalist David Sacks als zijn AI- en crypto-tsaar, waarbij het bekend is dat technologie-investeerders zich zorgen maken over de overregulering van AI-startups.
Maatschappelijke organisaties en technologie-investeerders hebben zich afgevraagd of AI-bedrijven zullen blijven voldoen aan de Britse AI-veiligheidsinstantie, nu de aantredende Amerikaanse regering een meer protectionistische houding ten opzichte van de technologiesector signaleert.
De Republikeinse senator Ted Cruz, door Trump genomineerd als de volgende Amerikaanse minister van Buitenlandse Zaken, heeft gewaarschuwd voor buitenlandse actoren – waaronder Europese en Britse regeringen – die hardhandige regelgeving opleggen aan Amerikaanse AI-bedrijven, of te veel invloed hebben op het Amerikaanse beleid op het gebied van de technologie.
Een andere complicatie is de rol van Tesla-chef en Trump-adviseur Elon Musk. De technologiemiljardair heeft zijn zorgen geuit over de veiligheidsrisico’s van AI, terwijl hij onlangs zijn eigen geavanceerde modellen ontwikkelde met zijn start-up xAI.
“Er is een voor de hand liggende pitch voor Elon over de AISI, waarbij we in feite het werk dat we doen op het gebied van veiligheid veel meer verkopen dan het werk dat we doen op het gebied van veiligheid,” zei een persoon die dicht bij de Britse regering stond, eraan toevoegend dat AISI een “front” bood. deur naar de Britse GCHQ”.
Technologiebedrijven hebben gezegd dat het onderzoek van AISI al helpt de veiligheid te verbeteren van AI-modellen die zijn gebouwd door voornamelijk in de VS gevestigde groepen. In mei AISI het potentieel geïdentificeerd voor toonaangevende modellen om cyberaanvallen te vergemakkelijken en kennis op expertniveau op het gebied van scheikunde en biologie te bieden, die zou kunnen worden gebruikt om biowapens te ontwikkelen.
De Britse regering is ook van plan om haar AISI een wettelijke basis te geven. Toonaangevende bedrijven, waaronder OpenAI, Anthropic en Meta, hebben allemaal vrijwillig aangeboden AISI toegang te verlenen tot nieuwe modellen voor veiligheidsevaluaties voordat deze worden vrijgegeven aan bedrijven en consumenten. Volgens de voorgestelde Britse wetgeving zouden deze vrijwillige toezeggingen verplicht worden gesteld.
“(Dit) zullen de codes zijn die in de wet worden verankerd, en dat is simpelweg omdat ik niet denk dat als je de potentie ziet van de technologie waar we het over hebben, het publiek zich op zijn gemak zou voelen met de gedachte dat de mogelijkheden van sommige hiervan technologie moet worden ingezet op basis van vrijwillige codes”, zei Kyle, lid van de Labour-regering die in juli werd verkozen.
Het Britse veiligheidsinstituut heeft ook technologiebedrijven als OpenAI en Google DeepMind ingehuurd om goede relaties te onderhouden met toonaangevende AI-bedrijven en ervoor te zorgen dat zij zich aanpassen aan de aanbevelingen ervan.
“We zullen in principe leven of sterven afhankelijk van hoe goed onze talentenpool is”, zegt Jade Leung, chief technology officer bij het Britse AISI, die eerder bij OpenAI werkte.
Ondanks deze banden zijn er conflictpunten geweest met AI-bedrijven.
De AISI heeft geklaagd dat het niet genoeg tijd kreeg om modellen te testen voordat ze werden uitgebracht, omdat de technologiebedrijven met elkaar raceten om hun nieuwste aanbod aan het publiek te lanceren.
“Het is niet perfect, maar er wordt voortdurend gediscussieerd op dat front”, zegt Geoffrey Irving, hoofdwetenschapper bij AISI, die eerder bij OpenAI en DeepMind werkte. “Het is niet altijd zo dat we veel op de hoogte zijn (voor testen), wat soms lastig kan zijn (maar we hebben) voldoende toegang gehad voor de meeste grote releases om goede evaluaties te doen.”
De Britse AISI heeft tot nu toe zestien modellen getest en bij de meeste daarvan een gebrek aan sterke waarborgen en robuustheid tegen misbruik vastgesteld. Het publiceert zijn bevindingen publiekelijk, zonder te specificeren welke modellen het heeft getest.
Terwijl mensen binnen de bedrijven enkele problemen onderkennen bij het samenwerken met het instituut, behoorden Google, OpenAI en Anthropic tot degenen die het werk van het instituut verwelkomden. “We willen ons eigen huiswerk niet beoordelen”, zegt Lama Ahmad, technisch programmamanager bij OpenAI.