Wkip Donald Trump de laatste president was, was ChatGPT nog niet gelanceerd. Nu, terwijl hij zich voorbereidt om daarna terug te keren naar het Witte Huis het verslaan van vice-president Kamala Harris bij de verkiezingen van 2024 ziet het landschap van kunstmatige intelligentie er heel anders uit.
AI-systemen ontwikkelen zich zo snel dat sommige vooraanstaande leidinggevenden van AI-bedrijven, zoals Antropische CEO Dario Amodei En Elon Muskde CEO van Tesla en een prominente Trump-ondersteuner, geloven dat AI in 2026 slimmer kan worden dan mensen. Anderen bieden een algemener tijdsbestek. In een essay gepubliceerd in september, OpenAI-CEO Sam Altman zei: “Het is mogelijk dat we dat zullen doen superintelligentie binnen een paar duizend dagen”, maar merkte ook op dat “het langer kan duren.” Ondertussen zegt Meta-CEO Mark Zuckerberg ziet de komst van deze systemen is eerder een geleidelijk proces dan een enkel moment.
Hoe dan ook kunnen dergelijke ontwikkelingen verstrekkende gevolgen hebben voor de nationale veiligheid, de economie en het mondiale machtsevenwicht.
Lees meer: Wanneer zou AI ons te slim af kunnen zijn? Het hangt ervan af aan wie je het vraagt
Trumps eigen uitspraken over AI schommelden tussen ontzag en bezorgdheid. In een juni interview op Logan Paulus'S Impulsief podcast, Hij beschreven AI als een ‘supermacht’ en noemde de mogelijkheden ervan ‘alarmerend’. En net als velen in Washington bekijkt hij de technologie door de lens van concurrentie met China, dat hij ziet als de ‘belangrijkste bedreiging’ in de race om geavanceerde AI te bouwen.
Maar zelfs zijn naaste bondgenoten zijn verdeeld over de manier waarop ze de technologie moeten besturen: Muskus heeft lange tijd zijn zorgen geuit over de existentiële risico’s van AI, terwijl JD Vance, de vice-president van Trump, ziet Dergelijke waarschuwingen uit de industrie zijn een truc om regelgeving in te voeren die ‘de gevestigde technologiebedrijven zou verankeren’. Deze verdeeldheid onder de vertrouwelingen van Trump duidt op de concurrerende druk die het AI-beleid tijdens Trumps tweede ambtstermijn vorm zal geven.
Het ongedaan maken van de AI-erfenis van Biden
Trumps eerste grote AI De beleidsstap zal waarschijnlijk het afzetten van de president zijn Het Executive Order van Joe Biden over AI. Het ingrijpende bevel, ondertekend in oktober 2023, had tot doel de bedreigingen aan te pakken die de technologie zou kunnen vormen voor de burgerrechten, de privacy en de nationale veiligheid, en tegelijkertijd innovatie, concurrentie en het gebruik van AI voor openbare diensten te bevorderen.
Troef beloofd om het Executive Order tijdens de campagne in december 2023 in te trekken, en dit standpunt werd opnieuw bevestigd in de Platform van de Republikeinse Partij in juli, waarin kritiek werd geuit op het uitvoeringsbesluit omdat het innovatie belemmerde en “radicaal-linkse ideeën” oplegde aan de ontwikkeling van de technologie.
Delen van de Executive Order die zich richten op rassendiscriminatie of ongelijkheid zijn “niet zozeer de stijl van Trump”, zegt Dan Hendrycks, uitvoerend en onderzoeksdirecteur van het Center for AI Safety. Terwijl deskundigen dat wel hebben gedaan bekritiseerd Als de bescherming tegen vooroordelen wordt teruggedraaid, zegt Hendrycks dat de regering-Trump andere aspecten van Bidens aanpak kan behouden. “Ik denk dat er dingen in zitten (de Executive Order) die zeer tweeledig zijn, en dan zijn er nog andere dingen die specifieker Democratisch van smaak zijn”, zegt Hendrycks.
“Het zou mij niet verbazen als een uitvoerend bevel van Trump over AI enkele van de belangrijkste nationale veiligheidsbepalingen binnen het Biden Executive Order handhaaft of zelfs uitbreidt, voortbouwend op wat het Department of Homeland Security heeft gedaan voor het evalueren van cyberveiligheid, biologische en radiologische risico’s. geassocieerd met AI”, zegt Samuel Hammond, senior econoom bij de Foundation for American Innovation, een op technologie gerichte denktank.
Het lot van het Amerikaanse AI Safety Institute (AISI), een instelling die als laatste is opgericht November door de regering-Biden om leiding te geven aan de inspanningen van de regering op het gebied van AI-veiligheid, blijft eveneens onzeker. In augustusheeft de AISI overeenkomsten getekend met OpenAI en Anthropic om formeel samen te werken op het gebied van AI-veiligheidsonderzoek en het testen en evalueren van nieuwe modellen. “Vrijwel zeker wordt het AI Safety Institute gezien als een remmer van innovatie, wat niet noodzakelijkerwijs aansluit bij de rest van wat Trumps technologie- en AI-agenda lijkt te zijn”, zegt Keegan McBride, docent AI, overheid en beleid. bij het Oxford Internet Instituut. Maar Hammond zegt dat hoewel sommige stemmen uit de marginale hoek het instituut zouden willen sluiten, “de meeste Republikeinen de AISI steunen. Ze zien het als een verlengstuk van ons leiderschap op het gebied van AI.”
Lees meer: Wat de overwinning van Trump betekent voor Crypto
Het Congres werkt al aan de bescherming van de AISI. In oktober ondertekende een brede coalitie van bedrijven, universiteiten en maatschappelijke groeperingen – waaronder OpenAI, Lockheed Martin, Carnegie Mellon University en de non-profitorganisatie Encode Justice – een brief een beroep doen op sleutelfiguren in het Congres om dringend een wetgevende basis voor de AISI te creëren. Er zijn inspanningen gaande in zowel de Senaat als het Huis van Afgevaardigden, en beide hebben naar verluidt “vrij brede steun van beide partijen”, zegt Hamza Chaudhry, Amerikaanse beleidsspecialist bij de non-profitorganisatie Future of Life Institute.
Amerika-eerste AI en de race tegen China
Uit de eerdere opmerkingen van Trump blijkt dat het behouden van de Amerikaanse voorsprong op het gebied van AI-ontwikkeling een belangrijk aandachtspunt zal zijn voor zijn regering. “We moeten voorop lopen”, zei hij op de Impulsief podcast in juni. “We moeten de leiding nemen over China.” Trump heeft milieuproblemen ook als potentiële obstakels bestempeld, met het argument dat ze ons ‘tegen kunnen houden’ in wat hij beschouwt als de race tegen China.
Het AI-beleid van Trump zou het terugdraaien van regelgeving kunnen omvatten om de ontwikkeling van de infrastructuur te versnellen, zegt Dean Ball, een research fellow aan de George Mason University. „Er zijn de datacenters die gebouwd moeten worden. De energie om die datacenters van stroom te voorzien zal enorm zijn. Ik denk zelfs nog groter dan dat: de productie van chips“, zegt hij. “We hebben veel meer chips nodig.” Terwijl de campagne van Trump dat soms wel heeft gedaan aangevallen de CHIPS Act, die prikkels biedt voor de productie van chipfabrikanten in de VS, leiden sommige analisten geloven dat het onwaarschijnlijk is dat hij de wet zal intrekken.
Lees meer: Wat de overwinning van Donald Trump betekent voor de economie
De exportbeperkingen voor chips zullen waarschijnlijk een belangrijke hefboom blijven in het Amerikaanse AI-beleid. Voortbouwend op de maatregelen die hij tijdens zijn eerste ambtstermijn heeft geïnitieerd – en die later door Biden zijn uitgebreid – zou Trump de controles kunnen versterken die de toegang van China tot geavanceerde halfgeleiders beperken. “Het is eerlijk om te zeggen dat de regering-Biden behoorlijk hard is geweest tegen China, maar ik weet zeker dat Trump als harder wil worden gezien”, zegt McBride. Het is “zeer waarschijnlijk” dat het Witte Huis van Trump de exportcontroles zal “verdubbelen” in een poging de gaten te dichten die China toegang hebben gegeven tot chips, zegt Scott Singer, gastonderzoeker bij het Technology and International Affairs Program van de Carnegie Endowment. voor Internationale Vrede. “De overgrote meerderheid van de mensen aan beide kanten vindt de exportcontroles belangrijk”, zegt hij.
De opstaan van open-source AI brengt nieuwe uitdagingen met zich mee. China heeft laten zien dat het Amerikaanse systemen kan benutten, zoals blijkt uit Chinese onderzoekers naar verluidt heeft een eerdere versie van Meta's Llama-model aangepast voor militaire toepassingen. Dat heeft een beleidskloof gecreëerd. „Je hebt mensen binnen de Republikeinse Partij die echt voorstander zijn van open source“, zegt Ball. „En dan heb je mensen die 'Chinese haviken' zijn en open-source aan de grens van AI echt willen verbieden.“
„Ik heb het gevoel dat, omdat een Trump-platform zoveel overtuiging heeft in het belang en de waarde van open source, ik verrast zou zijn als er een beweging in de richting van beperking zou ontstaan“, zegt Singer.
Ondanks zijn harde taal zouden de impulsen van Trump om een deal te sluiten zijn beleid ten aanzien van China vorm kunnen geven. ‘Ik denk dat mensen Trump verkeerd begrijpen als een Chinese havik. Hij haat China niet’, zegt Hammond, die Trumps ‘transactionele’ kijk op de internationale betrekkingen beschrijft. In 2018, Trump beperkingen opgeheven tegen het Chinese technologiebedrijf ZTE in ruil voor een boete van $1,3 miljard en meer toezicht. Singer ziet vergelijkbare mogelijkheden voor AI-onderhandelingen, vooral als Trump de zorgen van velen accepteert deskundigen over de extremere risico’s van AI, zoals de kans dat de mensheid de controle over toekomstige systemen verliest.
De coalitie van Trump is verdeeld over AI
Debatten over hoe AI bestuurd moet worden, brengen diepe verdeeldheid binnen Trumps coalitie van aanhangers aan het licht. Leidende figuren, waaronder Vance, zijn voorstander van lossere regels voor de technologie. Vance heeft afgewezen AI-risico als een truc van de industrie om nieuwe regelgeving in te luiden die “het voor nieuwkomers feitelijk moeilijker zou maken om de innovatie te creëren die de volgende generatie Amerikaanse groei zal aandrijven.”
Silicon Valley-miljardair Peter Thiel, die geserveerd over het transitieteam van Trump uit 2016, dat onlangs waarschuwde tegen bewegingen om AI te reguleren. Hij sprak in mei op de Cambridge Union gezegd elke regering met de autoriteit om de technologie te besturen zou een ‘mondiaal totalitair karakter’ hebben. Marc Andreessen, mede-oprichter van het vooraanstaande durfkapitaalbedrijf Andreessen Horowitz, gaf $2,5 miljoen aan een pro-Trump superpolitiek actiecomité, en een aanvullend $844.600 aan de campagne van Trump en de Republikeinse Partij.
Toch heeft een meer op veiligheid gericht perspectief andere aanhangers in de kring van Trump gevonden. Hammond, die adviseerde in de AI-beleidscommissie Project 2025een voorgestelde beleidsagenda onder leiding van de rechtse denktank de Heritage Foundation, en niet officieel goedgekeurd door de Trump-campagne, zegt dat “binnen de mensen die dat project adviseerden een zeer duidelijke focus was op kunstmatige algemene intelligentie en catastrofale risico’s van AI.”
Musk, die naar voren is gekomen als een prominente bondgenoot van de Trump-campagne, zowel door zijn donaties als door zijn promotie van Trump op zijn platform X (voorheen Twitter), maakt zich al lang zorgen dat AI een existentiële bedreiging voor de mensheid zou kunnen vormen. Onlangs Muskus gezegd hij gelooft dat er een kans van 10% tot 20% is dat AI “slecht gaat”. In augustus, Musk geplaatst op X ter ondersteuning van de nu veto uitgesproken Californische AI-veiligheidswet zou hebben vangrails geplaatst voor AI-ontwikkelaars. Hendrycks, wiens organisatie mede-sponsor was van het Californische wetsvoorstel, en die als veiligheidsadviseur fungeert bij xAI, het AI-bedrijf van Musk, zegt: “Als Elon suggesties doet over AI-zaken, dan verwacht ik dat het goed zal gaan.” “Er moeten echter veel basisafspraken en basiswerk worden gedaan, waardoor het iets moeilijker te voorspellen is”, zegt hij.
Trump heeft enkele van de nationale veiligheidsrisico’s van AI erkend. In juni heeft hij gezegd hij vreesde dat deepfakes van een Amerikaanse president die met een nucleaire aanval dreigt, een andere staat ertoe zouden kunnen aanzetten te reageren, wat zou leiden tot een nucleaire oorlog. Hij gebaarde ook naar het idee dat een AI-systeem ‘schurkenstaten’ zou kunnen worden en de mensheid zou kunnen overmeesteren, maar zorgde ervoor dit standpunt te onderscheiden van zijn persoonlijke visie. Voor Trump lijkt de concurrentie met China echter de voornaamste zorg te blijven.
Lees meer: Trump is bang dat deepfakes van AI een nucleaire oorlog kunnen veroorzaken
Maar deze prioriteiten zijn niet noodzakelijkerwijs met elkaar in strijd en de regulering van de veiligheid op het gebied van AI betekent niet noodzakelijkerwijs dat China terrein moet afstaan, zegt Hendrycks. Hij merkt op dat beveiliging tegen kwaadwillig gebruik minimale investeringen van ontwikkelaars vergt. „Je moet één persoon inhuren om een maand of twee aan engineering te besteden, en dan krijg je je jailbreak-garanties“, zegt hij. Maar nu deze concurrerende stemmen de AI-agenda van Trump vormgeven, blijft de richting van Trumps AI-beleidsagenda onzeker.
“In termen van welk standpunt president Trump en zijn team kiezen, denk ik dat dit een open vraag is, en dat is iets dat we moeten zien”, zegt Chaudhry. “Dit is een cruciaal moment.”