SAfety -bezorgdheid is uit, optimisme is binnen: dat was de afhaalmaaltijden van een grote kunstmatige inlichtingentop in Parijs deze week, terwijl leiders uit de VS, Frankrijk en daarbuiten hun gewicht achter de AI -industrie gooiden.
Hoewel er afdelingen waren tussen grote landen-de VS en het VK ondertekenden geen definitieve verklaring die werd onderschreven door 60 landen waarin werd opgeroepen tot een “inclusieve” en “open” AI-sector-was de focus van de tweedaagse bijeenkomst aanzienlijk anders dan de laatste zo’n bijeenkomst. Vorig jaar, in Seoul, lag de nadruk op het definiëren van rode lijnen voor de AI-industrie. De zorg: dat de technologie, hoewel het veel belofte had, ook het potentieel had voor grote schade.
Maar dat was toen. De laatste verklaring maakte geen melding van significante AI -risico’s noch probeert ze te verzachten, terwijl de Amerikaanse vice -president JD Vance in een toespraak dinsdag zei: “Ik ben hier vanmorgen niet om te praten over AI -veiligheid, wat de titel was van de Conferentie een paar jaar geleden. Ik ben hier om te praten over AI -kans. ”
De Franse leider en Summit-gastheer, Emmanuel Macron, bracht ook een beslist pro-business-boodschap over-onder de linie van hoe enthousiaste landen over de hele wereld zijn om een voorsprong te krijgen in de ontwikkeling van nieuwe AI-systemen.
Once Upon a Time in Bletchley
De nadruk op het stimuleren van de AI -sector en het opzij zetten van de veiligheidsproblemen was ver verwijderd van de allereerste wereldwijde top op AI in Bletchley Park in het Verenigd Koninkrijk in 2023. De “AI Safety Summit” genoemd – de Franse bijeenkomst daarbij werd het genoemd “AI Action Summit” – Het uitdrukkelijke doel was om een manier weg te doen om de risico’s van ontwikkelingen in de technologie te verminderen.
De tweede wereldwijde bijeenkomst, in SEOUL in 2024, gebouwd op deze stichting, waarbij leiders vrijwillige veiligheidsverplichtingen waarborgen van toonaangevende AI -spelers zoals Openai, Google, Meta en hun tegenhangers in China, Zuid -Korea en de Verenigde Arabische Emiraten. De top van 2025 in Parijs, regeringen en AI-bedrijven die destijds zijn overeengekomen, zouden de plaats zijn om rode lijnen voor AI te definiëren: risicodrempels die mitigaties op internationaal niveau zouden vereisen.
Parijs ging echter de andere kant op. “Ik denk dat dit een echte buikflop was”, zegt Max Tegmark, een MIT-professor en de president van de Future of Life Institute, een non-profit gericht op het verminderen van AI-risico’s. “Het voelde bijna alsof ze Bletchley probeerden ongedaan te maken.”
Anthropic, een AI -bedrijf richtte zich op veiligheid, noemde het evenement een ‘gemiste kans’.
Het VK, dat de eerste AI -top organiseerde, zei dat het had geweigerd de Verklaring van Parijs te ondertekenen vanwege een gebrek aan inhoud. “We vonden dat de verklaring niet genoeg praktische duidelijkheid gaf over wereldwijd bestuur, noch voldoende hardere vragen over de nationale veiligheid en de uitdaging die AI stelt,” zei een woordvoerder van premier Keir Starmer.
Racen voor een voorsprong
De verschuiving komt tegen de achtergrond van intensiverende ontwikkelingen in AI. In de maand of zo vóór de top van 2025 heeft Openai een “agent” -model uitgebracht dat onderzoekstaken kan uitvoeren op ongeveer het niveau van een competente afgestudeerde student.
Veiligheidsonderzoekers toonden ondertussen voor het eerst aan dat de nieuwste generatie AI -modellen kunnen proberen hun makers te bedriegen en zichzelf te kopiëren, in een poging om aanpassing te voorkomen. Veel onafhankelijke AI-wetenschappers zijn het nu eens met de projecties van de technologiebedrijven zelf: dat Super-humin-niveau AI binnen de komende vijf jaar kan worden ontwikkeld-met potentieel catastrofale effecten als onopgeloste vragen in veiligheidsonderzoek niet worden aangepakt.
Toch werden dergelijke zorgen naar de rugbrander geduwd, terwijl de VS met name een krachtig argument tegen bewegingen voerden om de sector te reguleren, waarbij Vance zei dat de Trump -regering ‘niet’ kan ‘niet’ aanvaarden van buitenlandse regeringen die de schroeven op ons technologie aanscherpen Bedrijven. ”
Hij bekritiseerde ook sterk de Europese voorschriften. De EU heeft ‘s werelds meest uitgebreide AI -wet, genaamd de AI Act, plus andere wetten zoals de Digital Services Act, die Vance bij naam riep als overdreven beperkend in haar beperkingen met betrekking tot verkeerde informatie op sociale media.
De nieuwe vice -president, die een brede basis van steun heeft bij durfkapitalisten, heeft ook duidelijk gemaakt dat zijn politieke steun voor grote technologiebedrijven zich niet uitstrekte tot voorschriften die barrières voor nieuwe startups zouden verhogen, waardoor de ontwikkeling van innovatieve AI -technologieën werd belemmerd.
“Om de ontwikkeling van (AI) te beperken, zou nu niet alleen oneerlijk ten goede komen aan gevestigde exploitanten in de ruimte, het zou betekenen dat een van de meest veelbelovende technologieën die we in generaties hebben gezien, verlaming,” zei Vance. “Wanneer een enorme gevestigde exploitant naar ons toe komt en om veiligheidsvoorschriften vraagt, moeten we ons afvragen of die veiligheidsregelgeving ten behoeve van onze mensen is, of dat het ten behoeve van de zittende is.”
En in een duidelijk teken dat bezorgdheid over AI -risico’s uit de gratie zijn in president Trump’s Washington, heeft hij AI -veiligheid geassocieerd met een populair Republikeins gesprekspunt: de beperking van “vrije meningsuiting” door sociale mediaplatforms die schade als verkeerde informatie proberen aan te pakken.
Met rapportage door Tharin Pillay/Parijs en Harry Booth/Parijs
Source link