Chinese toponderzoeksinstellingen die banden hebben met het Volksbevrijdingsleger hebben Meta’s publiekelijk beschikbare Llama-model gebruikt om een AI-tool te ontwikkelen voor potentiële militaire toepassingen, aldus academische artikelen en analisten.
In een artikel uit juni, beoordeeld door Reuters, legden zes Chinese onderzoekers van drie instellingen, waaronder twee onder het leidende onderzoeksorgaan van het People's Liberation Army (PLA), de Academie voor Militaire Wetenschappen (AMS), uit hoe ze een vroege versie van Meta's Llama hadden gebruikt als een basis voor wat het „ChatBIT“ noemt.
De onderzoekers gebruikten het Llama 2 13B grote taalmodel (LLM) dat Meta in februari 2023 uitbracht, waarbij ze hun eigen parameters gebruikten om een militair gerichte AI-tool te construeren om inlichtingen te verzamelen en te verwerken, en om nauwkeurige en betrouwbare informatie te bieden voor operationele besluitvorming.
ChatBIT is verfijnd en „geoptimaliseerd voor dialoog en het beantwoorden van vragen op militair gebied“, aldus de krant. Het bleek beter te presteren dan sommige andere AI-modellen die ongeveer 90% zo capabel waren als de krachtige ChatGPT-4 van OpenAI. De onderzoekers gingen niet dieper in op de manier waarop ze prestaties definieerden en specificeerden niet of het AI-model in gebruik was genomen.
„Het is de eerste keer dat er substantieel bewijs is dat militaire experts van de PLA in China systematisch onderzoek hebben gedaan naar de kracht van open-source LLM's, vooral die van Meta, en deze hebben geprobeerd te benutten voor militaire doeleinden“, zegt Sunny Cheung, associate fellow bij de Jamestown Foundation die gespecialiseerd is in de opkomende technologieën en technologieën voor tweeërlei gebruik in China, waaronder AI.
Meta heeft de open release van veel van zijn AI-modellen omarmd, waaronder Llama. Het legt beperkingen op aan het gebruik ervan, waaronder de eis dat diensten met meer dan 700 miljoen gebruikers een licentie van het bedrijf moeten aanvragen.
De voorwaarden ervan verbieden ook het gebruik van de modellen voor “militaire activiteiten, oorlogsvoering, nucleaire industrieën of toepassingen, spionage” en andere activiteiten die onderworpen zijn aan Amerikaanse defensie-exportcontroles, evenals voor de ontwikkeling van wapens en inhoud die bedoeld zijn om “geweld aan te wakkeren en te bevorderen”.
Omdat de modellen van Meta echter openbaar zijn, heeft het bedrijf beperkte mogelijkheden om deze bepalingen af te dwingen.
In antwoord op vragen van Reuters haalde Meta haar beleid voor acceptabel gebruik aan en zei dat het maatregelen heeft genomen om misbruik te voorkomen.
“Elk gebruik van onze modellen door het Volksbevrijdingsleger is ongeoorloofd en in strijd met ons beleid voor aanvaardbaar gebruik”, vertelde Molly Montgomery, directeur openbaar beleid van Meta, aan Reuters in een telefonisch interview.
Tot de Chinese onderzoekers behoren Geng Guotong en Li Weiwei van het AMS Military Science Information Research Center en het National Innovation Institute of Defense Technology, evenals onderzoekers van het Beijing Institute of Technology en de Minzu Universiteit.
“In de toekomst zal ChatBIT, door technologische verfijning, niet alleen worden toegepast op inlichtingenanalyse, maar ook … strategische planning, simulatietraining en besluitvorming op commandogebied zullen worden onderzocht”, aldus de krant.
Het Chinese ministerie van Defensie heeft niet gereageerd op een verzoek om commentaar, en geen van de instellingen of onderzoekers heeft dat ook gedaan.
Reuters kon de capaciteiten en rekenkracht van ChatBIT niet bevestigen, hoewel de onderzoekers opmerkten dat het model slechts 100.000 militaire dialoogrecords bevatte, een relatief klein aantal vergeleken met andere LLM's.
„Dat is een druppel op de gloeiende plaat vergeleken met de meeste van deze modellen (die) zijn getraind met biljoenen tokens, dus… ik vraag me echt af wat ze hier eigenlijk bereiken in termen van verschillende mogelijkheden“, zegt Joelle Pineau, vice-president van AI Research bij Meta en hoogleraar computerwetenschappen aan de McGill University in Canada.
Het onderzoek komt te midden van een verhit debat in Amerikaanse nationale veiligheids- en technologiekringen over de vraag of bedrijven als Meta hun modellen openbaar moeten maken.
De Amerikaanse president Joe Biden ondertekende in oktober 2023 een uitvoerend bevel om de AI-ontwikkelingen te beheren, waarbij hij opmerkte dat hoewel innovatie aanzienlijke voordelen kan opleveren, er ook 'substantiële veiligheidsrisico's waren, zoals het wegnemen van waarborgen binnen het model'.
Deze week zei Washington dat het de laatste hand legt aan de regels om Amerikaanse investeringen in kunstmatige intelligentie en andere technologiesectoren in China, die de nationale veiligheid zouden kunnen bedreigen, aan banden te leggen.
Pentagon-woordvoerder John Supple zei dat het ministerie van Defensie inzag dat open-sourcemodellen zowel voor- als nadelen hadden, en dat „we de capaciteiten van concurrenten nauwlettend zullen blijven volgen en beoordelen“.
'KOEKJESPOT'
Sommige waarnemers zeggen dat de Chinese vooruitgang bij de ontwikkeling van inheemse AI, waaronder het opzetten van tientallen onderzoekslaboratoria, het al moeilijk heeft gemaakt om te voorkomen dat het land de technologische kloof met de Verenigde Staten verkleint.
In een afzonderlijk academisch artikel, beoordeeld door Reuters, beschreven twee onderzoekers van de Aviation Industry Corporation of China (AVIC) – door de Verenigde Staten aangewezen als een bedrijf dat banden heeft met de PLA – het gebruik van Llama 2 voor “de training van interferentiestrategieën voor elektronische oorlogsvoering in de lucht.” „.
Het Chinese gebruik van in het Westen ontwikkelde AI heeft zich ook uitgebreid tot de binnenlandse veiligheid. In een artikel uit juni werd beschreven hoe de lama werd gebruikt voor „inlichtingenpolitie“ om grote hoeveelheden gegevens te verwerken en de besluitvorming van de politie te verbeteren.
Het door de staat gerunde PLA Daily publiceerde in april commentaar over hoe AI zou kunnen helpen „het onderzoek en de ontwikkeling van wapens en uitrusting te versnellen“, gevechtssimulatie te helpen ontwikkelen en de efficiëntie van militaire training te verbeteren“.
“Kun je ze (China) uit de koektrommel houden? Nee, ik zie niet in hoe je dat kunt doen”, vertelde William Hannas, hoofdanalist bij het Centre for Security and Emerging Technology (CSET) van Georgetown University, aan Reuters. In een paper uit 2023 van CSET werden 370 Chinese instellingen gevonden waarvan de onderzoekers artikelen hadden gepubliceerd over algemene kunstmatige intelligentie, die China's nationale strategie hielpen om tegen 2030 de wereldleider te zijn op het gebied van AI.
“Er vindt te veel samenwerking plaats tussen de beste wetenschappers van China en de beste AI-wetenschappers van de VS om hen van de ontwikkelingen te kunnen buitensluiten”, voegde Hannas eraan toe.
Gepubliceerd – 1 november 2024 09:59 uur IST