Blijf op de hoogte met gratis updates
Meld u eenvoudig aan bij de Kunstmatige intelligentie myFT Digest – rechtstreeks in uw inbox afgeleverd.
De schrijver is hoofd AI-wetenschapper bij het AI Now Institute
Kunstmatige intelligentie wordt al gebruikt op het slagveld. Een versnelde adoptie is in zicht. Dit jaar verklaarden Meta, Anthropic en OpenAI allemaal dat hun AI-basismodellen beschikbaar waren voor gebruik door de Amerikaanse nationale veiligheid. AI-oorlogvoering is controversieel en wordt breed bekritiseerd. Maar een meer verraderlijke reeks AI-gebruiksscenario’s is al stilletjes geïntegreerd in het Amerikaanse leger.
Op het eerste gezicht lijken de taken waarvoor AI-modellen worden gebruikt onbeduidend. Ze helpen met de communicatie, codering, het oplossen van IT-tickets en gegevensverwerking. Het probleem is dat zelfs banale toepassingen risico’s met zich mee kunnen brengen. Het gemak waarmee ze worden ingezet, kan de veiligheid van de civiele en defensie-infrastructuur in gevaar brengen.
Neem het US Africa Command, een van de gevechtscommando’s van het Amerikaanse ministerie van Defensie, dat expliciet is geweest over het gebruik van een OpenAI-tool voor “unified analytics voor gegevensverwerking”.
Dergelijke administratieve taken kunnen bijdragen aan bedrijfskritische beslissingen. Maar zoals herhaalde demonstraties hebben aangetoond, fabriceren AI-tools consequent resultaten (ook wel hallucinaties genoemd) en introduceren ze nieuwe kwetsbaarheden. Het gebruik ervan kan leiden tot een opeenstapeling van fouten. Omdat USAfricom een oorlogsmacht is, kunnen kleine fouten na verloop van tijd resulteren in beslissingen die schade aan burgers en tactische fouten veroorzaken.
USAfricom is niet de enige. Dit jaar lanceerde de Amerikaanse luchtmacht en ruimtemacht een generatieve AI-chatbot genaamd de Non-classified Internet Protocol Generative Pre-training Transformer, of NIPRGPT. Het kan “vragen beantwoorden en helpen met taken zoals correspondentie, achtergrondpapieren en code”. Ondertussen heeft de marine een conversatie-AI-model voor technische ondersteuning ontwikkeld dat zij Amelia noemt.
Militaire organisaties rechtvaardigen hun gebruik van AI-modellen door te beweren dat ze de efficiëntie, nauwkeurigheid en schaalbaarheid vergroten. In werkelijkheid blijkt uit de aanschaf en acceptatie ervan dat er sprake is van een zorgwekkend gebrek aan bewustzijn over de risico’s die eraan verbonden zijn.
Tot deze risico’s behoren tegenstanders vergiftiging datasets waarop modellen worden getraind, waardoor ze resultaten kunnen ondermijnen als ze zeker zijn trefwoorden triggeren worden gebruikt, zelfs op zogenaamd ‘veilig’ systeem. Tegenstanders kunnen ook hallucinaties bewapenen.
Desondanks hebben Amerikaanse militaire organisaties geen garanties gegeven over de manier waarop zij kritieke defensie-infrastructuur willen beschermen.
Gebrek aan geschiktheid voor het beoogde doel brengt evenveel, zo niet meer, veiligheidsrisico’s met zich mee als doelbewuste aanvallen. De aard van AI-systemen is om uitkomsten te bieden op basis van statistische en probabilistische correlaties uit historische gegevens, en niet op feitelijk bewijs, redenering of ‘causaliteit’. Neem codegeneratie en IT-taken waar onderzoekers van Cornell University ontdekte vorig jaar dat ChatGPT, GitHub Copilot en Amazon CodeWhisperer van OpenAI respectievelijk slechts 65,2 procent, 46,3 procent en 31,1 procent van de tijd correcte code genereerden.
Ook al verzekeren AI-bedrijven ons dat ze aan verbeteringen werken, het valt niet te ontkennen dat de huidige foutenpercentages te hoog zijn voor toepassingen die precisie, nauwkeurigheid en veiligheid vereisen. Overmatig vertrouwen en vertrouwen in de tools kan ertoe leiden dat gebruikers dit doen over het hoofd zien ook hun fouten.
Dit roept de vraag op: hoe is het militaire organisaties toegestaan om met gemak AI aan te schaffen en modellen te implementeren?
Eén antwoord komt voort uit het feit dat ze lijken te worden beschouwd als een verlengstuk van de IT-infrastructuur, terwijl ze in feite kunnen worden gebruikt als analytische hulpmiddelen die de uitkomsten van cruciale missies kunnen veranderen. Dit vermogen om het gebruik van AI als infrastructuur te classificeren, waarbij de juiste inkoopkanalen worden omzeild die deze als geschikt beoordelen voor missiekritieke doeleinden, zou ons tot nadenken moeten stemmen.
Bij het nastreven van potentiële toekomstige efficiëntieverbeteringen brengt het gebruik van AI-administratieve instrumenten door militaire instanties reële risico’s met zich mee. Dit is een afweging die hun vermeende voordelen niet kunnen rechtvaardigen.