OpenAI schetst de nationale veiligheidsaanpak



OpenAI schetst de nationale veiligheidsaanpak

OpenAI benadrukte het belang van het behoud van leiderschap door de VS op het gebied van de ontwikkeling van kunstmatige intelligentie in een nieuwe schets van de benadering van het bedrijf ten aanzien van de nationale veiligheid.

De ChatGPT-maker, in een blogpost donderdag, legde uit hoe het bedrijf zijn rol in de nationale veiligheid ziet naar aanleiding van de nationale veiligheidsmemoranda van de regering-Biden over AI.

De memo, ondertekend door president Biden, markeerde de allereerste nationale veiligheidsmemo over AI. Het moedigde overheidsinstanties aan om AI-systemen aan te grijpen om een ​​voorsprong op buitenlandse tegenstanders te behouden en de nationale veiligheid te vergroten, terwijl het belang van een veilige inzet nog steeds werd benadrukt.

OpenAI zei dat het de memo beschouwt als een “belangrijke stap voorwaarts” om ervoor te zorgen dat AI de “meeste mensen mogelijk” ten goede komt op een manier die “de democratische waarden hooghoudt”.

“AI is een transformationele technologie die kan worden gebruikt om democratische waarden te versterken of te ondermijnen. Daarom zijn wij van mening dat democratieën het voortouw moeten blijven nemen in de ontwikkeling van AI, geleid door waarden als vrijheid, eerlijkheid en respect voor de mensenrechten,” bericht zei.

“En daarom vinden wij dat landen die deze waarden delen, moeten begrijpen hoe AI, met de juiste waarborgen, mensen kan helpen beschermen, tegenstanders kan afschrikken en zelfs toekomstige conflicten kan voorkomen”, vervolgde het bedrijf.

De AI-ontwikkelaar merkte op dat er nationale veiligheidszaken zijn die al aansluiten bij zijn missie, wijzend op de samenwerking van OpenAI met DARPA – of Defense Advanced Research Projects Agency – en de Amerikaanse National Laboratories.

Het bedrijf evalueert potentiële partnerschappen op het gebied van de nationale veiligheid met een specifiek raamwerk dat prioriteit geeft aan 'Democratische waarden, veiligheid, verantwoordelijkheid en aansprakelijkheid'.

Deze toepassingen brengen ook de behoefte aan vangrails met zich mee, zei OpenAI, verwijzend naar het gebruiksbeleid van het bedrijf dat het gebruik van zijn technologie verbiedt „om mensen schade toe te brengen, eigendommen te vernietigen of wapens te ontwikkelen.“

Eerder deze maand maakte de technologiegigant zei dat het doorgaat om pogingen te zien van cybercriminelen om zijn AI-modellen te gebruiken voor nep-inhoud om de verkiezingen van dit jaar te verstoren.

“Wij geloven dat de Amerikaanse overheid en Amerikaanse bedrijven zoals de onze de kans hebben om het voortouw te nemen bij het stellen van normen over hoe AI veilig en verantwoord wordt gebruikt in de nationale veiligheidscontext, net zoals wij leiding geven aan de ontwikkeling van de technologie zelf”, aldus de woordvoerder. bedrijf schreef. “Terwijl we potentiële partnerschappen met de Amerikaanse regering en bondgenoten onderzoeken, willen we helpen deze normen op een transparante en zorgvuldige manier vast te stellen.”

Het gesprek over vangrails op het gebied van AI heeft zich de afgelopen maanden binnen de overheid verspreid, ook in het Congres, waar wetgevers verschillende hoorzittingen en bijeenkomsten met experts hebben gehouden om de risico’s en voordelen van de technologie te begrijpen.

Terwijl OpenAI zijn inzet voor veiligheid prijst, recente veranderingen in het leiderschap en zijn plannen om te herstructureren als een bedrijf met winstoogmerk heeft enkele deskundigen vragen gesteld als het bedrijf mogelijk van deze waarden zal afwijken.



Source link