De kloof tussen open en gesloten AI-modellen zou kleiner kunnen worden


Tvandaag best AI-modellen, zoals ChatGPT van OpenAI en Claude van Anthropic, komen met voorwaarden: hun makers bepalen de voorwaarden waaronder toegang wordt verkregen om te voorkomen dat ze op schadelijke manieren worden gebruikt. Dit in tegenstelling tot 'open' modellen, die door iedereen voor vrijwel elk doel kunnen worden gedownload, aangepast en gebruikt. Een nieuwe rapport door een non-profit onderzoeksorganisatie Tijdperk AI ontdekte dat de open modellen die vandaag beschikbaar zijn ongeveer een jaar achterlopen op de top gesloten modellen.

“Het beste open model van vandaag is qua prestaties vergelijkbaar met gesloten modellen, maar met een vertraging van ongeveer een jaar”, zegt Ben Cottier, hoofdonderzoeker van het rapport.

Meta's Lama 3.1 Het duurde ongeveer 16 maanden voordat 405B, een open model dat in juli werd uitgebracht, de mogelijkheden van de eerste versie van GPT-4 evenaarde. Als Meta's volgende generatie AI, Llama 4, wordt uitgebracht als een open model, zoals algemeen wordt verwacht, zou deze kloof nog verder kunnen verkleinen. De bevindingen komen op het moment dat beleidsmakers worstelen met de vraag hoe ze moeten omgaan met steeds krachtigere AI-systemen, die dat al zijn hervormen informatieomgevingen voorafgaand aan verkiezingen over de hele wereld, en waarvan sommige deskundigen vrezen dat ze ooit in staat zouden kunnen zijn deze te ontwikkelen pandemieënverfijnd uitvoeren cyberaanvallenen het veroorzaken van andere schade aan mensen.

Onderzoekers bij Tijdperk AI geanalyseerd honderden van opmerkelijke modellen die sinds 2018 zijn uitgebracht. Om tot hun resultaten te komen, hebben ze de prestaties van topmodellen gemeten op basis van technische benchmarks: gestandaardiseerde tests die het vermogen van een AI meten om taken uit te voeren zoals het oplossen van wiskundige problemen, het beantwoorden van algemene kennisvragen en het demonstreren van logisch redeneren. Ze keken ook naar hoeveel rekenkracht, of rekenkracht, werd gebruikt om ze te trainen, omdat dat historisch gezien een goede maatstaf is voor capaciteiten, hoewel open modellen soms net zo goed kunnen presteren als gesloten modellen, terwijl ze minder rekenkracht gebruiken, dankzij de vooruitgang in de efficiëntie van AI-algoritmen. “De vertraging tussen open en gesloten modellen biedt beleidsmakers en AI-laboratoria een kans om grensmogelijkheden te beoordelen voordat ze beschikbaar komen in open modellen”, schrijven Epoch-onderzoekers in het rapport.

Lees meer: De onderzoeker die een glimp probeert op te vangen van de toekomst van AI

Maar het onderscheid tussen ‘open’ en ‘gesloten’ AI-modellen is niet zo eenvoudig als het lijkt. Terwijl Meta beschrijft zijn Llama-modellen als open-source voldoen niet aan de eisen nieuwe definitie vorige maand gepubliceerd door het Open Source Initiative, dat historisch gezien de industriestandaard heeft gezet voor wat open source inhoudt. De nieuwe definitie vereist dat bedrijven niet alleen het model zelf delen, maar ook de gegevens en code die worden gebruikt om het te trainen. Hoewel Meta zijn modelgewichten vrijgeeft (lange lijsten met getallen waarmee gebruikers het model kunnen downloaden en wijzigen), geeft het noch de trainingsgegevens, noch de code vrij die wordt gebruikt om de modellen te trainen. Voordat een model wordt gedownload, moeten gebruikers akkoord gaan met een Beleid voor acceptabel gebruik dat militair gebruik en andere schadelijke of illegale activiteiten verbiedt, hoewel deze beperkingen, zodra modellen eenmaal zijn gedownload, in de praktijk moeilijk afdwingbaar zijn.

Meta zegt het niet eens te zijn met de nieuwe definitie van het Open Source Initiative. “Er bestaat geen enkele open source AI-definitie, en het definiëren ervan is een uitdaging omdat eerdere open source-definities niet de complexiteit van de huidige snel voortschrijdende AI-modellen omvatten”, vertelde een woordvoerder van Meta aan TIME in een verklaring per e-mail. “Wij maken Llama gratis en openlijk beschikbaar, en onze licentie en het beleid voor acceptabel gebruik helpen mensen veilig te houden door een aantal beperkingen in te stellen. We zullen blijven samenwerken met OSI en andere industriegroepen om AI op een verantwoorde manier toegankelijker en gratis te maken, ongeacht de technische definities.”

Het openstellen van AI-modellen wordt algemeen gezien als nuttig omdat het de toegang tot technologie democratiseert en innovatie en concurrentie stimuleert. “Een van de belangrijkste dingen die open gemeenschappen doen, is dat ze een bredere, geografisch meer verspreide en meer diverse gemeenschap betrekken bij de ontwikkeling van AI”, zegt Elizabeth Seger, directeur digitaal beleid bij Demo'seen Britse denktank. Open gemeenschappen, waaronder academische onderzoekers, onafhankelijke ontwikkelaars en non-profit AI-laboratoria, stimuleren ook innovatie door middel van samenwerking, vooral door technische processen efficiënter te maken. “Ze hebben niet dezelfde middelen om mee te spelen als Big Tech-bedrijven, dus het is erg belangrijk om met veel minder veel meer te kunnen doen”, zegt Seger. In India bijvoorbeeld “is AI die is ingebouwd in de publieke dienstverlening bijna volledig gebaseerd op open source-modellen”, zegt ze.

Open modellen maken ook grotere transparantie en verantwoording mogelijk. “Er moet een open versie zijn van elk model dat een basisinfrastructuur voor de samenleving wordt, omdat we moeten weten waar de problemen vandaan komen”, zegt Yacine Jernite, machine learning en society lead bij Hugging Face, een bedrijf dat de digitale infrastructuur waar veel open modellen worden gehost. Hij wijst op het voorbeeld van Stable Diffusion 2, een open beeldgeneratiemodel waarmee onderzoekers en critici de trainingsgegevens konden onderzoeken en zich konden verzetten tegen mogelijke vooroordelen of inbreuken op het auteursrecht – iets wat onmogelijk is met gesloten modellen zoals die van OpenAI. DALL-E. “Dat kun je veel makkelijker doen als je de bonnetjes en de sporen hebt”, zegt hij.

Lees meer: Het verhitte debat over wie de toegang tot AI moet controleren

Het feit dat open modellen door iedereen kunnen worden gebruikt, brengt echter inherente risico's met zich mee, omdat mensen met kwade bedoelingen ze kunnen gebruiken om schade aan te richten, zoals het produceren van materiaal over seksueel kindermisbruik, of ze kunnen zelfs door rivaliserende staten worden gebruikt. Vorige week, Reuters gerapporteerd dat Chinese onderzoeksinstellingen die banden hebben met het Volksbevrijdingsleger een oude versie van Meta’s Llama-model hadden gebruikt om een ​​AI-tool voor militair gebruik te ontwikkelen, wat onderstreept dat een model, zodra het publiekelijk is vrijgegeven, niet meer kan worden teruggeroepen. Chinese bedrijven zoals Alibaba hebben ook hun eigen open modellen ontwikkeld naar verluidt concurreren met hun Amerikaanse tegenhangers.

Op maandag, Meta aangekondigd het zou zijn Llama-modellen beschikbaar stellen aan Amerikaanse overheidsinstanties, inclusief degenen die werken aan defensie- en nationale veiligheidstoepassingen, en aan particuliere bedrijven die overheidswerk ondersteunen, zoals Locke Martin, AndurilEn Palantir. Het bedrijf stelt dat Amerikaans leiderschap op het gebied van open-source AI zowel economisch voordelig als cruciaal is voor de mondiale veiligheid.

Gesloten propriëtaire modellen brengen hun eigen uitdagingen met zich mee. Hoewel ze veiliger zijn, omdat de toegang wordt gecontroleerd door hun ontwikkelaars, zijn ze ook ondoorzichtiger. Derden kunnen de gegevens waarop de modellen zijn getraind om te zoeken naar vooroordelen, auteursrechtelijk beschermd materiaal en andere zaken niet inzien. Organisaties die AI gebruiken om gevoelige gegevens te verwerken, kunnen er vanwege privacyoverwegingen voor kiezen om gesloten modellen te vermijden. En hoewel deze modellen sterkere vangrails hebben ingebouwd om misbruik te voorkomen, hebben veel mensen manieren gevonden om dat te doen 'jailbreak' hen, waardoor deze vangrails effectief worden omzeild.

Bestuurlijke uitdagingen

Momenteel is de veiligheid van gesloten modellen vooral in handen van particuliere bedrijven, hoewel overheidsinstellingen zoals het Amerikaanse AI Safety Institute (AISI) steeds meer een rol spelen. rol in veiligheidstestmodellen voorafgaand aan hun release. In augustus ondertekende de Amerikaanse AISI formele overeenkomsten met Anthropic om “formele samenwerking op het gebied van AI-veiligheidsonderzoek, testen en evaluatie” mogelijk te maken.

Vanwege het gebrek aan gecentraliseerde controle brengen open modellen duidelijke bestuursuitdagingen met zich mee, vooral met betrekking tot de meeste extreem risico's die toekomstige AI-systemen met zich mee kunnen brengen, zoals het versterken van bioterroristen of het versterken van cyberaanvallen. Hoe beleidsmakers moeten reageren hangt af van de vraag of de capaciteitskloof tussen open en gesloten modellen kleiner of groter wordt. “Als de kloof steeds groter wordt, hoeven we ons, als we het hebben over grensverleggende AI-veiligheid, niet zo veel zorgen te maken over open ecosystemen, omdat alles wat we zien eerst zal gebeuren met gesloten modellen, en die zijn gemakkelijker te reguleren. ”, zegt Seger. “Als die kloof echter kleiner wordt, moeten we veel harder nadenken over de vraag of, hoe en wanneer we de ontwikkeling van open modellen moeten reguleren, wat een heel ander soort wormen is, omdat er geen centrale, regelbare entiteit is.”

Voor bedrijven als OpenAI en Anthropic staat het verkopen van toegang tot hun modellen centraal in hun bedrijfsmodel. “Een belangrijk verschil tussen Meta en aanbieders van gesloten modellen is dat het verkopen van toegang tot AI-modellen niet ons bedrijfsmodel is”, schreef Meta-CEO Mark Zuckerberg in een open brief in juli. “We verwachten dat toekomstige Llama-modellen de meest geavanceerde in de branche zullen worden. Maar zelfs daarvoor loopt Llama al voorop op het gebied van openheid, aanpasbaarheid en kostenefficiëntie.”

Het meten van de capaciteiten van AI-systemen is niet eenvoudig. “Capaciteiten is geen term die op welke manier dan ook gedefinieerd is, waardoor het vreselijk is om erover te discussiëren zonder gemeenschappelijke woordenschat”, zegt Jernite. „Er zijn veel dingen die je kunt doen met open modellen die je niet kunt doen met gesloten modellen“, zegt hij, waarbij hij benadrukt dat open modellen kunnen worden aangepast aan een reeks gebruiksscenario's, en dat ze beter kunnen presteren dan gesloten modellen als ze worden getraind voor specifieke taken.

Ethan Mollickeen Wharton-professor en populair commentator over de technologie, betoogt dat zelfs als er geen verdere vooruitgang zou zijn op het gebied van AI, het waarschijnlijk jaren zou duren voordat deze systemen volledig in onze wereld zouden zijn geïntegreerd. Nu er in een gestaag tempo nieuwe mogelijkheden aan AI-systemen worden toegevoegd – in oktober, grensverleggend AI-lab Anthropic geïntroduceerd het vermogen van zijn model om rechtstreeks een computer te besturen, die zich nog in de bètafase bevindt, zal de complexiteit van het besturen van deze technologie alleen maar toenemen.

In reactie daarop zegt Seger dat het van cruciaal belang is om precies te achterhalen welke risico's er op het spel staan. “We moeten zeer duidelijke dreigingsmodellen opstellen die schetsen wat de schade is en hoe we verwachten dat openheid zal leiden tot de realisatie van die schade, en vervolgens uitvinden wat het beste punt is voor interventie in deze individuele dreigingsmodellen.”



Source link