Welke AI-bedrijven zijn het veiligst – en het minst veilig?


ATerwijl bedrijven racen om krachtigere AI te bouwen, blijven veiligheidsmaatregelen achterwege. A rapport Woensdag gepubliceerd gaat dieper in op hoe bedrijven inclusief zijn Open AI en Google DeepMind worstelen met de potentiële schade van hun technologie. Het schetst een zorgwekkend beeld: de vlaggenschipmodellen van alle ontwikkelaars in het rapport bleken kwetsbaarheden te hebben, en sommige bedrijven hebben stappen ondernomen om de veiligheid te verbeteren, andere blijven gevaarlijk achter.

Het rapport is gepubliceerd door het Future of Life Institute, een non-profitorganisatie die tot doel heeft de wereldwijde catastrofale risico’s te verminderen. De organisatie 2023 open brief De oproep tot een pauze in de grootschalige training van AI-modellen kreeg ongekende steun van 30.000 ondertekenaars, waaronder enkele van de meest prominente stemmen op het gebied van de technologie. Voor het rapport bracht het Future of Life Institute een panel van zeven onafhankelijke experts samen, waaronder de winnaar van de Turing Award Yoshua Bengio En Sneha Revanur van Encode Justice – die technologiebedrijven evalueerde op zes belangrijke gebieden: risicobeoordeling, huidige schade, veiligheidskaders, existentiële veiligheidsstrategie, bestuur en verantwoording, en transparantie en communicatie. In hun onderzoek werd gekeken naar een reeks potentiële schade, van CO2-uitstoot tot het risico dat een AI-systeem kwaadaardig wordt.

“De bevindingen van het AI Safety Index-project suggereren dat, hoewel er veel activiteit is bij AI-bedrijven die onder de noemer ‘veiligheid’ vallen, dit nog niet erg effectief is”, zegt Stuart Russell, hoogleraar computerwetenschappen aan de universiteit. uit Californië, Berkeley en een van de panelleden, in een verklaring.

Lees meer: Niemand weet echt hoe AI-systemen werken. Een nieuwe ontdekking zou daar verandering in kunnen brengen

Ondanks aanprijzen zijn ‘verantwoordelijke’ benadering van de ontwikkeling van AI, Metahet moederbedrijf van Facebook en ontwikkelaar van de populaire Llama-serie AI-modellen, kreeg de laagste beoordeling en scoorde overall een F-klasse. X.AI, Die van Elon Musk Het AI-bedrijf deed het ook slecht en kreeg in het algemeen een D-cijfer. Noch Meta, noch x.AI reageerde op een verzoek om commentaar.

Het bedrijf achter ChatGPT, OpenAI, dat begin dit jaar bestond beschuldigd van het geven van prioriteit aan ‘glimmende producten’ boven veiligheid door de voormalige leider van een van zijn veiligheidsteams – kreeg een D+, net als Google DeepMind. Geen van beide bedrijven reageerde op een verzoek om commentaar. Zhipu AI, de enige Chinese AI-ontwikkelaar die een inzet voor AI-veiligheid tijdens de Seoul AI Summit in mei kreeg het overall een D-beoordeling. Zhipu was niet bereikbaar voor commentaar.

Anthropic, het bedrijf achter de populaire chatbot Claudedat veiligheid tot een kernonderdeel van zijn ethos heeft gemaakt, stond op de hoogste plaats. Toch kreeg het bedrijf een C-cijfer, wat benadrukt dat er ruimte is voor verbetering, zelfs bij de veiligste spelers in de sector. Anthropic heeft niet gereageerd op een verzoek om commentaar.

Het rapport constateerde met name dat alle geëvalueerde vlaggenschipmodellen kwetsbaar bleken te zijn voor ‘jailbreaks’, oftewel technieken die de vangrails van het systeem omzeilen. Bovendien achtte het beoordelingspanel de huidige strategieën van alle bedrijven ontoereikend om ervoor te zorgen dat hypothetische toekomstige AI-systemen die de menselijke intelligentie kunnen evenaren, veilig en onder menselijke controle blijven.

Lees meer: Binnen Anthropic gokt het AI-bedrijf erop dat veiligheid een winnende strategie kan zijn

„Ik denk dat het heel gemakkelijk is om misleid te worden door goede bedoelingen te hebben als niemand je verantwoordelijk houdt“, zegt Tegan Maharaj, assistent-professor bij de afdeling beslissingswetenschappen van HEC Montréal, die in het panel zat. Maharaj voegt eraan toe dat ze gelooft dat er behoefte is aan ‘onafhankelijk toezicht’, in plaats van uitsluitend te vertrouwen op bedrijven om interne evaluaties uit te voeren.

Er zijn enkele voorbeelden van ‚laaghangend fruit‘, zegt Maharaj, of van relatief eenvoudige acties van sommige ontwikkelaars om de veiligheid van hun technologie marginaal te verbeteren. “Sommige bedrijven doen niet eens de basis,” voegt ze eraan toe. Zhipu AI, x.AI en Meta, die elk slecht scoren op het gebied van risicobeoordelingen, zouden bijvoorbeeld de bestaande richtlijnen kunnen overnemen, stelt ze.

Andere risico’s zijn echter fundamenteler voor de manier waarop AI-modellen momenteel worden geproduceerd, en om deze te overwinnen zijn technische doorbraken nodig. “Geen van de huidige activiteiten biedt enige vorm van kwantitatieve garantie voor de veiligheid; Het lijkt ook niet mogelijk om dergelijke garanties te bieden, gezien de huidige benadering van AI via gigantische zwarte dozen die zijn getraind op onvoorstelbaar grote hoeveelheden gegevens”, aldus Russell. “En het zal alleen maar moeilijker worden naarmate deze AI-systemen groter worden.” Onderzoekers zijn dat studeren technieken om in de zwarte doos van machine learning-modellen te kijken.

In een verklaring onderstreepte Bengio, oprichter en wetenschappelijk directeur van het Montreal Institute for Learning Algorithms, het belang van initiatieven als de AI Safety Index. “Ze zijn een essentiële stap in het verantwoordelijk houden van bedrijven voor hun veiligheidsverplichtingen en kunnen helpen nieuwe beste praktijken onder de aandacht te brengen en concurrenten aan te moedigen een meer verantwoorde aanpak te hanteren”, zei hij.



Source link