Technologen luiden al enkele jaren de alarmbellen over het potentieel van geavanceerde AI-systemen om catastrofale schade aan het menselijk ras te veroorzaken.
Maar in 2024 werden deze waarschuwingsoproepen overstemd door een praktische en welvarende visie op generatieve AI, gepromoot door de technologie-industrie – een visie die ook hun portemonnee ten goede kwam.
Degenen die waarschuwen voor catastrofale AI-risico’s worden vaak ‚AI-doomers‘ genoemd, hoewel het niet een naam is waar ze dol op zijn. Ze zijn bang dat AI-systemen beslissingen zullen nemen om mensen te vermoorden, door de machtigen zullen worden gebruikt om de massa te onderdrukken, of op de een of andere manier zullen bijdragen aan de ondergang van de samenleving.
In 2023 leek het alsof we ons aan het begin bevonden van een renaissancetijdperk voor technologische regulering. AI-doem en AI-veiligheid – een breder onderwerp dat hallucinaties, onvoldoende moderatie van inhoud en andere manieren kan omvatten waarop AI de samenleving kan schaden – ging van een niche-onderwerp dat werd besproken in de coffeeshops van San Francisco naar een gesprek dat verscheen op MSNBC, CNN en de voorpagina’s van de New York Times.
Om de waarschuwingen uit 2023 samen te vatten: Elon Musk en meer dan 1.000 technologen en wetenschappers riepen op tot een pauze in de ontwikkeling van AIwaarbij de wereld wordt gevraagd zich voor te bereiden op de grote risico’s van de technologie. Kort daarna ondertekenden topwetenschappers van OpenAI, Google en andere laboratoria een open brief waarin ze zeiden: het risico dat AI het uitsterven van de mens veroorzaakt meer geloofwaardigheid zou moeten krijgen. Maanden later tekende president Biden een AI-executive order met een algemeen doel om Amerikanen te beschermen tegen AI-systemen. In november 2023 heeft het non-profitbestuur achter ’s werelds toonaangevende AI-ontwikkelaar, OpenAI, Sam Altman ontsloeg, omdat hij beweerde dat de CEO de reputatie had te liegen en er kon niet worden vertrouwd met een technologie die zo belangrijk is als kunstmatige algemene intelligentie, of AGI – ooit het denkbeeldige eindpunt van AI, dat wil zeggen systemen die feitelijk zelfbewustzijn tonen. (Hoewel de definitie is nu aan het verschuiven om tegemoet te komen aan de zakelijke behoeften van degenen die erover praten.)
Even leek het alsof de dromen van ondernemers uit Silicon Valley op de achterbank zouden komen te staan voor de algehele gezondheid van de samenleving.
Maar voor deze ondernemers was het verhaal rond de ondergang van AI zorgwekkender dan de AI-modellen zelf.
Als reactie daarop publiceerde Marc Andreessen, medeoprichter van a16z, “Waarom AI de wereld zal redden” in juni 2023, een essay van 7.000 woorden waarin de agenda van de AI-doomers wordt ontmanteld en een optimistischer visie wordt gepresenteerd op hoe de technologie zich zal ontwikkelen.
“Het tijdperk van kunstmatige intelligentie is aangebroken, en de mensen raken in paniek. Gelukkig ben ik hier om het goede nieuws te brengen: AI zal de wereld niet vernietigen, maar misschien wel redden”, aldus Andreessen in de essay.
In zijn conclusie gaf Andreessen een handige oplossing voor onze AI-angsten: handel snel en maak dingen kapot – in feite dezelfde ideologie die elke andere technologie van de 21e eeuw (en de daarmee gepaard gaande problemen) heeft gedefinieerd. Hij betoogde dat Big Tech-bedrijven en startups AI zo snel en agressief mogelijk moeten kunnen bouwen, met weinig tot geen wettelijke belemmeringen. Dit zou ervoor zorgen dat AI niet in de handen valt van een paar machtige bedrijven of overheden, en zou Amerika in staat stellen effectief met China te concurreren, zei hij.
Dit zou de vele AI-startups van a16z natuurlijk ook in staat stellen veel meer geld te verdienen – en nog wat vond zijn techno-optimisme ongemanierd in een tijdperk van extreme inkomensongelijkheid, pandemieën en huisvestingscrises.
Hoewel Andreessen het niet altijd eens is met Big Tech, is geld verdienen een gebied waar de hele sector het over eens kan zijn. De medeoprichters van a16z schreven dit jaar in essentie een brief met Microsoft-CEO Satya Nadella waarbij de regering wordt gevraagd de AI-industrie niet te reguleren helemaal niet.
Ondertussen hebben Musk en andere technologen, ondanks hun verwoede handgebaren in 2023, niet stilgezeten om zich in 2024 op veiligheid te concentreren – integendeel: De AI-investeringen in 2024 overtroffen alles we hebben het eerder gezien. Altman keerde snel terug naar het roer van OpenAI en a Een massa veiligheidsonderzoekers verliet in 2024 de outfit terwijl ze de alarmbellen luidden over de afnemende veiligheidscultuur.
Biden’s op veiligheid gerichte AI-uitvoerend bevel is dit jaar grotendeels uit de gratie geraakt in Washington, DC – zo maakte de aankomende president-elect, Donald Trump, bekend is van plan het bevel van Biden in te trekkenmet het argument dat het AI-innovatie belemmert. Andreessen zegt dat hij dat is geweest Trump adviseren over AI en technologie in de afgelopen maanden, en een oude durfkapitalist bij a16z, Sriram Krishnanis nu de officiële senior adviseur van Trump op het gebied van AI.
Republikeinen in Washington hebben verschillende AI-gerelateerde prioriteiten die vandaag de dag de AI-ondergang overtreffen, volgens Dean Ball, een AI-gerichte onderzoeker aan het Mercatus Center van de George Mason University. Daartoe behoren onder meer het bouwen van datacenters om AI aan te drijven, het gebruik van AI bij de overheid en het leger, het concurreren met China, het beperken van de moderatie van inhoud door centrumlinkse technologiebedrijven en het beschermen van kinderen tegen AI-chatbots.
“Ik denk dat de beweging om catastrofaal AI-risico te voorkomen terrein heeft verloren op federaal niveau. Op staats- en lokaal niveau hebben ze ook het enige grote gevecht dat ze hadden verloren”, zei Ball in een interview met TechCrunch. Natuurlijk verwijst hij naar de controversiële AI-veiligheidswet SB 1047 in Californië.
Een deel van de reden waarom AI-doom in 2024 uit de gratie raakte, was simpelweg omdat we, naarmate AI-modellen populairder werden, ook zagen hoe onintelligent ze kunnen zijn. Het is moeilijk voor te stellen dat Google Gemini Skynet wordt er stond alleen dat je lijm op je pizza moest smeren.
Maar tegelijkertijd was 2024 een jaar waarin veel AI-producten concepten uit science fiction tot leven leken te brengen. Voor het eerst dit jaar: OpenAI liet zien hoe we met onze telefoons konden praten en niet via hen, en Meta onthulde een slimme bril met realtime visueel inzicht. De ideeën die ten grondslag liggen aan het catastrofale AI-risico komen grotendeels voort uit sciencefictionfilms, en hoewel er duidelijk een grens is, bewijst het AI-tijdperk dat sommige ideeën uit sciencefiction misschien niet voor altijd fictief zijn.
Het grootste AI-doomgevecht van 2024: SB 1047
De AI-veiligheidsstrijd van 2024 kwam tot een hoogtepunt SB 1047een wetsvoorstel dat wordt gesteund door twee hoog aangeschreven AI-onderzoekers: Geoffrey Hinton en Yoshua Benjio. Het wetsvoorstel probeerde te voorkomen dat geavanceerde AI-systemen massale menselijke uitstervingsgebeurtenissen en cyberaanvallen zouden veroorzaken die meer schade zouden kunnen aanrichten dan de CrowdStrike-storing in 2024.
SB 1047 passeerde de wetgevende macht van Californië en bereikte het bureau van gouverneur Gavin Newsom, waar hij het een wetsvoorstel met een “buitensporige impact” noemde. Het wetsvoorstel probeerde het soort dingen te voorkomen waar Musk, Altman en vele andere leiders van Silicon Valley in 2023 voor waarschuwden toen ze die open brieven over AI ondertekenden.
Maar Nieuwsom veto uitgesproken over SB 1047. In de dagen vóór zijn beslissing heeft hij sprak over AI-regulering op het podium in het centrum van San Francisco en zei: “Ik kan niet alles oplossen. Wat kunnen we oplossen?”
Dat vat vrij duidelijk samen hoeveel beleidsmakers vandaag de dag nadenken over catastrofale AI-risico’s. Het is gewoon geen probleem met een praktische oplossing.
Toch vertoonde SB 1047 gebreken die verder gingen dan de focus op catastrofale AI-risico’s. Het wetsvoorstel reguleerde AI-modellen op basis van grootte, in een poging alleen de grootste spelers te reguleren. Maar daarbij werd geen rekening gehouden met nieuwe technieken zoals test-time compute of de opkomst van kleine AI-modellen, waar toonaangevende AI-laboratoria zich al op richten. Bovendien werd het wetsvoorstel algemeen beschouwd als een aanval op open-source AI – en bij proxy, op de onderzoekswereld – omdat het bedrijven als Meta en Mistral ervan zou weerhouden zeer aanpasbare grensoverschrijdende AI-modellen vrij te geven.
Maar volgens de auteur van het wetsvoorstel, senator Scott Wiener, Silicon Valley speelde een vuile rol om de publieke opinie te beïnvloeden over SB 1047. Hij vertelde TechCrunch eerder dat durfkapitalisten van Y Combinator en A16Z een propagandacampagne tegen het wetsvoorstel voerden.
Deze groepen verspreidden met name de bewering dat SB 1047 softwareontwikkelaars wegens meineed naar de gevangenis zou sturen. Y Combinator vroeg jonge oprichters om dat te doen teken een brief waarin u dit zegt in juni 2024. Rond dezelfde tijd maakte Andreessen Horowitz algemeen partner Anjney Midha een soortgelijke claim op een podcast.
De Brookings Institution bestempelde dit als een van de vele onjuiste voorstellingen van het wetsvoorstel. SB 1047 vermeldde wel hoe tech-managers rapporten zouden moeten indienen waarin de tekortkomingen van hun AI-modellen worden geïdentificeerd, en het wetsvoorstel merkte op dat liegen op een overheidsdocument meineed is. De durfkapitalisten die deze angst verspreidden, verzuimden echter te vermelden dat mensen zelden worden aangeklaagd voor meineed, en nog zeldzamer worden veroordeeld.
YC verwierp het idee dat ze verkeerde informatie verspreidden en vertelde TechCrunch eerder dat SB 1047 vaag was en niet zo concreet als senator Wiener het deed voorkomen.
Meer in het algemeen was er tijdens het SB 1047-gevecht een groeiend sentiment dat AI-doomers niet alleen anti-technologie waren, maar ook waanideeën. De beroemde investeerder Vinod Khosla belde Wiener geen idee van de echte gevaren van AI tijdens het Disrupt-evenement van TechCrunch in 2024.
Meta’s hoofd AI-wetenschapper, Yann LeCun, heeft zich lange tijd verzet tegen de ideeën die ten grondslag liggen aan de AI-ondergang, maar werd dit jaar openhartiger.
“Het idee dat (intelligente) systemen op de een of andere manier hun eigen doelen zullen bedenken en de mensheid zullen overnemen is gewoon belachelijk, het is belachelijk”, zei LeCun op Davos in 2024waarbij we opmerken dat we nog heel ver verwijderd zijn van de ontwikkeling van superintelligente AI-systemen. “Er zijn heel veel manieren om (elke technologie) te bouwen op manieren die gevaarlijk of verkeerd zijn, mensen doden, enz. Maar zolang er één manier is om het goed te doen, is dat alles wat we nodig hebben.”
De strijd die voor ons ligt in 2025
De beleidsmakers achter SB 1047 hebben hierop gezinspeeld Mogelijk komen ze in 2025 terug met een aangepast wetsvoorstel om AI-risico’s op de lange termijn aan te pakken. Eén van de sponsors achter het wetsvoorstel, Encode, zegt dat de nationale aandacht die SB 1047 trok een positief signaal was.
“De AI-veiligheidsbeweging heeft in 2024 zeer bemoedigende vooruitgang geboekt, ondanks het veto van SB 1047”, zegt Sunny Gandhi, vice-president politieke zaken van Encode, in een e-mail aan TechCrunch. “We zijn optimistisch dat het publieke bewustzijn van AI-risico’s op de lange termijn groeit en dat er een toenemende bereidheid is onder beleidsmakers om deze complexe uitdagingen aan te pakken.”
Gandhi zegt dat Encode in 2025 “aanzienlijke inspanningen” verwacht om het door AI ondersteunde catastrofale risico te reguleren, hoewel hij geen specifiek risico heeft bekendgemaakt.
Aan de andere kant is Martin Casado, algemeen partner van a16z, een van de mensen die leiding geeft aan de strijd tegen het reguleren van catastrofale AI-risico’s. In een december opiniestuk Wat het AI-beleid betreft, betoogde Casado dat we in de toekomst een redelijker AI-beleid nodig hebben, waarbij hij verklaarde dat “AI enorm veilig lijkt te zijn.”
“De eerste golf van domme AI-beleidsinspanningen ligt grotendeels achter ons”, zei Casado een december-tweet. “Hopelijk kunnen we in de toekomst slimmer zijn.”
AI ‘uiterst veilig’ noemen en pogingen om het te reguleren ‘dom’ is nogal een simplificatie. Character.AI – een startup waarin a16z heeft geïnvesteerd – is dat momenteel bijvoorbeeld aangeklaagd En onderzocht over zorgen over de veiligheid van kinderen. In één actieve rechtszaak pleegde een 14-jarige jongen uit Florida zelfmoord nadat hij naar verluidt zijn zelfmoordgedachten had toevertrouwd aan een Character.AI-chatbot waarmee hij romantische en seksuele gesprekken had. Deze casus laat zien hoe onze samenleving zich moet voorbereiden op nieuwe soorten risico’s rond AI die een paar jaar geleden misschien nog belachelijk klonken.
Er zweven meer wetsvoorstellen rond die het AI-risico op de lange termijn aanpakken – waaronder een wetsvoorstel dat zojuist op federaal niveau is geïntroduceerd Senator Mitt Romney. Maar nu lijkt het erop dat AI-doomers in 2025 een zware strijd zullen voeren.
Source link