Er moeten plannen worden gemaakt voor het welzijn van bewuste AI, beweren onderzoekers van dierenbewustzijn



Er moeten plannen worden gemaakt voor het welzijn van bewuste AI, beweren onderzoekers van dierenbewustzijn

Computerwetenschappers moeten worstelen met de mogelijkheid dat ze per ongeluk bewuste kunstmatige intelligentie (AI) zullen creëren – en plannen maken voor het welzijn van die systemen, betoogt een nieuwe studie.

De rapport die donderdag werd gepubliceerd, komt uit een ongebruikelijke hoek: specialisten op het grensgebied van het dierenbewustzijn, van wie een aantal ondertekenaars waren van de Verklaring van New York over het dierenbewustzijn.

Zoals The Hill in april meldde: die verklaring betoogdehet was ‘onverantwoordelijk’ voor wetenschappers en het publiek om het groeiende bewijs van wijdverbreid bewustzijn in het dierenrijk te negeren.

Het AI-welzijnsrapport bouwt voort op een moreel en intellectueel raamwerk dat vergelijkbaar is met dat van het dierenbewustzijnsrapport uit april: het idee dat mensen de neiging hebben om gevoel alleen naar hun eigen beeld waar te nemen, wat risico's met zich meebrengt voor zowel de wezens waar ze tussen leven – of creëren – als zich.

Gegevens die wijzen op gevoel bij vogels en zoogdieren –en zelfs krabben en garnalen– weegt veel zwaarder dan enig bewijs voor zelfbewustzijn in de geavanceerde werktuigmachines die mensen ontwikkelen, erkende Jeff Sebo, een bio-ethicus aan de New York University die mede schreef aan het AI-welzijnsrapport en de verklaring over het dierenbewustzijn.

Maar hoewel de kans op het creëren van zelfbewust kunstmatig leven in de komende tien jaar “objectief laag” zou kunnen zijn, is deze groot genoeg dat ontwikkelaars er op zijn minst over moeten nadenken, zei Sebo.

Hoewel algemeen wordt aangenomen dat het bewustzijn van mensen – of bijvoorbeeld octopussen – per ongeluk is ontstaan, sleutelen mensen actief aan AI op een manier die opzettelijk bedoeld is om de kenmerken die met bewustzijn samenhangen na te bootsen.

Daartoe behoren ‘waarneming, aandacht, leren, geheugen, zelfbewustzijn’ – vermogens die mogelijk hand in hand zijn gegaan met de evolutie van het bewustzijn in het organische leven.

Bewustzijnsonderzoek is momenteel het toneel van felle discussies over wat de randvoorwaarden voor bewustzijn werkelijk zijn; of het nu zachte cellen nodig heeft die gemaakt zijn van ketens van koolstofmoleculen of een fysiek lichaam.

Maar Sebo zei dat we momenteel weinig begrijpen over bewustzijn dat de mogelijkheid uitsluit dat AI-ontwikkelaars per ongeluk bewuste systemen kunnen creëren, terwijl ze proberen iets anders te doen – of opzettelijk, omdat “zij bewuste AI zien als veiliger of capabeler AI. ”

In sommige gevallen is het ontwikkelen van deze systemen een letterlijke poging om de structuren van waarschijnlijk bewust organisch leven na te bootsen. Dat blijkt uit bevindingen gepubliceerd in Nature in juni, Harvard en Google's DeepMindcreëerde een virtuele ratmet een gesimuleerd brein dat in staat was de ‘voortreffelijke controle over hun lichaam’ van knaagdieren van vlees en bloed na te bootsen.

Er is geen specifieke reden om aan te nemen dat de digitale rat – voor alleinzicht dat het opleverdenaar hoe de hersenen van gewervelde dieren functioneren – was zelfbewust, hoewel DeepMind dat zelf ook heeft gedaaneen vacaturevoor een doctoraat in de computerwetenschappen die in staat is om ‘baanbrekende sociale vragen rond machinecognitie (en) bewustzijn’ te onderzoeken.

En gevoel is, zoals zowel dieronderzoekers als ouders van baby's begrijpen, iets geheel anders dan intelligentie.

Maar in zekere zin is dit in een notendop het probleem dat Sebo en zijn coauteurs aan de orde stellen. Ze beweren dat ontwikkelaars – en het grote publiek – evolutionaire blinde vlekken hebben waardoor ze slecht zijn voorbereid op het omgaan met het tijdperk van mogelijk intelligente AI.

„We zijn niet echt ontworpen door een evolutie en levenslang leren om de onderliggende mechanismen waar te nemen of te volgen“, zegt Rob Long, co-auteur van de paper van donderdag en uitvoerend directeur van Eleos AI, een onderzoeksgroep die AI-bewustzijn onderzoekt.

Gedurende miljarden jaren, zei Long, is onze afstamming geëvolueerd ‘om de aan- of afwezigheid van een geest te beoordelen op basis van een relatief oppervlakkige reeks ruwe en gemakkelijke heuristieken over hoe iets eruit ziet, beweegt en zich gedraagt ​​– en dat heeft ons goed geholpen. niet opgegeten worden.”

Maar hij zei dat de hersenarchitectuur het gemakkelijk maakt om gevoel verkeerd toe te schrijven waar het niet thuishoort. Ironisch genoeg, zo merkten Sebo en Long op, is het daardoor het gemakkelijkst om sentiment toe te schrijven aan machines die dit het minst waarschijnlijk hebben: chatbots.

Sebo en Long voerden aan dat deze paradox bijna is ingebed in chatbots, die steeds meer de bepalende kenmerken van mensen imiteren: het vermogen om vloeiend in taal te spreken, een kenmerk dat bedrijven als OpenAI hebben versterkt met nieuwe modellen die lachen, sarcasme gebruiken en ‘ehs’ invoegen. ' en vocale tics.

In de komende decennia “zullen er steeds geavanceerdere en grootschaligere toepassingen plaatsvinden van AI-systemen die als metgezellen en assistenten worden beschouwd in een situatie waarin we zeer grote onenigheid en onzekerheid hebben over de vraag of ze werkelijk gedachten en gevoelens hebben”, aldus Sebo.

Dat betekent dat mensen “een soort ambivalentie moeten cultiveren” ten opzichte van deze systemen, zei hij: een “onzekerheid over de vraag of het iets voelt om hen te zijn en of eventuele gevoelens die we over hen hebben beantwoord worden.”

Er zit een andere kant aan die ambivalentie, zei Sebo: de mogelijkheid dat mensen opzettelijk of per ongeluk systemen kunnen creëren die pijn voelen, kunnen lijden of een vorm van morele keuzevrijheid hebben – het vermogen om dingen te willen en te proberen ze te laten gebeuren – zoals hij betoogde. staan ​​slecht naast de dingen die computerwetenschappers willen dat deze systemen doen.

In het geval van dieren zijn de gevolgen van het te weinig toeschrijven van het gevoel duidelijk, merkte Sebo op. “Met boerderijdieren en proefdieren doden we nu honderden miljarden in gevangenschap levende dieren per jaar voor voedsel, en biljoenen in het wild levende dieren per jaar – niet geheel maar gedeeltelijk omdat we hun vermogen tot bewustzijn en morele betekenis hebben onderschat.”

Dat voorbeeld, zo zei hij, zou moeten dienen als een waarschuwing – terwijl mensen proberen “de situatie met dieren te verbeteren” – voor welke fouten herhaling met AI moet voorkomen.

Sebo en Long voegden eraan toe dat een ander groot probleem voor mensen die door het nieuwe landschap proberen te navigeren, afgezien van de soortbrede neiging om gevoel te zien in – maar alleen in – datgene wat op ons lijkt, een popcultuurlandschap is dat enorm verkeerd karakteriseert wat feitelijk bewuste AI eruit zou kunnen zien.

In films als 'Wall-E' van Pixar en 'AI Artificial Intelligence' van Steven Spielberg lijken robots ontwapenend menselijk, althans op een aantal belangrijke manieren: het zijn afzonderlijke, discrete intelligenties met herkenbaar menselijke emoties die in een lichaam leven en zich door een lichaam bewegen. fysieke wereld.

Dan is er Skynet, de machine-intelligentie uit de ‘Terminator’-serie, die als magneet dient voor AI-veiligheidsgesprekken en daardoor voortdurend het populaire discours rond opkomende computertechnologieën terugleidt naar de narratieve conventies van een actiefilm uit de jaren tachtig.

Niets van dit alles, zo betoogde Sebo, is bijzonder nuttig. “Met AI, welzijn, zou de waarheid vreemder kunnen zijn dan fictie, en we moeten op die mogelijkheid voorbereid zijn”, zei hij.

Om te beginnen zijn digitale geesten misschien niet van elkaar gescheiden zoals de menselijke en dierlijke geesten dat zijn, zei Sebo. “Ze zouden uiteindelijk sterk met elkaar verbonden kunnen zijn op manieren die bij ons niet het geval zijn. Ze kunnen neuronen hebben die over verschillende locaties verspreid zijn en heel nauw met elkaar verbonden zijn.”

Die vorm van bewustzijn lijkt potentieel meer op die van een octopus, die een centraal brein in zijn hoofd heeft en acht kleinere, semi-onafhankelijke hersenen in zijn armen.

AI, zei Sebo, zou “een explosie van mogelijkheden in die richting kunnen brengen, met sterk onderling verbonden geesten – en vragen die rijzen over de aard van het zelf, identiteit en individualiteit en waar het ene individu eindigt en waar het volgende individu begint.”

Welke vorm het potentiële AI-bewustzijn uiteindelijk ook zal aannemen – en of het überhaupt mogelijk is – Sebo, Long en hun coauteurs voerden aan dat het de taak is van AI-ontwikkelaars om deze potentiële problemen te gaan erkennen en te beoordelen hoe ze passen in de tools die ze bouwen. en bereid je voor op een mogelijke toekomst waarin deze hulpmiddelen een gevoel van gevoel hebben.

Een mogelijk idee van hoe dit eruit zou kunnen zien is aangedragen door de Universiteit van Californië, Riverside, filosoof Eric Schwitzgebel, die heeft gepleit voor een beleid van “emotionele afstemming” waarbij de mate van gevoel dat een AI-programma biedt rechtstreeks verband moet houden met hoe gevoelig het waarschijnlijk zal zijn.

Als mensen ooit bewuste AI’s ontwerpen, schrijft Schwitzgebel, “zouden we ze zo moeten ontwerpen dat gewone gebruikers er emotioneel op reageren op een manier die past bij hun morele status. Ontwerp geen AI van menselijke kwaliteit die in staat is tot echte pijn en lijden, met mensachtige doelen, rationaliteit en gedachten over de toekomst, en plaats deze in een saaie doos die mensen geneigd zouden zijn terloops opnieuw te formatteren.

En daarentegen: “als de AI een gemiddeld niveau van zorg rechtvaardigt – vergelijkbaar met bijvoorbeeld een huiskat – geef hem dan een interface die gebruikers aanmoedigt om hem die mate van zorg te geven en niet meer.”

Dat is een beleid, erkende Sebo, dat de chatbot- en grote taalmodelindustrie tot een dramatische ommekeer zou dwingen.

Over het geheel genomen, zo zei hij, schreven hij en de andere co-auteurs van het nieuwe artikel het om een ​​gesprek te forceren over een kwestie die moet worden aangepakt voordat het een probleem wordt. “En wij denken dat het goed zou zijn als mensen die deze uiterst capabele, complexe systemen bouwen, zouden erkennen dat dit een belangrijke en moeilijke kwestie is waar ze aandacht aan moeten besteden.”

Bijgewerkt om 12:21 uur



Source link