Moeten we ons zorgen maken over de gevoelens van AI?


Blijf op de hoogte met gratis updates

De schrijver is een wetenschappelijk commentator

Het gesprek over de vraag of AI de menselijke intelligentie zal bereiken of vervangen, wordt meestal geframed als een existentieel risico voor Homo sapiens. Een robotleger dat opstaat, in de stijl van Frankenstein, en zich tegen zijn makers keert. De autonome AI-systemen die op een dag stilletjes de overheid en het bedrijfsleven afhandelen, berekenen dat de wereld soepeler zou functioneren als mensen buiten de cirkel zouden worden gehouden.

Nu vragen filosofen en AI-onderzoekers zich af: zullen deze machines het vermogen ontwikkelen om zich te vervelen of schade toe te brengen? In september heeft het AI-bedrijf Anthropic een ‘AI-welzijnsonderzoeker’ aangesteld om onder andere te beoordelen of zijn systemen richting bewustzijn of keuzevrijheid gaan, en, zo ja, of er rekening moet worden gehouden met hun welzijn. Vorige week publiceerde een internationale groep onderzoekers een rapport over hetzelfde onderwerp. Het tempo van de technologische ontwikkeling, zo schrijven ze, brengt “een realistische mogelijkheid met zich mee dat sommige AI-systemen in de nabije toekomst bewust en/of robuust en dus moreel significant zullen zijn”.

Het idee om je zorgen te maken over de gevoelens van AI lijkt bizar, maar onthult een paradox die de kern vormt van de grote AI-push: dat bedrijven racen om kunstmatige systemen te bouwen die intelligenter zijn en meer op ons lijken, terwijl ze zich ook zorgen maken dat kunstmatige systemen te intelligent en te intelligent zullen worden. ook zoals wij. Omdat we niet volledig begrijpen hoe bewustzijn, of een gevoel van eigenwaarde, in menselijke hersenen ontstaat, kunnen we er niet echt zeker van zijn dat dit nooit zal materialiseren in kunstmatige hersenen. Wat opmerkelijk lijkt, gezien de diepgaande implicaties voor onze eigen soort van het creëren van digitale ‘geesten’, is dat er niet meer extern toezicht is op waar deze systemen naartoe gaan.

Het rapport, getiteld Taking AI Welfare Seriously, is geschreven door onderzoekers van Eleos AI, een denktank die zich toelegt op “onderzoek naar AI-gevoel en welzijn”, samen met auteurs, waaronder David Chalmers, filosoof van de New York University, die stelt dat virtuele werelden echte werelden zijn. , en Jonathan Birch, een academicus aan de London School of Economics wiens recente boek, De rand van het gevoelbiedt een raamwerk voor het denken over de geest van dieren en AI.

Het rapport beweert niet dat AI-gevoel (het vermogen om sensaties als pijn te voelen) of bewustzijn mogelijk of dreigend is, alleen dat “er aanzienlijke onzekerheid bestaat over deze mogelijkheden”. Ze trekken parallellen met onze historische onwetendheid over de morele status van niet-menselijke dieren, die de bio-industrie mogelijk maakte; Pas in 2022, met behulp van het werk van Birch, werden krabben, kreeften en octopussen beschermd onder de Britse Animal Welfare (Sentience) Act.

De menselijke intuïtie, waarschuwen ze, is een slechte gids: onze eigen soort is vatbaar voor zowel antropomorfisme, dat menselijke eigenschappen toeschrijft aan niet-mensen die ze niet hebben, als antropodeniaal, dat menselijke eigenschappen ontkent aan niet-mensen die ze wel hebben. .

Het rapport beveelt bedrijven aan de kwestie van AI-welvaart serieus te nemen; dat onderzoekers manieren vinden om het AI-bewustzijn te onderzoeken, in navolging van wetenschappers die niet-menselijke dieren bestuderen; en dat beleidsmakers het idee van bewuste of bewuste AI gaan overwegen, en zelfs burgervergaderingen bijeenroepen om de kwesties te onderzoeken.

Deze argumenten hebben enige steun gevonden in de traditionele onderzoeksgemeenschap. “Ik denk dat echt kunstmatig bewustzijn onwaarschijnlijk, maar niet onmogelijk is”, zegt Anil Seth, hoogleraar cognitieve en computationele neurowetenschappen aan de Universiteit van Sussex en een gerenommeerd bewustzijnsonderzoeker. Hij gelooft dat ons zelfgevoel verbonden is met onze biologie en meer is dan louter een berekening.

Maar als hij ongelijk heeft, zoals hij toegeeft, zouden de gevolgen enorm kunnen zijn: “Het creëren van bewuste AI zou een ethische catastrofe zijn, omdat we nieuwe vormen van moreel subjectief en potentieel nieuwe vormen van lijden in de wereld zouden hebben geïntroduceerd, op industriële schaal. schaal.“ Niemand, voegt Seth eraan toe, zou dergelijke machines moeten proberen te bouwen.

De illusie van bewustzijn voelt als een meer nabije zorg. In 2022 werd een Google-ingenieur ontslagen nadat hij had gezegd dat hij geloofde dat de AI-chatbot van het bedrijf tekenen van gevoel vertoonde. Anthropic heeft zijn grote taalmodel ‘karaktertraining’ gegeven om het eigenschappen als bedachtzaamheid te geven.

Omdat machines overal, vooral LLM's, menselijker zijn gemaakt, lopen we het risico op grote schaal te worden gedupeerd door bedrijven die door weinig checks and balances worden tegengehouden. We riskeren de zorg voor machines die geen wederkerigheid kunnen bieden, waardoor onze eindige morele hulpbronnen worden afgeleid van de relaties die er toe doen. Mijn gebrekkige menselijke intuïtie maakt zich minder zorgen over het feit dat AI-geesten het vermogen krijgen om te voelen – en meer dat de menselijke geest het vermogen om te zorgen verliest.



Source link