AI zou 'sociale breuken' kunnen veroorzaken tussen mensen die het niet eens zijn over het sentiment | Kunstmatige intelligentie (AI)


Significante “sociale breuken” tussen mensen die denken dat kunstmatige-intelligentiesystemen bewust zijn en degenen die volhouden dat de technologie niets voelt, dreigen, heeft een vooraanstaande filosoof gezegd.

De opmerkingen van Jonathan Birch, hoogleraar filosofie aan de London School of Economics, komen op het moment dat regeringen zich voorbereiden om deze week in San Francisco bijeen te komen om het creëren van vangrails te bespoedigen. de ernstigste risico’s aanpakken van AI.

Vorige week voorspelde een transatlantische groep academici dat de Het bewustzijn van AI-systemen zal waarschijnlijk tegen 2035 aanbreken en men heeft nu gezegd dat dit zou kunnen resulteren in ‘subculturen die van mening zijn dat elkaar grote fouten maken’ over de vraag of computerprogramma’s dezelfde welzijnsrechten hebben als mensen of dieren.

Birch zei dat hij “bezorgd was over grote maatschappelijke verdeeldheid”, omdat mensen van mening verschillen over de vraag of AI-systemen daadwerkelijk in staat zijn tot gevoelens als pijn en vreugde.

Het debat over de gevolgen van gevoel bij AI heeft echo's van sciencefictionfilms, zoals AI van Steven Spielberg (2001) en Her (2013) van Spike Jonze, waarin mensen worstelen met het gevoel van AI. AI-veiligheidsinstanties uit de VS, het VK en andere landen zullen deze week technologiebedrijven ontmoeten om sterkere veiligheidskaders te ontwikkelen naarmate de technologie zich snel ontwikkelt.

Er zijn al aanzienlijke verschillen tussen de manier waarop verschillende landen en religies naar het gevoel van dieren kijken, zoals tussen India, waar honderden miljoenen mensen vegetariër zijn, en Amerika, dat een van de grootste vleesconsumenten ter wereld is. De opvattingen over het bewustzijn van AI zouden langs vergelijkbare lijnen kunnen uiteenlopen, terwijl de visie van theocratieën, zoals Saoedi-Arabië, dat zichzelf positioneert als een AI-hub, ook zou kunnen verschillen van die van seculiere staten. Het probleem kan ook spanningen veroorzaken binnen gezinnen met mensen die nauwe relaties ontwikkelen met chatbots, of zelfs AI-avatars van overleden dierbaren, en botsen met familieleden die geloven dat alleen wezens van vlees en bloed bewustzijn hebben.

Birch, een expert op het gebied van het gevoel van dieren, die baanbrekend werk heeft verricht dat heeft geleid tot een groeiend aantal verboden op de octopusteelt, was co-auteur van een onderzoek waarbij academici en AI-experts van de New York University, Oxford University, Stanford University en de Eleos and Anthropic University betrokken waren. AI-bedrijven die zeggen dat het vooruitzicht van AI-systemen met hun eigen belangen en morele betekenis “niet langer alleen een kwestie is voor sciencefiction of de verre toekomst”.

Ze willen dat de grote technologiebedrijven die AI ontwikkelen, het serieus gaan nemen door het bewustzijn van hun systemen te bepalen om te beoordelen of hun modellen in staat zijn tot geluk en lijden, en of ze kunnen worden bevoordeeld of geschaad.

„Ik maak me grote zorgen over grote maatschappelijke verdeeldheid hierover“, zei Birch. “We zullen subculturen hebben die elkaar zien als mensen die grote fouten maken … (er kunnen) enorme sociale breuken zijn waarbij de ene kant de andere ziet als een zeer wrede uitbuiting van AI, terwijl de andere kant ziet dat de eerste zichzelf voor de gek houdt door te denken dat er gevoel is. daar.“

Maar hij zei dat AI-bedrijven “een heel strakke focus willen op de betrouwbaarheid en winstgevendheid … en ze willen niet op een zijspoor raken door dit debat over de vraag of ze misschien meer dan een product creëren, maar feitelijk een nieuwe vorm van bewust zijn creëren. Die vraag, die van het grootste belang is voor filosofen, heeft commerciële redenen om te bagatelliseren.”

Eén methode om te bepalen hoe bewust een AI is, zou kunnen zijn door het systeem van markeringen te volgen dat wordt gebruikt om het beleid ten aanzien van dieren te sturen. Er wordt bijvoorbeeld aangenomen dat een octopus een groter gevoel heeft dan een slak of een oester.

Bij elke beoordeling zou je in feite de vraag moeten stellen of een chatbot op je telefoon daadwerkelijk blij of verdrietig kan zijn, of dat de robots die geprogrammeerd zijn om je huishoudelijke taken uit te voeren eronder lijden als je ze niet goed behandelt. Er zou zelfs moeten worden overwogen of een geautomatiseerd magazijnsysteem zich gedwarsboomd zou kunnen voelen.

Een andere auteur, Patrick Butlin, research fellow aan het Global Priorities Institute van de Universiteit van Oxford, zei: “We zouden een risico kunnen identificeren dat een AI-systeem ons zou proberen te weerstaan ​​op een manier die gevaarlijk zou zijn voor de mens” en er zou een argument kunnen zijn om “ vertraag de ontwikkeling van AI” totdat er meer werk wordt gedaan aan het bewustzijn.

sla de nieuwsbriefpromotie over

“Dit soort beoordelingen van potentieel bewustzijn vinden momenteel niet plaats”, zei hij.

Microsoft en Perplexity, twee toonaangevende Amerikaanse bedrijven die betrokken zijn bij het bouwen van AI-systemen, weigerden commentaar te geven op de oproep van de academici om hun modellen op gevoel te beoordelen. Ook Meta, Open AI en Google reageerden niet.

Niet alle experts zijn het eens over het dreigende bewustzijn van AI-systemen. Anil Seth, een vooraanstaand neurowetenschapper en bewustzijnsonderzoeker, heeft gezegd het “blijft ver weg en is misschien helemaal niet mogelijk. Maar ook al is het onwaarschijnlijk, het is onverstandig om de mogelijkheid helemaal af te wijzen.”

Hij maakt onderscheid tussen intelligentie en bewustzijn. Het eerste is het vermogen om op het juiste moment het juiste te doen, het laatste is een toestand waarin we niet alleen informatie verwerken, maar “onze geest is gevuld met licht, kleur, schaduw en vormen. Emoties, gedachten, overtuigingen, intenties – voelen allemaal op een bepaalde manier voor ons aan.”

Maar AI-groottaalmodellen, getraind op miljarden menselijke woorden, beginnen al aan te tonen dat ze op zijn minst kunnen worden gemotiveerd door concepten van plezier en pijn. Toen AI’s, waaronder Chat GPT-4o, de taak kregen om het aantal punten in een game te maximaliseren, ontdekten onderzoekers dat als er een afweging zou zijn tussen het behalen van meer punten en het “voelen” van meer pijn, de AI’s het zouden redden, nog een studie die vorige week werd gepubliceerd liet zien.



Source link