AI-leiders bespreken verantwoordelijkheid en regelgeving


OWoensdag kwamen beroemdheden op het gebied van AI bijeen in Serpentine North, een voormalige buskruitwinkel die tentoonstellingsruimte is geworden, voor het inaugurele TIME100 Impact Dinner London. Naar aanleiding van een soortgelijke gebeurtenis Het diner, dat vorige maand in San Francisco werd gehouden, bracht invloedrijke leiders, experts en honorees van TIME's 2023 en 2024 bijeen 100 invloedrijke mensen in AI lijsten – die allemaal een rol spelen bij het vormgeven van de toekomst van de technologie.

Na een gesprek tussen Jessica Sibley, CEO van TIME en leidinggevenden van de sponsors van het evenement – ​​Rosanne Kincaid-Smith, Group Chief Operating Officer bij Northern Data Group, en Jaap Zuiderveld, Nvidia's VP Europa, het Midden-Oosten en Afrika – en na het hoofdgerecht was geserveerd, richtte de aandacht zich op een paneldiscussie.

Het panel bestond uit TIME 100 AI-onderscheidingen Jade LeungCTO bij het UK AI Safety Institute, een opgericht instituut vorig jaar om de mogelijkheden van geavanceerde AI-modellen te evalueren; Victor RiparbelliCEO en mede-oprichter van het Britse AI-videocommunicatiebedrijf Synthesia; En Abeba Birhaneeen cognitief wetenschapper en adjunct-assistent-professor aan de School of Computer Science and Statistics aan het Trinity College Dublin, wiens onderzoek zich richt op het auditen van AI-modellen om empirische schade aan het licht te brengen. De discussie, gemodereerd door senior redacteur van TIME, Ayesha Javed, concentreerde zich op de huidige staat van AI en de daarmee samenhangende uitdagingen, de vraag wie de verantwoordelijkheid draagt ​​voor de impact van AI, en het potentieel van door AI gegenereerde video's om de manier waarop we communiceren te transformeren.

De opvattingen van de panelleden over de risico's van AI weerspiegelden hun verschillende aandachtsgebieden. Voor Leung, wiens werk bestaat uit het beoordelen of geavanceerde AI-modellen kunnen worden gebruikt om cyber te faciliteren, biologische of chemische aanvallenen het evalueren van modellen voor andere schadelijke mogelijkheden breder gezien lag de nadruk op de noodzaak om “de empirische gegevens onder de loep te nemen die ons veel meer zullen vertellen over wat er op de snoek te wachten staat en welke risico’s eraan verbonden zijn.”

Birhane benadrukte ondertussen wat zij ziet als de “enorme hype” rond de mogelijkheden en het potentieel van AI om te poseren existentieel risico. “Deze modellen maken hun beweringen eigenlijk niet waar.” Birhane betoogde dat “AI niet alleen maar computationele berekeningen is. Het is de hele pijplijn die het mogelijk maakt om systemen te bouwen en in stand te houden”, daarbij verwijzend naar het belang van aandacht besteden aan waar gegevens vandaan komen, de milieueffecten van AI-systemen (vooral in relatie tot hun energie- en watergebruik) en de onderbetaalde werk van data-labelers als voorbeeld. “Er moet een stimulans zijn voor zowel grote bedrijven als voor startups om grondige evaluaties uit te voeren, niet alleen op de modellen zelf, maar op de hele AI-pijplijn”, zei ze. Riparbelli suggereerde dat zowel “het oplossen van de problemen die vandaag de dag al in de samenleving bestaan” als het nadenken over “Terminator-achtige scenario’s” belangrijk zijn en de moeite waard om aandacht aan te besteden.

Panelleden waren het eens over het cruciale belang van evaluaties voor AI-systemen, zowel om hun capaciteiten te begrijpen als om hun tekortkomingen te onderscheiden als het gaat om kwesties als het bestendigen van vooroordelen. Vanwege de complexiteit van de technologie en de snelheid waarmee het veld zich ontwikkelt, “veranderen de beste praktijken voor de manier waarop je omgaat met verschillende veiligheidsuitdagingen zeer snel”, zei Leung, wijzend op een “grote asymmetrie tussen wat publiekelijk bekend is bij academici en aan het maatschappelijk middenveld, en wat er binnen deze bedrijven zelf bekend is.”

De panelleden waren het er verder over eens dat zowel bedrijven als overheden een rol te spelen hebben bij het minimaliseren van de risico’s van AI. “Er rust een enorme verantwoordelijkheid op bedrijven om te blijven innoveren op het gebied van veiligheidspraktijken”, aldus Leung. Riparbelli was het daarmee eens en suggereerde dat bedrijven mogelijk een “morele verplichting” hebben om ervoor te zorgen dat hun systemen veilig zijn. Tegelijkertijd “moeten overheden hier een rol spelen. Daarover kan absoluut niet worden onderhandeld”, aldus Leung.

Evenzo was Birhane duidelijk dat “effectieve regulering” gebaseerd is op “empirisch bewijs'is noodzakelijk. “Veel regeringen en beleidsmakers zien AI als een kans, een manier om de economie te ontwikkelen voor financieel gewin”, zei ze, wijzend op de spanningen tussen economische prikkels en de belangen van kansarme groepen. “Overheden moeten evaluaties en regelgeving zien als een mechanisme om betere AI-systemen te creëren, ten behoeve van het grote publiek en mensen aan de onderkant van de samenleving.”

Als het om mondiaal bestuur gaat, benadrukte Leung de noodzaak van duidelijkheid over welke soorten vangrails het meest wenselijk zouden zijn, zowel vanuit technisch als beleidsperspectief. “Wat zijn de best practices, standaarden en protocollen die we in alle rechtsgebieden willen harmoniseren?” vroeg ze. “Het is geen voldoende onderbouwde vraag.” Toch wees Leung op het feit dat China vorig jaar partij was AI-veiligheidstop georganiseerd door Groot-Brittannië als reden voor optimisme. “Het is heel belangrijk om ervoor te zorgen dat ze rond de tafel zitten”, zegt ze.

Een concreet gebied waarop we de vooruitgang van AI-mogelijkheden in realtime kunnen observeren, is door AI gegenereerde video. In een synthetische video gemaakt met de technologie van zijn bedrijf verklaarde Riparbelli's AI dubbel dat „tekst als technologie uiteindelijk van voorbijgaande aard is en een overblijfsel uit het verleden zal worden.“ Voortbouwend op deze gedachte zei de echte Riparbelli: “We hebben altijd gestreefd naar meer intuïtieve, directe manieren van communicatie. Tekst was de originele manier waarop we informatie konden opslaan en coderen en tijd en ruimte konden delen. Nu leven we in een wereld waarin de meeste consumenten, althans, het liefst naar hun inhoud kijken en luisteren.”

Hij stelt zich een wereld voor waarin AI de kloof overbrugt tussen tekst, die snel te maken is, en video, die arbeidsintensiever maar ook boeiender is. AI zal “iedereen in staat stellen om vanuit zijn slaapkamer een Hollywood-film te maken zonder meer dan alleen maar verbeelding nodig te hebben”, zei hij. Deze technologie brengt voor de hand liggende uitdagingen met zich mee in termen van het vermogen om misbruikt te worden, bijvoorbeeld door het creëren van deepfakes of het verspreiden van desinformatie, maar Riparbelli benadrukt dat zijn bedrijf stappen onderneemt om dit te voorkomen, waarbij hij opmerkt dat “elke video, voordat deze wordt gegenereerd, een inhoudsanalyse doorloopt moderatieproces waarbij we ervoor zorgen dat het binnen ons inhoudsbeleid past.”

Riparbelli suggereert dat in plaats van een ‘technologiegerichte’ benadering van de regelgeving op het gebied van AI, de nadruk moet liggen op het ontwerpen van beleid dat schadelijke gevolgen vermindert. “Laten we ons concentreren op de dingen die we niet willen laten gebeuren en daaromheen regelen.”

Het TIME100 Impact Dinner London: Leaders Shaping the Future of AI werd gepresenteerd door Northern Data Group en Nvidia Europe.



Source link