De House Task Force on Artificial Intelligence (AI) heeft dinsdag zijn ingrijpende eindejaarsrapport uitgebracht, waarin een routekaart voor het Congres wordt uiteengezet bij het opstellen van beleid rond de voortschrijdende technologie.
Het 253 pagina’s tellende rapport duikt diep in hoe de VS AI kunnen inzetten in sociale, economische en gezondheidsomgevingen, terwijl wordt erkend hoe de technologie in sommige gevallen schadelijk of misbruikt kan zijn.
“Dit rapport belicht het leiderschap van Amerika in zijn benadering van verantwoorde AI-innovatie, terwijl er vangrails worden overwogen die geschikt kunnen zijn om de natie te beschermen tegen huidige en opkomende bedreigingen”, zeggen medevoorzitters van de taskforce Jay Obernolte (R-Calif.) en Ted Lieu (D- Californië) schreef in een brief aan voorzitter Mike Johnson (R-La.) en minderheidsleider Hakeem Jeffries (DN.Y.).
Het rapport volgt op een maandenlang onderzoek door Obernolte, Lieu en 22 andere congresledendie sprak met meer dan 100 technische experts, overheidsfunctionarissen, academici, rechtsgeleerden en leiders uit het bedrijfsleven om tientallen aanbevelingen te doen voor verschillende industriële sectoren.
Te midden van zowel opwinding als zorgen over de opkomende technologie, introduceerden wetgevers ruim 100 facturen met betrekking tot AI deze sessie gebruikten, hoewel de meesten de finish niet haalden, waardoor het Congres een onzekere weg voorwaarts over deze kwestie achterliet.
Het rapport wil dienen als blauwdruk voor toekomstige wetgeving en andere acties, door aanbevelingen op te delen in veertien domeinen van de samenleving, variërend van gezondheidszorg tot nationale veiligheid tot kleine bedrijven en meer.
Problemen met intellectueel eigendom zijn een belangrijk twistpunt geweest in de AI-ruimte, en hebben geleid tot talloze rechtszaken tegen grote AI-bedrijven over het gebruik van auteursrechtelijk beschermde inhoud om hun modellen te trainen.
Hoewel de wetgevers opmerkten dat het nog steeds onduidelijk is of wetgeving nodig is, adviseerden zij het Congres om de wet- en regelgeving op het gebied van intellectueel eigendom te verduidelijken.
De taskforce benadrukte ook de noodzaak om het groeiende probleem van door AI gegenereerde deepfakes aan te pakken. Hoewel wetgevers verschillende anti-deepfake-wetten hebben ingediend, is geen enkele erin geslaagd het Congres te zuiveren.
Met de opkomst van synthetische inhoud merkte het rapport op dat er niet één perfecte oplossing is om inhoud te authenticeren en suggereerde het dat het Congres zich zou concentreren op het ondersteunen van de ontwikkeling van meerdere oplossingen.
Ze adviseerden wetgevers ook om wetgeving te overwegen die de juridische verantwoordelijkheden zou verduidelijken van de verschillende individuen die betrokken zijn bij het creëren van synthetische inhoud, waaronder AI-ontwikkelaars, inhoudproducenten en inhouddistributeurs.
Een ander belangrijk debat in de snelle ontwikkeling van publiek toegankelijke AI-modellen gaat over open versus gesloten systemen. Open systemen geven het publiek toegang tot de interne werking van AI-modellen en stellen anderen in staat deze aan te passen en erop voort te bouwen.
Het belangrijkste probleem met open systemen is dat ze kunnen worden gemanipuleerd door snode actoren. De taskforce kwam echter tot de conclusie dat er beperkt bewijs is dat erop wijst dat open AI-modellen aan banden moeten worden gelegd.
De wetgevers drongen er bij het Congres op aan zich te concentreren op de echte, aantoonbare schade van AI, en tegelijkertijd de risico’s van chemische, biologische, radiologische en nucleaire bedreigingen met behulp van de technologie te evalueren.
Als het om federale agentschappen gaat, zeggen de wetgevers dat de voordelen van het gebruik van AI door de overheid “potentieel transformerend” zijn, terwijl ze opmerken dat oneigenlijk gebruik de individuele privacy, veiligheid en eerlijke behandeling van alle burgers in gevaar kan brengen.
Wetgevers ontdekten dat de kennis over AI sterk varieert binnen de federale beroepsbevolking en adviseerde instanties om nauwlettend aandacht te besteden aan de ‘fundamenten van AI-systemen’, om het gebruik ervan te benutten, inclusief het verminderen van de administratieve bureaucratie.
Toch merkte het rapport op dat de federale overheid rekening moet houden met algoritmisch geïnformeerde beslissingen en dat aanbevolen instanties transparant moeten zijn over de rol van AI in overheidstaken.
Het komt bijna twee maanden na de regering-Biden bracht zijn allereerste uit nationaal veiligheidsmemorandum over AI. De memo drong er op vergelijkbare wijze bij Amerikaanse agentschappen op aan om te profiteren van AI-systemen voor de nationale veiligheid en een voorsprong te behouden op buitenlandse tegenstanders.
Wetgevers erkenden in het rapport van dinsdag dat Amerikaanse rivalen AI adopteren en militariseren en adviseerden het Congres toezicht te houden op AI-activiteiten met betrekking tot de nationale veiligheid, samen met het beleid voor autonoom wapengebruik.
Johnson zei dinsdag dat het rapport van de taskforce het leiderschap een beter begrip van de technologie geeft. Het komt na de Spreker gesignaleerde aarzeling eerder dit jaar over het overreguleren van de AI-ontwikkelingsruimte.
“Het ontwikkelen van een tweeledige visie op AI-adoptie, innovatie en bestuur is geen gemakkelijke taak, maar een noodzakelijke taak als we naar de toekomst van AI kijken en ervoor zorgen dat Amerikanen echte voordelen van deze technologie zien”, schreef Johnson dinsdag in een persbericht.
Jeffries omschreef het rapport als “serieus, nuchter en inhoudelijk van aard”, voegde Jeffries eraan toe: “Ik ben bemoedigd door de voltooiing van het rapport en hoop dat het leerzaam zal zijn voor verlichte wetgevende actie in de toekomst.”
Jeffries vertelde vorige week aan verslaggevers dat hij hoopt dat AI-gerelateerde wetgeving wordt opgenomen in de voortdurende resolutie van het Congres, die nog moet worden vrijgegeven omdat wetgevers racen tegen een sluitingsdeadline.
Hoewel wetgevers hoopvol lijken over de toepassingen van AI, erkende het rapport ook de potentiële tekortkomingen van AI, vooral als het gaat om burgerrechten.
“Negatieve effecten van gebrekkige of misbruikte technologieën zijn geen nieuwe ontwikkelingen, maar zijn consequenties van overwegingen bij het ontwerpen en gebruiken van AI-systemen”, aldus het rapport. “AI-modellen, en softwaresystemen in het algemeen, kunnen misleidende of onnauwkeurige resultaten opleveren. Handelen of beslissingen nemen op basis van gebrekkige resultaten kan Amerikanen van grondwettelijke rechten beroven.’
Om dit tegen te gaan, hebben de wetgevers aanbevolen dat mensen een actieve rol blijven spelen bij het helpen identificeren van tekortkomingen wanneer AI wordt gebruikt voor beslissingen waarbij grote belangen op het spel staan. De genoemde toezichthouders moeten over de instrumenten en expertise beschikken om deze risico’s aan te pakken.
Eén manier waarop dit kan worden gedaan is door AI-expertbureaus te laten samenwerken met toezichthouders om specifieke onderzoeksprogramma’s te ontwikkelen die gericht zijn op het identificeren van de verschillende risico’s, aldus de wetgevers.