NEW YORK– Terwijl het International Rescue Committee de afgelopen jaren te maken heeft met de dramatische toename van het aantal ontheemden, heeft de vluchtelingenhulporganisatie waar mogelijk gezocht naar efficiëntieverbeteringen – inclusief het gebruik van kunstmatige intelligentie.
Sinds 2015 heeft het IRC geïnvesteerd in Signpost – een portfolio van mobiele apps en sociale mediakanalen die vragen in verschillende talen beantwoorden voor mensen in gevaarlijke situaties. Het Signpost-project, waar veel andere organisaties bij betrokken zijn, heeft tot nu toe 18 miljoen mensen bereikt, maar IRC wil zijn bereik aanzienlijk vergroten door gebruik te maken van AI-tools – als ze dat veilig kunnen doen.
Conflicten, noodsituaties op het gebied van het klimaat en economische tegenspoed hebben de vraag naar humanitaire hulp doen toenemen 117 miljoen mensen volgens het vluchtelingenagentschap van de Verenigde Naties in 2024 gedwongen ontheemd. De wending naar kunstmatige-intelligentietechnologieën wordt gedeeltelijk gedreven door de enorme kloof tussen behoeften en middelen.
Om zijn doel te bereiken om binnen drie jaar de helft van de ontheemden te bereiken, test het IRC een netwerk van AI-chatbots om te zien of ze de capaciteit van hun humanitaire functionarissen en de lokale organisaties die mensen rechtstreeks bedienen via Signpost kunnen vergroten. Voorlopig draait het proefproject in El Salvador, Kenia, Griekenland en Italië en reageert het in 11 talen. Het is gebaseerd op een combinatie van grote taalmodellen van enkele van de grootste technologiebedrijven, waaronder OpenAI, Anthropic en Google.
Het chatbotresponssysteem maakt ook gebruik van klantenservicesoftware van Zendesk en krijgt overige ondersteuning van Google en Cisco Systems.
Als ze besluiten dat de tools werken, wil het IRC de technische infrastructuur kosteloos uitbreiden naar andere humanitaire non-profitorganisaties. Ze hopen gedeelde technologiebronnen te creëren die minder technisch gerichte organisaties zouden kunnen gebruiken zonder rechtstreeks met technologiebedrijven te hoeven onderhandelen of de risico's van de implementatie te beheersen.
“We proberen echt duidelijk te zijn over waar de legitieme zorgen liggen, maar leunen op het optimisme van de kansen en laten ook niet toe dat de bevolkingsgroepen die we bedienen achterblijven in oplossingen die het potentieel hebben om op te schalen op een manier die van mens tot mens mogelijk is. of andere technologie kan dat niet', zegt Jeannie Annan, Chief Research and Innovation Officer van het International Rescue Committee.
De antwoorden en informatie die Signpost-chatbots leveren, worden door lokale organisaties gecontroleerd om up-to-date en gevoelig te zijn voor de precaire omstandigheden waarin mensen zich kunnen bevinden. Een voorbeeldvraag die IRC deelde, is van een vrouw uit El Salvador die door Mexico naar de Verenigde Staten reist met haar zoon die op zoek is naar onderdak en diensten voor haar kind. De bot geeft een lijst met aanbieders in de omgeving waar ze zich bevindt.
Complexere of gevoelige vragen worden geëscaleerd zodat mensen kunnen reageren.
Het belangrijkste potentiële nadeel van deze tools is dat ze niet werken. Wat als de situatie ter plaatse bijvoorbeeld verandert en de chatbot het niet weet? Het kan informatie opleveren die niet alleen verkeerd is, maar ook gevaarlijk.
Een tweede probleem is dat deze tools een waardevolle schat aan gegevens over kwetsbare mensen kunnen verzamelen, waarop vijandige actoren zich kunnen richten. Wat als een hacker erin slaagt toegang te krijgen tot gegevens met persoonlijke informatie of als die gegevens per ongeluk worden gedeeld met een onderdrukkende overheid?
IRC zei dat het met de technologieleveranciers is overeengekomen dat geen van hun AI-modellen zal worden getraind op de gegevens die het IRC, de lokale organisaties of de mensen die zij bedienen, genereren. Ze hebben ook gewerkt aan het anonimiseren van de gegevens, inclusief het verwijderen van persoonlijke informatie en locatie.
Als onderdeel van het Signpost.AI-project test IRC ook tools zoals een digitale geautomatiseerde docent en kaarten die veel verschillende soorten gegevens kunnen integreren om te helpen bij de voorbereiding op en reactie op crises.
Cathy Petrozzino, die voor het non-profit onderzoeks- en ontwikkelingsbedrijf MITRE werkt, zei dat AI-tools een groot potentieel hebben, maar ook grote risico's. Om deze tools op een verantwoorde manier te kunnen gebruiken, moeten organisaties zich volgens haar afvragen: werkt de technologie? Is het eerlijk? Zijn gegevens en privacy beschermd?
Ze benadrukte ook dat organisaties een reeks mensen moeten bijeenbrengen om het initiatief te helpen besturen en ontwerpen – niet alleen technische experts, maar ook mensen met diepgaande kennis van de context, juridische experts en vertegenwoordigers van de groepen die de tools zullen gebruiken.
“Er liggen veel goede modellen op het AI-kerkhof,” zei ze, “omdat ze niet in samenwerking met de gebruikersgemeenschap zijn uitgewerkt.”
Voor elk systeem dat potentieel levensveranderende gevolgen heeft, aldus Petrozzino, moeten groepen externe experts inschakelen om hun methodologieën onafhankelijk te beoordelen. Ontwerpers van AI-tools moeten rekening houden met de andere systemen waarmee ze zullen communiceren, zei ze, en ze moeten plannen maken om het model in de loop van de tijd te monitoren.
Overleg met ontheemden of anderen die humanitaire organisaties dienen, kan de tijd en moeite die nodig is om deze instrumenten te ontwerpen vergroten, maar het niet hebben van hun inbreng brengt veel veiligheids- en ethische problemen met zich mee, zegt Helen McElhinney, uitvoerend directeur van CDAC Network. Het kan ook lokale kennis ontsluiten.
Mensen die diensten ontvangen van humanitaire organisaties moeten te horen krijgen of een AI-model de informatie die ze overhandigen zal analyseren, zei ze, zelfs als het de bedoeling is om de organisatie te helpen beter te reageren. Dat vereist zinvolle en geïnformeerde toestemming, zei ze. Ze moeten ook weten of een AI-model levensveranderende beslissingen neemt over de toewijzing van middelen en waar de verantwoordelijkheid voor die beslissingen ligt, zei ze.
Degan Ali, CEO van Adeso, een non-profitorganisatie in Somalië en Kenia, is lange tijd een voorstander geweest van het veranderen van de machtsdynamiek in de internationale ontwikkeling om meer geld en controle aan lokale organisaties te geven. Ze vroeg hoe IRC en anderen die deze technologieën nastreven de toegangsproblemen zouden kunnen oplossen, daarbij verwijzend naar de weeklange stroomstoringen veroorzaakt door orkaan Helene in de VS Chatbots helpen niet als er geen apparaat, internet of elektriciteit is, zei ze.
Ali waarschuwde ook dat weinig lokale organisaties de capaciteit hebben om grote humanitaire conferenties bij te wonen waar de ethiek van AI wordt besproken. Er zijn maar weinig medewerkers die hoog genoeg zijn en voldoende kennis hebben om zich echt met deze discussies bezig te houden, zei ze, ook al begrijpen ze de potentiële kracht en impact die deze technologieën kunnen hebben.
“We moeten buitengewoon voorzichtig zijn om machtsonevenwichtigheden en vooroordelen niet te repliceren door middel van technologie”, zei Ali. “De meest complexe vragen zullen altijd lokale, contextuele en geleefde ervaringen vereisen om op een zinvolle manier te kunnen worden beantwoord.”
___
De Associated Press en OpenAI hebben dat wel gedaan een licentie- en technologieovereenkomst waarmee OpenAI toegang krijgt tot een deel van de tekstarchieven van AP.
___
De berichtgeving van Associated Press over filantropie en non-profitorganisaties wordt ondersteund door de samenwerking van de AP met The Conversation US, met financiering van Lilly Endowment Inc. De AP is als enige verantwoordelijk voor deze inhoud. Bezoek voor alle filantropische berichtgeving van AP https://apnews.com/hub/philanthropy.