Nieuwjaarsincidenten in Las Vegas en New Orleans benadrukken de opkomst van terreur op basis van AI


De man die eerder zelfmoord heeft gepleegd het exploderen van een Tesla Cybertruck buiten een Trump-hotel in Las Vegas gebruikte op nieuwjaarsdag ChatGPT om te plannen zijn aanvalzeggen de autoriteiten.

Zoals NBC News meldde:

Matthew Alan Livelsberger, 37, vroeg ChatGPT om informatie over hoe hij een explosief in elkaar kon zetten, hoe snel een kogel zou moeten worden afgevuurd voordat de explosieven in de vrachtwagen zouden ontploffen – en niet alleen maar vlam zouden vatten – en welke wetten hij nodig zou hebben om rond te komen om de materialen te bemachtigen, zeiden wetshandhavingsfunctionarissen.

“We weten dat AI op een bepaald moment, in ons hele leven, het spel voor ons allemaal zou veranderen”, zei Kevin McMahill, sheriff van de Metropolitan Police van Clark County/Las Vegas. “Ik denk dat dit het eerste incident is waarvan ik op de hoogte ben op Amerikaans grondgebied waarbij ChatGPT wordt gebruikt om een ​​individu te helpen een bepaald apparaat te bouwen.”

Kunstmatige intelligentie lijkt een nieuw tijdperk van terreur te hebben ontketend. De FBI zegt dat een andere aanvaller op nieuwjaarsdag, die een vrachtwagen op feestvierders ramde bij een dodelijke terroristische aanslag in New Orleans, droeg een AI-compatibele Meta-bril terwijl hij een complot beraamde en de aanval uitvoerde.

Een woordvoerder zei dat ChatGPT bedroefd was door het incident in Las Vegas en “vastbesloten is om AI-tools op verantwoorde wijze te gebruiken.” Een Meta-woordvoerder vertelde NBC News dat het bedrijf contact had met de autoriteiten over de aanval in New Orleans.

Met de toenemende populariteit van AI-instrumenten hebben experts op het gebied van technologie en nationale veiligheid de noodklok geluid over de potentiële kansen die AI zou kunnen bieden aan mensen die terroristische aanslagen willen plegen.

In 2021 verscheen een rapport van het Bureau voor Terrorismebestrijding van de Verenigde Naties, getiteld “Algoritmen en terrorisme: het kwaadwillige gebruik van kunstmatige intelligentie voor terroristische doeleinden”, somde verschillende manieren op waarop AI terroristische aanslagen al heeft geholpen en dit opnieuw zou kunnen doen. Het rapport noemt het voorkomen van AI-gebaseerde cyberaanvallen, de installatie van AI-ondersteunde malware en ransomware om systemen te ontwrichten of te gijzelen, en AI-tools waarmee terroristen wachtwoorden kunnen kraken en vitale programma’s kunnen infiltreren.

Het rapport waarschuwde ook voor autonome voertuigen die als wapen zouden kunnen worden gebruikt, tenzij er preventieve veiligheidsvoorzieningen worden geïnstalleerd; drones met gezichtsherkenningsmogelijkheden die kunnen worden gebruikt om terreur te zaaien; en het potentiële gebruik van AI om dodelijke ziekteverwekkers te creëren die als biowapens kunnen worden ingezet.

Dit snode gebruik van kunstmatige intelligentie is een deel van de reden waarom ik en anderen de afgelopen jaren hebben geprobeerd de opwindende en potentieel positief gebruik van deze technologie. (Over enkele daarvan kun je lezen hier.) Maar AI-ondersteunde aanvallen spreken ook tot een punt dat president Joe Biden aanhaalt tijdens een toespraak in de Algemene Vergadering van de VN in september, toen hij waarschuwde voor het gebruik van kunstmatige intelligentie om de menselijke geest “ketenen” te geven.

Biden had het vooral over het kwaadwillig gebruik van AI door dictators. Maar dergelijke instrumenten zijn toegankelijker dan ooit, wat betekent dat de dreiging van AI-terreur niet alleen beperkt blijft tot illiberale heersers, maar ook tot aanvallers van eenzame wolven.

Als jij of iemand die je kent in een crisis verkeert, bel of sms dan 988 om de Suicide and Crisis Lifeline te bereiken of chat live op 988lifeline.org. Bezoeken kan ook SpeakingOfSuicide.com/resources voor extra ondersteuning.



Source link