AI schept een dilemma voor bedrijven: als u het nog niet implementeert, loopt u mogelijk productiviteitswinst en andere potentiële voordelen mis; Maar als u het verkeerd doet, kunt u uw bedrijf en uw klanten blootstellen aan regelrechte risico’s. Dit is waar een nieuwe golf van ‘beveiliging voor AI’-startups hun intrede doet, met het uitgangspunt dat deze bedreigingen, zoals jailbreak en snelle injectie, niet kunnen worden genegeerd.
Zoals een Israëlische startup Noma en in de VS gevestigde concurrenten Verborgen laag En Bescherm AIBritse universiteitsspin-off Mindgard is er één van. “AI is nog steeds software, dus alle cyberrisico’s waar je waarschijnlijk over hebt gehoord, zijn ook van toepassing op AI”, zegt CEO en CTO, professor Peter Garraghan (rechts in de afbeelding hierboven). Maar “als je kijkt naar de ondoorzichtige aard en het intrinsiek willekeurige gedrag van neurale netwerken en systemen”, voegde hij eraan toe, rechtvaardigt dit ook een nieuwe aanpak.
In het geval van Mindgard is deze aanpak een Dynamic Application Security Testing for AI (DAST-AI), gericht op kwetsbaarheden die alleen tijdens runtime kunnen worden gedetecteerd. Dit omvat continue en geautomatiseerde red teaming, een manier om aanvallen te simuleren op basis van de bedreigingsbibliotheek van Mindgard. Het kan bijvoorbeeld de robuustheid van beeldclassificatoren testen tegen vijandige input.
Op dat front en daarbuiten is de technologie van Mindgard te danken aan Garraghan’s achtergrond als professor en onderzoeker gericht op AI-beveiliging. Het veld evolueert snel: ChatGPT bestond nog niet toen hij erin stapte, maar hij voelde dat NLP en beeldmodellen met nieuwe bedreigingen te maken konden krijgen, vertelde hij aan TechCrunch.
Sindsdien klonk het toekomstgericht is werkelijkheid geworden binnen een snelgroeiende sector, maar LLM’s blijven veranderen, net als de bedreigingen. Garraghan denkt dat zijn voortdurende banden met Lancaster University het bedrijf kunnen helpen bij te blijven: Mindgard zal de komende jaren automatisch eigenaar worden van de IP van het werk van 18 extra doctoraatsonderzoekers. “Er is geen enkel bedrijf ter wereld dat zo’n deal krijgt.”
Hoewel het banden heeft met onderzoek, is Mindgard al een commercieel product, en preciezer gezegd, een SaaS-platform, waarbij mede-oprichter Steve Street de leiding heeft als COO en CRO. (Een vroege mede-oprichter, Neeraj Suri, die betrokken was bij de onderzoekskant, is niet langer bij het bedrijf.)
Bedrijven zijn een natuurlijke klant voor Mindgard, net als traditionele red teamers en pentesters, maar het bedrijf werkt ook met AI-startups die hun klanten moeten laten zien dat ze aan AI-risicopreventie doen, zei Garraghan.
Omdat veel van deze potentiële klanten in de VS gevestigd zijn, heeft het bedrijf een Amerikaans tintje aan zijn captabel toegevoegd. Na het verhogen van een Zaadronde van £ 3 miljoen in 2023 kondigt Mindgard nu een nieuwe ronde van $8 miljoen aan onder leiding van het in Boston gevestigde .406 Ventures, met deelname van Atlantic Bridge, WillowTree Investments en bestaande investeerders IQ Capital en Lakestar.
De financiering zal helpen bij “het opbouwen van het team, productontwikkeling, R&D en alle dingen die je van een startup mag verwachten”, maar zal ook uitbreiden naar de VS. De onlangs aangestelde VP marketing, voormalig Next DLP CMO Fergal Glynn, is gevestigd in Boston. Het bedrijf is echter ook van plan R&D en engineering in Londen te houden.
Met een personeelsbestand van 15 is het team van Mindgard relatief klein, en dat zal zo blijven, met plannen om tegen eind volgend jaar 20 tot 25 mensen te bereiken. Dat komt omdat AI-beveiliging “nog niet eens in zijn hoogtijdagen is.” Maar wanneer AI overal wordt ingezet en veiligheidsbedreigingen volgen, zal Mindgard er klaar voor zijn. Garraghan zegt: “We hebben dit bedrijf gebouwd om positief goed te doen voor de wereld, en het positieve hier is dat mensen AI veilig kunnen vertrouwen en gebruiken.”