BESTANDSFOTO: Meerah Rajavel, CIO van Palo Alto Network deelde haar mening over hoe IT-banen zijn veranderd, de nieuwe AI-toolkit van het bedrijf en integratie. | Fotocredit: speciale regeling
Nu de mogelijkheden van AI tweesnijdend blijken te zijn, is het momentum van cyberbeveiliging enorm toegenomen. Bedrijven geven er prioriteit aan vanwege de toegenomen concurrentie. Palo Alto Networks, een bijna twintig jaar oud cyberbeveiligingsbedrijf, wil een one-stop-shop worden met een ‘platformisatie’-strategie. In een exclusieve interactie met De Hindoe, Meerah Rajavel, CIO van Palo Alto Network, deelde haar mening over de manier waarop IT-banen zijn veranderd, de nieuwe AI-toolkit van het bedrijf en de integratie.
Bewerkte fragmenten:
THB: Hoe zijn IT-rollen veranderd sinds de komst van AI?
Meerah Rajavel: Vroeger kon je programmeur zijn en dat was goed genoeg. Nu kun je niet zomaar een programmeur zijn. Je moet ook het zakelijke domein begrijpen en begrijpen hoe technologie het zakelijke domein in staat kan stellen de uitkomst te produceren. Normaal gesproken zijn dit functiefamilies zoals bedrijfssysteemanalisten, beheerdersrollen, ontwerperrollen, data-ingenieurs en zoveel verschillende varianten. Tegenwoordig hebben we veel daarvan geautomatiseerd met de adoptie van AI en automatisering. We gingen dus van 29 functiefamilies naar 6 functiefamilies in de IT. Nu heb ik mensen nodig die heel goed zijn in het oplossen van problemen, en dat is wat een analist doet. Ik heb ingenieurs nodig die kunnen programmeren, scripten en een goede basiskennis van coderen hebben. Dan zijn er programmamanagement- en projectmanagementrollen waarbij problemen in harmonie worden opgelost. Naarmate de technologie evolueert, zullen we waarschijnlijk een aantal nieuwe rollen zien verschijnen. We hebben geen functiefamilies zoals AI-trainers, maar we experimenteren al met een aantal ervan. We hebben mensen nodig die ervoor zorgen dat AI niet afdwaalt van wat het zou moeten doen. Als iets zich misdraagt, willen we ervoor zorgen dat er checks and balances zijn met een zekere mate van menselijk ingrijpen.
THB: Zullen er rollen zijn die verband houden met de ethische inzet van AI?
Rajavel: Ik verwacht wel meer functies rond ethische AI – er zijn zaken als hoe we naar onze data kijken en hoe we anonimiseren of hoe we het gewicht van onze data veranderen bij het trainen van onze AI. Dat soort dingen zullen mainstream worden. Op dit moment heb ik er wel een paar omdat we AI gebruiken, maar het is een veel kleinere functiefamilie. Maar ik denk dat het morgen, als we het gebruik uitbreiden, ook mainstream zal worden.
THB: Er zijn berichten dat de adoptie van Microsoft Copilot klanten niet tevreden stelt. Welke acceptatie ziet u voor uw Copilot-tool?
Rajavel : We hanteren absoluut een andere aanpak dan de meeste leveranciers, zonder een van hen te noemen. We zien copilot of AI niet als een afzonderlijk product, omdat het uiteindelijk geïntegreerd zal worden. Mensen denken dat het een apart product is en dat je er apart voor kunt betalen, maar het gaat geïntegreerd worden. Onze copiloot richt zich op het verstrekken van informatie binnen handbereik, het wegnemen van complexiteit en het oplossen van het probleem. Dit is een combinatie van copiloot en AI en automatisering die hand in hand gaan.
TH: AI-aangedreven cyberdreigingen vormen tegenwoordig een enorm risico. Hoe pak je deze aan? Zijn er plannen om nieuwe tools te lanceren?
Rajavel: We hebben drie AI-tools die tegenwoordig allemaal algemeen beschikbaar zijn. Ten eerste willen we bij het importeren en exporteren van gevoelige gegevens mensen niet beperken in het gebruik van ChatGPT, maar we kunnen niet toestaan dat een marketingmedewerker PR-nieuws dat nog niet eens is vrijgegeven, uploadt omdat hij wat suggesties wil krijgen. Maar als ze creatieve inhoud willen genereren uit Midjourney of ChatGPT of tekst willen samenvatten, is dat prima. We hebben dus beperkingen met betrekking tot het soort gegevens dat u mag uploaden en downloaden. Als iemand probeert een broncode te nemen en deze in ChatGPT te plaatsen, zullen we meteen stoppen met te zeggen dat je dit bestand niet mag uploaden. Het tweede product zorgt ervoor dat we onze AI correct configureren. Met AI moet je bijvoorbeeld over goede gegevens, het juiste model en de juiste set bibliotheken voor je aanwijzingen beschikken. Elke verkeerde configuratie daarvan maakt uw AI zelf kwetsbaar. Dit product kijkt dus naar de status van uw AI-applicaties om te zien waar kwetsbaarheden zitten. Het derde product biedt realtime beveiliging. Als u een agent heeft voor uw klantenondersteuning en iemand is binnengedrongen in die agent en een verkeerde prompt aan de agent geeft, kan de agent op de klant reageren met het verkeerde antwoord.
THB: Er zijn gevallen geweest zoals de enorme Azure-storing waarbij een geautomatiseerde update plaatsvond en een wijdverspreide fout veroorzaakte. Hoe voorkom je zoiets?
Rajavel : Het evenement dat je noemt ging over hoe updates in één waarschuwing werden geïntroduceerd. Ik bedoel, eerlijk gezegd kan het iedereen overkomen en we zijn eigenlijk heel empathisch voor wat er met onze branchegenoot is gebeurd. Maar onze aanpak is anders omdat we niet in één keer een enorme push doen. Wanneer Palo Alto Networks enige verandering doorvoert, gaan we doorgaans over op wat we een kanarie noemen, wat een progressieve uitrol is. De eerste zal dus 1% van de bevolking zijn en als het niet goed gaat, hebben we altijd een terugdraaimechanisme. Als het goed gaat, gaan we naar de volgende groep audiënties. Ten tweede bieden we klanten ook de mogelijkheid om te dicteren hoe ze willen dat de wijziging wordt geaccepteerd. Als de klant iets zeer gevoeligs doet, kunnen ze dit volgens hun eigen schema regelen, zodat de macht ook weer in handen van de klanten komt. . Ten derde hebben we intern ook een groot aantal tests in onze omgeving voordat we beginnen met de gefaseerde uitrol, aangezien ik de eerste klant voor mijn bedrijf ben.
Gepubliceerd – 31 december 2024 10:57 uur IST