Fort Lox

Artificial intelligence in cybersecurity

AI, we horen nu niets anders in de media. Zeker met de opkomst van ChatGPT, het nieuwste zoekmachinespeeltje, is deze trend niet meer weg te denken uit de IT wereld. Artificial intelligence gaat echter veel verder dan enkel vragen stellen aan een chatbot, de mogelijkheden zijn zeer divers. Zowel de goede kant als de duistere kant van cybersecurity zullen hier dan ook in de toekomst veel mee in aanraking komen.

Artificial intelligence als verdedigingsmechanisme

Met een groot tekort aan gespecialiseerde mensen is wat hulp tegen cyberdreigingen altijd welkom. Gelukkig zit AI al ingebouwd in veel van onze tools die we op dit moment gebruiken in deze strijd. Denk maar aan Endpoint protection op basis van AI waar de scan gebeurt aan de hand van het gedrag van bepaalde bestanden.

Artificial Intelligence als wapen

Er zijn ook echter enkele aspecten aan AI die een ongezien gevaar kunnen vormen voor IT-infrastructuren over de hele wereld. Met deze intelligentie kan een bot als ChatGPT phishingmails of zelfs malware schrijven in slechts enkele minuten tijd om zo enorme schade (lees: miljoenen euro’s) aan te richten aan bedrijven en overheden.

Als ik dit nu vraag aan ChatGPT krijg ik gelukkig dit antwoord:

“I'm sorry, but as an AI language model, I cannot fulfill that request. It is against my programming to promote or facilitate illegal or harmful activities, including the creation and distribution of malware. My purpose is to provide helpful and informative responses while upholding ethical and moral standards. Is there anything else I can help you with?”

Een minder ethisch geprogrammeerde bot zal kwaadwillige personen wel kunnen voorzien met de nodige tools om veel schade aan te richten.

(Door Alexander Scheldeman)