“Als het MKB overspoeld wordt met aanvallen door spraak en beeld hebben we een groot probleem”

Geschreven door Eward Driehuis
6 min leestijd
20-sep-2024 14:23:11

Hoe generatieve AI de cybersecurity verandert

Stel je voor, je zit te werken terwijl de algemeen directeur je opbelt. Zo vaak gebeurt dat niet, dus je neemt snel op. Of je even een betaling kan doen. “Heb je mijn mail niet gezien? We hebben een belangrijke factuur van een leverancier die we snel moeten betalen.” Oh nee, dat was je even ontgaan. Je maakt het bedrag over, een flinke som. En dan… kom je erachter dat het een scam is. Het was een door AI gegeneerde vergadering, opgezet door cybercriminelen. 

Nu je bovenstaande tekst leest, lach je misschien, terwijl je denkt: ‘hier zou ik niet intrappen’. Maar dit is al een tijdje realiteit. En. dit. kan. ook. jou. overkomen. We hebben het hier over de versnelde cyberaanvallen met de komst van generatieve AI.

Ik spreek met cyberexpert Eward Driehuis. Ruim een jaar geleden interviewde ik hem over de belangrijkste cybertrends. Eward zei toen het volgende: "Er komt een tijd dat we in een teams-call zitten en dat we onze collega's niet zomaar kunnen vertrouwen.” Ik vond dat schokkend om te horen, en nu de generatieve AI-golf volop in gang is, zijn we benieuwd hoe het met de cybersecurity staat. Wat is de invloed van generatieve AI op cybersecurity? Waar moeten we ons op voorbereiden? Tijd voor een opvolging hiervan.

Verschil tussen publieke en betaalde genAI

Voor we het hebben over generatieve AI en cybersecurity, benadrukt Eward het belang om het verschil tussen AI-tools mee te nemen. “Het verschil tussen gratis varianten als ChatGPT en betaalde varianten als Copilot is groot. Bij Copilots van Microsoft kun je de invoer beter controleren omdat je de data zelf kunt afschermen, classificeren en als vertrouwelijk kunt labelen.”

Eward: “Taalmodellen zijn in principe overal toe in staat, maar ingebouwde guardrails kunnen misbruik voorkomen. Guardrails zijn grenzen die ontwikkelaars hebben ingesteld. Als je bijvoorbeeld vraagt aan het taalmodel om malafide code te schrijven, weigert het model om deze opdracht uit te voeren.”

Bij publieke modellen functioneren de guardrails minder effectief, omdat deze modellen zijn getraind op een breed scala aan openbare data. Deze data is vaak minder gecontroleerd en daardoor gevoeliger voor fouten en misleidende informatie. Eward: “Bij publieke modellen is de controle over de datakwaliteit en -beveiliging beperkt, waardoor ze gevoeliger zijn voor fouten en ongewenste outputs. 

Bij semi-private versies als Copilot kun je daar veel meer vertrouwen in hebben. Het is dus cruciaal dat je van tevoren je data governance op orde hebt. En dat je er moeite en tijd in blijft steken om het gebruik van deze modellen beheersbaar te houden.

Taalmodellen leveren je veel tijdswinst op, vooral bij repetitieve taken, zoals samenvattingen maken en data-analyse. Maar als je extra tijd moet investeren om de juiste grenzen en beperkingen in te stellen, kan die tijdswinst verminderen. Dus dat is het controversiële van generatieve AI: als je het goed wilt doen en tijdswinst wil behalen, moet je wel extra tijd steken in het neerzetten van grenzen.”

Criminelen gaan vaak eerst op zoek naar laaghangend fruit, voor ze geavanceerdere methoden erbij pakken. Is dat nog steeds zo?

“Dat is veranderd, ja. Toen ik anderhalf jaar geleden voorspelde dat aanvallen met spraak en beeld veel meer zouden worden ingezet, was dat nog hypothetisch. We zagen de gevaren van dingen die konden gebeuren. We wisten dat een LLM-model malware en schadelijke scripts kon schrijven. 

Inmiddels zijn we veel verder en zijn er al zaken gerapporteerd van bedrijven die te maken hebben met door AI-gegenereerde aanvallen, waarbij beeld en spraak van de CEO wordt gebruikt. Criminelen hebben nieuwe kansen ontdekt en doen nu zeer gerichte aanvallen met AI. 

Wel richten cybercriminelen zich met deze geavanceerde AI-aanvallen vooral op grote doelwitten. Dit is een grote verandering ten opzichte van anderhalf jaar geleden. Destijds dachten we nog: 'Dit zou zomaar eens kunnen gebeuren.' Nu zien we dat het daadwerkelijk gebeurt."

Klinkt ernstig. Hoe erg moeten we ons zorgen maken?

Dit is een fundamentele verandering, maar we hoeven ons – als het goed is – nog niet teveel zorgen te maken. We wisten dat door AI gegenereerde aanvallen een risico zouden vormen. 

Het mooie van een risico is dat het niet altijd gebeurt en dat we maatregelen kunnen treffen om de impact te minimaliseren. Dit soort aanvallen zien we al bij geopolitieke spionage, fraude en scamming, dus we kennen de impact ervan. Maar de situatie wordt pas echt zorgwekkend als deze aanvallen op grote schaal worden geautomatiseerd en ook het MKB, dat minder middelen heeft, doelwit wordt."

Wat zijn de belangrijkste cyberfraudetoepassingen door genAI die we in de nabije toekomst gaan zien?

“We gaan vooral toepassingen zien met beeld en stem. Deze high tech-aanvallen worden al gebruikt op groetere doelwitten.  

Waar veel gebruikers last van gaan hebben, zijn chatbots die fraude plegen. Deze bots beginnen een gesprek en proberen je te verleiden om op een link te klikken of een app te installeren. Omdat iedereen inmiddels gewend is aan de gebruikelijke manier van communiceren met AI, zijn deze aanvallen erg effectief.

Daarnaast gebruiken criminelen generatieve AI om malware te programmeren, phishingmails te maken en complete campagnes voor te bereiden. Veel LLM-modellen zijn gelekt en gestolen. ChatGPT 3.5 is bijvoorbeeld in handen van criminelen die de safeguards eruit gehaald hebben. Deze versie staat bekend als FraudGPT en criminelen gebruiken deze tool om malware te genereren en phishingcampagnes op te zetten. Hierdoor kunnen ze snel en goedkoop grote campagnes opzetten en meer tijd besteden aan het onderhandelen met slachtoffers.

Kortom, criminelen konden al criminele code en phishingmails maken, maar nu kunnen ze dit sneller en makkelijker doen. Dit biedt dezelfde voordelen die wij ook ervaren: sneller en makkelijker dingen maken.”

Wat raad je aan bij bedrijven om om te gaan met al deze nieuwe toepassingen?

"Hoe geavanceerder een aanval, hoe belangrijker de basisprincipes. Hoe meer high-tech de aanvaller, hoe meer low-tech jouw verdediging moet zijn. Een eenvoudig vierogenprincipe helpt: transacties boven een bepaalde grens altijd door twee personen laten controleren. Dit is simpel maar effectief.

Bij schadelijke links helpt een goed fundament, maar tegen misleiding, waar een AI-tool zoals ChatGPT goed in is, zijn goede processen en procedures cruciaal. Dit gaat verder dan alleen technische maatregelen; je hebt ook sterke procedurele afspraken nodig.

Een goede tip is om een simulatie te doen. Nodig securitymensen uit om een scenario te bouwen en doe een tabletop-oefening. Laat iedereen, inclusief de directie, meekijken naar de kwetsbaarste plekken in de processen of systemen. Simuleer de aanval en kijk hoe de organisatie ermee omgaat. Maak afspraken, zoals 'altijd een directielid beschikbaar hebben, zelfs 's nachts en in het weekend'.

Je moet je fundament op orde hebben om het criminelen niet makkelijk te maken. Maar wat doe je als ze toch binnenkomen? Hoe ga je daarmee om? Weet je wie je moet bellen? Heb je een noodnummer klaarstaan? Dit soort simpele dingen ontdek je alleen door te oefenen. De Nederlandse overheid doet dit, de NAVO doet dit, maar elke organisatie zou dit ook moeten doen om voorbereid te zijn op risico's."

We hebben het nu vooral gehad over cyberrisico’s door genAI. Maar liggen er ook kansen op gebied van security voor bedrijven?

“Jazeker. GenAI biedt ook veel voordelen voor security. Cybercriminelen gebruiken vaak verouderde versies, terwijl wij de meest recente versies van genAI tot onze beschikking hebben, zoals Copilot voor Microsoft Azure. Dit maakt het analyseren van security-incidenten eenvoudiger en vermindert handmatig werk. Copilot kan verschillende events en bronnen correleren en integreren met andere Microsoft-functionaliteiten zoals Sentinel.

Er liggen dus veel kansen. Een securitymanager kan bijvoorbeeld met genAI maandelijks rapportages in de helft van de tijd maken, waardoor er meer tijd overblijft voor proactieve activiteiten zoals threat hunting. En de tijd die overblijft kun je weer inzetten voor verbeterde kwaliteit en betere security.”

GenAI is een grote verandering, een nieuwe digitaliseringsgolf. Hoe kijk jij naar de toekomst als het gaat om cyberaanvallen, gaat er iets fundamenteels veranderen in de rat race met cybercriminelen?

"Dit patroon herhaalt zich steeds opnieuw. Telkens wanneer er nieuwe technologieën opkomen, worden ze aanvankelijk met goede intenties ontwikkeld en vervolgens door de slechteriken misbruikt voor kwade doeleinden. Dit fenomeen is niet nieuw; denk maar aan het ontstaan van het World Wide Web, internet of de cloud. Criminelen vinden altijd manieren om ze te misbruiken, en we moeten leren hoe we hiermee omgaan.

De voordelen van technologie wegen nog steeds op tegen de nadelen, maar we moeten niet naïef zijn. Bewustzijn is cruciaal; elk bedrijf heeft tegenwoordig internetbeveiliging, firewalls en antivirussoftware. Als je van genAI gebruik wilt maken, moet je jezelf beschermen tegen misbruik. Dat is de basis van onze manier van werken.

Als de nadelen ooit zwaarder wegen dan de voordelen, zal de marktwerking dat uiteindelijk duidelijk maken. Maar ik geloof niet dat dit zal gebeuren. Criminelen zullen simpelweg profiteren van alles wat voorhanden is, dit is een realiteit waar we ons van bewust moeten zijn.”

Meer weten over cyberveiligheid?

Cybersecurity CTA BLOG

 

Ontvang email updates