Hoe stelt technologie cybercriminelen in staat om te handelen? En hoe kunnen organisaties AI gebruiken om ze op tijd te stoppen? AI is een tweesnijdend zwaard. Een beschouwing door Patrick Commers, Cybersecurity Evangelist, Fortinet België.
De voordelen van AI zijn legio, maar deze technologie roept ook veel vragen op. Het maakt aanvallen effectiever en vereist minder vaardigheid. Het is dus een tweesnijdend zwaard. In feite geeft AI doorgewinterde cybercriminelen een extra hulpmiddel om snellere, effectievere en destructievere aanvallen uit te voeren. Tegelijkertijd maakt de technologie het werk van beginnende cybercriminelen aanzienlijk eenvoudiger. Ze kunnen kwaadaardige software maken zonder programmeerkennis, omdat AI-tools met grote taalmodellen (LLM) het werk voor hen doen.
Zoals we hadden voorspeld, gebruiken cybercriminelen AI steeds vaker om een breed scala aan kwaadaardige activiteiten te ondersteunen, van het verslaan van algoritmen die afwijkende netwerkactiviteiten detecteren tot het nabootsen van menselijk gedrag,” zegt Patrick Commers. We zien ook een toename van specialisaties in cybercriminaliteit en AI-gebaseerde cybercriminaliteitsdiensten. Volgens het 2024 Threat Prediction Report zullen veel hackersgroepen zich alleen richten op het verzamelen van gegevens over een doelwit en deze vervolgens verkopen, in plaats van zich te concentreren op de hele aanvalsketen. We verwachten ook dat cybercriminelen machine learning zullen gebruiken om potentiële derden of ‘muilezels’ te rekruteren en sneller te identificeren…”
Training, een noodzaak
Volgens gegevens van phishing-evaluaties uitgevoerd door CISA (Cybersecurity and Infrastructure Security Agency) heeft 80% van de ondervraagde organisaties ten minste één van hun medewerkers het slachtoffer zien worden van een gesimuleerde phishingpoging. Uit een recent onderzoek bleek echter ook dat vier van de vijf organisaties vonden dat cyberbeveiligingstraining de kwetsbaarheid van hun personeel voor phishingaanvallen verminderde. Hoewel de resultaten niet onmiddellijk merkbaar zijn, kunnen ze wel snel merkbaar zijn: regelmatige training verlaagt het risico van 60% naar 10% in de eerste 12 maanden!
Maar AI – en GenAI in het bijzonder – vergroot de kracht en geloofwaardigheid van phishingaanvallen. De tijd dat mensen sms’jes of e-mails ontvingen van een buitenlandse prins die een miljoen euro beloofde als ze eerst een paar duizend euro betaalden, is voorbij. GenAI en LLM maken een einde aan amateuristische, zelfs komische berichten vol grammaticale en spelfouten…
Social engineering neemt ook toe. De menselijke factor ligt nog steeds aan de basis van de meeste incidenten en is zelfs verantwoordelijk voor 74% van alle datalekken. GenAI verbetert de geloofwaardigheid en nauwkeurigheid van e-mails, terwijl de gebruiker, die meer geïsoleerd is sinds de komst van gedeeltelijk telewerken als gevolg van COVID, een gemakkelijker te bereiken slachtoffer wordt. Door toegang te krijgen tot hun contactpersonen en de inhoud van al hun e-mails, kunnen cybercriminelen berichten opstellen die precies dezelfde taal en onderwerpen gebruiken als de berichten die ze gewend zijn. De ontvanger ziet het gevaar niet meer en is eerder geneigd om in te gaan op het verzoek van de hacker.
Criminele deepfakes
De meeste organisaties trainen hun werknemers om BEC’s (Business Email Compromises) te
detecteren. Deze berichten vragen hen om normale processen te omzeilen en bijvoorbeeld financiële transacties voor derden uit te voeren. Medewerkers nemen dan telefonisch of per videoconferentie contact op met de persoon in kwestie om de afzender en het verzoek te verifiëren. Op het eerste gezicht lijkt dit erg veilig.
Toch maken cybercriminelen steeds vaker gebruik van deepfakes, een vorm van AI die de stem en het uiterlijk van een persoon kan aanpassen. Dit maakt het valideren van een echte financiële bestelling des te complexer. Deepfakes worden vaak gebruikt om social engineering-aanvallen uit te voeren,” merkt Patrick Commers op. Op deze manier brengen cybercriminelen het vertrouwen in digitale technologie in gevaar en bedreigen ze de samenleving.
Gelukkig is AI ook een wapen in de strijd tegen cybercriminaliteit. Vandaag de dag hebben IT-teams, geconfronteerd met een zeer complex bedreigingslandschap, zo’n zware werklast dat ze aanvallen soms pas een paar dagen nadat ze hebben plaatsgevonden identificeren.
Er is behoefte aan een geconsolideerde aanpak van beveiliging, netwerken en gegevens,” zegt Patrick Commers. Dankzij op AI gebaseerde automatisering is het mogelijk om IT-teams te ontlasten en aanvallen veel sneller op te sporen. AI maakt het mogelijk om grote hoeveelheden gegevens op zeer hoge snelheid te verwerken en de cruciale informatie die erin zit eruit te filteren. Door het automatiseren van handmatig werk en repetitieve handelingen bij het detecteren van bedreigingen wordt de kans op fouten verkleind en kunnen teams sneller reageren.”
AI kan een grote bijdrage leveren aan cyberbeveiliging. Door deze technologie steeds meer in te zetten, kunnen bedrijven intelligente automatiserings- en beveiligingsstrategieën ontwikkelen. Het resultaat? Een gelijk speelveld, zelfs tegenover AI-gebaseerde tegenstanders en de geavanceerde bedreigingen die zij vormen. “Kunstmatige intelligentie stimuleert innovatie op alle technologische fronten, dus het is aan organisaties om te beslissen of ze er al dan niet hun voordeel mee doen,” besluit Patrick Commers.