De cybersecurity risico’s van artificial intelligence

Een belangrijke trend in de toekomst van technologie is de groei van kunstmatige intelligentie (AI). AI heeft de afgelopen jaren enorme vooruitgang geboekt en is steeds meer aanwezig in ons dagelijks leven. Van virtuele assistenten zoals Siri en Alexa tot zelfrijdende auto’s en geavanceerde beveiligingssystemen, AI is overal om ons heen. En natuurlijk is er ChatGPT, dé ontwikkeling van de afgelopen tijd. Kortom, AI neemt een vlucht. Maar wat betekent een dergelijke innovatie dan voor onze dagelijkse werkzaamheden? En dan bekeken vanuit zowel de positieve als vanuit de risicovolle kant. Het is ook belangrijk om stil te staan bij het verantwoord toepassen van AI, maar laten we eerst naar de positieve punten kijken.

Potentie om efficiëntie te verhogen

Een van de grootste voordelen van artificial intelligence is de potentie om efficiëntie te verhogen en taken te automatiseren. Door AI te gebruiken voor routinetaken, kunnen bedrijven meer tijd en middelen besteden aan innovatie en groei. Bovendien kan AI helpen bij het verminderen van menselijke fouten, wat kan leiden tot verbeterde veiligheid en kwaliteit.

Enorme hoeveelheden data analyseren en verwerken

Een ander belangrijk aspect van AI is het vermogen om enorme hoeveelheden gegevens te analyseren en te verwerken. Dit kan nuttig zijn voor bedrijven om betere beslissingen te nemen en patronen te identificeren die anders mogelijk over het hoofd worden gezien. Bovendien kan AI helpen bij het creëren van gepersonaliseerde ervaringen voor klanten, wat kan leiden tot een hogere klanttevredenheid en betrokkenheid. ChatGTP is in feite ook gewoon een geavanceerde chatbot die de chat-ervaring met de gebruiker moet personaliseren.

Potentie én risico’s

Artificial Intelligence (AI) heeft dus de potentie om onze wereld op veel manieren te verbeteren, maar het brengt ook risico’s met zich mee. Een interessant aspect van AI is de koppeling met cybersecurity. Zo wordt AI bijvoorbeeld gebruikt om snel codes te schrijven, automatisch responses te genereren of patronen in data te herkennen. Dit kan het werk van cybersecurity-experts vergemakkelijken, maar er zijn, logischerwijs ook zorgen over hoe AI gebruikt kan worden om bijvoorbeeld cyberaanvallen uit te voeren.

De opkomst van deepfakes

Een voorbeeld van zo’n zorg is de opkomst van deepfakes. Stel je voor dat je een Instagram-profiel hebt of dat je bedrijfswebsite tientallen goede foto’s bevat. Een deepfake-tool kan dan in staat zijn om deze foto’s te gebruiken om een geloofwaardige video te maken die, hoe realistisch ook, tóch niet echt is. Voor IT-managers is het belangrijk om dit te weten, omdat security awareness dé belangrijkste trend wordt in het komende jaar. Bovendien laten alle grote onderzoeken wereldwijd, ook in Nederland, zien dat social engineering in 90% van de gevallen de ingang is tot een succesvolle cyberaanval of datalek.

Middels het gebruik van deepfakes worden de social engineering methodes steeds gerafineerder. Het is dus belangrijk om hier alert op te blijven.

Microsoft Word – 240327_662_social-maart.docx

Pas op voor deepfakes (zowel zakelijk als privé)

We zijn tegenwoordig gewend om visuele zaken zoals video’s en live-calls als betrouwbaar te beschouwen, maar ook dat wordt steeds minder vanzelfsprekend. Of zou dat moeten zijn. Het is immers steeds moeilijker om onderscheid te maken tussen wat echt en wat niet echt is. Zaken kunnen bijvoorbeeld zéér realistisch weergegeven worden door image- creatie of stemvervorming. Met deepfakes kan dit ook nog eens heel persoonlijk gemaakt worden: iemand kan zich voordoen als een ander persoon, inclusief bijbehorende stem en gezichtsuitdrukkingen. Als er online videomateriaal beschikbaar is, kan men bovendien zelfs lichaamstaal nabootsen. Het is daarom belangrijk om te letten op welke beelden en audiofragmenten beschikbaar zijn van jou (of je collega’s!) op het internet en om je, bijvoorbeeld vanuit je rol als beslissingsbevoegde, IT-manager, securitymanager of netwerkbeheerder, bewust te zijn van de risico’s van deepfakes.

Zoek bijvoorbeeld eens online op hoe je foto’s van jezelf kunt maken in bepaalde hoeken, waarmee het vervolgens, als deze door AI gevoed worden, heel moeilijk is om daar een goed beeld uit te halen. Als je bijvoorbeeld altijd de linkerhoek van je gezicht fotografeert, dan is het voor een AI-tool lastig om een kloppend gezicht na te bouwen. Niemand is immers symmetrisch. Let dus op welke beelden en audiofragmenten beschikbaar zijn van jou en je collega’s op het internet.

Als organisatie focus je je waarschijnlijk vooral op welk materiaal je online hebt staan. Maar daar alleen ligt niet de essentie: het gevaar is niet wat jij als organisatie online hebt staan. Maar vooral wat men in privésferen doet. Dat is iets om te bespreken met je collega’s, niet met een geheven vingertje, maar juist om bewust te maken waar cybercriminelen tot in staat zijn wanneer zij toegang hebben tot het juiste materiaal en/of data.

Geautomatiseerd uitvoeren van een cyberaanval

Een ander risico van AI is de mogelijkheid om processen te automatiseren en er daarnaast van te leren. Doordat AI door trial and error kan leren van gemaakte fouten is het goed mogelijk dat er cyberaanvallen komen die volledig worden uitgevoerd en gecoördineerd middels artificial intelligence.

Vertrouw niet blindelings op AI

Als organisatie is het vanzelfsprekende minstens net zo belangrijk om te kijken naar de risico’s op het gebied van deepfakes en om te veel vertrouwen op AI op het gebied van cybersecurity te vermijden. Dit kan bijvoorbeeld door een combinatie van menselijk inzicht en AI te gebruiken, zoals bij managed security monitoring. AI kan alle gebeurtenissen in- en extern bijhouden en vervolgens worden al die verschillende processen tegen elkaar uitgezet en gemeten. Op deze manier kan bijvoorbeeld een afwijkend login patroon worden gedetecteerd en kan er actie worden ondernomen om de organisatie te beschermen. We geven een voorbeeld: stel dat een collega normaal tussen 7.30 uur en 8.30 uur inlogt op zijn hybride werkplek, en nu gebeurt dat plots om 2.00 uur ’s nachts, dan kan dat een signaal dat er, kijkend naar de reguliere activiteiten, dat er iets afwijkends plaatsvind.

Belangrijk hierbij is dat er niet blindelings moet worden vertrouwd op AI. Het menselijke inschattingsvermogen speelt nog steeds een belangrijke rol bij het detecteren van al dan niet risicovolle gebeurtenissen.

Bron: networking4all.com