Bescherm AI-investeringen met slimme beveiliging
In heel Europa - en dus ook in Nederland - transformeert kunstmatige intelligentie (AI) sectoren. De technologie stimuleert innovatie, verbetert bedrijfsactiviteiten en bevordert groei. Overheden en organisaties zetten AI in om de ervaringen van klanten te verbeteren en een concurrentievoordeel te behalen. Echter, naarmate organisaties en overheden AI steeds sneller implementeren, ontstaan nieuwe beveiligingsuitdagingen. Organisaties moeten deze serieus nemen om hun AI-investeringen te beschermen.
Tekst: Ruud Mulder, Country Pre-sales & Solutions Architecture Manager Netherlands bij Dell Technologies
Volgens het Dell Innovation Catalyst 2024-onderzoek vreest 70% van de Nederlandse organisaties dat Generative AI nieuwe beveiligings- en privacy-uitdagingen met zich meebrengt. Om AI succesvol en veilig in te zetten, moeten organisaties zich richten op drie belangrijke pijlers: het beheersen van de risico’s van AI-gebruik, het verdedigen tegen AI-aangedreven aanvallen, en het inzetten van AI om de eigen beveiliging te versterken.

De risico’s van AI-gebruik beheersen
AI is afhankelijk van enorme hoeveelheden data, wat unieke uitdagingen met zich meebrengt. Zeker in Europa, waar uiteenlopende en strenge regelgeving geldt op het gebied van gegevensbescherming. AI-modellen worden gebouwd, getraind en verfijnd met deze data, waardoor de bescherming ervan essentieel is. Bovendien heeft de EU haar cyberbeveiligingskaders de afgelopen tijd versterkt met regelgeving zoals de Digital Operational Resilience Act (DORA), NIS2-richtlijn, de Cyber Resilience Act (CRA) en de onlangs geïntroduceerde EU AI Act. Deze wetten stellen hoge eisen aan organisaties die AI inzetten en zijn bedoeld om digitale weerbaarheid en naleving te waarborgen. Onzorgvuldig datagebruik kan leiden tot complianceproblemen, datalekken of reputatieschade.
‘Benader AI-risico’s niet uitsluitend uit technisch persperctief’
Daarnaast brengt de AI-levenscyclus bredere risico’s met zich mee op het gebied van systeembeschikbaarheid, gegevensintegriteit, compliance en governance. Het goede nieuws is dat bekende cyberbeveiligingsprincipes, zoals toegang met minimale rechten, robuuste authenticatiecontroles, monitoring en filtering van invoer en uitvoer, nog steeds waardevolle tools zijn om AI-systemen te beveiligen. Om deze effectief te kunnen toepassen, is het wel noodzakelijk dat beveiligingsteams worden bijgeschoold, zodat zij de specifieke kenmerken en risico’s van AI begrijpen en kunnen beheren.
Om AI-risico’s adequaat aan te pakken, is het bovendien belangrijk dat organisaties deze niet uitsluitend vanuit technisch perspectief benaderen. Risico-overwegingen moeten ook worden geïntegreerd in ethische kaders, veiligheidsbeleid en de bredere organisatiecultuur. Een multidisciplinaire aanpak – waarin verschillende afdelingen samenwerken – helpt om AI op verantwoorde wijze in te zetten. Het opzetten van een AI-governance framework is daarbij een belangrijke eerste stap. Zo’n framework moet ruimte bieden aan diverse perspectieven binnen de organisatie, om een balans te vinden tussen innovatie, compliance en beveiliging binnen een samenhangende risicostrategie.
AI-dreigingen bestrijden
AI heeft enorm potentieel, maar cybercriminelen gebruiken ook kunstmatige intelligentie om hun aanvallen te verfijnen en te versnellen. Schema’s voor social engineering, geavanceerde fraudetactieken en door AI-gegenereerde phishingmails zijn moeilijker te detecteren, wat kan leiden tot aanzienlijke financiële verliezen. Volgens het Darktrace State of AI Cybersecurity-rapport geeft maar liefst 63% van de Nederlandse IT-professionals aan dat hun organisatie onvoldoende is voorbereid op AI-gestuurde dreigingen.Ter vergelijking: wereldwijd ligt dit percentage op 45%. Dit benadrukt de noodzaak voor krachtigere beveiligingsmaatregelen in Nederland.
Hoewel veel AI-gerelateerde dreigingen voortbouwen op bestaande aanvalstechnieken, moeten organisaties hun verdediging verbeteren. De belangrijkste uitdaging ligt in het gebrek aan voorbereiding en het ontbreken van duidelijke richtlijnen voor AI-beveiliging. Het inzetten van gespecialiseerde AI-securitytools, in combinatie met trainingen voor medewerkers in het herkennen van nieuwe aanvalsvormen, is essentieel om risico’s te beperken. Inmiddels zegt 68% van de Nederlandse organisaties medewerkers te trainen of bij te scholen in het gebruik van nieuwe technologieën zoals Generative AI (GenAI). Organisaties moeten zich voorbereiden op een tijdperk waarin cyberaanvallen razendsnel en op grote schaal plaatsvinden. Een geautomatiseerde, defensieve aanpak is noodzakelijk om snel te kunnen reageren en de impact van aanvallen te minimaliseren.
AI inzetten om beveiliging te versterken
Volgens het CBS zetten vooral Nederlandse organisaties met meer dan 100 medewerkers AI in voor ICT-beveiliging. En dat is niet verrassend: AI kan kwetsbaarheden vroegtijdig signaleren, risico’s voorspellen en incidentrespons versnellen. Daardoor wordt AI een steeds belangrijker instrument in de strijd tegen digitale dreigingen. Organisaties integreren AI-technologie dan ook steeds vaker in hun beveiligingsstrategie, als fundament voor een meer proactieve en adaptieve verdediging.
‘AI is geen experimentele technologie meer’
Organisaties kunnen AI inzetten om de beveiliging te verbeteren, bijvoorbeeld:
- Veilige softwareontwikkeling: AI kan coderingsprocessen verbeteren door zwakke plekken vroeg te detecteren, waardoor teams kwetsbaarheden in de ontwikkelingsfase kunnen verminderen.
- Geavanceerde voorspelling van dreigingen: AI-algoritmen kunnen patronen identificeren en anticiperen op potentiële aanvalspaden, waardoor teams proactief risico’s kunnen aanpakken.
- Verbeterde detectie van bedreigingen: door enorme datasets in realtime te verwerken, kan AI met ongekende nauwkeurigheid echte dreigingen onderscheiden van ruis.
- Geautomatiseerde reacties op incidenten: AI-tools kunnen de indamming en beperking van schade na een inbraak aanzienlijk versnellen, waardoor de reactietijd flink wordt verkort.
- Bewustwordingsprogramma’s voor gebruikers: AI-systemen kunnen op maat gemaakte beveiligingstrainingen geven aan medewerkers, zodat ze alerter worden en minder fouten maken die tot inbreuken kunnen leiden.
Veel organisaties zijn voor de implementatie van geavanceerde AI-tools afhankelijk van samenwerking met technologieleveranciers. Maar om het maximale uit AI-gebaseerde beveiligingsoplossingen te halen, moeten ook de interne processen en datastromen op orde zijn. Een strategie waarin automatisering centraal staat, helpt organisaties om zich beter aan te passen aan een digitale toekomst waarin autonome bedreigingen steeds vaker de norm zijn.

Bouwen aan een veerkrachtige toekomst
AI is geen experimentele technologie meer – het is inmiddels een onmisbaar onderdeel van digitale transformatie in Nederland. De voordelen kunnen echter alleen worden gerealiseerd als organisaties de bijbehorende risico’s zorgvuldig aanpakken. Om AI-mogelijkheden te benutten, moeten cyberbeveiligingsprincipes in elke fase van ontwikkeling, testen en implementatie worden geïntegreerd.
Organisaties die AI omarmen en tegelijkertijd investeren in robuuste beveiliging en slimme strategieën, beperken niet alleen de risico’s, maar versterken ook hun positie als digitale koploper. Door de drie besproken principes aan te pakken (risico’s beheersen, dreigingen tegengaan en AI inzetten voor beveiliging), kunnen organisaties in Nederland het volle potentieel van AI benutten in een wereld die steeds digitaler wordt en meer op data is gericht.