AI Security

De Onzichtbare Aanval

AI vergroot uw mogelijkheden — maar ook die van de aanvaller. Weet welke risico's AI-gebruik in uw organisatie met zich meebrengt.

Organisaties die AI-tools gebruiken zonder beveiligingsbeleid riskeren datalekken, manipulatie van beslissingen en EU AI Act-boetes tot €35 miljoen of 7% van de mondiale jaaromzet. De EU AI Act is nu van kracht.

Het dreigingslandschap

AI: kansen én risico's

Dezelfde AI-technologie die uw productiviteit vergroot, vergroot ook de mogelijkheden van aanvallers. Weet waar de risico's zitten.

Shadow AI

Shadow AI Risico's

Medewerkers gebruiken ChatGPT, Copilot en andere AI-tools zonder beleid — en plakken gevoelige bedrijfsgegevens in externe systemen. Dit zijn gegevens die u niet meer kunt terugkrijgen.

AI-aanvallen

AI-gestuurde Aanvallen

Aanvallers gebruiken AI voor hyper-gepersonaliseerde phishing, geautomatiseerde kwetsbaarheidsdetectie, deepfakes en het omzeilen van traditionele beveiligingssystemen.

EU AI Act

EU AI Act Compliance

De EU AI Act categoriseert AI-systemen op risiconiveau en stelt eisen aan transparantie, documentatie en menselijk toezicht. Niet-naleving kan leiden tot forse boetes.

Onze Aanpak

Van inventarisatie tot adviesrapport

Ons AI Security Assessment volgt een gestructureerde aanpak die zowel technische risico's als compliance-verplichtingen in kaart brengt.

01

AI Inventarisatie

Overzicht van alle AI-tools en -systemen die worden gebruikt in uw organisatie — inclusief shadow AI die buiten de IT-afdeling gebruikt wordt.

02

Risicoanalyse

Beoordeling van welke gegevens blootgesteld worden via AI-tools en wat de risico's zijn van manipulatie, datalekken of verkeerde beslissingen door AI.

03

EU AI Act Toetsing

Classificatie van uw AI-systemen op risiconiveau en toetsing aan de vereisten van de EU AI Act — welke verplichtingen gelden er voor uw organisatie?

04

Adviesrapport

Concreet rapport met bevindingen, risiconiveaus en geprioriteerde aanbevelingen voor beleid, technische maatregelen en compliance-acties.

EU AI Act

Begrijp de risicocategorieën

De EU AI Act (Verordening (EU) 2024/1689) categoriseert AI-systemen op basis van het risico dat zij opleveren. De eisen per categorie lopen sterk uiteen.

Onaanvaardbaar

Verboden AI

Biometrische massasurveillance, sociale scoring door overheden, manipulatieve systemen. Verboden zonder uitzondering.

Hoog Risico

Zwaar Gereguleerd

AI in kritieke infrastructuur, HR-beslissingen, kredietverlening, medische hulpmiddelen. Verplichte documentatie, logging en menselijk toezicht.

Beperkt Risico

Transparantieplicht

Chatbots, deepfakes, emotieherkenning. Verplicht transparant zijn dat gebruikers met AI interacteren.

Minimaal Risico

Vrij Gebruik

Spamfilters, AI in videogames, aanbevelingssystemen zonder kritieke impact. Geen wettelijke eisen, best practices aangeraden.

Persoonlijke aansprakelijkheid onder de EU AI Act

Net als onder NIS2 kunnen bestuurders persoonlijk aansprakelijk gesteld worden bij schending van de EU AI Act. Boetes lopen op tot €35 miljoen of 7% van de mondiale jaaromzet voor de zwaarste overtredingen. Weet u welke AI-systemen in uw organisatie als hoog-risico worden geclassificeerd?

Tarief

AI Security Assessment

Ons onderscheid

Gecertificeerde hacker + AI-kennis

Weinig adviseurs combineren een achtergrond als gecertificeerd ethisch hacker met diepgaande kennis van AI governance en de EU AI Act. Threatley doet dat — volledig onafhankelijk van vendors en tooling.

Wij beoordelen uw AI-risico's als een aanvaller én als compliance-adviseur tegelijk. Geen theoretische checklists, maar praktisch inzicht in hoe aanvallers AI misbruiken — en hoe uw eigen AI-gebruik risico's introduceert die u misschien nog niet ziet.

Klaar voor inzicht?

Weet welke risico's AI meebrengt

Neem contact op voor een vrijblijvend gesprek over uw AI-gebruik en de risico's die daarmee samenhangen.