AI Security
AI vergroot uw mogelijkheden — maar ook die van de aanvaller. Weet welke risico's AI-gebruik in uw organisatie met zich meebrengt.
Het dreigingslandschap
Dezelfde AI-technologie die uw productiviteit vergroot, vergroot ook de mogelijkheden van aanvallers. Weet waar de risico's zitten.
Medewerkers gebruiken ChatGPT, Copilot en andere AI-tools zonder beleid — en plakken gevoelige bedrijfsgegevens in externe systemen. Dit zijn gegevens die u niet meer kunt terugkrijgen.
Aanvallers gebruiken AI voor hyper-gepersonaliseerde phishing, geautomatiseerde kwetsbaarheidsdetectie, deepfakes en het omzeilen van traditionele beveiligingssystemen.
De EU AI Act categoriseert AI-systemen op risiconiveau en stelt eisen aan transparantie, documentatie en menselijk toezicht. Niet-naleving kan leiden tot forse boetes.
Onze Aanpak
Ons AI Security Assessment volgt een gestructureerde aanpak die zowel technische risico's als compliance-verplichtingen in kaart brengt.
Overzicht van alle AI-tools en -systemen die worden gebruikt in uw organisatie — inclusief shadow AI die buiten de IT-afdeling gebruikt wordt.
Beoordeling van welke gegevens blootgesteld worden via AI-tools en wat de risico's zijn van manipulatie, datalekken of verkeerde beslissingen door AI.
Classificatie van uw AI-systemen op risiconiveau en toetsing aan de vereisten van de EU AI Act — welke verplichtingen gelden er voor uw organisatie?
Concreet rapport met bevindingen, risiconiveaus en geprioriteerde aanbevelingen voor beleid, technische maatregelen en compliance-acties.
EU AI Act
De EU AI Act (Verordening (EU) 2024/1689) categoriseert AI-systemen op basis van het risico dat zij opleveren. De eisen per categorie lopen sterk uiteen.
Biometrische massasurveillance, sociale scoring door overheden, manipulatieve systemen. Verboden zonder uitzondering.
AI in kritieke infrastructuur, HR-beslissingen, kredietverlening, medische hulpmiddelen. Verplichte documentatie, logging en menselijk toezicht.
Chatbots, deepfakes, emotieherkenning. Verplicht transparant zijn dat gebruikers met AI interacteren.
Spamfilters, AI in videogames, aanbevelingssystemen zonder kritieke impact. Geen wettelijke eisen, best practices aangeraden.
Net als onder NIS2 kunnen bestuurders persoonlijk aansprakelijk gesteld worden bij schending van de EU AI Act. Boetes lopen op tot €35 miljoen of 7% van de mondiale jaaromzet voor de zwaarste overtredingen. Weet u welke AI-systemen in uw organisatie als hoog-risico worden geclassificeerd?
Tarief
AI Security
Eenmalig / excl. BTW
Ons onderscheid
Weinig adviseurs combineren een achtergrond als gecertificeerd ethisch hacker met diepgaande kennis van AI governance en de EU AI Act. Threatley doet dat — volledig onafhankelijk van vendors en tooling.
Wij beoordelen uw AI-risico's als een aanvaller én als compliance-adviseur tegelijk. Geen theoretische checklists, maar praktisch inzicht in hoe aanvallers AI misbruiken — en hoe uw eigen AI-gebruik risico's introduceert die u misschien nog niet ziet.
Klaar voor inzicht?
Neem contact op voor een vrijblijvend gesprek over uw AI-gebruik en de risico's die daarmee samenhangen.