EU AI Act
Implementatiegids 2025

Complete compliance roadmap voor Nederlandse organisaties

Van risk assessment tot praktische implementatie

NeuroCluster B.V.

Europa's AI Infrastructure & Automation Company

Versie 1.0 • Oktober 2025

Inhoudsopgave

1. Executive Summary

De Europese AI Verordening (EU AI Act) is op 1 augustus 2024 in werking getreden en stelt verplichte eisen aan het ontwikkelen en inzetten van AI-systemen binnen de EU. Nederlandse organisaties hebben tot februari 2026 om volledig compliant te zijn met alle verplichtingen.

Kernpunten

Voor wie is deze gids?

Deze implementatiegids is geschreven voor:

Wat kunt u verwachten?

In deze whitepaper vindt u:

2. De EU AI Act Uitgelegd

Achtergrond en doelstellingen

De EU AI Act is 's werelds eerste comprehensieve wetgeving voor kunstmatige intelligentie. Het doel is het creëren van een veilig, transparant en betrouwbaar AI-ecosysteem dat grondrechten beschermt en innovatie stimuleert.

Scope: Wat valt onder de AI Act?

De AI Act is van toepassing op:

Definitie AI-systeem

Volgens de AI Act is een AI-systeem:

"Een op machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat voor expliciete of impliciete doelstellingen kan afleiden hoe het outputs zoals voorspellingen, aanbevelingen of beslissingen genereert die invloed hebben op fysieke of virtuele omgevingen."

Praktische voorbeelden:

3. Risicocategorieën en Classificatie

De AI Act hanteert een risicogebaseerde aanpak met vier categorieën. De verplichtingen nemen toe naarmate het risico hoger is.

Categorie 1: Unacceptable Risk (Verboden)

Status: Verboden per 2 februari 2025

AI-systemen die een duidelijke bedreiging vormen voor veiligheid en grondrechten:

Categorie 2: High Risk

AI-systemen die significante impact hebben op veiligheid of grondrechten. Deze categorie heeft de strengste compliance eisen.

High-risk categorieën:

Categorie Voorbeelden
HR & Recruitment CV screening, sollicitatieanalyse, performance evaluatie, promotie beslissingen
Kredietverlening Credit scoring, loan approval, verzekeringspremies
Toegang tot diensten Welfare benefits, zorgtoewijzing, subsidies
Law enforcement Voorspellende politiewerk, risico-assessment criminelen
Migratie & asiel Visa beslissingen, authenticiteit documenten
Rechtspleging AI-assistentie bij rechtelijke beslissingen
Product veiligheid AI in medische apparaten, voertuigen, speelgoed
Onderwijs Toelatingsbeslissingen, exam grading, student monitoring

Categorie 3: Limited Risk (Transparantieverplichting)

AI-systemen met beperkt risico hebben voornamelijk transparantieverplichtingen:

Verplichting: Gebruikers moeten duidelijk geïnformeerd worden dat ze interactie hebben met een AI-systeem.

Categorie 4: Minimal Risk (Geen verplichtingen)

De meeste AI-toepassingen vallen in deze categorie:

4. Compliance Verplichtingen per Categorie

High-Risk AI Systemen: 10 Kernverplichtingen

1. Risk Management System

Implementeer een continu risk management proces gedurende de volledige levenscyclus van het AI-systeem.

2. Data Governance

Zorg voor hoogwaardige training-, validatie- en test-datasets.

3. Technische Documentatie

Maak en onderhoud uitgebreide technische documentatie die aantoont dat het systeem compliant is.

4. Logging & Record-keeping

Automatische logging van events gedurende de operational lifecycle.

5. Transparantie en Informatieverstrekking

Verstrek duidelijke informatie aan gebruikers over het systeem.

6. Human Oversight

Zorg dat het systeem onder toezicht van bevoegde personen kan worden gebruikt.

7. Accuracy, Robustness & Cybersecurity

Systeem moet accuraat, robuust en cyber-resilient zijn.

8. Quality Management System

Implementeer een Quality Management System (QMS) conform ISO-standaarden.

9. Conformity Assessment

Voer een conformiteitsbeoordeling uit voordat het systeem op de markt komt.

10. Post-Market Monitoring

Monitor het systeem continu na deployment.

Limited Risk Systemen: Transparantie Verplichtingen

5. Risk Assessment Framework

Stappenplan: Is mijn AI-systeem high-risk?

Stap 1: Identificeer alle AI-systemen

Maak een inventory van alle AI-systemen die uw organisatie:

Template: AI Systeem Inventory

Voor elk systeem documenteer:

Stap 2: Classificeer per systeem

Gebruik deze decision tree:

Decision Tree

  1. Is het een verboden toepassing?
    • Social scoring, manipulatie, exploitatie? → STOP: Verboden
  2. Valt het onder high-risk categorieën?
    • HR/recruitment beslissingen?
    • Kredietverlening of verzekeringen?
    • Toegang tot diensten (onderwijs, overheid)?
    • Law enforcement of rechtspraak?
    • Safety component in gereguleerde producten?

    Ja → HIGH-RISK (volledige compliance)

  3. Is er interactie met natuurlijke personen?
    • Chatbot, deepfake, emotion recognition? → LIMITED RISK (transparantie)
  4. Anders: MINIMAL RISK (geen verplichtingen, maar best practices aanbevolen)

Stap 3: Impact Assessment (voor high-risk systemen)

Voor elk high-risk systeem, beoordeel:

Assessment Criterium Vragen
Impact op individuals • Hoeveel mensen worden beïnvloed?
• Wat is de impact op hun leven (groot/klein)?
• Zijn kwetsbare groepen betrokken?
Autonomie van beslissingen • Neemt AI autonome beslissingen?
• Is er meaningful human oversight?
• Kunnen mensen beslissingen contesteren?
Data sensitivity • Welke data wordt verwerkt?
• Bevat het special category data (GDPR)?
• Zijn er bias-risico's in de data?
Transparency • Is de werking van het systeem uitlegbaar?
• Kunnen outputs worden gerechtvaardigd?
• Is het een black box model?
Reversibility • Kunnen beslissingen worden teruggedraaid?
• Is er een appeal proces?
• Wat zijn de consequenties van fouten?

Stap 4: Gap Analysis

Voor high-risk systemen, beoordeel huidige status vs. vereisten:

Verplichting Status Gap Effort Prioriteit
Risk Management System ⚪ Niet aanwezig
🟡 Gedeeltelijk
🟢 Compliant
Beschrijving H/M/L 1-5
Herhaal voor alle 10 verplichtingen...

6. Implementatie Roadmap (30-60-90 Dagen)

Fase 1: Foundation (Dag 1-30)

Week 1-2: Assessment & Planning

☐ Stel een AI Act taskforce samen
☐ Inventariseer alle AI-systemen
☐ Classificeer elk systeem (risk category)
☐ Executive stakeholder alignment

Week 3-4: Quick Wins & High Priority Actions

☐ Implementeer transparantie verplichtingen (limited risk)
☐ Stop verboden AI toepassingen
☐ Start gap analysis voor high-risk systemen
☐ Review vendor contracts

Fase 2: Implementation (Dag 31-60)

Week 5-6: Governance & Documentation

☐ Establish AI Governance Framework
☐ Setup documentation repository
☐ Implement risk management process

Week 7-8: Technical Implementation

☐ Implement logging en monitoring
☐ Data governance improvements
☐ Human oversight mechanisms

Fase 3: Optimization & Compliance (Dag 61-90)

Week 9-10: Testing & Validation

☐ Conformity assessment preparation
☐ Testing en validation
☐ Post-market monitoring setup

Week 11-12: Training & Rollout

☐ Training programma
☐ Communication rollout
☐ Continuous compliance planning

7. Governance & Organisatie

AI Governance Structuur

Rollen en Verantwoordelijkheden

Rol Verantwoordelijkheden Rapporteert aan
AI Compliance Officer • Overall ownership AI Act compliance
• Coordinate implementatie roadmap
• Interface met toezichthouders
• Rapportage aan board
Chief Compliance Officer / CEO
AI Governance Committee • Approve nieuwe AI systemen
• Review high-risk assessments
• Policy beslissingen
• Budget allocatie
Executive team
AI Risk Manager • Manage AI risk register
• Conduct risk assessments
• Monitor mitigations
• Incident management
AI Compliance Officer
AI Technical Lead • Technical implementation
• System documentation
• Testing en validation
• Technical controls
CTO / Chief AI Officer
Data Governance Lead • Data quality frameworks
• Bias detection
• Data lineage
• Privacy compliance
CDO / DPO
Legal Counsel • Contract reviews
• Liability assessment
• Regulatory interpretation
• Litigation support
General Counsel

AI Governance Proces

1. Pre-Development: AI System Approval

Trigger: Voorstel voor nieuw AI-systeem of significante wijziging bestaand systeem

Process:

  1. Submit AI System Proposal (template) inclusief business case
  2. Initial risk classification door AI Risk Manager
  3. If high-risk: Detailed impact assessment vereist
  4. Review door AI Governance Committee
  5. Approve / Reject / Conditional approval met mitigaties
  6. Document decision en communiceer met stakeholders

2. Development: Compliance Check-ins

3. Deployment: Go-Live Approval

4. Operations: Ongoing Monitoring

5. Change Management

8. Technische Implementatie

Logging & Monitoring Infrastructure

Wat moet er gelogd worden?

Retention & Access

Documentation Requirements

Technical Documentation Checklist

☐ System Description
☐ Development Process
☐ Data Documentation
☐ Model Documentation
☐ Performance Metrics
☐ Risk Assessment
☐ Human Oversight
☐ Instructions for Use

Testing & Validation

Pre-Deployment Testing

Test Type Purpose Methods
Accuracy Testing Verify model performance • Held-out test set evaluation
• Cross-validation
• Benchmark against baselines
Bias Testing Detect unfair treatment • Demographic parity analysis
• Equal opportunity metrics
• Calibration across groups
Robustness Testing Stress testing edge cases • Out-of-distribution samples
• Adversarial examples
• Data quality degradation
Security Testing Cyber resilience • Adversarial attacks (FGSM, PGD)
• Model extraction attempts
• Input poisoning
Explainability Testing Transparency verification • Feature importance analysis
• SHAP/LIME explanations
• Counterfactual examples

Post-Market Monitoring

Monitoring Metrics

Incident Response

⚠️ Serious Incident Rapportage

Binnen 15 dagen melden bij nationale toezichthouder:

9. Sectorspecifieke Gidsen

Financiële Dienstverlening

High-Risk Use Cases

Sector-Specifieke Overwegingen

Best Practices

Gezondheidszorg

High-Risk Use Cases

Sector-Specifieke Overwegingen

Best Practices

HR & Recruitment

High-Risk Use Cases

Sector-Specifieke Overwegingen

Best Practices

E-commerce & Retail

Risk Classification

Compliance Focus

10. Juridische Aspecten

Aansprakelijkheid & Liability

Wie is aansprakelijk?

Rol Aansprakelijkheid
AI Provider • Niet-compliant systeem op markt brengen
• Inadequate instructions for use
• Failure to implement corrections
• Non-reporting van serious incidents
AI Deployer (User) • Use buiten intended purpose
• Inadequate human oversight
• Failure to monitor
• Data quality issues (input data)
Importeur • Non-compliant systemen importeren
• Inadequate due diligence op provider
Distributeur • Knowingly distribueren non-compliant systemen
• Failure to verify compliance

Sancties

Contractuele Aspecten

Provider-Deployer Contracts

Bij inkoop van AI-systemen, zorg voor duidelijke contractuele afspraken over:

Compliance Warranties
Documentation
Monitoring & Reporting
Liability Allocation
Data Rights
Audit Rights

Relatie met GDPR en NIS2

AI Act + GDPR Overlap

AI Act + NIS2 Overlap

Integrated Compliance Approach

Best practice: Manage AI Act, GDPR en NIS2 compliance in één geïntegreerd framework:

Internationale Handel & Export

Extra-territoriale werking

De AI Act is van toepassing op:

Voor internationale organisaties

11. Templates & Checklists

Template 1: AI System Inventory

Field Description
System NameUnique identifier
DescriptionWhat does it do?
Business OwnerWho owns the business use case?
Technical OwnerWho manages the system technically?
Vendor/ProviderInternal or external provider?
Intended PurposeOfficial documented purpose
Actual UseHow is it actually used?
UsersWho uses the system?
Affected PersonsWho is impacted by its outputs?
Decision TypeFully automated / Human-in-loop / Advisory
Data SourcesWhat data feeds into the system?
Risk CategoryUnacceptable / High / Limited / Minimal
Classification RationaleWhy this category?
Deployment StatusDevelopment / Testing / Production
Deployment DateWhen did it go live?
Users CountHow many people use it?
Decisions/MonthVolume of automated decisions

Template 2: High-Risk AI Compliance Checklist

☐ Risk Management System

☐ Data Governance

☐ Technical Documentation

☐ Logging & Traceability

☐ Transparency

☐ Human Oversight

☐ Accuracy, Robustness, Security

☐ Quality Management

☐ Conformity Assessment

☐ Post-Market Monitoring

Template 3: AI Impact Assessment

Voor elk high-risk AI systeem:

Section 1: System Information

Section 2: Risk Assessment

Risk Category Specific Risks Likelihood Impact Overall Risk
Fundamental Rights Discrimination, privacy, dignity H/M/L H/M/L H/M/L
Safety Physical harm, property damage H/M/L H/M/L H/M/L
Fairness Bias, unequal treatment H/M/L H/M/L H/M/L
Privacy Data breaches, profiling H/M/L H/M/L H/M/L
Accountability Lack of oversight, no recourse H/M/L H/M/L H/M/L

Section 3: Mitigation Measures

Voor elk identified risk:

Section 4: Conclusion

12. Resources & Next Steps

Regulatory Resources

Officiële Bronnen

Standaarden & Guidelines

Belangrijke Deadlines

Datum Milestone
1 Augustus 2024 AI Act in werking getreden
2 Februari 2025 Verboden AI-praktijken van toepassing
2 Augustus 2025 Codes of practice voor general-purpose AI
2 Augustus 2026 High-risk AI verplichtingen volledig van toepassing
2 Augustus 2027 AI Act volledig van toepassing op alle categorieën

⚠️ Let op

Hoewel volledige compliance pas in 2026-2027 vereist is, is het sterk aanbevolen om nu al te beginnen met implementatie. Toezichthouders zullen verwachten dat organisaties concrete stappen hebben ondernomen richting compliance.

Budget Planning

Indicatieve Kosten voor AI Act Compliance

Categorie Klein (1-3 AI systemen) Middelgroot (4-10 systemen) Groot (10+ systemen)
Initial Assessment €15k - €30k €30k - €75k €75k - €200k
Gap Remediation €50k - €150k €150k - €500k €500k - €2M
Technology & Tools €20k - €50k €50k - €150k €150k - €500k
Training & Change €10k - €25k €25k - €75k €75k - €200k
External Consulting €25k - €75k €75k - €250k €250k - €1M
Ongoing Compliance €30k - €75k/year €75k - €200k/year €200k - €750k/year

Deze cijfers zijn indicatief en afhankelijk van complexiteit, huidige maturity, en sector.

Next Steps: Actieplan

Deze Week

Deze Maand

Dit Kwartaal

Dit Jaar

Hulp Nodig?

NeuroCluster AI Act Compliance Services

NeuroCluster helpt Nederlandse organisaties met end-to-end AI Act compliance:

Boek een Discovery Call

Bespreek uw specifieke situatie met onze AI compliance experts:

Email: [email protected]

Website: www.neurocluster.nl/ai-act

Telefoon: +31 (0)20 123 4567

Conclusie

De EU AI Act is een comprehensieve wetgeving die significante impact heeft op organisaties die AI ontwikkelen of inzetten. Hoewel de verplichtingen aanzienlijk zijn, biedt de wet ook een kans om robuuste, betrouwbare en ethische AI-systemen te bouwen die vertrouwen creëren bij gebruikers en klanten.

De sleutel tot succesvolle compliance is vroeg beginnen, systematisch werken, en continue monitoring. Met deze whitepaper heeft u een praktische roadmap om binnen 90 dagen significante vooruitgang te boeken richting volledige compliance.

Succes met uw AI Act compliance journey!