De digitalisering van onze samenleving gaat razendsnel. Van webformulieren voor vergunningen tot slimme AI-systemen: we worden steeds meer afhankelijk van technologie. Maar hoe zorgen we ervoor dat deze innovaties eerlijk, veilig en verantwoord blijven? Tijdens onze recente partnerbijeenkomst heeft Mark Zijlstra van ICTRecht uitgelegd hoe de AI Act en de bredere Digital Decade strategie van de EU deze uitdagingen aanpakken. Hieronder een korte samenvatting.
De Digital Decade is een ambitieus programma van de Europese Unie om iedereen mee te nemen in de digitale transformatie. Het doel is om onze maatschappij digitaal vaardiger en efficiënter te maken via vier pijlers:
Het motto? Wat offline geldt, moet ook online gelden. Maar de digitalisering roept nieuwe juridische vragen op. Bijvoorbeeld: wie is verantwoordelijk voor schade in augmented reality (zoals bij Pokémon GO), en hoe reguleren we bedrijven die 'te groot' lijken om regels op te leggen? De EU probeert grip te krijgen via verschillende wetgevingen. Denk aan de GDPR voor privacy en nu de AI Act, specifiek gericht op kunstmatige intelligentie.
De AI Act is de eerste Europese wetgeving die specifiek gericht is op kunstmatige intelligentie. Het doel is duidelijk: AI moet veilig, eerlijk en transparant zijn, en burgers moeten beschermd worden.
Hoe pakt de EU dit aan?
1. Risicogebaseerde aanpak
AI-toepassingen worden ingedeeld in risicocategorieën:
2. Zeven eisen voor betrouwbare AI
De AI Act stelt eisen aan alle AI-systemen:
3. Verantwoordelijkheid van ontwikkelaars en gebruikers
Als jouw organisatie AI implementeert, moet je nagaan of jouw toepassing onder de AI Act valt. Zelfs simpele toepassingen, zoals een chatbot, kunnen al regels triggeren.
Stel: jouw bedrijf ontwikkelt een AI-toepassing of importeert er één. Dan heb je verschillende verantwoordelijkheden afhankelijk van je rol.
Voor hoogrisico AI-systemen moet je voldoen aan specifieke eisen, zoals:
De AI Act wordt pas in augustus 2026 volledig van kracht, maar systemen die vóór die datum in gebruik zijn, vallen nog niet onder de verplichtingen. Dit geeft organisaties tijd om zich aan te passen.
AI wordt al meer gebruikt dan veel mensen denken. Het zit in chatbots, kredietbeoordelingen, gezondheidszorg en zelfs drones. Maar niet alle AI-systemen zijn veilig of ethisch verantwoord. De AI Act zorgt ervoor dat de rechten van burgers beschermd blijven.
Praktische tip: ga na of jouw AI-toepassing compliant is. Gebruik daarbij tools en adviezen, zoals de blogs van ICTRecht. Weet je niet zeker of jouw toepassing onder de AI Act valt? Begin dan met een bewustwordingssessie in jouw organisatie.
Mark benadrukt dat de scope van de AI Act niet zo breed is als de AVG, maar wel grote impact heeft. De AI Act heeft vooral impact op bedrijven met een hoog risico en daarmee is het voor minder bedrijven zorgwekkend. Vooral voor bedrijven die met hoogrisico AI werken, is het slim om nu al te starten met voorbereidingen. De kern van de AI Act draait om vertrouwen. Door compliance serieus te nemen, laat je zien dat jouw organisatie AI verantwoord gebruikt en dat je het belang van je klanten en gebruikers vooropstelt. Heb jij al nagedacht over wat de AI Act betekent voor jouw organisatie?
De AI Act reguleert het gebruik van algoritmes en Artificial Intelligence (AI) en eist dat risico’s voor mens en maatschappij worden geminimaliseerd. Wat is er nu afgesproken en hoe zorg je ervoor dat je aantoonbaar gaat voldoen aan die AI Act? De eerste vervolgstappen zijn al gezet om hier samen met ICTRecht wat duidelijkheid en houvast in te gaan aanbrengen. Tot die tijd kun je ook de speciale AI-Act webpagina van ICTRecht bezoeken en onder andere de gratis AI Act checklist doen.
Lees hier de verslagen van de andere sessies van de Partnerbijeenkomst van 26 november in Kasteel Woerden: