AI Act-risicocategorieën blijven onderbelicht, terwijl de verplichtingen al gelden
In dit artikel:
De EU AI Act verdeelt AI-toepassingen in vier risicocategorieën, van minimaal tot onaanvaardbaar risico, op basis van toepassingsdomein en het beoogde effect op veiligheid en grondrechten. Voor systemen met een hoog risico gelden al concrete eisen zoals transparantie, uitgebreide documentatie en waarborgen voor menselijke controle. Artikel 4 van de verordening — breed opgevat als een verplichting tot AI-geletterdheid — trok veel aandacht, maar de andere verplichtingen en de daarmee samenhangende sancties blijven onderbelicht, terwijl ze al van kracht zijn.
De verordening geldt sinds 2 februari 2025 in de EU; overtredingen van de regels kunnen vanaf 2 augustus 2025 beboet worden. Tegelijk werkt de EU aan verfijningen via de Digital Omnibus on AI, maar de vier risicocategorieën blijven onveranderd. In de praktijk onderschatten veel advocatenkantoren het risico door AI vooral te zien als hulpmiddel voor onderzoek, samenvatten of tekstvoorstellen. Zodra AI-outputs structureel in juridisch advies of besluitvorming worden gebruikt, kan het risicoprofiel snel stijgen — en toezichthouders nemen dat serieus: onlangs kreeg een drietal advocaten een waarschuwing wegens onjuist AI-gebruik in processtukken.
Praktisch advies: inventariseer en classificeer het AI-gebruik binnen je kantoor aan de hand van de verordening. Lefebvre Sdu biedt een gratis whitepaper met een beslisboom om de juiste risicoklasse vast te stellen.