AI Act definitief: dit staat er in

De tekst van de AI Act is aangenomen door het Europees Parlement. De wet introduceert vereisten voor exploitanten, ontwikkelaars, importeurs, gebruikers en distributeurs van AI-systemen (systemen die werken met of via kunstmatige intelligentie). De AI Act moet bijdragen aan betrouwbaar functioneren van AI, ter bescherming van de rechten en vrijheden van burgers.

Verbieden  

De wet maakt gebruik van een risico-gebaseerde benadering en verbiedt bepaalde vormen van AI die als onaanvaardbaar risico worden beschouwd. AI met een hoog-risico, zoals systemen die kredietwaardigheid van personen bepalen, moeten voldoen aan documentatievereisten, certificatie en testen. Daarnaast zijn er aparte vereisten voor bepaalde AI-systemen zoals chatbots, en AI-systemen met een ‘general purpose’. De vele verplichtingen die de AI Act meebrengt voor bedrijven kunnen leiden tot veel administratieve lasten. Toch wordt de AI Act over het algemeen gezien als een belangrijke stap voorwaarts in de regulering van AI in de EU.

Wat staat in de AI Act?

De AI Act streeft ernaar de ontwikkeling en het gebruik van kunstmatige intelligentie (AI) in de Europese Unie te reguleren en te controleren. De AI Act introduceert vereisten voor zowel exploitanten als ontwikkelaars van AI-systemen, om op deze manier bij te dragen aan betrouwbare AI ter bescherming van de rechten en vrijheden van burgers. Daarnaast gelden ook verplichtingen voor bijvoorbeeld gebruikers, importeurs en distributeurs. De definitieve tekst van de AI Act is op 13 maart 2024 aangenomen.

Onderverdeling van AI-systemen

Eén van de belangrijkste bepalingen van de AI Act is het verbod op bepaalde vormen van AI die als onaanvaardbaar risicovol worden beschouwd, zoals AI-systemen die niet-gericht het internet ‘scrapen’ voor gezichtsbeelden om databases op te bouwen. Het verbod geldt eveneens voor AI-systemen die worden gebruikt voor emotieherkenning op de werkplek en bij onderwijsinstellingen Daarnaast introduceert de AI Act regels voor AI die een hoog risico met zich meebrengen. Dit omvat onder meer AI-systemen die worden gebruikt voor recruitment, het bepalen van kredietwaardigheid (door bijvoorbeeld een verzekeraar) en AI die ingezet wordt voor het beïnvloeden van verkiezingen. Dergelijke systemen moeten voldoen aan strikte regels en worden onderworpen aan uitgebreide tests, certificering en (voor sommige hoog-risico AI) een Fundamental Rights Impact Assessment. 

AI met ‘general purpose’ heeft een aparte positie gekregen, met bijkomende documentatieverplichtingen. De AI Act voorziet eveneens in een groep van ‘bepaalde AI-systemen’, waar chatbots en AI voor deepfakes onder vallen. Deze groep moet voldoen aan transparantieverplichtingen.

Administratieve lasten 

Hoewel de AI Act in het algemeen positief wordt ontvangen, is er ook kritiek: de vele vereisten voor bedrijven die de AI Act met zich meebrengt kunnen leiden tot hoge kosten en veel administratieve lasten. Dit zou de ontwikkeling en innovatie van AI binnen de Europese Unie kunnen belemmeren. De AI Act zal de ontwikkeling van AI in de EU reguleren en er hopelijk voor zorgen dat deze op een ethische en verantwoorde manier wordt gebruikt. Het zal bedrijven verplichten om hun AI-systemen te certificeren, documenteren en te testen. Ondanks kritiek op bepaalde verplichtingen, wordt de AI Act over het algemeen gezien als een belangrijke stap voorwaarts in de regulering van AI in de EU.

Hoe kan BDO helpen?

Wij kunnen ons voorstellen dat u vragen heeft over zaken als de transparantieverplichtingen en de eisen die worden gesteld aan het opzetten van een risicobeheersysteem, het uitvoeren van een AI-risicobeoordeling of het opstellen van gebruiksinstructies. Wij helpen u daar graag mee. Bedenk echter dat stap één de beoordeling van het systeem moet zijn: een autonoom algoritmisch beslismodel is bijvoorbeeld niet “intelligent” genoeg om onder de definitie van ‘AI’ te vallen. Start dus aan de voorkant, met de beoordeling of het systeem voldoet aan de definitie van AI.