Verordening kunstmatige intelligentie (AI Act)

01 augustus 2024 - door Kristof Vlaeminck

(Dit is een update van een artikel van 15 februari 2024. Deze update is gebeurd op basis van de publicatie van de verordening in het Publicatieblad van de EU)

Welke impact kunstmatige intelligentie precies op jouw leven zal hebben, kan alleen de toekomst uitwijzen. Maar ben je alvast benieuwd hoe de eerste regelgeving wereldwijd voor kunstmatige intelligentie eruit zal zien ? Dat kan je in dit artikel lezen.

  • De verordening kunstmatige intelligentie (AI Act) is op 1 augustus 2024 in werking getreden.

  • De verordening heeft als doel de grondrechten, de democratie, de rechtsstaat en de duurzaamheid van het milieu te beschermen tegen kunstmatige intelligentie met een hoog risico.

  • Het is echter ook de bedoeling om innovatie te stimuleren en van Europa een koploper op het gebied van kunstmatige intelligentie te maken.

In december kon je lezen hoe de Raad en het Parlement een voorlopig akkoord bereikten over de allereerste regels voor kunstmatige intelligentie. Ondertussen heeft het proces om tot de verordening kunstmatige intelligentie te komen niet stilgestaan. Zowel de Raad als het Europees Parlement zijn tot een definitief akkoord gekomen en de AI Act is in het Publicatieblad van de EU verschenen. Vandaag treedt de AI-wet in werking en binnen twee jaar zal de verordening automatisch in de gehele EU van toepassing zijn.

Aanpak verordening gebaseerde op risico

Het regelgevingskader definieert vier risiconiveaus voor kunstmatige intelligentiesystemen: onaanvaardbaar risico, hoog risico, beperkt risico en minimaal risico.

Alle systemen die een duidelijke bedreiging vormen voor de veiligheid, het levensbestaan en de rechten van de mens zullen worden verboden. Dit gaat van het geven van sociale scoresysteem door overheden tot speelgoed dat spraaktechnologie gebruikt en gevaarlijk gedrag aanmoedigt.

Voor systemen die als hoog risicovol zijn geclassificeerd vanwege hun significante potentiële schade aan gezondheid, veiligheid, grondrechten, milieu, democratie en de rechtsstaat, zijn duidelijke verplichtingen overeengekomen. Zo wordt er een verplichte beoordeling van de gevolgen voor de grondrechten vereist. Kunstmatige intelligentiesystemen die worden gebruikt om de uitkomst van verkiezingen en het gedrag van kiezers te beïnvloeden, worden bijvoorbeeld geclassificeerd als zeer riskant. Burgers krijgen het recht om klachten in te dienen over systemen en transparantie te eisen over beslissingen over systemen met hoog risico die een impact hebben op hun rechten.

Verboden toepassingen die een bedreiging kunnen vormen voor de burgerrechten en de democratie

  • Systemen die menselijk gedrag manipuleren om hun vrije wil te omzeilen;

  • Kunstmatige intelligentie die wordt misbruikt om de kwetsbaarheid van mensen uit te buiten (vanwege hun leeftijd, handicap, sociale of economische situatie).

  • Sociaal scoresysteem op basis van sociaal gedrag of persoonlijke kenmerken;

  • Biometrische systemen voor de identificatie op afstand in openbare ruimten met het oog op de rechtshandhaving, tenzij in een beperkt aantal uitzonderlijke gevallen.;

Overeenstemming over waarborgen en uitzonderlijke uitzonderingen voor biometrische identificatiesystemen

Biometrische identificatiesystemen (Remote Biometric Identification - RBI) in openbaar toegankelijke ruimten is enkel toegestaan voor rechtshandhavingsdoeleinden, op voorwaarde dat een rechter voorafgaande toestemming geeft en voor strikt gedefinieerde lijst van misdrijven.

RBI moet voldoen aan strikte voorwaarden en het gebruik ervan zou beperkt zijn in tijd en plaats, ten behoeve van:

  • Gerichte opsporing van potentiële slachtoffers van misdaad (bijvoorbeeld vermiste kinderen);

  • Preventie van een specifieke en acute terroristische dreiging;

  • Detectie, opsporing, identificatie of vervolging van een persoon die verdacht wordt van het plegen van een van de specifieke misdrijven (bijv. terrorisme, mensenhandel, seksuele uitbuiting, moord, ontvoering, verkrachting, gewapende overval, deelname aan een criminele organisatie, milieucriminaliteit).

Transparantie voor algemene kunstmatige intelligentiesystemen

De verordening houdt reeds rekening met het brede scala aan taken dat kunstmatige intelligentiesystemen kunnen uitvoeren en de snelle uitbreiding van de mogelijkheden. De systemen voor algemene kunstmatige intelligentie (general-purpose AI - GPAI) en de GPAI-modellen waarop ze zijn gebaseerd, moeten voldoen aan specifieke transparantievereisten. Dit houdt onder meer in dat een technische documentatie beschikbaar is, dat de EU-wetgeving inzake auteursrecht moet worden nageleefd en dat duidelijk is welke inhoud wordt gebruikt voor de training van het systeem.

Voor GPAI-modellen met grote impact en systeemrisico's zijn onderhevig aan strengere verplichtingen. Deze modellen moeten modelevaluaties en contradictoire tests uitvoeren, systeemrisico’s beoordelen en beperken, ernstige incidenten aan de bevoegde autoriteiten van de lidstaten waarin zij het AI-systeem beschikbaar hebben gemaakt of in gebruik hebben gesteld.

Innovatie en KMO’s worden ondersteund

Bedrijven, en KMO’s in het bijzonder, krijgen de mogelijkheid om kunstmatige intelligentiesystemen te verbeteren met behulp van regulatory sandboxes en real-world-testing. Doel is om innovatieve systemen te ontwikkelen en trainen voordat het op de markt komt, zonder druk van industriële reuzen die de waardeketen beheersen.

Indien je meer wil weten over die regulatory sandboxes, raadpleeg dan zeker de Reflectiepaper 'AI Regulatory Sandbox in Vlaanderen' van het Departement Wetenschap, Economie en Innovatie. Hierin kom je meer te weten over wat een regulatory sandbox precies is, wat de voordelen zijn en hoe die er precies uit gaan zien.

Sancties en inwerkingtreding

Niet-naleving van de regels kan leiden tot boetes variërend van 30 miljoen euro of 6% van de wereldwijde omzet, afhankelijk van de overtreding en de grootte van het bedrijf.

Uitvoering en toezicht

Op het niveau van de Unie zal een Europees Comité voor artificiële intelligentie opgericht worden. Deze is samengesteld uit vertegenwoordigers van de lidstaten en de Commissie. Het comité zal de uitvoering van de verordening vergemakkelijken door bij te dragen aan de vlotte samenwerking tussen de nationale toezichthoudende autoriteiten en de Commissie, en advies en expertise ter beschikking stellen aan de Commissie.

Op nationaal niveau zullen de lidstaten een of meer nationale bevoegde autoriteiten moeten aanwijzen, waaronder de nationale toezichthoudende autoriteit. Deze zal belast worden met het toezicht op de toepassing en uitvoering van de verordening. De Europese Toezichthouder voor gegevensbescherming treedt op als de bevoegde autoriteit voor het toezicht op de instellingen, agentschappen en organen.

Burgerpanel beEU discussieert over kunstmatige intelligentie

Het Belgische voorzitterschap selecteerde een burgerpanel. 60 burgers werden geselecteerd om deel te nemen, rekening houdend met geografische en taalkundige spreiding, alsook met een maximale representativiteit voor de Belgische bevolking op het vlak van gender, leeftijd, beroep, opleidingsniveau en een duidelijke inclusie van jongeren die in 2024 voor het eerst zullen stemmen voor de Europese verkiezingen. 

Deze burgers komen gedurende drie weekends samen in Brussel om te discussiëren over kunstmatige intelligentie in de context van het EU-beleid en om hun visie op de toekomst te delen.  Het panel zal dit onderwerp vanuit verschillende invalshoeken benaderen, waaronder veiligheid, ethiek, werkgelegenheid, sociale zaken, technologische soevereiniteit, economisch concurrentievermogen, democratie en politiek.

De panels volgen een methodologie die begint met een inleiding op het thema en een verkenning van de praktische toepassingen van kunstmatige intelligentie. De deelnemers zullen discussiëren met deskundigen op dit gebied en met beleidsmakers. Na drie weekends beraadslaging zullen de conclusies van het panel dienen als inspiratiebron voor de Europese strategische agenda 2024-2029.

Meer informatie