In eerdere artikelen bespraken we de gevaren van AI en de noodzaak van AI-regelgeving. Op 13 maart 2024 keurde het Europees Parlement het "Voorstel voor een Verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (wet op de artificiële intelligentie) en tot wijziging van bepaalde wetgevingshandelingen van de unie" goed. De wet was een voorstel van de Europese Commissie van 21 april 2021. De wet wordt meestal aangeduid met de korte naam "wet op de artificiële intelligentie ", of de EU AI-Wet (*). In dit artikel behandelen we de volgende vragen: Wat is de EU wet op de artificiële intelligentie? Wat is de filosofie van de EU wet op de artificiële intelligentie? We bespreken de toepassingen met een beperkt risico en de toepassingen met een hoog risico. Tot slot kijken we ook naar de inwerkingtreding van de EU wet op de artificiële intelligentie en de sancties.
Wat is de EU wet op de artificiële intelligentie?
Zoals de volledige titel al suggereert, is het een verordening die geharmoniseerde regels vastlegt voor kunstmatige intelligentie in de hele EU. Het richt zich niet op specifieke toepassingen, maar op de risico's die toepassingen met zich meebrengen en deelt ze dienovereenkomstig in categorieën in. De wet stelt strenge eisen aan categorieën met een hoog risico om de veiligheid en fundamentele rechten te waarborgen. De recente goedkeuring van de wet volgt op een politiek akkoord dat in december 2023 werd bereikt. De wet weerspiegelt de inzet van de EU voor een evenwichtige aanpak die innovatie bevordert en tegelijkertijd rekening houdt met ethische bezwaren.
Filosofie van de EU wet op de artificiële intelligentie (AI-wet)
De AI-wet wil AI-ontwikkelaars en dienstaanbieders duidelijke eisen en verplichtingen geven met betrekking tot specifieke toepassingen van AI. Tegelijkertijd beoogt de verordening de administratieve en financiële lasten voor het bedrijfsleven te verminderen, met name voor kleine en middelgrote ondernemingen (kmo’s). Het doel van de nieuwe regels is het bevorderen van betrouwbare AI in Europa en daarbuiten. Dit moet gerealiseerd worden door ervoor te zorgen a) dat AI-systemen fundamentele rechten, veiligheid en ethische principes respecteren en b) door de risico's van zeer krachtige en impactvolle AI-modellen aan te pakken.
De AI -wet zorgt ervoor dat Europeanen kunnen vertrouwen op wat AI te bieden heeft. Omdat AI-toepassingen en kaders snel kunnen veranderen, heeft de EU ervoor gekozen om de risico's die toepassingen met zich meebrengen aan te pakken. Hoewel de meeste AI-systemen weinig tot geen risico's opleveren en kunnen bijdragen aan het oplossen van veel maatschappelijke uitdagingen, brengen bepaalde AI-systemen risico's met zich mee die moeten worden aangepakt om ongewenste uitkomsten te voorkomen. De wet onderscheidt vier risiconiveaus:
- Verboden praktijken: toepassingen met onaanvaardbare risico's worden nooit toegestaan. Alle AI-systemen die worden beschouwd als een duidelijke bedreiging voor de veiligheid, het levensonderhoud en de rechten van mensen worden verboden. Denk bv. aan sociale scoring door overheden tot speelgoed dat stemassistentie gebruikt die gevaarlijk gedrag aanmoedigt.
- Systemen met een hoog risico: om te worden toegelaten moeten toepassingen met een hoog risico voldoen aan strenge eisen om de veiligheid en fundamentele rechten te waarborgen. Die bekijken we hieronder.
- Systemen met een beperkt risico: toepassingen worden beschouwd als toepassingen met een beperkt risico wanneer ze onvoldoende transparant zijn en de gebruikers van de toepassing mogelijk niet weten waarvoor hun gegevens worden gebruikt of wat dat gebruik inhoudt. Toepassingen met een beperkt risico kunnen worden toegestaan als ze voldoen aan specifieke transparantieverplichtingen.
- Systemen zonder of met minimaal risico: de AI-wet staat het vrije gebruik van AI met een minimaal of geen risico toe. Dit omvat toepassingen zoals videogames met AI of spamfilters. De overgrote meerderheid van AI-systemen die momenteel in de EU worden gebruikt, vallen in deze categorie.
Laten we de toepassingen met hoog en beperkt risico onder de loep nemen.
Toepassingen met beperkt risico
Zoals gezegd, verwijst beperkt risico naar de risico's die gepaard gaan met een gebrek aan transparantie. De AI-wet voert specifieke verplichtingen in om ervoor te zorgen dat mensen voldoende worden geïnformeerd. Bijvoorbeeld, bij het gebruik van AI-systemen zoals chatbots, moeten mensen bewust worden gemaakt van het feit dat ze interactie hebben met een machine, zodat ze een weloverwogen beslissing kunnen nemen om door te gaan of een stap terug te doen. Aanbieders moeten er ook voor zorgen dat AI-gegenereerde inhoud identificeerbaar is. Daarnaast moet AI-gegenereerde tekst die gepubliceerd wordt met als doel het publiek te informeren over zaken van publiek belang, gemarkeerd worden als kunstmatig gegenereerd. Dit geldt ook voor audio- en video-inhoud die deepfakes zijn.
Toepassingen met hoog risico
Onder de AI-wet zijn AI-systemen met een hoog risico onderworpen aan strenge wettelijke verplichtingen vanwege hun mogelijke impact op de veiligheid en de grondrechten.
Wat zijn toepassingen met een hoog risico?
Zoals gezegd worden alle AI-systemen die als een duidelijke bedreiging voor de veiligheid, de bestaansmiddelen en de fundamentele rechten worden beschouwd, als "hoog risico” gecategoriseerd. Deze systemen worden ingedeeld in drie hoofdcategorieën: a) systemen die onder de harmonisatiewetgeving van de EU vallen, b) systemen die veiligheidscomponenten van bepaalde producten zijn en c) systemen die worden aangemerkt als toepassingen met een hoog risico. Specifiek omvat AI met een hoog risico toepassingen in kritieke infrastructuur, zoals verkeerscontrole en het beheer van nutsvoorzieningen, biometrische en emotieherkenningssystemen. Het geldt ook voor AI die in het onderwijs en op het werk wordt gebruikt voor besluitvormingsprocessen.
Wat zijn de vereisten voor toepassingen met een hoog risico?
AI-systemen met een hoog risico zijn onder de EU-AI Act onderworpen aan een uitgebreide reeks vereisten die de veiligheid, transparantie en naleving van EU-normen moeten waarborgen. Deze systemen moeten een risicobeheersysteem hebben om potentiële risico's gedurende de levenscyclus van het AI-systeem te beoordelen en te beperken. Praktijken voor gegevensbeheer en -governance zijn cruciaal om de kwaliteit en integriteit van de door de AI gebruikte gegevens te waarborgen. Dit omvat o.m. bepalingen voor gegevensbescherming en privacy. Aanbieders moeten ook gedetailleerde technische documentatie opstellen over alle aspecten van het AI-systeem, van het ontwerp tot de implementatie en het onderhoud.
Bovendien zijn voor AI-systemen met een hoog risico robuuste registratiemechanismen vereist om het besluitvormingsproces van de AI te traceren. Dit is essentieel voor de verantwoordingsplicht en voor controledoeleinden. Transparantie is een andere belangrijke vereiste: duidelijke en toegankelijke informatie moet aan de gebruikers worden verstrekt en er moet voor worden gezorgd dat zij de mogelijkheden en beperkingen van het AI-systeem begrijpen. Menselijk toezicht is vereist om ervoor te zorgen dat AI-systemen niet autonoom werken zonder menselijke tussenkomst, met name bij kritieke besluitvormingsprocessen. Tot slot moeten deze systemen een hoge mate van nauwkeurigheid, robuustheid en cyberbeveiliging bieden om fouten te voorkomen en bescherming te bieden tegen bedreigingen.
Inwerkingtreding van de AI-wet
De wet treedt twee jaar na goedkeuring in werking, i.e. op 13 maart 2026. Dit geeft de lidstaten de kans om wetgeving te implementeren die aan de eisen voldoet. Het geeft aanbieders ook twee jaar de tijd om zich aan te passen aan de verordening.
Het Europees AI-bureau, dat in februari 2024 binnen de Commissie werd opgericht, zal samen met de lidstaten toezien op de handhaving en uitvoering van de AI-wet.
Sancties
De EU AI -wet voorziet in een gedifferentieerd boetesysteem om naleving van de regelgeving te waarborgen. Voor de zwaarste overtredingen, waarbij verboden AI-systemen betrokken zijn, kunnen boetes oplopen tot 35 miljoen euro of 7% van de wereldwijde jaaromzet van het bedrijf, afhankelijk van welk bedrag hoger is. Minder ernstige overtredingen, zoals het verstrekken van onjuiste, onvolledige of misleidende informatie aan autoriteiten, kunnen leiden tot boetes tot 7,5 miljoen euro of 1% van de totale wereldwijde jaaromzet. Deze boetes moeten in verhouding staan tot de aard van de overtreding en de grootte van de entiteit en weerspiegelen de ernst van de niet-naleving in de AI-sector.
Conclusie
De EU AI-wet is een belangrijke stap in de regulering van kunstmatige intelligentie binnen de EU. Het schept een precedent als het eerste alomvattende wettelijke kader voor AI wereldwijd. De wet schrijft een hoge mate van zorgvuldigheid voor, waaronder risicobeoordeling, gegevenskwaliteit, transparantie, menselijk toezicht en nauwkeurigheid voor systemen met een hoog risico. Aanbieders moeten ook voldoen aan strenge eisen op het gebied van registratie, kwaliteitsbeheer, monitoring, het bijhouden van gegevens en het melden van incidenten. Dit kader moet ervoor zorgen dat AI-systemen veilig, ethisch en transparant werken binnen de EU. Door middel van deze inspanningen streeft het Europese AI Bureau ernaar om Europa te positioneren als leider in de ethische en duurzame ontwikkeling van AI-technologieën.
(*) Noot: er blijkt wat spraakverwarring te bestaan m.b.t. de Nederlandstalige terminologie. Terwijl de officiële documenten van de EU spreken over de wet artificiële intelligentie, heeft Wikipedia het bijv. over de verordening kustmatige intelligentie.
0 reacties