Artificial Intelligence Act gestemd in Europees Parlement: van wereldwijde primeur naar strafrechtelijke implicaties cover

16 jun 2023 | Criminal Law

Artificial Intelligence Act gestemd in Europees Parlement: van wereldwijde primeur naar strafrechtelijke implicaties

Recente vacatures

Advocaat
Burgerlijk recht
3 - 7 jaar
Antwerpen Oost-Vlaanderen Vlaams-Brabant
Advocaat
Fiscaal recht
5 - 10 jaar
Brussel Vlaams-Brabant
Uitgever
3 - 7 jaar
Antwerpen
Jurist
bestuursrecht internationaal recht Omgevingsrecht Publiek recht sociaal recht
Brussel

Aankomende events

Van het creëren van teksten via ChatGPT tijdens het werk, naar algoritmes die bepalen welke online content iemand al dan niet te zien krijgt tijdens zijn pauze. De toepassingsmogelijkheden van artificiële intelligentie lijken ondertussen eindeloos en blijven exponentieel uitbreiden. Eenzelfde sneltempo was het aan beleidsmakers evenwel niet gegeven, nu de innovatieve IT-sector moeilijk te volgen bleek wanneer het op enige regelgeving rond AI aankwam. Met de goedkeuring van de zogenaamde Artificial Intelligence Act (verder: ‘AI Act’) op 14 juni 2023 brengt het Europees Parlement hier eindelijk verandering in.

Hoewel het EU-wetgevingsproces hiermee nog niet ten einde is, houdt de goedkeuring wel de start in van de laatste onderhandelingsfase richting een definitieve tekst. Deze definitieve tekst – die wordt verwacht ergens in het najaar – zou een wereldwijde primeur betekenen, met als voornaamste doel een uniform juridisch kader te creëren voor het gebruik van artificiële intelligentie binnen de EU – rekening houdend met de risico’s die met dat gebruik gepaard (kunnen) gaan.

Meer risico = meer transparantie = meer (straf)rechtszekerheid

Dat deze risico’s groot zijn, is al mogen blijken uit verschillende incidenten met AI-systemen – gaande van ongevallen met (gedeeltelijk) autonome voertuigen naar chatbots die onaanvaardbaar taalgebruik produceren en daarmee desastreuze gevolgen in de hand werken. Een van de vragen die in deze gevallen rees, is uiteraard die naar de strafrechtelijk ‘verantwoordelijke’ voor ongewenst AI-gedrag.

Ofschoon de Artificial Intelligence Act hierop geen onmiddellijk antwoord geeft (noch tracht te geven), heeft ze wel degelijk ook vanuit strafrechtelijk oogpunt relevantie. Zo valt een groot deel van de problematieken met betrekking tot het vaststellen van enige strafrechtelijke verantwoordelijkheid voor gedragingen van AI-systemen, te herleiden tot het gebrek aan transparantie in de besluitvormingsprocessen van (vele van) deze systemen. Nu de AI Act dit gebrek probeert te verhelpen via diverse specifieke transparantieverplichtingen, valt te verwachten dat minstens enkele problemen (gedeeltelijk) worden verholpen – en dit zowel op preventief als repressief niveau (het opsporen van fouten in AI-systemen om ze ofwel tijdig te kunnen oplossen, dan wel om ze adequaat (strafrechtelijk) te kunnen situeren).

Vier categorieën, vele verplichtingen

De bijzondere verplichtingen tot meer transparantie (zoals bijvoorbeeld het verplicht inbouwen van automatische registratiecapaciteiten (‘logs’) in AI, of het verplicht bijhouden van technische documentatie van AI) gelden met name voor de AI-systemen die de Europese wetgever bestempelt als zijnde van ‘hoog risico’. In eerste instantie (voorstel Commissie, artikel 6) gebeurde deze categorisering op basis van het beoogde doel van het AI-systeem. Het Europees Parlement verhoogde de drempel echter, en breidde de definitie van ‘hoog-risico-systemen’ uit met de vereiste dat het systeem daarnaast ook een aanzienlijk risico op de gezondheid, de veiligheid of de fundamentele rechten moet vormen.

Ook aan de andere categorieën van veiligheidsrisico’s (de Artificial Intelligence Act identificeert er vier, gaande van ‘onaanvaardbaar hoog’ tot ‘minimaal’) werd door het Parlement hier en daar gesleuteld. Zo werd voornamelijk de lijst van verboden AI-systemen vanwege een zogenaamd onaanvaardbaar risico aanzienlijk uitgebreid, o.a. met toepassingen van realtime gezichtsherkenning.

Over dat laatste lijkt alleszins nog geen volledige eensgezindheid bereikt, nu er inderdaad vanuit formeel strafrechtelijk perspectief wat voor te zeggen valt om uitzonderingen op het verbod te voorzien in het geval van bijvoorbeeld terreurdreiging of kinderontvoering.

Streng maar rechtvaardig?

Valt men echter niet onder een van de (toekomstige) uitzonderingen en ontwikkelt of gebruikt men desondanks een ‘onaanvaardbaar’ AI-systeem, dan is het Europees Parlement niet mild. Het verhoogt immers de (administratieve) geldboeten die op zulke inbreuken op de AI Act worden voorzien, van 30.000 naar 40.000 euro en – voor ondernemingen – van 6% van hun totale jaarlijkse omzet naar 7%. Gelijkaardige sancties gelden overigens voor zij die de voorschriften of verplichtingen (die gelden al naargelang het soort AI-systeem (risico) – cf. supra) van de AI Act niet nakomen.

Wat daarmee op tafel ligt, is een behoorlijk strenge regulering van AI-toepassingen. Teneinde evenwel tot een succesvolle integratie van artificiële intelligentie in onze samenleving te komen, is dat ook nodig. Enkel ingevolge de nodige transversale wetgevende herdenkingen zoals de AI Act zal immers een uiteindelijke evolutie mogelijk zijn naar een hedendaags (straf-)rechtssysteem, waarin een evenwicht bestaat tussen het juridisch reeds bekende enerzijds en het technologisch soms nog onbekende anderzijds

Julie Petersen, Waeterinckx Advocaten

Recente vacatures

Advocaat
Burgerlijk recht
3 - 7 jaar
Antwerpen Oost-Vlaanderen Vlaams-Brabant
Advocaat
Fiscaal recht
5 - 10 jaar
Brussel Vlaams-Brabant
Uitgever
3 - 7 jaar
Antwerpen
Jurist
bestuursrecht internationaal recht Omgevingsrecht Publiek recht sociaal recht
Brussel

Aankomende events

Blijf op de hoogte

Schrijf je in voor de nieuwsbrief

0 Reacties

0 reacties

Een reactie versturen

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.