In het verleden hebben we het gehad over de behoefte aan regelgeving voor artificiële intelligentie. Het eerste belangrijke initiatief was de OESO die in 2019 een reeks niet-bindende richtlijnen opstelde. Een andere mijlpaal was de EU wet op de artificiële intelligentie (AI) van maart 2024. In 2024 werden er nog enkele andere belangrijke regelgevingskaders geïntroduceerd. In dit artikel bekijken we het Kaderverdrag inzake AI van de Raad van Europa, de AI-resolutie van de Verenigde Naties, en enkele andere initiatieven en regelgevingen op het gebied van artificiële intelligentie, waaronder de REAIM-top (Responsible AI in the Military Domain) in Seoul.
Kaderverdrag van de Raad van Europa inzake artificiële intelligentie
De volledige naam van het Kaderverdrag van de Raad van Europa inzake AI is het Kaderverdrag van de Raad van Europa inzake artificiële intelligentie en mensenrechten, democratie en de rechtsstaat. Het is het eerste juridisch bindende internationale verdrag dat zich specifiek richt op het reguleren van kunstmatige intelligentie in lijn met fundamentele rechten en waarden. De bedoeling is om ervoor te zorgen dat AI-systemen mensenrechten respecteren, democratische principes ondersteunen en zich houden aan de principes van de rechtsstaat.
De conventie is een initiatief van de Raad van Europa, een internationale organisatie die in 1949 werd opgericht. De doelen van de Raad zijn vergelijkbaar met de Verklaring van de Rechten van de Mens van de VN. De Raad van Europa heeft 46 lidstaten en richt zich op het bevorderen van mensenrechten, democratie en de rechtsstaat in Europa.
De geschiedenis van het kaderverdrag inzake AI begon in 2020 toen de Raad de noodzaak van een wettelijk kader voor AI erkende. In 2021 startten ze besprekingen tussen lidstaten en experts. Het doel was om een verdrag op te stellen dat fundamentele rechten zou waarborgen en tegelijkertijd innovatie zou stimuleren. In 2023 presenteerde de Raad een ontwerp van het verdrag. Het kader werd officieel aangenomen op 17 mei 2024 en staat sinds 5 september 2024 open voor ondertekening, voor landen binnen en buiten Europa, waardoor het een wereldwijd belangrijke overeenkomst is. Opmerkelijk is dat naast de 46 lidstaten van de Raad van Europa nog 11 andere landen, waaronder de VS, het verdrag hebben ondertekend. Mogelijk volgen er nog meer.
Net als de AI-wet van de EU introduceert het verdrag een risico-gebaseerde aanpak voor het ontwerp, de inzet en de ontmanteling van AI-systemen. De nadruk ligt op transparantie, verantwoordingsplicht en eerlijkheid, terwijl verantwoorde innovatie wordt aangemoedigd. AI-toepassingen met een hoog risico, zoals toepassingen die de mensenrechten kunnen schaden, worden onderworpen aan streng toezicht. Het verdrag biedt ook flexibiliteit voor private actoren om te voldoen aan alternatieve methoden en bevat uitzonderingen voor onderzoek en nationale veiligheidsdoeleinden.
Dit kader is cruciaal omdat het een gemeenschappelijke internationale standaard biedt voor het beheer van de potentiële voordelen en risico's van AI. Het bevordert het vertrouwen in AI-technologieën door enerzijds garanties te bieden tegen misbruik en onbedoelde gevolgen en anderzijds tegelijkertijd innovatie te stimuleren. Het verdrag sluit nauw aan bij de AI-wet van de Europese Unie en versterkt de gezamenlijke inzet voor ethisch AI-bestuur op wereldwijde schaal.
Het verdrag is ook belangrijk omdat het vorm kan geven aan de manier waarop AI wordt geïntegreerd in de samenleving. Er wordt een balans gevonden tussen innovatie en de bescherming van democratische waarden. Het probeert de rechten van individuen te beschermen. AI-systemen kunnen beslissingen nemen die het leven van mensen beïnvloeden, zoals bij het werven van werk of wetshandhaving. Het verdrag waarborgt dat deze systemen eerlijk en transparant zijn. Het verdrag bevordert ook verantwoordingsplicht. Het vereist dat AI-ontwikkelaars en -gebruikers verantwoordelijkheid nemen voor hun systemen. Dit helpt vertrouwen op te bouwen tussen het publiek en technologie. Bovendien ondersteunt de conventie de democratie. Het verdrag benadrukt de noodzaak van publieke participatie in discussies over AI. Dit zorgt ervoor dat verschillende stemmen worden gehoord bij het vormgeven van beleid. Tot slot schept het een precedent en standaard voor andere landen. Als Europa het voortouw neemt op het gebied van AI-regulering, kunnen andere regio's volgen. Dit kan een wereldwijd kader creëren voor verantwoord AI-gebruik.
De AI-resolutie van de Verenigde Naties
Op 21 maart 2024 heeft de Algemene Vergadering van de Verenigde Naties de allereerste niet-bindende resolutie over kunstmatige intelligentie (AI) aangenomen. Deze resolutie bevordert de ontwikkeling van "veilige, beveiligde en betrouwbare" AI-systemen. Het is ook een belangrijke stap in het creëren van wereldwijde normen voor het beheer van AI, die er ook voor moet zorgen dat de technologie de mensheid ten goede komt en tegelijkertijd de risico's aanpakt. De resolutie werd geleid door de Verenigde Staten en mede-ingediend door 123 landen, die unanieme steun kregen van alle 193 VN-lidstaten.
Ook hier vindt het ontstaan van deze resolutie zijn oorsprong in de snelle groei van AI-technologie. Toen AI invloed begon te krijgen in verschillende sectoren, groeide de bezorgdheid over de effecten ervan op de samenleving. Kwesties als privacy, vooroordelen en de mogelijkheid van misbruik werden prominent aanwezig. Als reactie daarop begon de VN met discussies over de aanpak van deze uitdagingen. In 2023 begonnen de lidstaten met het opstellen van de resolutie. Na uitgebreide onderhandelingen werd de resolutie in maart 2024 aangenomen.
De resolutie erkent het transformatieve potentieel van AI bij het aanpakken van wereldwijde uitdagingen, zoals het behalen van de Sustainable Development Goals van de Verenigde Naties. De resolutie moedigt internationale samenwerking aan om digitale kloven te overbruggen, vooral tussen ontwikkelde en ontwikkelingslanden. Een van de doelen is te zorgen voor gelijke toegang tot AI-technologieën. Lidstaten worden aangespoord om AI-systemen te reguleren om mensenrechten en privacy te beschermen, risico's te vermijden en innovatie te bevorderen.
Net als andere regelgevingsinitiatieven benadrukt dit initiatief de noodzaak van wereldwijde samenwerking bij het reguleren van AI. Er is een groeiende consensus dat internationale regelgeving essentieel is om de voordelen van AI op verantwoorde wijze te benutten. De resolutie sluit aan bij soortgelijke inspanningen, zoals de AI Wet van de Europese Unie en de Kaderconventie van de Raad van Europa. De resolutie benadrukt het belang van ethische, mensgerichte AI-ontwikkeling. Het doel is om schade te voorkomen en tegelijkertijd wereldwijd het vertrouwen in AI-systemen te bevorderen.
Het belang van deze resolutie ligt in de erkenning van het dubbele potentieel van AI: als hulpmiddel voor vooruitgang en als bron van risico's als er niets aan wordt gedaan. De resolutie biedt ook een basis voor internationale kaders om het gebruik van AI te sturen op een manier die duurzame ontwikkeling ondersteunt en fundamentele rechten waarborgt.
Andere initiatieven en regelgeving op het gebied van artificiële intelligentie
De wereldwijde top over AI-veiligheid (Global AI Safety Summit)
De Global AI Safety Summit is een periodieke internationale conferentie die de veiligheid en regulering van artificiële intelligentie (AI) bespreekt. De eerste Global AI Safety Summit werd op 1-2 november 2023 gehouden in Bletchley Park in Milton Keynes, in het Verenigd Koninkrijk. De doelen van de top waren onder andere:
- Een gezamenlijk begrip te ontwikkelen van de risico's van grensverleggende AI.
- Gebieden vast te stellen voor samenwerking op het gebied van AI-veiligheidsonderzoek.
- Lancering van het UK Artificial Intelligence Safety Institute.
- Geavanceerde AI-systemen te testen op mogelijke schade.
De top werd afgesloten met de Bletchley Declaration, die door 28 landen werd ondertekend.
De tweede Global AI Safety Summit in september 2024 werd medegeorganiseerd door Groot-Brittannië, Zuid-Korea en anderen. (Zie hieronder: De top over verantwoorde AI in het militaire domein – Responsible AI in the Military Domain / REAIM). De derde Global AI Safety Summit wordt in februari 2025 in Frankrijk gehouden.
De Global AI-top brengt internationale regeringen, toonaangevende AI-bedrijven, maatschappelijke organisaties en expert-onderzoekers samen. Het doel van de top is om a) de risico's van AI te overwegen, b) te bespreken hoe deze risico's kunnen worden beperkt door internationaal gecoördineerde actie, en c) de risico's van opkomende AI te begrijpen en te beperken en tegelijkertijd kansen te grijpen. Het algemene doel is het voorkomen en beperken van schade door AI, die opzettelijk of per ongeluk kan ontstaan. Deze schade kan van fysieke, psychologische of economische aard zijn.
De REAIM-top (Responsible AI in the Military Domain) in Seoel
De Responsible AI in the Military Domain (REAIM) top werd gehouden in Seoul op 10 september 2024. Ongeveer 60 landen, waaronder de Verenigde Staten, onderschreven een "blauwdruk voor actie" om verantwoord gebruik van kunstmatige intelligentie (AI) in het leger te regelen. Belangrijk is dat China deze blauwdruk niet onderschreef.
De top was een vervolg op een top in Den Haag in 2023, waar landen het eens werden over een oproep tot actie over het onderwerp, die niet wettelijk bindend zou zijn.
De Amerikaanse top over veiligheid van artificiële intelligentie
De regering Biden in de VS had voor November 2024 een aparte wereldwijde top over AI-veiligheid gepland. Het idee was vergelijkbaar met bovenvermelde initiatieven: de top wilde de belangrijkste belanghebbenden samenbrengen om de belangrijkste problemen te identificeren en ideeën voor een regelgevend kader voor te stellen. Na zijn herverkiezing heeft Donald Trump echter aangegeven dat hij een dergelijk kader ongedaan zou maken. De plannen voor de top werden daarom opgeschort.
0 reacties