Intelligent maar… ‘nog veel te leren’
Amper twee weken na zijn officiële lancering en de Blenderbot 3 – de nieuwste chatbot van sociale mediagigant Meta – deed al heel wat stof opwaaien. Niet alleen zou de ‘intelligente’ bot zijn eigen bedrijf danig afkraken, daarnaast – en problematischer – zou de Blenderbot tijdens zijn geautomatiseerde gesprekken niet vies zijn van racistisch taalgebruik. Voorlopig verdedigt Meta zich door te stellen dat de Blenderbot 3 slechts een prototype betreft en dus ‘nog veel moet leren’.
Anders ging het in 2016 met Microsofts twitterbot TayTweets. Nadat deze enkele antisemitische uitspraken de wereld instuurde, werd hij onmiddellijk offline gehaald: het kon en kan immers niet de bedoeling zijn dat kunstmatige gesprekspartners zich ‘schuldig’ zouden maken aan bepaalde (uitings)misdrijven.
Intelligent dus… ‘strafrechtelijk verantwoordelijk’?
(Uitings)misdrijven ‘door’ AI-systemen
Vanuit strafrechtelijk oogpunt is vooral deze laatste stelling bijzonder interessant, aangezien de termen ‘schuld’ en ‘schuldig’ onlosmakelijk verbonden blijken met de principes van de strafrechtelijke verantwoordelijkheid. Omdat de basis van deze principes dateert van 1867 (m.n. wanneer ons Belgisch strafwetboek werd ingevoerd), viel onmogelijk te voorspellen dat er ooit zaken als zelflerende machines zouden bestaan die niet-toegelaten meningen zouden verspreiden – of ruimer, niet-toegelaten handelingen zouden plegen.
De vraag die vandaag dan ook gesteld kan worden is in hoeverre ons strafrecht – en in het bijzonder de principes rondom strafrechtelijke verantwoordelijkheid – aangepast is (zijn) aan de uitdagingen die recente technologieën van artificiële intelligentie met zich mee brengen.
Toerekening aan een rechtssubject
Nemen we als voorbeeld opnieuw Meta’s derde Blenderbot. Wanneer deze zou aanzetten tot haat op grond van een beschermd criterium zoals huidskleur,[1]zou er in principe – althans materieel strafrechtelijk gezien – sprake kunnen zijn van het misdrijf ex artikel 20, 2° van de Antiracismewet[2].[3]
Het is evenwel niet omdat een AI-systeem de materiële bestanddelen van een bepaald misdrijf zonder veel moeite kan verwezenlijken, dat er meteen sprake is van strafbaarheid. Om daartoe te kunnen besluiten dient een feit namelijk ook (zowel objectief als subjectief) toegerekend te kunnen worden aan een rechtssubject, en tot die categorie behoren artificiële intelligentiesystemen vooralsnog niet.
Richten we onze pijlen dan maar op de rechtssubjecten[4]-makers (in casu Meta) of -gebruikers van het systeem. Ook daar lijkt – in de eerste plaats wat betreft een eventuele objectieve toerekening aan een van hen – enige link alleszins makkelijker gelegd in theorie dan in praktijk.
Hoeveel actoren waren er bij Meta immers betrokken bij de creatie van Blenderbot 3 en wie speelde daarbij welke rol? En wat met de techniek van machine learning, overigens een van de grondslagen van de Blenderbot, die ervoor zorgt dat bots zichzelf kunnen aanpassen aan de hand van de data die zij mettertijd verwerken? Op welke manier valt er nog een causaal verband te leggen tussen de maker en ‘zijn’ systeem wanneer die maker zelf niet meer kan verklaren hoe het systeem tot een bepaalde beslissing is gekomen (cf. het zogenaamde black box-fenomeen)? Idem overigens voor de gebruikers van intelligente systemen, die naargelang de hogere graad van autonomie van zulk systeem daarover minder controle en dus beschikkingsmacht zullen hebben.
Als er al een link valt te ontwaren tussen een maker of een gebruiker van – onder andere – een chatbot en de gedragingen die deze chatbot stelt, zal verder ook de subjectieve toerekening aan (een van) hen geen sinecure zijn. Zeker in het kader van opzettelijke misdrijven, zoals inderdaad het ‘aanzetten tot haat’, kan en mag onmogelijk de autonome handeling van het AI-systeem zomaar geassimileerd worden met de wil van zijn maker of gebruiker. Anders zou het zijn wanneer Meta bijvoorbeeld de Blenderbot 3 wetens en willens geprogrammeerd zou hebben om mensen op te lichten, en dus als louter middel zou gebruiken om een misdrijf te plegen. Wanneer echter géén zulke instructies aan het AI-systeem werden gegeven, zal er in hoofde van de maker of gebruiker misschien hoogstens een onachtzaamheid (gebrek aan voorzorg of voorzichtigheid) aangetoond kunnen worden.
Maar zelfs met betrekking tot het vaststellen van zo’n onachtzaamheid zullen (onder meer) de voormelde fenomenen van black box en machine learning, en natuurlijk de eigenheid en toenemende diversiteit van artificiële intelligentie-systemen, vermoedelijk voor de nodige toekomstige problemen zorgen.
Of nog: hoe de meest ‘alledaagse’ technologieën van tegenwoordig de aloude principes van het strafrecht danig op de proef kunnen stellen…
Wie graag meer wil weten over dit onderwerp, kan zich inschrijven op de studienamiddag ‘cybercrime’ van die Keure op 29 september te Mechelen door op deze link te klikken. Patrick Waeterinckx en Julie Petersen zullen u tijdens deze opleiding een inkijk geven in enkele recente ontwikkelingen inzake materieel cyberstrafrecht, alsook in de fundamentele vraag rond strafrechtelijke verantwoordelijkheid die de nieuwste technologieën van artificiële intelligentie oproepen.
Waeterinckx Advocaten Ondernemingsstrafrecht
Referenties
[1] En wanneer uiteraard voldaan zou zijn aan de openbaarheidsvereiste uit art. 444 Sw., wat het geval zou kunnen zijn wanneer de Blenderbot met meerdere personen tegelijk zou kunnen converseren, bijvoorbeeld in een chatroom.
[2] Wet van 30 juli 1981 tot bestraffing van bepaalde door racisme of xenofobie ingegeven daden, BS 8 augustus 1981.
[3] Voor het opzet van dit artikel wordt ervan uitgegaan dat het misdrijf zich in België zou situeren.
[4]Natuurlijke- of rechtspersoon.
0 reacties