Geautomatiseerde gesprekken met tragische afloop
‘Intelligente’ bots, ongewenst taalgebruik
Afgelopen zomer werd met een artikel rond de ‘Blenderbot 3’ – de nieuwste chatbot van socialemediagigant Meta – al duidelijk dat de opkomst van artificiële intelligentie de nodige strafrechtelijke vragen meebrengt. De onderliggende feiten betroffen het – enigszins ludiek – afkraken door de ‘intelligente’ bot van zijn eigen bedrijf, en het – al veel minder ludiek – racistisch (en dus strafrechtelijk gesanctioneerd) taalgebruik van de bot.
De vraag die rees is of de Blenderbot zich daarbij tijdens zijn geautomatiseerde gesprekken inderdaad ‘schuldig’ gemaakt kon hebben aan bepaalde (racistische) uitingsmisdrijven, en of met andere woorden de principes van de strafrechtelijke verantwoordelijkheid op het AI-systeem konden worden toegepast.
Dezelfde vraag stelt zich vandaag opnieuw naar aanleiding van een helaas tragischer voorval met een chatbot, en dit op eigen bodem. Zo berichtte De Standaard op 28 maart 2023 over enkele gesprekken van een Belg met de Amerikaanse bot ‘Eliza’, die tot fatale gevolgen – met name de zelfdoding van de Belg – zouden hebben geleid. Klaarblijkelijk zag de Belg in technologie de enige uitweg om verdere klimaatrampen te voorkomen, en zou hij zichzelf hebben willen opofferen in ruil voor een artificiële redding van de mensheid door chatbot Eliza. Uit de teruggevonden gesprekken zou blijken dat Eliza hem in deze laatste idee zou hebben aangemoedigd.
Ongewenst taalgebruik, desastreuze gevolgen: het aanzetten tot zelfdoding
Hoewel het ‘aanzetten tot zelfdoding’ in België vooralsnog[1] niet afzonderlijk strafbaar is gesteld, kunnen een groot deel van de zelfdodingen waarbij het slachtoffer gemanipuleerd werd door een derde wel degelijk andere misdrijven (bijvoorbeeld: belaging, onopzettelijke doodslag, schuldig verzuim,…) uitmaken. Los van de correcte strafrechtelijke kwalificatie worden we in de voorliggende tragedie evenwel geconfronteerd met de problematiek van AI-‘dader’ Eliza. Zij stelde – op basis van een van haar kernelementen als AI-systeem, nl. haar autonomie – een (of meerdere) niet-toegelaten (i.e. strafbare) handeling(en) door de zelfdoding te stimuleren. Een logische reflex zou dan ook zijn om de chatbot voor dat gestelde gedrag strafrechtelijk verantwoordelijk te bevinden.
Wie = AI = wie: strafrechtelijke verantwoordelijkheid van en voor artificiële intelligentie
Van ‘vrije wil’ naar schuld
Vanuit juridisch – en dan voornamelijk strafrechtelijk – oogpunt is deze reflex echter helemaal niet zo logisch dan hij in eerste instantie lijkt. De basis van de principes rondom strafrechtelijke verantwoordelijkheid dateert immers van 1867 (wanneer ons Belgisch Strafwetboek werd ingevoerd), en sloot naadloos aan bij de toenmalige realiteit die erin bestond dat enkel fysieke personen als daders van een misdrijf in aanmerking konden worden genomen. Men ging daarbij uit van het postulaat van de volstrekte gelijkheid van al deze personen in hun natuurlijke vrijheid, en dus ook in hun strafrechtelijke aansprakelijkheid.
Iedere mens is begaafd met een vrije wil, die hem toelaat zijn handelingen ongedwongen te bepalen en te richten. Zijn keuze kan bestaan in het goede of in het kwade, maar wie op basis van zijn vrije oordeels- en wilsvermogen voor dat laatste kiest, treft in principe schuld en zal daar dan ook voor moeten boeten. Wie daarentegen niet over een vrije wil beschikt (bijvoorbeeld omwille van de aanwezigheid van een grond van niet-toerekeningsvatbaarheid), kan niet strafrechtelijk verantwoordelijk worden gehouden voor zijn gedrag. Bekeken vanuit de klassieke strafdoelstellingen van (algemene en bijzondere) preventie en vergelding zou het inderdaad weinig zinvol zijn om een bepaald rechtssubject te straffen wanneer hij of zij er – bij gebrek aan vrije wil – toch niet zelf voor had gekozen om het misdrijf te plegen, noch in de toekomst zelf kan beslissen om al dan niet over te gaan tot het stellen van nieuwe strafbare gedragingen.
Met het schuldstrafrecht als uitgangspunt is de vraag naar de toepassing op systemen van artificiële intelligentie van de (voormelde) principes die daaruit voortvloeien primordiaal. Enkel wanneer immers kan worden aangenomen dat AI-systemen over een vrije wil beschikken, zullen zij ook schuldbekwaam zijn. Voorlopig is dat nog niet het geval, aangezien geen enkele bestaande AI-vorm momenteel verder reikt dan de specifieke toepassingen waarvoor die AI werd ontwikkeld. In de computerwetenschappen wordt deze huidige stand van de technologie ook wel ‘zwakke’ of ‘smalle’ AI genoemd, die omwille van haar beperkte toepassingsmogelijkheden allerminst van een soort zelfbewustzijn – en dus vrije wil – geniet.
Deze vaststelling staat los van de actuele discussie in het gemeen recht rond het al dan niet toekennen van rechtspersoonlijkheid aan artificiële intelligentie: zelfs indien die horde zou worden genomen, zouden daarmee de terechte bezwaren rond de toepassing op AI van het bij uitstek morele begrip ‘schuld’ niet verdwijnen. Het strafrechtelijk verantwoordelijk stellen van een AI-systeem (en dus van chatbot Eliza) an sich lijkt op dit ogenblik – op basis van de geldende Belgische regels omtrent die strafrechtelijke verantwoordelijkheid – dan ook niet mogelijk.
Van ‘schuld’ naar maker?
Richten we onze pijlen dan maar op bestaande rechtssubjecten die binnen ons rechtssysteem wél strafrechtelijk verantwoordelijk gesteld kunnen worden en waaraan de feiten van Eliza (zowel objectief als subjectief) zouden kunnen worden toegerekend. Automatisch komen dan de makers van de bot in het vizier, die mogelijks bij de ontwikkeling ervan een fout begingen. Maar kan die ‘fout’ hen ook strafrechtelijk duur komen te staan?
Hoeveel actoren waren er immers betrokken bij de creatie van Eliza en wie speelde daarbij welke rol? En wat met de techniek van machine learning, overigens een van de grondslagen van chatbots, die ervoor zorgt dat zij zichzelf kunnen aanpassen aan de hand van de data die zij mettertijd verwerken? Op welke manier valt er nog een causaal verband te leggen (objectieve toerekening) tussen de maker en ‘zijn’ systeem wanneer die maker zelf niet meer kan verklaren hoe het systeem tot een bepaalde beslissing is gekomen (cf. het zogenaamde black box-fenomeen)? En wat – tot slot – als zulke link tussen maker en (onder andere) chatbot wél valt te ontwaren: zal vervolgens het vereiste moreel bestanddeel (opzet of onachtzaamheid – subjectieve toerekening) in hoofde van de maker aangetoond kunnen worden?
Besluit
Net zoals de mogelijkheden van kunstmatige intelligentie tegenwoordig eindeloos lijken, geldt daarmee hetzelfde voor de vragen die bij een poging tot toepassing van de bestaande regels rond strafrechtelijke verantwoordelijkheid op zulke AI komen kijken. Het omschreven tragische voorval met chatbot Eliza maakt duidelijk dat het vinden van een antwoord op deze vragen onontbeerlijk is in tijden waarin artificiële intelligentie niet alleen innovatie biedt, maar ook onlosmakelijke (en strafrechtelijk relevante) risico’s inhoudt.
Julie Petersen
Waeterinckx Advocaten
Wie met vragen zit over zelfdoding, kan terecht bij de Zelfmoordlijn op het gratis nummer 1813 en op www.zelfmoord1813.be.
Referenties
[1] Volgens de voorontwerpen tot invoering van boek 1 en 2 van het nieuwe Strafwetboek – zoals goedgekeurd door de Ministerraad eind oktober 2022 – zou het ‘aanzetten tot zelfdoding’ voortaan strafbaar worden als afzonderlijk nieuw misdrijf.
0 reacties