Wanneer een rechter even ChatGPT raadpleegt cover

7 aug 2024 | Column

Wanneer een rechter even ChatGPT raadpleegt

Door Hugo Lamon

(Ge)recht in de spiegel

Recente vacatures

Uitgever
3 - 7 jaar
Antwerpen
Jurist
bestuursrecht internationaal recht Omgevingsrecht Publiek recht sociaal recht
Brussel
Jurist
Arbeidsrecht Gerechtelijk recht Publiek recht
3 - 7 jaar
Brussel

Aankomende events

De Nederlandse juridische wereld – of toch dat deel dat actief is op social media – heeft een vette kluif aan een vonnis van de kantonrechter van Gelderland. De uitspraak dateert al van 7 juni, maar krijgt in deze zomerse komkommertijd nu volop aandacht. Het betrof een conflict tussen twee buren over een dakopbouw, waardoor de zonnepanelen van het dak van de buurman permanent in de schaduw kwamen te liggen. Bij de vraag naar de omvang van de schade stelde de rechter: “de kantonrechter schat, mede met behulp van ChatGPT, de gemiddelde levensduur van zonnepanelen op 25 à 30 jaar; die levensduur wordt daarom hier op 27,5 jaar gesteld (…) Uitgaande, wederom aan de hand van ChatGPT, van een huidige kWh-prijs van € 0,30 (€ 0,29 tot € 0,34, afhankelijk van het soort contract)”.

De juridische gemoederen raakten wat verhit omdat het de eerste keer zou zijn dat de Nederlandse rechter inspiratie zoekt bij ChatGPT. Er wordt allicht bedoeld dat het de eerste keer is dat een rechter zo open en bloot toegeeft dat hij daar de mosterd is gaan halen. Het zal zeker al vaker zijn voorgekomen dat een rechter, eerder dan een gerechtsdeskundige aan te stellen met de vraag advies te verstrekken over de omvang van de schade of een heropening van de debatten te bevelen, even zelf op onderzoek trekt.

In de commentaren werd de vergelijking gemaakt met de “googelende rechter”-zaak van de Hoge Raad, dat in een arrest van 9 september 2011 al had geoordeeld dat een rechter die zijn beslissing laat steunen op feitelijke gegevens die hij zelf op internet heeft gevonden in strijd handelt met het beginsel van “hoor en wederhoor”.

De Nederlandse wet voorziet wel dat “feiten of omstandigheden van algemene bekendheid” door de rechter zondermeer mogen worden gebruikt en geen bewijs behoeven. Een vergelijkbare formule is terug te vinden in ons art. 8.3 lid 2 van het nieuw B.W. De melding dat de chemische formule van water H2O is valt allicht onder dat begrip, maar dat de formule voor paracetamol C8H9NO2 is dan weer niet. Het rendement van zonnepanelen ook niet.

De zonnepanelenzaak lokte tal van reacties uit. Sommigen lieten zich ontvallen dat het te vergelijken valt met iemand die in de lagere school Wikipedia gebruikt voor het schrijven van een werkstukje. Anderen wezen erop dat er ook een onderscheid moet worden gemaakt tussen het gebruik van Google en ChatGPT. Bij de eerste valt er nog te achterhalen hoe de informatie tot stand kwam, wat niet het geval is voor ChatGPT. Wie dat laatste gebruikt legt zijn lot dus in handen van de ontwikkelaar van het algoritme, met alle mogelijke manipulaties die daaruit kunnen voortvloeien tot gevolg. Een slimmerik wist dat slechts één versie van ChatGPT de mogelijkheid heeft om in realtime media te verzamelen over de energieprijzen en wijst er ook op dat de rechter in zijn vonnis niet heeft gemeld welke prompt is ingegeven voor de zoekopdracht.

Anderen vonden het dan net weer transparant dat de rechter openlijk zijn bron bekendmaakte. Dat rechters misschien best getraind worden in het gebruik van die middelen was een ander inzicht.

Op de vraag aan ChatGPT zelf of het een goed idee is dat een rechter ChatGPT gebruikt bij het maken van zijn vonnis, kwam er een heel genuanceerd antwoord met voor- en nadelen. Als voordelen weerhoudt ChatGPT de “toegankelijkheid van de informatie” (waardoor rechters sneller relevante informatie vinden), de “efficiëntie” en de “consistentie” (“AI kan bijdragen aan een meer consistente toepassing van de wet door objectief relevante jurisprudentie en wetgeving te identificeren”).

ChatGPT geeft zelf ook nadelen aan: (1) Menselijke overwegingen: Een vonnis vereist niet alleen juridische kennis, maar ook een diep begrip van menselijke omstandigheden, nuances en ethische overwegingen, iets waar AI nog niet volledig toe in staat is; (2) Bias en fouten: AI-modellen kunnen biases bevatten die voortkomen uit de data waarop ze getraind zijn. Dit kan leiden tot oneerlijke of partijdige uitspraken; (3) Verantwoordelijkheid: Het gebruik van AI kan vragen oproepen over wie verantwoordelijk is voor het uiteindelijke vonnis – de rechter of de technologie? Dit kan juridische en ethische complicaties met zich meebrengen en (4) Gebrek aan transparantie: Hoe een AI tot een bepaald advies komt, kan vaak een ‘black box’ zijn, waardoor het moeilijk is om de redenering te controleren en te verifiëren.

In de marge van dit alles is het wellicht ook goed te wijzen op het interessante advies dat de American Bar Association op 29 juli verspreidde over “Generative Artificial Intelligence Tools”. Om ervoor te zorgen dat cliënten worden beschermd, moeten advocaten die gebruik maken van generatieve kunstmatige intelligentie rekening houden met ethische overwegingen verplichtingen.

Hugo Lamon

Lees hier meer columns van meester Hugo Lamon over Justitie.


Op de hoogte blijven van alle nieuwigheden binnen justitie, advocatuur en de juridische en fiscale wereld? Volg Jubel.be op LinkedIn.

(Ge)recht in de spiegel

Recente vacatures

Uitgever
3 - 7 jaar
Antwerpen
Jurist
bestuursrecht internationaal recht Omgevingsrecht Publiek recht sociaal recht
Brussel
Jurist
Arbeidsrecht Gerechtelijk recht Publiek recht
3 - 7 jaar
Brussel

Aankomende events

Blijf op de hoogte

Schrijf je in voor de nieuwsbrief

0 Reacties

0 reacties

Een reactie versturen

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.