Generatieve AI als (on)betrouwbare bron voor juridische opzoekingen cover

10 mrt 2025 | Management & Deontology

Generatieve AI als (on)betrouwbare bron voor juridische opzoekingen
vlotter kennisbeheer dan met windows Verkenner via Knowlex

Recente vacatures

Advocaat
Vastgoed
0 - 3 jaar
Antwerpen
Advocaat
Aannemingsrecht Overheidsopdtrachten Vastgoed
0 - 3 jaar
Antwerpen
Advocaat
bestuursrecht Omgevingsrecht
0 - 3 jaar
Antwerpen
Advocaat
Fiscaal recht Vastgoed
0 - 3 jaar
Antwerpen
Advocaat
Burgerlijk recht Fiscaal recht
0 - 3 jaar
West-Vlaanderen

Aankomende events

In Luik haalde een advocaat ChatGPT aan als neutrale bron voor de interpretatie van een wet. Dit is de eerste zaak in België, maar de zoveelste wereldwijd waar AI haar weg heeft gevonden naar de rechtbank. Dit artikel onderzoekt de voordelen en risico's van het gebruik van generatieve AI-tools zoals ChatGPT voor juridische opzoekingen, met voorbeelden van incidenten wereldwijd. Het belicht ook het pleidooi van een Amerikaanse rechter in het voordeel van ChatGPT. Lees hieronder of generatieve AI op een betrouwbare manier in de advocatuur kan worden ingezet voor juridische opzoekingen.

Achtergrond

In een rechtszaak eind vorig jaar verklaarde een Luikse advocaat dat hij ChatGPT had gebruikt bij de voorbereiding van zijn pleidooi (VRT, 30 oktober 2024). Het betrof een zaak over de handel van cocaïne waarin er onder meer discussie was omtrent de tijdige verlenging van de machtigingen van de onderzoeksrechter om de privécommunicatie af te tappen. De advocaat verklaarde dat hij de wet heeft laten analyseren door ChatGPT aangezien dit volgens hem een neutrale bron zou uitmaken. Hij nuanceerde vervolgens dat hij ChatGPT slechts als klankbord gebruikte.

Deze zaak is het eerste voorbeeld in België waar ChatGPT als bron wordt aangehaald in een juridisch geschil. Het is onbekend of de rechter uiteindelijk enig gewicht heeft verbonden aan de zogenaamde ‘neutraliteit’ van ChatGPT.

Het interessante aan deze zaak is dat het gebruik van AI in rechtszaken voordien quasi uitsluitend negatief aan bod kwam in de media doordat de AI een fout maakte. Zo is meermaals gebleken uit berichtgeving van rechtszaken in de Verenigde Staten, het Verenigd Koninkrijk, Canada, Zuid-Afrika en Australië dat advocaten ongewild valse rechtspraak hebben aangehaald omwille van de door AI-gegenereerde resultaten.

Beschikbare AI voor juridische opzoekingen

Generatieve AI-tools zoals ChatGPT, Claude, Gemini, CoPilot en Perplexity (hierna gezamenlijk ‘generatieve AI’) bieden advocaten op een snelle en goedkope wijze toegang tot publiek beschikbare informatie in een eenvoudig leesbare vorm. Sommige generatieve AI-applicaties voorzien hier bronvermelding, andere vereisen een blind vertrouwen in het AI-model. Tegenover deze publiek beschikbare generatieve AI, staan de, vaak aanzienlijk duurdere, juridische databanken zoals Strada lex, Jura en LexNow. Hierbij moet meteen de kanttekening worden gemaakt dat deze databanken elk een eigen generatieve AI-oplossing hebben geïntegreerd in hun databank of minstens bezig zijn deze te ontwikkelen.

In de zaak van de Luikse advocaat gebruikte hij ChatGPT als klankbord om een ‘neutrale interpretatie’ van een juridische regel te verkrijgen. Deze aanpak lijkt op het eerste gezicht logisch, want ChatGPT is geen partij in de zaak en heeft er in principe geen baat bij om in het voordeel van de ene of de andere partij te antwoorden. Uiteraard zijn hier wel de nodige bedenkingen bij te maken en zoals blijkt uit de volgende incidenten in de praktijk, is deze aanpak niet zonder risico's.

In 2023 kwamen twee New Yorkse advocaten in opspraak nadat zij met ChatGPT rechtspraak als precedenten hadden aangevoerd – de gegenereerde citaten bleken volledig fictie

Onbestaande rechtspraak

In maart 2023 kwamen twee New Yorkse advocaten in opspraak nadat zij met ChatGPT rechtspraak als precedenten hadden aangevoerd in een zaak tegen een luchtvaartmaatschappij. De door ChatGPT gegenereerde citaten bleken volledig fictief. Toen de rechter vroeg naar de bronnen van de rechtspraak, moesten de advocaten bekennen dat zij deze niet geverifieerd hadden. Hoewel de advocaten slechts een boete van 5.000 dollar kregen, was het echte verlies hun onherstelbaar beschadigde reputatie en geloofwaardigheid.

Ze zijn hierin niet alleen. In december 2023 gebruikte een voormalige advocaat van Donald Trump Google Bard (nu Gemini) in diens onderzoek naar rechtspraak. Hij bezorgde de gevonden precedenten bij zijn eigen advocaat, maar die liet op zijn beurt na om ze te controleren. Ook hier bleek dat de geciteerde rechtspraak onbestaande was, echter meende de rechter dat een sanctie niet vereist was.

In een beslissing van februari 2024 veroordeelde een rechtbank in Massachusetts een advocaat wel tot het betalen van een boete van 2.000 doller nadat hij in verschillende zaken onbestaande rechtspraak had geciteerd. De advocaat stelde dat zijn medewerkers deze rechtspraak via een generatieve AI-oplossing hadden gevonden en was zich er niet van bewust dat de resultaten foutief konden zijn.

Dergelijke voorvallen komen mogelijk nog vaker voor dan dat ze de media halen. Diverse rechtbanken in de VS hebben namelijk al richtlijnen gepubliceerd met betrekking tot het gebruik van AI bij juridische opzoekingen. Zo verplicht de rechtbank van het Western District North Carolina (Charlotte Division) advocaten om een verklaring neer te leggen waarin ze bevestigen geen AI te hebben gebruikt bij hun juridische opzoekingen, met uitzondering van de geïntegreerde AI in professionele tools als Westlaw, Lexus en Bloomberg die erg populair zijn op de Amerikaanse markt. Dit is een beslissing waar juridische databanken wellicht erg blij mee zijn.

Het gebruik van AI in rechtszaken is niet beperkt tot advocaten. Ook rechters experimenteren met generatieve AI

Ook in een Canadese familierechtelijke procedure in februari 2024 bleek dat een advocate ChatGPT had gebruikt voor juridische opzoekingen, maar de aangevoerde zaken bestonden wederom niet. De advocate werd veroordeeld tot het betalen van de kosten die de tegenpartij had opgelopen door de vertraging van de zaak.

De onbewuste citatie van valse rechtspraak blijkt over de hele wereld voor te komen. Een advocate in Zuid-Afrika gebruikte eveneens valse rechtspraak op basis van ChatGPT. Zij werd daarvoor in juni 2023 gesanctioneerd en eveneens veroordeeld voor de kosten door de regionale rechtbank van Johannesburg.

In oktober 2024 deed een vergelijkbaar incident zich voor in Melbourne, Australië. Echter deed de advocaat in kwestie daar beroep op een professionele generatieve AI-tool die zich op de juridische markt richt. In verdediging van die juridische zoekmachine moet worden benadrukt dat deze tool gebruikers expliciet wijst op de mogelijke onjuistheid van de resultaten én een dienst aanbiedt om de resultaten te laten verifiëren door een mens. De advocaat in kwestie had simpelweg nagelaten om hierop beroep te doen of zelf de verificatie te voorzien.

Ook dichter bij huis werd reeds valse rechtspraak verworpen in de rechtbank. Ditmaal in een fiscale zaak begin december 2023. In het Verenigd Koninkrijk deed een vrouw die zichzelf verdedigde beroep op ChatGPT om haar zaak te onderbouwen en citeerde zo onbestaande precedenten. De rechtbank verwees hier naar de eerste zaak betreffende de New Yorkse advocaten en wees erop dat dergelijke praktijken het cynisme bevorderen met betrekking tot gerechtelijke precedenten.

Het valt op dat deze incidenten zich telkens voordoen in common law landen waar de doctrine van stare decisis geldt.

generatieve AI

Rechters doen het ook

Het gebruik van AI in rechtszaken is niet beperkt tot advocaten. Ook rechters experimenteren met generatieve AI. Een bekend voorbeeld is dat van de kantonrechter van de rechtbank van Gelderland, Nederland in juni 2024. In een zaak met betrekking tot een langslepende burenruzie gebruikte de rechter ChatGPT om de opbrengst van de zonnepanelen te berekenen. Daarnaast wende de rechter zich ook tot ChatGPT om te bepalen of isolatiemateriaal dat in het water is gevallen nog bruikbaar is.

Deze kantonrechter was zeker niet de eerste rechter die zich tot ChatGPT had gewend. Zo had in december 2022 een Colombiaanse rechter reeds expliciet in zijn vonnis aangegeven dat hij beroep had gedaan op ChatGPT om enkele vragen in het geschil te beantwoorden. Deze antwoorden zou hij vervolgens gevalideerd hebben vooraleer zijn beslissing te vellen.

De Nederlandse zaak veroorzaakte veel controverse, ook in België. Zo uitte de voorzitter van de Orde van Vlaamse Balies in een krantenartikel het fundamentele bezwaar dat de rechter niet op eigen houtje op zoek had mogen gaan naar deze inlichtingen daar dit in strijd zou zijn met het recht op hoor en wederhoor (De Standaard, 12 augustus 2024). In datzelfde artikel kondigde de voorzitter eveneens aan dat ze bij de OVB richtlijnen aan het opstellen zijn voor het gebruik van AI door advocaten.

Risico’s van generatieve AI

Hoewel de resultaten van generatieve AI op het eerste gezicht neutraal lijken, zijn er diverse redenen waarom dit niet altijd het geval is en welke risico's gepaard gaan met het gebruik van dergelijke technologieën voor opzoekingen:

  • Generatieve AI is vaak getraind op basis van de publiek beschikbare data. Niet alle juridische informatie is publiek beschikbaar en er zijn geen garanties of de beschikbare data actueel en kwalitatief zijn. Dit risico wordt versterkt bij generatieve AI-tools die hun bronnen niet aangeven.
  • Zoals duidelijk is gebleken uit bovenstaande voorbeelden kan generatieve AI informatie ‘verzinnen’ of ‘hallucineren’.
  • De resultaten van generatieve AI bieden louter statistische waarschijnlijkheden. Er is geen validatie van de antwoorden voorzien door (juridische) experts. Bovendien blijkt ook dat de antwoorden vaak niet consistent zijn.
  • Omdat de antwoorden overtuigend en professioneel ogen, kunnen gebruikers ten onrechte aannemen dat de informatie accuraat is.

Een grote voorzichtigheid is dus vereist bij het gebruik van de publiek beschikbare generatieve AI-tools voor juridische opzoekingen.

Pleidooi Amerikaanse rechter in het voordeel van generatieve AI

Uit het bovenstaande blijkt duidelijk waarom generatieve AI best wordt vermeden bij juridische opzoekingen. Toch moet het kind niet met het badwater worden weggegooid.

De Amerikaanse rechter Kevin Newsom stelde in een zogenaamde ‘concurring opinion’ bij een verzekeringszaak dat AI, in het bijzonder de grote taalmodellen zoals ChatGPT, een rol kan spelen bij de interpretatie van de ‘gebruikelijke betekenis’ van woorden in juridische teksten.

Newsom erkende dat dit standpunt controversieel is, maar hij beargumenteerde dat AI-modellen zoals ChatGPT getraind zijn op miljarden woorden uit publieke bronnen. Hierdoor kan generatieve AI inzicht bieden in hoe woorden doorgaans worden gebruikt in het dagelijks leven.

Newsom testte ChatGPT om het woord ‘tuinarchitectuur’ (landscaping) te interpreteren. De context betrof de vraag of het installeren van een ingegraven trampoline gekwalificeerd kon worden als ‘tuinarchitectuur’. ChatGPT antwoordde daar bevestigend op, omdat het de zichtbare kenmerken van een buitenruimte wijzigt voor esthetische of functionele doeleinden.

Hoewel Newsom benadrukte dat generatieve AI nooit de enige bron van interpretatie zou mogen zijn, suggereerde hij dat het gebruik van generatieve AI een nuttige aanvulling kan zijn. De Luikse advocaat in het voorbeeld in de inleiding heeft zich mogelijk laten inspireren door de ‘concurring opinion’ van Newsom.

Een AI-toepassing kan als hulpmiddel dienen bij de voorbereiding van een zaak, maar op het einde van de rit is het aan de advocaat om alles te verifiëren aan de hand van betrouwbare bronnen

Generatieve AI is een hulpmiddel

De toepassingen van generatieve AI zijn vandaag werkelijk indrukwekkend, maar de bovenstaande incidenten tonen aan dat het gebruik van generatieve AI niet zonder risico is. De reden hiervoor lijkt voornamelijk te liggen in de foutieve aanname dat de interpretaties van ChatGPT objectief zijn en volledig waarheidsgetrouw.

Een algemeen verbod van (juridische) opzoekingen met behulp van generatieve AI zoals bij de rechtbank in North Carolina is volgens mij niet op zijn plaats. Advocaten moeten – simpel gezegd – hun werk doen. Een AI-toepassing kan als hulpmiddel dienen bij de voorbereiding van een zaak, maar op het einde van de rit is het aan de advocaat om alles te verifiëren aan de hand van betrouwbare bronnen.

Matthias Vandamme, advocaat Claeys & Engels

Dit artikel verscheen eerder ook in het magazine Today's Lawyer.

vlotter kennisbeheer dan met windows Verkenner via Knowlex

Recente vacatures

Advocaat
Vastgoed
0 - 3 jaar
Antwerpen
Advocaat
Aannemingsrecht Overheidsopdtrachten Vastgoed
0 - 3 jaar
Antwerpen
Advocaat
bestuursrecht Omgevingsrecht
0 - 3 jaar
Antwerpen
Advocaat
Fiscaal recht Vastgoed
0 - 3 jaar
Antwerpen
Advocaat
Burgerlijk recht Fiscaal recht
0 - 3 jaar
West-Vlaanderen

Aankomende events

Blijf op de hoogte

Schrijf je in voor de nieuwsbrief

0 Reacties

0 reacties

Een reactie versturen

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.