Artificiële intelligentie geeft ongetwijfeld momentum aan de gedigitaliseerde financiële sector. Door enorme hoeveelheden data te analyseren, complexe patronen te herkennen en voorspellingen te genereren, biedt AI financiële dienstverleners ongekende mogelijkheden. Onder meer in de krediet-, verzekerings- en beleggingssector lijkt AI de gouden sleutel te zijn tot snellere en meer kostenefficiënte processen, met de belofte van schaalvoordelen en verhoogde nauwkeurigheid. Tegelijk houden AI-systemen risico’s in. De autonome, ondoorgrondelijke en onvoorspelbare aard van AI roept belangrijke vragen op, zowel over de verantwoordelijkheid van financiële dienstverleners als over de bescherming van de consument.
Wat zijn de gevolgen wanneer een AI-systeem ten onrechte een consument afwijst voor een krediet? Wat gebeurt er indien de verzekeraar een onjuist risicoprofiel toekent, waardoor de consument onterecht te hoge verzekeringspremies betaalt? Welke implicaties bestaan er wanneer het systeem een verkeerde voorspelling van de koersevolutie maakt? Met andere woorden welke juridische uitdagingen ontstaan er voor financiële dienstverleners en consumenten wanneer AI wordt toegepast in financiële diensten?
Privacy en gelijke behandeling onder druk
AI-toepassingen die worden ingezet voor krediet-, verzekeringsrisico-, en beleggingsbeoordelingen kunnen bepaalde fundamentele rechten, zoals het recht op gegevensbescherming en non-discriminatie, in het gedrang brengen. De Algemene Verordening Gegevensbescherming en de algemene antidiscriminatiewetten verplichten financiële dienstverleners om persoonsgegevens te beschermen en discriminatie te vermijden. Hoewel beide wettelijk kaders sterke consumentenbescherming bieden, blijft er een zekere ambiguïteit bestaan over de naleving ervan. AI-systemen zijn complex en niet volledig transparant, wat het voor financiële dienstverleners moeilijk maakt om te voldoen aan de strenge vereisten. Ondernemingen beschikken vaak over te weinig motivatie om deze verplichtingen na te komen, voornamelijk vanwege de aanzienlijke compliancekosten. Dit probleem wordt versterkt doordat consumenten hun rechten moeilijk kunnen handhaven door aanzienlijke obstakels bij het verzamelen van bewijs. Bovendien zijn vele consumenten zich niet bewust van gegevensmisbruik of discriminatoire beslissingen. Evenzo schiet de handhaving door toezichthouders soms tekort, met name doordat hun optreden grotendeels afhankelijk is van consumentenklachten en zij over onvoldoende financiële middelen en/of bevoegdheden beschikken om op de gepaste wijze op te treden.
De AI-Verordening introduceert niettemin enkele strenge regels voor hoog risico AI-systemen. Hoewel de plicht tot gegevensbescherming en het discriminatieverbod niet direct onder deze vereisten vallen, zal de AI-Verordening indirect invloed hebben op de strijd tegen gegevensmisbruik en discriminatie. Helaas ligt de focus van deze wetgeving enkel op hoog risico AI-systemen, waardoor verschillende andere toepassingen binnen de financiële sector, bijvoorbeeld deze die worden gebruikt in beleggingsdiensten, buiten de scope vallen. Bovendien verplicht deze regelgeving enkel interne controles om de naleving van de wet na te gaan, zonder externe beoordelingen voor te schrijven. Hierdoor is de effectiviteit van deze regelgeving wederom grotendeels afhankelijk van zowel de bereidheid van dienstverleners om aan de vereisten te voldoen als van de mate waarin het toezicht toereikend is.
Bescherming van de financiële consument op basis van sectorale wetgeving
De huidige sectorale wetgeving vertoont eveneens enkele lacunes. Zo verplicht bijvoorbeeld Boek VII WER kredietgevers enkel om de kredietwaardigheid van een consument te beoordelen, maar bevat het geen specifieke eisen voor het beoordelen van de betrouwbaarheid en terugbetalingsbereidheid van de kredietnemer. Wanneer een krediet wordt geweigerd of een te hoge interestvoet wordt aangerekend door een onjuiste betrouwbaarheidsbeoordeling, is er aldus geen sprake van een schending van Boek VII WER. Verzekeraars worden op basis van de Wet betreffende de verzekeringen verboden om bepaalde segmentatiecriteria te gebruiken. Echter, deze wet biedt geen expliciete bescherming tegen onjuiste verzekeringsrisicobeoordelingen. Voor beleggingsdiensten doet zich eenzelfde tekort aan regelgeving voor: zolang een belegging als geschikt of gepast voor de consument wordt geacht, kunnen gereglementeerde ondernemingen op basis van de Wet Financieel Toezicht niet aangesproken worden wanneer een AI-systeem verkeerdelijk heeft geïnvesteerd in verlieslatende instrumenten.
Hoewel de zorgvuldigheidsnorm deze lacunes zou kunnen ondervangen, is het in de werkelijkheid veelal anders. De zorgvuldigheidsnorm verplicht financiële dienstverleners om zich te gedragen als voorzichtige en redelijk handelende dienstverleners, geplaatst in dezelfde omstandigheden. Dit betekent dat AI-systemen zorgvuldig moeten worden ontworpen, getest en onderhouden. We mogen evenwel niet negeren dat een AI-systeem, ondanks zorgvuldige programmatie, door zijn autonome aard nog steeds schadelijke gevolgen kan hebben. Hiervoor kan de dienstverlener moeilijk aansprakelijk worden gesteld, omdat de (Belgische) wetgeving geen objectieve aansprakelijkheid voor het gebruik van AI kent. Bovendien ligt de zware bewijslast bij de consument zelf. De publiekrechtelijke handhaving biedt een mogelijke oplossing voor dit probleem, maar de effectiviteit van het toezicht zal sterk afhangen van de kennis en expertise van toezichthouders op het gebied van AI. Het blijft echter onzeker in hoeverre deze expertise momenteel volledig ontwikkeld is.
Het blijft weliswaar in het eigen belang van de dienstverleners om naar behoren functionerende AI-systemen in te zetten, aangezien gebrekkige systemen kunnen leiden tot klantenverlies aan concurrenten die wel bereid zijn een overeenkomst aan te gaan of gunstigere voorwaarden kunnen bieden. Deze prikkel tot het inzetten van betrouwbare AI-systemen draagt uiteraard op indirecte wijze bij aan de bescherming van de consument.
Naar een meer proactieve aanpak: AI is here to stay
AI zal een steeds grotere rol spelen in diverse sectoren. Het is daarom van essentieel belang dat de Belgische financiële sector deze ontwikkeling actief omarmt, aangezien stilstand gelijkstaat aan achteruitgang. Het is aan ons – regelgevers, toezichthouders, practici en academici – om de sector hierin verder te stimuleren, dit door de juridische kwesties zorgvuldig in kaart te brengen en oplossingen aan te bieden die een evenwicht creëren tussen consumentenbescherming en innovatie.
Daar de consument niet steeds over de nodige bescherming beschikt, is het van belang om specifieke, proactieve verplichtingen in te voeren die gericht zijn op het tijdig identificeren en beheersen van risico’s. De huidige regelgeving legt te veel de nadruk op het a posteriori bestraffen van overtredingen, terwijl het veel effectiever zou zijn om inbreuken vroegtijdig te detecteren en schade te voorkomen. De nodige ex ante-maatregelen samen met de juiste ex post-mechanismen zijn dus essentieel. Financiële dienstverleners dienen dan ook minstens verplicht te worden hun systemen regelmatig te evalueren en zowel interne als externe controles uit te voeren. Het is verder cruciaal dat toezichthouders over de nodige middelen en expertise beschikken om adequaat hun taak te vervullen. Bovendien moet er worden beslist of het toezicht op AI-systemen binnen de financiële sector wordt waargenomen door de bestaande instanties, zoals de NBB, FSMA of de FOD Economie, of door een nieuw toezichtsorgaan, en is samenwerking tussen de verschillende toezichthoudende instanties (i.e. de financiële toezichthouders, de gegevensbeschermingsautoriteiten, de gelijkheidsorganen en eventueel een nieuw op te richten AI-toezichtsorgaan).
Kortom, deze technologische disruptie biedt aanzienlijke kansen voor de financiële sector. Om deze kansen duurzaam te maken, moeten de nodige waarborgen aanwezig zijn. Waar te veel regelgeving op korte termijn een halt kan toeroepen aan de technische ontwikkeling van AI-systemen, kan te weinig regelgeving op langere termijn voor een nefaste tegenreactie zorgen. Immers, indien ongereguleerde of beperkt gereguleerde AI-systemen schade zouden veroorzaken, kan dit leiden tot onnodig striktere wetgeving die het gebruik van AI in de sector kan verstoren of zelfs volledig kan beperken. Door op tijd de verantwoordelijkheid op de juiste plaatsen te leggen en te zorgen voor een effectief toezicht, kunnen we een toekomst realiseren waarin AI daadwerkelijk een positieve bijdrage levert aan zowel financiële dienstverleners als consumenten.
Dit artikel is gebaseerd op het doctoraatsonderzoek van de auteur dat richtte zich op de juridische aspecten van het gebruik van AI en big data in de financiële sector. Benieuwd naar meer? De commerciële editie van dit onderzoek ligt vanaf lente 2025 in de rekken!
0 reacties