Gebruik algoritmes maakt bank klantvriendelijker?! - VP&P
Voogt Pijl & Partners
Search Icon
×

Gebruik algoritmes maakt bank klantvriendelijker?!


De opkomst van (zelflerende) algoritmes in de financiële sector is niet te stoppen. De mogelijkheden zijn immers talrijk. Bekende toepassingen zijn de verstrekking van financieringen, zoals new10, en detectie van fraude, maar ook het geautomatiseerd geven van adviezen wordt steeds normaler.

Grootse voordelen zijn snelheid en lage kosten

De grootste voordelen van de inzet van algortimes ten opzichte van menselijke beoordeling zijn snelheid en lage kosten. Twee zaken waar zowel de bank als de klant bij gebaat zijn. Waar het aanvragen van een hypotheek, bedrijfslening of verzekering in het verleden vaak een langdurig en ondoorzichtig proces was, is het tegenwoordig mogelijk om direct na afronding van het aanvraagproces uitsluitsel te krijgen. Tegelijkertijd is het gelukt om de van oudsher dure adviesdiensten voor lage tarieven beschikbaar te maken voor de retailmarkt. Denk aan geautomatiseerd vermogensbeheer, zoals Evi van Lanschot. Tot slot maken de lage kosten van algoritmes nieuwe vormen van maatwerk mogelijk. Bijvoorbeeld het verstrekken van een hypotheek op basis van iemands betaalhistorie. Deze laatste zou een uitkomst kunnen zijn voor de groep klanten die al jarenlang een hoge huur kunnen opbrengen, maar op basis van tijdelijke contracten niet in aanmerking komen voor een hypotheek. Geen wonder dat het gebruik van algoritmes gepropageerd wordt als klantvriendelijk.

Efficiëntie draagt wel bij, maar is niet gelijk aan klantvriendelijkheid

Het is echter belangrijk efficiëntie niet te verwarren met klantvriendelijkheid. Er zijn namelijk serieuze zorgen over de betrouwbaarheid en controleerbaarheid van algoritmen. Zo bestempeld de Amerikaanse wiskundige O’Neil mathematische big data modellen als 'Weapons of math destruction', en heeft de AFM het risico op onverantwoord gebruik van technologie en data op nummer 4 van haar top 10 risico’s gezet. Vanuit het perspectief van de klant kunnen snelle eendimensionale antwoorden (wel/geen financiering) leiden tot onbegrip. Veel algoritmen die gebruik maken van deep learning fungeren als een black box, waardoor het überhaupt niet mogelijk is om helder aan te geven op basis van welke overwegingen een klant wordt afgewezen. Doordat klantvragen worden gereduceerd tot een combinatie van kenmerken, als input voor een model, is het lastig als klant om de kleuring en context van zijn situatie kwijt te kunnen. Hiermee kan het gevoel ontstaan niet gehoord te worden.

Kans op (onbedoelde) discriminatie en versterking van negatieve klantpatronen is reëel

De reductie van een persoon tot een set van kenmerken heeft ook het risico tot discriminatie in zich. Het gevaar is dat wordt gedacht dat algoritmes bij het maken van onderscheid -in tegenstelling tot mensen- ‘neutraal’ tot een bepaalde uitkomst komen. Dat is niet het geval. Zowel de data waarmee een algoritme werkt, als het algoritme zelf, kunnen bepaalde vooroordelen bevatten die kunnen leiden tot discriminatie. Hier zijn al verschillende spraakmakende voorbeelden van in de media gekomen, zoals de personeelsselectie robot van amazon die vrouwen discrimineerde.

Tevens bestaat het risico dat negatieve patronen versterkt worden. Indien een klant ooit failliet is gegaan of een betalingsachterstand heeft gehad, kan dat de reden zijn hem geen nieuwe financiering te verstrekken. Dit kan vervolgens weer leiden tot meer problemen voor de klant, waardoor het nog lastiger wordt bij een volgende aanvraag.

Borgen van klantvriendelijkheid in algoritmes vergt forse extra inspanning

Het is dus zaak voor een financiële instelling, die klantvriendelijkheid hoog in het vaandel heeft staan, hier gedegen rekening mee te houden. Sommige banken ondervangen dit dilemma door in het geval van afwijzingen door een algoritme een menselijke second opion in te bouwen. Hierbij wordt door een acceptant nogmaals een inhoudelijke toetsing uitgevoerd en de terugkoppeling naar de klant verzorgd. Hierdoor valt echter wel een stuk van de snelheid en het kosten voordeel weg. Om die reden zetten veel banken in op uitlegbaarheid en transparantie vanuit de algoritmes zelf. Dit is vanwege de aard van de werking soms moeilijker dan het op het eerste gezicht lijkt. Het zorgdragen voor zogenaamde ‘ethische algoritmes’ is een tak van sport op zich. Het belang hiervan wordt wel steeds breder erkend. Zo is JK Ventures samen met de Volksbank en de Erasmus Universiteit het project ‘Morele richtlijnen voor AI in de financiële sector’ gestart om een ethisch kader te ontwikkelen met concrete morele richtlijnen.

Sleutel voor borging van klantvriendelijkheid ligt in uitlegbaarheid en transparantie

Financiële instanties dienen zich te realiseren dat bij de inzet van algoritmen keuzes gemaakt dienen te worden over het belang van uitlegbaarheid en transparantie naar de eindklant. Gebeurt dit niet dan kan de uitmuntende klantervaring, die beoogd wordt met de introductie van een fancy algoritme, wel eens heel anders uitpakken.

Ruben Velstra is consultant van Voogt Pijl & Partners, een middelgroot boutique adviesbureau gespecialiseerd in business transformatie in de financiële sector. In de afgelopen jaren heeft hij middels de inzet van (nieuwe) technologie een groot aantal organisatievraagstukken opgelost. 
Ruben

Ruben Velstra

Lees meer over Ruben