EY waarom je esg geknutsel

Waarom je ethische vraagstukken niet kunt outsourcen


Annemarie Mijer ­(Athora), Michiel Delfos (Achmea) en Reinout van Riel (NIBC) tasten de ethische dilemma’s van AI af.

In het kort:

  • Om AI verantwoord in te zetten, moet je op verschillende zaken tegelijk focussen.
  • Zoals lerend vermogen, duidelijke randvoorwaarden bij experimenten en je purpose.
  • Als financiële instellingen dan ook nog meer de samenwerking zoeken, dan kan AI mooie dingen opleveren, blijkt uit onze round table.

AI is en vogue, ook in de boardroom van financiële instellingen. In een round table met drie Chief Risk Officers – Annemarie Mijer (Athora), Michiel Delfos (Achmea), Reinout van Riel (NIBC) ­–en Diederik Fokkema van EY blijkt dat bestuurders zich vooral niet gek moeten laten maken. “Experimenteer, maar wel met harde grenzen eromheen.”

Het gaat hard met (generatieve) AI. Net als je denkt dat het niet gekker kan, bericht de Wall Street Journal daags voor dit gesprek dat Sam Altman op zoek gaat naar zevenduizend miljard dollar om verder te bouwen aan ‘zijn’ OpenAI. Dat astronomische bedrag – ongeveer een derde van de gehele economie van de EU – typeert de enorme verwachtingen. Is de hype te ver opgeblazen of is het ook een grote belofte?

Delfos: “Het gaat ook heel hard. Gerenommeerde professoren van het Massachusetts Institute of Technology (MIT) vertelden me onlangs dat ook zij van slag zijn door het enorme tempo van het afgelopen half jaar. In de toekomst voorzie ik veel kansen voor financiële instellingen. Zo kunnen zij zinnige informatie halen uit ongestructureerde data. Bijvoorbeeld om de schadelast te beperken en risicomodellen te verbeteren. Dat is een heel nieuw terrein, want tot nu toe zijn we vooral goed in het gebruik van gestructureerde informatie. We moeten die nieuwe mogelijkheden zorgvuldig exploreren, want voordat je iets voor een klant gebruikt, moet je zeker weten dat het goed is.”

Mijer: “Ook een feit: AI zorgt echt voor een andere realiteit in hoe je met klanten in gesprek kunt gaan. Een chatbot leert tenslotte door interactie beter in te spelen op klantvragen en dat is iets heel anders dan de klassieke Google-zoekopdracht. Qua timing is de doorbraak van deze technologie heel mooi, bijvoorbeeld voor het Know Your Client (KYC)-proces. De achterstanden zijn daar de afgelopen jaren wel zo’n beetje ingehaald en nu kunnen we met dergelijke lerende processen een kwaliteitsslag maken.”

Van Riel: “Ik denk dat het goed is om onderscheid te maken tussen verschillende domeinen. Aan de ene kant heb je bijvoorbeeld modellen om te voldoen aan regelgeving, waarbij we hoge eisen moeten stellen aan bijvoorbeeld de integriteit van data. Aan de andere kant zijn er ook gebieden waar je je wel wat meer experimenten kunt veroorloven. Wij scannen nu bijvoorbeeld met een robot alle rapportages van klanten op ESG-informatie (Environmental, Social & Governance). Dat staat nog in de kinderschoenen, maar zo’n initiatief is wel goed voor het lerend vermogen in onze organisatie. Een ding blijft wat mij betreft centraal staan: we moeten begrijpen wat we aan het doen zijn.”

Mijer: “Herkenbaar, en dat is juist zo’n belangrijk thema, omdat de technologie zo overtuigend is. Je kunt er dan zo begeesterd door worden dat je te snel je vertrouwen geeft.”

Fokkema: “In het menselijk gedrag spelen zaken als vertrouwen en intuïtie een belangrijke rol. Nu AI zo overtuigend presteert, moeten we dat misschien wel helemaal opnieuw uitvinden. Ons trust system wordt in de war gegooid. Ik denk dat met name de raad van commissarissen daar heel alert op moet zijn.”

Besef dat een bepaalde mate van onzekerheid niet erg is

We moeten de technologie wat temmen om deze op verantwoorde wijze te gebruiken. Maar hoe doe je dat?

Fokkema: “Het begint natuurlijk met goed begrip door de hele organisatie: over wat technologie wel en niet kan. Je kunt generatieve AI zien als een superstagiair. Enorm handig en snel, maar net als met een gewone stagiair moet je wel scherp zijn op de uitkomsten.”

Van Riel: “Het is inderdaad belangrijk om mensen tijdig mee te nemen in de veranderingen. Laat ze ervaring opdoen met AI, ook als ze die technologie nog niet concreet toepassen in hun werk. Dan ontdekken ze zelf hoe mooi het is, maar ook waar AI tegen de grenzen van zijn kunnen loopt. Besef ook dat een bepaalde mate van onzekerheid niet erg is. Vijftig jaar geleden ging er ook weleens een krediet mis, het hoort bij de business.”

Delfos: “Binnen financiële dienstverleners zijn we gewend om iets te valideren voordat we het toepassen. Zolang het om data-analyse op gestructureerde data gaat, is dat ook geen probleem. Maar dat geldt niet voor andere vormen van AI waar je met menselijk redeneren soms niet eens kunt uitleggen waarom AI tot bepaalde conclusies komt. Er komen daarmee dus heel nieuwe thema’s op als het gaat om verantwoorde toepassing van deze technologie.”

Mijer: “Er is geen eenvoudig succesrecept om dit goed te beheersen. Het eerlijke antwoord is dat het op heel veel manieren moet gebeuren en dat je gaandeweg moet leren. Mede daarom is het goed om in sand boxes te innoveren. Experimenteren, maar wel met harde grenzen eromheen. Bijvoorbeeld bij data-integriteit of security.”

Vrijheid met vangnetten dus?

Delfos: “Precies. Maar daarmee ben je er niet. Ik denk eigenlijk dat het begint met een heldere purpose. Als je die scherp hebt, dan weet je welke bijdrage je wilt leveren aan de maatschappij en welke problemen je wilt oplossen. Daar kunnen mensen dan ook op teruggrijpen als ze met nieuwe technologieën gaan experimenteren.”

Van Riel: “Daar ben ik het heel erg mee eens, en dat is ook waarom wij het belangrijk vinden dat al onze mensen de bankierseed afleggen. We willen dat zij de vrijheid voelen om dilemma’s op tafel te leggen en te kunnen praten over fouten. Vooral nu digitale technologie een grotere stempel gaat drukken op besluiten is het zaak om ethiek in die beslissingen goed te verankeren. En die ethiek is en blijft een ding van mensen, niet van technologie. Je kunt ethiek ook niet outsourcen naar een groep specialisten.”

Mijer: “De ethische afwegingen zijn principieel overigens niet anders dan vroeger. Als een model een bias heeft, dan is dat omdat de door het model gebruikte data van menselijk gedrag een bias heeft. Tools die getraind zijn op datasets die op verschillende manieren bevooroordeeld zijn, kunnen die bevooroordeeldheid reproduceren. Meer algemeen: ik pleit steeds voor lerend vermogen, met controle op nauwkeurigheid en kwaliteit, zodat je het morgen beter doet dan vandaag. En ik zie daarbij graag dat we in de sector meer samen optrekken.”

Bij sommige vormen van AI is validatie haast onmogelijk.

Delen jullie die wens?

Fokkema: “Absoluut. Juist in deze tijd. Want in de aankomende fase leren we met AI niet zozeer meer vanuit eigen data en systemen, maar vooral vanuit een veelheid aan andere bronnen. Denk aan betrouwbare ESG-informatie genereren. Juist op dat vlak zou onderlinge afstemming veel winst kunnen brengen.”

Van Riel: “Ik ben daar voor, ook op het vlak van KYC en Anti Money Laundering (AML). Laten we daarbij vooral de toezichthouders aan boord halen. Want ook zij zoeken nog naar antwoorden.”

Delfos: “En laten we niet uit het oog verliezen dat we met AI ook maatschappelijke waarde kunnen creëren. Een geweldig weermodel kan helpen om de schadelast goed in te schatten, maar ook om schade van bijvoorbeeld hevigere zomerstormen en buien met grote hagelstenen te voorkomen. Die maatschappelijke waarde kunnen we door goede samenwerking met elkaar op een veel breder terrein waarmaken.”

Deelnemers

EY annemarie Mijer portrait
EY Micheal Delfos portrait
EY Reinout Van Riel portrait

Annemarie Mijer
CRO Athora

Michiel Delfos
CRO Achmea

Reinout van Riel
CRO NIBC

Lees meer

5 vragen over netto-nul

Taco Bosman (EY) beantwoordt vijf vragen over netto-nul uitstoot in 2050.


    Samenvatting

    Binnen financiële dienstverleners zijn we gewend om iets te valideren voordat we het toepassen. Zolang het om data-analyse op gestructureerde data gaat, is dat ook geen probleem. Maar dat geldt niet voor andere vormen van AI, stellen Annemarie Mijer ­(Athora), Michiel Delfos (Achmea) en Reinout van Riel (NIBC) onder leiding van Diederik Fokkema van EY. Er komen daarmee heel nieuwe thema’s op als het gaat om verantwoorde toepassing van deze technologie, maar er is geen eenvoudig succesrecept om dit goed te beheersen.


    Over dit artikel