We moeten de technologie wat temmen om deze op verantwoorde wijze te gebruiken. Maar hoe doe je dat?
Fokkema: “Het begint natuurlijk met goed begrip door de hele organisatie: over wat technologie wel en niet kan. Je kunt generatieve AI zien als een superstagiair. Enorm handig en snel, maar net als met een gewone stagiair moet je wel scherp zijn op de uitkomsten.”
Van Riel: “Het is inderdaad belangrijk om mensen tijdig mee te nemen in de veranderingen. Laat ze ervaring opdoen met AI, ook als ze die technologie nog niet concreet toepassen in hun werk. Dan ontdekken ze zelf hoe mooi het is, maar ook waar AI tegen de grenzen van zijn kunnen loopt. Besef ook dat een bepaalde mate van onzekerheid niet erg is. Vijftig jaar geleden ging er ook weleens een krediet mis, het hoort bij de business.”
Delfos: “Binnen financiële dienstverleners zijn we gewend om iets te valideren voordat we het toepassen. Zolang het om data-analyse op gestructureerde data gaat, is dat ook geen probleem. Maar dat geldt niet voor andere vormen van AI waar je met menselijk redeneren soms niet eens kunt uitleggen waarom AI tot bepaalde conclusies komt. Er komen daarmee dus heel nieuwe thema’s op als het gaat om verantwoorde toepassing van deze technologie.”
Mijer: “Er is geen eenvoudig succesrecept om dit goed te beheersen. Het eerlijke antwoord is dat het op heel veel manieren moet gebeuren en dat je gaandeweg moet leren. Mede daarom is het goed om in sand boxes te innoveren. Experimenteren, maar wel met harde grenzen eromheen. Bijvoorbeeld bij data-integriteit of security.”
Vrijheid met vangnetten dus?
Delfos: “Precies. Maar daarmee ben je er niet. Ik denk eigenlijk dat het begint met een heldere purpose. Als je die scherp hebt, dan weet je welke bijdrage je wilt leveren aan de maatschappij en welke problemen je wilt oplossen. Daar kunnen mensen dan ook op teruggrijpen als ze met nieuwe technologieën gaan experimenteren.”
Van Riel: “Daar ben ik het heel erg mee eens, en dat is ook waarom wij het belangrijk vinden dat al onze mensen de bankierseed afleggen. We willen dat zij de vrijheid voelen om dilemma’s op tafel te leggen en te kunnen praten over fouten. Vooral nu digitale technologie een grotere stempel gaat drukken op besluiten is het zaak om ethiek in die beslissingen goed te verankeren. En die ethiek is en blijft een ding van mensen, niet van technologie. Je kunt ethiek ook niet outsourcen naar een groep specialisten.”
Mijer: “De ethische afwegingen zijn principieel overigens niet anders dan vroeger. Als een model een bias heeft, dan is dat omdat de door het model gebruikte data van menselijk gedrag een bias heeft. Tools die getraind zijn op datasets die op verschillende manieren bevooroordeeld zijn, kunnen die bevooroordeeldheid reproduceren. Meer algemeen: ik pleit steeds voor lerend vermogen, met controle op nauwkeurigheid en kwaliteit, zodat je het morgen beter doet dan vandaag. En ik zie daarbij graag dat we in de sector meer samen optrekken.”