EY implementeren van responsible ai

Zeven richtlijnen voor het implementeren van Responsible AI


Gerelateerde topics

Ben jij klaar voor de toekomst? Het EY Responsible AI-framework biedt een concrete aanpak om met vertrouwen Responsible AI te implementeren.

Organisaties staan voor de uitdaging om AI op een verantwoorde manier te implementeren, waarbij ethiek en transparantie centraal staan. Sinds de invoering van de EU AI Act zijn er belangrijke ontwikkelingen in AI-regelgeving die organisaties richtlijnen bieden om innovatie te omarmen zonder in te boeten op veiligheid en privacy. Het EY Responsible AI-framework biedt een praktische aanpak om deze uitdagingen aan te gaan, zodat bedrijven niet alleen voldoen aan de regelgeving, maar ook waarde creëren door een solide en toekomstgerichte basis in hun AI-systemen.

Hieronder staan de zeven richtlijnen die EY heeft opgesteld voor een verantwoorde omgang met AI:

1. Verantwoordelijkheid

  • Vanwege het multidisciplinaire karakter van AI-governance is het belangrijk om iemand binnen de organisatie aan te wijzen die verantwoordelijk is voor de ontwikkeling en implementatie van AI-systemen.
  • Leg duidelijk vast hoe AI-systemen gebruikt moeten worden, welke processen gevolgd dienen te worden en waar de verantwoordelijkheden liggen.
  • Laat medewerkers actief meedenken en bijdragen, zodat er een cultuur ontstaat waarin medewerkers zich eigenaar voelen van de AI-systemen.
     

2. Eerlijkheid

  • Zorg voor een gevarieerde en representatieve dataset die de diversiteit van de samenleving weerspiegelt om vooringenomenheid te voorkomen.
  • Betrek verschillende stakeholders bij de implementatie van het AI-systeem om perspectieven te verzamelen en ervoor te zorgen dat alle standpunten worden gehoord.
  • Monitor AI-systemen regelmatig door de uitkomsten te controleren en indien nodig aanpassingen te maken om vooringenomenheid te voorkomen.
     

3. Duurzaamheid

  • Bouw ESG-doelen direct in de ontwikkeling van het AI-systeem. Beperk bijvoorbeeld de hoeveelheid energie die het systeem verbruikt en verminder het gebruik van materialen die de gezondheid van mensen en het milieu kunnen schaden.
  • Houd workshops tijdens de ontwerp- en implementatiefase van het AI-systeem om ervoor te zorgen dat ESG-doelen worden geborgd. Betrek belanghebbenden zoals milieu-experts, wetenschappers of innovatieve bedrijven bij deze workshops.
  • Monitor de prestaties van het AI-systeem en evalueer de impact op ESG-doelen. Zorg ervoor dat elk aspect van het AI-systeem kan worden bekeken en dat alle winsten en verliezen bekend zijn.

4. Transparantie

  • Maak de informatie over het AI-systeem gemakkelijk toegankelijk voor zowel eindgebruikers als systeemontwerpers, bijvoorbeeld via gebruiksaanwijzingen, video's en interactieve online platforms.
  • Bied training en opleiding aan eindgebruikers en ontwerpers, zodat zij het AI-systeem kunnen begrijpen en correct toepassen. Dit helpt om fouten en misbruik te voorkomen.
     

5. Betrouwbaarheid

  • Zorg voor een veilige architectuur van het AI-systeem om de veiligheid te waarborgen. Dit omvat onder andere encryptie, beveiligde netwerktoegang, meervoudige authenticatie, firewalls en het gebruik van VPN's.
  • Beperk de toegang tot het AI-systeem en de bijbehorende gegevens tot alleen gemachtigde gebruikers of apparaten om potentiële bedreigingen te verminderen.
  • Zorg voor regelmatige beveiligingsupdates van het AI-systeem en de bijbehorende software en firmware om kwetsbaarheden te verminderen en nieuwe bedreigingen te voorkomen.
  • Implementeer trainingsprogramma's om medewerkers bewust te maken van de bedreigingen en risico's van AI-systemen, vooral op het gebied van cyberbeveiliging. Dit helpt hen om bewuster en voorzichtiger om te gaan met het AI-systeem en de gegevens.
     

6. Gegevensbescherming

  • Zorg ervoor dat het ontwerp, de implementatie en het gebruik van AI-systemen voldoen aan relevante wet- en regelgeving. Voer een risicoanalyse uit om mogelijke effecten en risico's voor de privacy van persoonlijke gegevens te identificeren.
  • Minimaliseer de hoeveelheid persoonlijke informatie die in het AI-systeem wordt ingevoerd. Zorg ervoor dat alle verzamelde persoonlijke informatie strikt noodzakelijk is voor het doel van het AI-systeem. Het ontwikkelen van een Privacy Statement kan hierbij helpen.
  • Zorg voor een beveiligde data-opslag om persoonlijke informatie te beschermen tegen risico's zoals hacks en datalekken. Gebruik encryptie en veilige opslagmethoden om de kwetsbaarheid van gegevens te verminderen.
  • Zorg voor transparantie in de verwerking van persoonlijke informatie. Dit houdt in dat duidelijk is hoe en waarom deze informatie wordt verzameld, verwerkt en gedeeld. Bied gebruikers volledige transparantie over hun gegevens.
  • Bied trainingen aan over het belang van gegevensrechten en de verantwoordelijkheden van de organisatie met betrekking tot de verwerking en het gebruik van persoonlijke informatie.
     

7. Begrijpelijkheid

  • Zorg voor duidelijke en begrijpelijke besluitvorming. Wanneer een AI-systeem een beslissing neemt, moet het de criteria die tot die beslissing hebben geleid helder uitleggen aan gebruikers.
  • Geef gebruikers de keuze om al dan niet gebruik te maken van geautomatiseerde beslissingen. Als zij dit niet willen, moet er een alternatieve optie zijn zonder automatisering.
  • Zorg ervoor dat de besluitvormingscriteria van het AI-systeem gecontroleerd en gevalideerd kunnen worden door menselijke operators. Dit betekent dat de criteria bekendgemaakt en gecontroleerd kunnen worden tijdens het gebruik.
     

Klaar voor de toekomst met Responsible AI?

Met het EY Responsible AI-framework maken we het mogelijk om het volledige potentieel van AI te benutten. Dit doen we door het blootleggen van kwetsbaarheden en risico’s waarbij ethiek een centrale rol speelt. Tenslotte draait het bij Responsible AI om het kweken van vertrouwen. Door het volgen van onze zeven richtlijnen kunnen organisaties niet alleen de risico’s minimaliseren, maar ook de deur openzetten voor innovatie. Ben jij benieuwd waar je organisatie staat in de EU AI Act Roadmap? De mogelijkheden van AI zijn eindeloos, zolang we er slim mee omgaan en de toekomst duurzaam vormgeven.

Plan jouw AI-reis

 

Neem contact met ons op voor meer informatie over EY.ai, onze holistische benadering van AI.



Samenvatting

Responsible AI en de AI wetgeving worden vaak gezien als blokkerende factoren. Dat is nergens voor nodig. Organisaties hoeven niet in te leveren op innovatie als ze de security, privacy en de ethische en governance aspecten goed inregelen in het design.


Over dit artikel

Lees ook

EU AI Act Roadmap: Wat betekent de AI-wet voor jouw organisatie?

Onze EU AI Act Roadmap helpt je verantwoord AI te implementeren door nu de juiste stappen te nemen.

06 feb 2025 Bernadette Wesdorp

De impact van de EU AI Act: Responsible AI en inzichten van de EU AI Barometer

Ontdek hoe de EU AI Act en het Responsible AI Framework bedrijven verplichten tot technologische en ethische training, risicobeheer en multidisciplinaire samenwerking. Leer hoe organisaties zich kunnen aanpassen aan de nieuwe AI-regelgeving.

05 aug 2024 Bernadette Wesdorp

AI en fraude: kansen en risico’s in het digitale tijdperk

AI-kennisontwikkeling groeit; 'Focus op Fraude' webinar belicht preventie van AI gerelateerde fraude en kansen van AI voor organisaties.

04 jun 2024 Bernadette Wesdorp + 1
    You are visiting EY nl (nl)
    nl nl