EYとは、アーンスト・アンド・ヤング・グローバル・リミテッドのグローバルネットワークであり、単体、もしくは複数のメンバーファームを指し、各メンバーファームは法的に独立した組織です。アーンスト・アンド・ヤング・グローバル・リミテッドは、英国の保証有限責任会社であり、顧客サービスは提供していません。
要点
「AI事業者ガイドライン」の「第1部AIとは」及び「第2部AIにより目指す社会と各主体が取り組む事項」について説明します。
第1部は、「AI事業者ガイドライン」の内容に関する理解を助けるために、「用語の定義」を中心に記載されています。ここでは、AIとAIシステム、AIモデル、AIサービス等の定義の違いを押さえておくことが有用と考えられます。また、高度なAIシステムについては、第2部以降における各主体が取り組むべき事項において、広島国際プロセスを踏まえた追加的な考慮が求められることから、その定義について把握しておくことが有用と考えられます。
用語の定義を要約すると、下図のとおりとなります。
第2部は、以下A~Eの5つのセクションにて構成されています。
以下、1つずつ順を追って解説します。
基本理念は「人間の尊厳が尊重される社会(Dignity)」、「多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity and Inclusion)」、「持続可能な社会(Sustainability)」の3点で構成されています。この基本理念は、技術の発展によっても変わるものではなく、目指すべき理念であり続けるものとされています。
「原則」は、上記「基本理念」を実現するために各主体が念頭におくべきものであり、「各主体が取り組みを進める事項」と、「社会と連携した取組が期待される事項」に分けて整理されています。それぞれを通して、人間中心、安全性、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、教育・リテラシー、公正競争確保、イノベーションの計10個のキーワードがあり、これらが後述の「C.共通の指針」につながっています。
「共通の指針」は、「原則」から導き出された、AI開発者、AI提供者、AI利用者それぞれに共通して取り組むべき事項となります。具体的な内容は下表のとおりです。
これらの共通の10指針は、AIの利用から生じるリスクと対応しています。言い換えると、各主体は、共通の10指針を遵守すること(それに加えて、各主体が、それぞれが開発・提供・利用するAIシステム・サービスの特性、用途、目的及び社会的文脈を踏まえ、第3部~第5部に記載の取り組み事項を遵守すること)により、AIを安心安全に開発・提供・利用することができる、ともいえます。
「AI事業者ガイドライン」の別添資料には、「AIの利用から生じるリスクや事例」と「共通の指針」の対応が例示されています。この中から、いくつかピックアップして解説します。
とあるIT企業が自社でAI人材採用システムを開発したが、女性を差別するという機械学習面の欠陥が判明しました。これは、学習に使用した過去10年間の履歴書において、応募者のほとんどが男性であったことから、男性を採用することが好ましいとAIが認識したためといわれています。
では、このリスクに対してどのような取り組みをしていれば低減できたでしょうか。
例えば、共通の指針の1つである「人間中心」に基づき、AIの設計段階において人間中心原則への配慮をすることや、同じく共通の指針の指針の1つである「公平性」に基づき、学習データの偏り、網羅性等に対する考慮、あるいは人間の判断を介在させる等が考えられます。
とあるクレジットカードにおいて、同じ年収を有する男性及び女性に対して、女性の方が利用限度額が低いとの報告がSNS上で広がりました。この問題に対し、当局が調査を実施し、クレジットカードを提供した企業に対してアルゴリズムの正当性の証明を求めたが、企業はアルゴリズムの具体的な機能及び動作について説明することができませんでした。
では、このリスクに対してどのような取り組みをしていれば低減できたでしょうか。
例えば、共通の指針の1つである「透明性」に基づき、AIの判断結果の検証可能性(開発過程、入出力結果、学習プロセス、推論過程等)を確保することや、同じく共通の指針の1つである「アカウンタビリティ」に基づき、AIの意思決定に関してトレーサビリティを確保する等の取り組みが考えられます。
このように、「AI事業者ガイドライン」の別添に掲載されている「AIの利用から生じるリスク」の事例と、共通の指針とのマッピングを理解することにより、実際にAIのリスクをどのように低減させることが可能なのか、イメージを膨らませることができると思われます。
高度なAIシステムに関係する事業者は、広島AIプロセスを経て策定された「全てのAI関係者向けの広島プロセス国際指針」及びその基礎となる「高度なAIシステムを開発する組織向けの広島プロセス国際指針」を踏まえ、「共通の指針」に加えて、「高度なAIシステムに関係する事業者に共通の指針」を遵守することが求められます。
ただし、I)~XI)は高度なAIシステムを開発するAI開発者にのみ適用される内容もあるため、第3~5部に後述のとおり、AI提供者及びAI利用者は適切な範囲で遵守することが求められることに留意が必要です。
AIの便益を享受しリスクを抑制するためには、AIに関するリスクをステークホルダーにとって受容可能な水準で管理しつつ、そこからもたらされる便益を最大化するための、AIガバナンスの構築が重要となります。
このAIガバナンスの構築にあたっては、次のようなAIを取り巻く環境の特性や、その環境を踏まえたアジャイルなアプローチが重要となります。
サイバー空間とフィジカル空間を高度に融合させたシステム(CPS)を基盤とする社会は、複雑で変化が速く、リスクの統制が困難となります。したがって、社会の変化に応じて、AIガバナンスが目指すゴールも常に変化させていくことが必要となります。
社会の変化に応じてAIガバナンスが目指すゴールを変化させていくためには、事前にルール又は手続きが固定されたAIガバナンスでは対応できません。
企業・法規制・インフラ・市場・社会規範といったさまざまなガバナンスシステムにおいて、「環境・リスク分析」「ゴール設定」「システムデザイン」「運用」「評価」といったサイクル(5つのサイクル)を、マルチステークホルダーで継続的かつ高速に回転させていく、「アジャイル・ガバナンス」の実践が重要となります。
なお、「AI事業者ガイドライン」の「別添2.E AIガバナンスの構築」では、AIガバナンスの構築において留意する観点として、「行動目標」及び、「実践のポイント」、「実践例」が、上記5つのアジャイル・ガバナンスサイクルそれぞれについて掲載されています。
「行動目標」は、一般的かつ客観的な目標であり、社会に対して一定のリスクを与え得るAIシステム・サービスの開発・提供・利用に関わる全ての主体が実施することが重要とされています。
一方で、「実践のポイント」及び「実践例」の採否は各主体に委ねられ、採用する場合であっても、各主体の事情に応じた修正及び取捨選択の検討が期待されるものとされています。
下図は、「AI事業者ガイドライン」本編における「5つのアジャイル・ガバナンスサイクル」と、その構築において留意すべき観点として、別添に記載された「行動目標」を合わせて示したものとなります。
企業がAIガバナンスを構築するにあたっては、AIを取り巻く環境の特性に留意するとともに、AIガバナンスは、そのゴールを含めて常に変化するものであることを踏まえ、上記5つのアジャイル・ガバナンスサイクルを高速に回転させていくことが有用と考えられます。また、当然ながらこれらを効果的な取り組みとするためには、経営層の責任は大きく、経営層がリーダーシップを発揮することが極めて重要と考えられます。
「AI事業者ガイドライン」の第1部、第2部について解説してきました。
なお、第2部のA~Eについて、ピラミッド構成で整理すると下図のとおりとなります。このように視覚的に捉えると、より理解しやすくなります。
出典)総務省、経済産業省「AI事業者ガイドライン(第1.0版)」本編概要
www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20240419_2.pdf(2024年7月26日アクセス)に基づきEY作成
次回は、第3部・第4部に関する解説を行います。
【共同執筆者】
松本 朋大
(EY Japan Technology Risk シニアマネージャー)
第1部には用語の定義が記載されており、第2部は、基本理念、原則、共通の指針やAIガバナンスの構築等が記載されています。各AI事業者は、特に第2部「C.共通の指針」を十分に理解した上で第3部以降を活用し、提供するAIサービスに即したリスク及びその対応方針を検討することが有用となります。