AI時代に確信を持ってデータプライバシーに対処するための6つの措置

AI時代に確信を持ってデータプライバシーに対処するための6つの措置


AIを巡るプライバシーや規制に関する懸念が増大する中、企業にはそれらの課題に対処する必要があります。 


要点

  • AIの利用が進むにつれ、データプライバシーリスクが高まる恐れがある。
  • AIにおけるデータ利用については、まだ明確で一貫性のある規制は制定されていない。
  • 企業がAIを利用する際には、データプライバシーに関する責任と義務の履行を徹底するための措置を積極的に図る必要がある。

人工知能(AI)、生成AI、大規模言語モデル(LLM)が急速に普及するにつれ、データプライバシーおよびデータ倫理に関するリスクが高まるとともに、意図しない結果につながることも増えてきています。 

最新のLLMは、数多くのソースから抽出された膨大なデータを処理していますが、多くの場合、データは無許可で使用されています。このため、一般市民のプライバシー権に対する懸念や、ローン、求人への応募、出会い系サイト、さらには刑事事件に関してさえ、AIが偏った判断をする可能性を下す可能性もあります。 

このようにAIを巡る状況は急速に進展しているものの、規制当局の多くは、AIのメリット最大化とリスク軽減を目的とするフレームワークの開発に着手したばかりです。このフレームワークは、レジリエンス、透明性、公平性を備えている必要があります。 EUは予定されている新たなAI法に関して最も包括的なアプローチ(英語版のみ) をとってきましたが、その一方で、AI規制のあり方に対する理解を進め、合意を形成する取り組みが協調的に実施されてきたとはいえません。そのため、当然のことながら、業界のリーダーたちは各国・地域の政府に対して、AI利用規制に関する取り組みを強化し、さらに大きな役割を果たすよう求めています1。EYでは、規制環境の進展を俯瞰するため、 次の8つの国・地域の規制アプローチの分析(英語版のみ)を実施しました。対象となったのは、カナダ、中国、EU、日本、韓国、シンガポール、英国、米国です。

各企業がAIを巡る状況の急速な変化に合わせて、自社が適応すべき戦略を策定できれば理想的でしょう。しかし、多くの企業はAIの活用に向け取り組み始めたばかりであることを考えると、これは難しいかもしれません。そのため、企業はAIを積極的に活用することを望みつつも、規制を順守し顧客の信頼を維持しなければならず、企業にとっては難しい状況が生じています。「AIの活用における先駆者になるか、それとも後続集団の一員になるかについて、企業にとって葛藤が生じています。規制が進化する中、企業はイノベーションを可能にするとともに自社と顧客を守る、俊敏性を備えた統制フレームワークを導入する必要があります」とErnst & Young LLPのUK Head of Data Protection Law Servicesを務めるGita Shivarattanは指摘します。本稿では、企業がAIなどの新技術を導入する際に、データプライバシーとデータ倫理に関する自社の優先事項に沿い、義務へ誠実に対応するためにデータプライバシー責任者が取ることができる6つの主要な措置について検討します。  

企業には、AIの活用における先駆者になるか、それとも後続集団の一員になるかについて葛藤が生じています。企業はイノベーションを可能にするとともに自社と顧客を守る、俊敏性を備えた統制フレームワークを導入する必要があります。

データプライバシー責任者が以下の6つの措置を図ることで、企業はAIの利用を進める際に、より俊敏にデータプライバシーに関する自社の優先事項に従い、義務を履行できるようになります。
 

1.プライバシーリスクにおけるコンプライアンスについて自社の主張を整理する

プライバシーリスクに対する統制、およびプライバシーに関するコンプライアンス全般の成熟度を評価し、AIガバナンスの強固な基盤を構築します。これには、従業員と規制当局が納得できる主張を示すことが不可欠です。現在、さまざまな国・地域でプライバシー法規制の制定が急速に進んでいますが、その大半(全てではないにしても)には一般データ保護規則(GDPR)の趣旨が盛り込まれています。したがって、プライバシーに関するリスクや倫理を検討する際には、「GDPRから得た経験を活用」するようErnst & Young LLPのLaw部門でパートナーを務めるMatt Whalleyは助言しています。「将来、根拠を示すよう求められた場合に備えて、自社の意思決定に関連する要素を確実に文書化する必要があります」。最終的には、自社の主張を通じて、コンプライアンスがどのように顧客の信頼の形成と評判失墜や罰金賦課の防止に関与し、リスクを管理しつつAIイノベーションとデータに基づく意思決定を可能にすることで業績に貢献しているのかを示すことになります。

GDPRから得た経験を活用してください。将来、根拠を示すよう求められた場合に備えて、自社の意思決定に関連する要素を確実に文書化する必要があります。

2. リスクに対する統制、ガバナンス、説明責任を規定する

明確な規制がない中で、企業が確信を持ってAIの活用を進めるには、リスクに対する統制とガバナンスのフレームワークが役立つでしょう。しかし、 2022年にEYが実施した調査(英語版のみ)によると、AIに関して全社的なガバナンス戦略を策定している企業は35%に過ぎません。

AIガバナンスプログラムを確固としたものにするには、データ、モデル、プロセス、アウトプットをプログラムに含めるとともに、イノベーションによりもたらされる効果と企業が果たすべき責任の均衡を図るべきです。そうすることで、製品開発チームは、顧客の信頼を失うかもしれない、規制当局が警戒心を抱くような高リスク領域へは踏み込むことなく試行を進めることが可能になります。また、「プライバシー保護とバイアス防止を図るため、AIモデルは規制当局と一般の人々がデータの出所と加工の方法を確認できるよう、透明性を備えているべきです」とShivarattanは指摘します。最も重要なのは、ガバナンスフレームワークに下記の措置を規定し、AIのシステムとその成果に対する責任と説明責任が確実に果たされるようにすることです。

  • AIの適切な利用に関する明確な手続きを策定する。 
  • データ利用の促進および管理に責任を負う関係者全員を啓発する。
  • プライバシーに関する影響評価やデータ保護に関する影響評価を含め、AIに関するあらゆる決定について監査記録をつける。  
  • 収集されたデータの中にバイアスが検知された場合の対処方法に関する手続きを策定する。 
プライバシー保護とバイアス防止を図るため、AIモデルは規制当局と一般の人々がデータの出所と加工の方法を確認できるよう、透明性を備えているべきです。

3. データ倫理を業務運営に組み込む 

データ倫理、データプライバシー、責任あるAIの間には明確な結び付きがあります。「データ倫理に従うことで、企業はデータ利用に関して『できること、なすべきこと』を決定する際に、法的許容性と営業戦略以上のものを視野に入れざるを得なくなります」とWhalleyは説明しています。

データ倫理を業務運営に組み込むに当たって、既存のポリシーと業務モデルを見直した後に企業がまず行う必要のあることの1つとして、準拠するべき主要な原則とポリシーの特定があります。テクノロジーを活用すれば、これらの原則やポリシーを第一戦の意思決定過程に根付かせ、規制上の義務と併せて考慮されるようになるでしょう。

原則は、既存の価値や従業員センチメントの延長線上の、企業自体に由来するものである場合もあります。例えば、AIの適切な利用を定義するに当たって、個人データの妥当な利用のあり方を、正当な利益はあるか、得られるメリットは個人の自己決定権を上回るか、個人に不測の被害が生じる可能性に十分配慮しているかといった点を検討して評価する場合と同様の手順を踏むことも選択肢の1つになるかもしれません。 

原則が第三者機関や顧客センチメントなどの他の要因に由来する場合もあります。 例えば、規制の方向性が定まらない中、最新のAIモデルを備える企業の一部は、多様な業界において導入可能な基準の策定に取り組んでいます2

データ倫理に従うことで、企業はデータ利用に関して「できること、なすべきこと」を決定する際に、法的許容性と営業戦略以上のものを視野に入れざるを得なくなります。

最善の道筋が常に明確になっているわけではありません。そのため、ポリシーと原則について関係者を啓発することが不可欠です。また、利害の対立を調整するため、「トレードオフの枠組み」を策定するべきです。

最後に、データ倫理の準拠状況を把握するには、企業全体のAIに関連するデータ利用を視野に入れることが必須です。データプライバシーに関する懸念の対象にはサプライヤーやその他の第三者も含まれるため、AIが何らかのソリューションやサービスに使用されている場合には、契約上の要件として開示を義務付けるべきです。
 

4. データプライバシーおよびデータ倫理に関するリスクの取締役会レベルの報告

取締役会が包括的な倫理フレームワークに沿ってAIの活用に伴うリスクを理解・軽減し、戦略上の決定を行えるよう、関係者全員が協力して支援する必要があります。多くの企業では、データ倫理に関する責任を負うこともあるデータ保護責任者(DPO)または最高プライバシー責任者(CPO)と最高データ責任者(CDO)が責務を分担しています。さらに歩みを進め、最高AI責任者(CAIO)を任命している企業もあります。AIにおけるデータの倫理的利用について管理と均衡が適切に機能するよう、これらの経営幹部が協力して取り組む必要があります。


5. 顧客センチメントを対象に含めるため、ホライズンスキャニングを拡大する


個人データの大規模な収集・保管に対する懸念を背景に、2023年4月、イタリアは西洋諸国で初めて、最新生成AIチャットボットの一時的な禁止に踏み切りました3。日本でも、プライバシー保護機関が当事者の許可なく機微データを収集しないよう警告を発しました4。


このような措置が取られた場合、AIへの投資価値が一挙に損なわれかねません。規制の変更を巡る不確実性を低減し、不測の事態を回避するには、先見的な体系的分析またはホライゾンスキャニングが不可欠です。しかし、留意する必要があるのは規制だけではありません。企業は、顧客がAIの利用とデータプライバシーについてどのように考えているのかを常に把握しておく必要があります。顧客と日頃から対話を重ねて許容範囲と「立ち入ってほしくない領域」を理解することにより、規制当局の一歩先を行くよう努めなければなりません。 


6. コンプライアンスとトレーニングに投資する

AI利用に対する関心は比較的わずかな期間に急激に高まりました。これを受け、さまざまな企業の従業員がAI利用の影響とそれがデータプライバシーに与えるインパクトを理解しなければならない状況に置かれています。既存のコンプライアンスチームを対象にOJTと座学を組み合わせた研修を実施してスキルアップを図るために、新たに専門家を雇用しなければならない企業も多いでしょう。 

特に重要なのは、開発者、検査担当者、データサイエンティストなどのAIに直接関わる従業員に研修を実施し、AIの限界、AIが誤りを犯す可能性が高い領域、適切な倫理、人間が介入することでどのようにAIを補完するかについて理解できるよう支援することです。AIの制御に取り掛かるに当たって業務指針の策定に加え、イノベーション促進とデータプライバシーやデータ倫理の尊重との均衡を目指す考え方を醸成する必要があります。

EYのメンバーファームは、現地の法令により禁止されている場合、法務サービスを提供することはありません。

1. "The EU is leading the way on AI laws.The US is still playing catch-up," The Guardian, https://www.theguardian.com/technology/2023/jun/13/artificial-intelligence-us-regulation(2023年11月16日アクセス)
2. "Democratic inputs to AI," Open AI, https://openai.com/blog/democratic-inputs-to-ai(2023年11月16日アクセス)
3. "ChatGPT banned in Italy over privacy concerns," BBC, https://www.bbc.com/news/technology-65139406(2023年11月16日アクセス)
4. "Japan privacy watchdog warns ChatGPT-maker OpenAI on user data," Reuters, https://www.reuters.com/technology/japan-privacy-watchdog-warns-chatgpt-maker-openai-data-collection-2023-06-02/(2023年11月16日アクセス)



サマリー

AIの活用が進む中、データプライバシー規制の順守に不備が生じるリスクが増大するとともに、企業が自社の顧客の信頼を損なう事態を招く可能性が高まっています。データプライバシー保護と責任あるAI利用を促進するための措置を取ることで、企業はイノベーションを進め、顧客の信頼を勝ち取り、コンプライアンスを徹底することができます。


この記事について