父亲飞女儿背景

如何让AI实现信任价值?

AI的变革潜力巨大 — 但其风险也很高。从一开始就嵌入信任可以帮助企业获得AI的回报吗?

本文是有关数字化信任(EN)洞察系列的一部分。

随着人工智能(AI)和机器学习使用激增,面对迅速发展的AI技术,指导其使用的企业治理和控制显得力不从心。

外部监管机构滞后,目前企业正在努力应对日益增长的要求,展示其能够跟上技术快速发展步伐的健全、透明控制。

在最近引起关注的灾难中,事实一次又一次地证明,在没有健全的治理和伦理框架下使用AI存在严重的运营风险。数据技术和系统可能出现故障、被故意或意外损坏,甚至注入人为偏见。这些故障对安全、决策和可信度产生深远的影响,并可能导致代价高昂的诉讼、声誉受损、客户反感、盈利能力下降和监管审查。

建立信任的必要性

在企业内部,领导者必须对其AI系统可靠、准确地运行充满信心,他们需要信任所使用的数据。然而,这仍然是一个令人担忧的领域;在我们最近的调查中,近一半 (48%) 的受访者表示,对数据的质量和可信度缺乏信心是企业范围内AI程序面临的挑战。1

同时,企业还需要与外部利益相关方建立信任。例如,客户、供应商和合作方需要对企业内运行的AI充满信心。他们想了解何时与AI交互,AI使用哪种类型的数据,以及用于什么目的。他们希望确保AI系统在未经其明确和知情同意的情况下不会收集、保留或披露其机密信息。怀疑这些技术的目的、完整性和安全性的企业将不情愿 — 甚至可能最终拒绝 — 分享未来创新所依赖的数据。

监管机构也希望AI对社会产生“净积极”影响,并已经开始制定有关人类保护、自由和整体福祉的执行机制。

最终,要被内部和外部用户所接受,AI系统必须是可理解的,这意味着其决策框架可以被解释和验证。即使面对不断演变的威胁,它们也必须绝对安全。

在这些考虑中,有一点越来越明显,即如果未采用有助促进对AI 信任的治理和伦理标准,企业将不能充分发挥这些令人振奋的技术的潜能来推动未来增长。

没有信任,AI就无法实现其潜在价值。针对AI动态学习过程实施的新的治理和控制有助于应对风险并建立对AI的信任。
Little boy is meeting his new pet, little grey cat that is in mother's hands
1

第一章

将信任全面嵌入AI

旨在培养信心的原则

将AI风险降至最低的第一步是在管理层以及企业计划部署的AI系统设计者、架构师和开发人员中提高对风险的认识。

然后,企业必须承诺从第一天起就积极地将信任设计到AI系统的各个方面。这种信任应该扩展到AI系统的战略目的、数据收集和管理的完整性、模型训练的治理以及用于监控系统和算法性能的技术的严谨性。

采用一套核心原则来指导与AI相关的设计、决策、投资和未来创新,将有助于企业在这些技术的发展过程中培养必要的自信和自律。

请谨记,无论是企业使用AI的方式还是AI运行后的演进和学习方式,AI都在不断变化。这种持续的创新令人振奋,无疑会产生巨大的新潜能和影响,但传统的治理原则根本不足以应对AI的高风险以及其快速演进的步伐。这些双重挑战需要一种更严谨的方法来管理企业利用AI的方式,以及在当下和未来都能获得最佳结果。

在我们与客户、监管机构和学术界的持续对话中,以及我们开发AI计划早期使用和风险评估的经验中,我们观察到三个核心原则,这些原则有助在建立和保持信任的情况下指导AI创新:

  1. 针对性设计:设计和构建系统,将机器人、智能和自主能力的适当平衡进行有针对性的整合,推进明确的业务目标,同时考虑环境、约束、准备和风险。
  2. 敏捷治理:追踪社会、监管、声誉和伦理领域的新兴问题,为管理系统完整性、使用、架构和嵌入式组件,数据溯源和管理、模型训练和监控的流程提供信息。
  3. 审慎监督:不断微调、管理和监控系统,以实现性能可靠性,识别并纠正偏见,提高透明度和包容性。

为什么这些原则特定于AI?因为每个原则中包含的限定词:针对性、敏捷和审慎。这些特征契合AI的独特性,应对其可能带来的最大挑战。

例如,在以往“只有人类能做到”的领域使用AI正在对传统的设计过程构成挑战。毕竟,AI的意义在于纳入,实际上是模仿人类决策框架,包括关于人类一直应用(和交替使用)的法律、伦理、社会规范和企业价值观的考虑。这些独特的期望要求企业采用针对性更强的设计方法,发挥AI自主性优势,同时降低风险。

同样,随着AI技术和应用的飞速发展,治理必须足够敏捷,才能顺应其不断扩展的功能和潜在影响。最后,虽然所有创新都需要在监控和监督下蓬勃发展,但所涉及的绝对风险,以及AI持续、动态的“学习”性质(这意味着它在实施后会继续变化),企业需要较以往更加审慎。

以这些指导原则为核心,企业可以有针对性地根据一系列条件或标准评估每个AI项目。根据这些条件(超出了评估传统技术所使用的条件)评估每个AI项目,为考量AI更广泛的场景和潜在影响的过程提供了急需的规程。

评估AI风险:

让我们看一下可用于评估AI计划风险敞口的四个条件:

  1. 伦理 — AI系统需要遵守伦理和社会规范,包括企业价值观。这包括人类在设计、开发和操作AI时的行为,以及AI作为虚拟代理的行为。与其他任何条件相比,这个条件更是引入了以往非传统技术的主流考虑因素,包括道德行为、尊重、公平、偏见和透明度。
  2. 社会责任 — AI系统的潜在社会影响应予以认真考虑,包括它对经济、人类身心健康和自然环境的影响。例如,潜在影响可能包括劳动力短缺、技能再培训、歧视和环境影响。
  3. 问责制和“可解释性” — AI系统应该权责分明。此外,AI操作员应该能够解释AI系统的决策框架及其工作原理。这不仅仅是提高了透明度;这关乎展示对AI系统的清晰把握,包括AI将如何使用和解释数据、它将使用数据做出什么决策、它可能如何演变以及它在不同子组中的决策一致性。这不仅有助于遵守法律、法规和社会规范,还指出了基本保障措施方面的潜在差距。
  4. 可靠性 — 当然,AI系统应该是可靠的并且按预期执行。这包括测试AI系统的功能和决策框架,以检测意外结果、系统退化或操作转移 — 不仅是在初始训练或建模期间,也贯穿于其持续的“学习”和进化过程。

在开始之前花些时间根据这些标准评估拟议的AI计划可以帮助标记潜在的缺陷,进而在潜在风险出现之前加以缓释。

boy using app unlock house door
2

第二章

全面看待AI风险

了解风险,释放可信AI属性

在满足了AI信心的这些条件后,企业现在可以采取更进一步的制衡措施。

 

为了真正实现和保持对AI的信任,企业必须了解、管理、微调和保护嵌入在AI系统内部和周围的所有组件。这些组件可以包括数据源、传感器、固件、软件、硬件、用户界面、网络以及操作人员和用户。

 

这种整体观需要更深入地了解整个 AI 链中的特有风险。我们开发了一个框架,帮助企业探索超越AI底层数学和算法的风险,并扩展到嵌入 AI 的系统。

 

我们独特的“系统视图”使企业能够建立可信 AI 生态系统的五个关键属性:

  1. 透明度:从一开始, 最终用户必须知道并理解他们何时与AI交互。他们必须得到适当的通知,并有机会 (a) 选择他们的交互级别,以及 (b) 对捕获和使用的任何数据给予(或拒绝)知情同意。
  2. “可解释性”:可解释性的概念在AI领域中的影响力和重要性越来越大。简而言之,这意味着企业应该能够清楚地解释AI系统;也就是说,AI系统不应该超过人类解释其训练和学习方法以及它使用的决策标准的能力。这些标准应记录在案,并随时供操作人员在AI系统继续“学习”时对其进行审阅、质询和验证。
  3. 偏见:AI中的固有偏见可能是无意的,但它们可能对AI结果和对系统的信任造成严重损害。偏见可能源于开发团队的构成,或数据和训练/学习方法,或设计和实施过程中的其他地方。这些偏见必须通过整个AI设计链进行识别并加以解决。
  4. 韧性:AI系统组件和算法本身使用的数据必须受到保护,以应对不断变化的未经授权的访问、损坏和攻击等威胁。
  5. 表现:AI的结果应与利益相关方的预期一致,并以所期望的精准度和一致性水平执行。

那些将AI战略和系统纳入这些指导原则和关键属性中的企业将更有能力在AI投资中取得成功。实现这种可信AI状态不仅需要转变思维方式,转向更有针对性的 AI 设计和治理,还需要制定特定的策略,建立这种信任。

Teenage girl pushing girl on skateboard
3

第三章

管理风险和建立信任的领先策略

新兴的AI治理实践

随着AI对业务运营的影响越来越大,董事会需要了解AI技术将如何影响其企业的经营战略、文化、运营模式和所在行业。他们需要考虑其仪表板是如何变化的,以及他们如何评估管理层对AI治理的充分性,包括伦理、社会和功能影响。

为了真正应用可信AI 原则,企业需要出台适当的治理措施。

 

让我们探索一些我们与客户一起观察到的领先策略,帮助构建可信AI生态系统:

 

AI伦理委员会 — 一个跨学科的咨询委员会,向董事会报告和/或由董事会管理,可以就AI发展中的伦理考虑事项提供独立指导,同时捕捉纯技术焦点之外的视角。咨询顾问应来自伦理、法律、哲学、隐私、法规和科学领域,就开发团队可能忽略的问题和影响提供多元化的视角和见解。

 

AI设计标准 — AI发展的设计政策和标准,包括行为准则和设计原则,有助于定义AI治理和问责机制。这些政策和标准还可以让管理层识别出AI实施中什么是可接受的,什么是不可接受的。例如,这些标准可以帮助组织确定是否要开发可能造成人身伤害的自主代理。

 

AI 清单和影响评估 — 对所有 AI 算法进行定期盘点,可以揭示在没有适当监督或治理的情况下正在开发的任何孤立AI技术。反过来,应对清单中的每个算法进行评估,标记潜在风险并评估对不同利益相关方造成的影响。

 

验证工具 — 验证工具和技术可以帮助确保算法按预期执行,并产生准确、公平和公正的结果。这些工具还可以用于追踪算法决策框架的变化,并应随着新的数据科学技术的出现而进一步发展。

 

意识培训 — 教育高管和AI开发人员了解有关AI的潜在法律和伦理问题,以及他们保护用户权利、自由和利益的责任,是建立对AI信任的重要组成部分。

独立审计 — 由第三方定期进行的独立AI伦理和设计审计对于测试和验证AI系统十分重要。这些审计应用一系列评估框架和测试方法,根据现有的AI和技术政策与标准对系统进行评估。同时,它们还评估整个AI生命周期的治理模型和控制。鉴于AI仍处于起步阶段,这种严格的测试方法对于防止意外结果至关重要。

建立信任,实现充满信心的未来

随着AI及其技术继续以惊人的速度发展和我们为它们找到全新和创新的应用 — 企业从一开始就将信任的原则和属性嵌入到其AI生态系统中,比以往任何时候都更加重要。

那些在伦理设计和治理方面采用领先实践的企业将更有能力降低风险,防范有害结果,最重要的是,保持其利益相关方所寻求的基本信心。借助可信AI的优势,这些企业将能够更好地从这一极其令人振兴奋且充满未知的旅程中获得潜在回报。

领导者应该思考哪些问题?

  • 企业如何将 AI 之旅中的风险降到最低,同时还能让我们充分利用这些令人振奋的新技术的潜能?
  • 企业如何使用这些技术来增强人类智慧和释放创新潜能?
  • 我们可以采取哪些措施,在信任和问责制的基础上构建我们的AI战略和系统?

结语

AI改变我们世界的潜力是巨大的,但风险也同样巨大、复杂且快速演变的。那些从一开始就将信任原则嵌入到AI的企业更有可能收获最大回报。

关于本文

作者