安永是指 Ernst & Young Global Limited 的全球组织,加盟该全球组织的各成员机构均为独立的法律实体,各成员机构可单独简称为“安永”。Ernst & Young Global Limited 是注册于英国的一家保证(责任)有限公司,不对外提供任何服务。
在满足了AI信心的这些条件后,企业现在可以采取更进一步的制衡措施。
为了真正实现和保持对AI的信任,企业必须了解、管理、微调和保护嵌入在AI系统内部和周围的所有组件。这些组件可以包括数据源、传感器、固件、软件、硬件、用户界面、网络以及操作人员和用户。
这种整体观需要更深入地了解整个 AI 链中的特有风险。我们开发了一个框架,帮助企业探索超越AI底层数学和算法的风险,并扩展到嵌入 AI 的系统。
我们独特的“系统视图”使企业能够建立可信 AI 生态系统的五个关键属性:
- 透明度:从一开始, 最终用户必须知道并理解他们何时与AI交互。他们必须得到适当的通知,并有机会 (a) 选择他们的交互级别,以及 (b) 对捕获和使用的任何数据给予(或拒绝)知情同意。
- “可解释性”:可解释性的概念在AI领域中的影响力和重要性越来越大。简而言之,这意味着企业应该能够清楚地解释AI系统;也就是说,AI系统不应该超过人类解释其训练和学习方法以及它使用的决策标准的能力。这些标准应记录在案,并随时供操作人员在AI系统继续“学习”时对其进行审阅、质询和验证。
- 偏见:AI中的固有偏见可能是无意的,但它们可能对AI结果和对系统的信任造成严重损害。偏见可能源于开发团队的构成,或数据和训练/学习方法,或设计和实施过程中的其他地方。这些偏见必须通过整个AI设计链进行识别并加以解决。
- 韧性:AI系统组件和算法本身使用的数据必须受到保护,以应对不断变化的未经授权的访问、损坏和攻击等威胁。
- 表现:AI的结果应与利益相关方的预期一致,并以所期望的精准度和一致性水平执行。
那些将AI战略和系统纳入这些指导原则和关键属性中的企业将更有能力在AI投资中取得成功。实现这种可信AI状态不仅需要转变思维方式,转向更有针对性的 AI 设计和治理,还需要制定特定的策略,建立这种信任。