人工智能更需结构化治理

当下,人工智能(AI)已成为大多数组织的热门话题,组织正热衷于探索人工智能所带来的好处。然而只有对人工智能相关的潜在挑战和风险进行管理,才能实现安全、负责、可靠和合乎道德的开发、应用和使用人工智能系统。这便是 ISO/IEC 42001 人工智能管理体系标准指导开发和提供可信人工智能解决方案的关键所在。

 

 

尽管人工智能已存在多时,但直至近年才真正受到广泛关注。在 DNV 最近开展的一项 ViewPoint 调查中显示:大部分公司(58%)尚未部署人工智能技术;超过 70% 的公司仅可视为刚开始人工智能之旅。这些数据表明,人工智能尚未成为大多数公司的战略重点。

 

就人工智能部署而言,大部分参与调查的组织可能还处于起步阶段,但它们并不是公认意义上不了解治理的必要性或优势的初创组织。这些参与调查的组织皆已实施了至少一项符合 ISO 标准的管理体系,如:ISO 9001(质量)、ISO 14001(环境)或 ISO/IEC 27001(信息安全)等。然而,正是这些处于人工智能发展早期阶段的组织,仍未意识到可以采用同样的治理方法为其人工智能发展保驾护航。

 

日益增长的治理需求

在前文中我们称之为“起步阶段”的组织主要致力于利用人工智能来提高效率和改善内部流程。由于如 Copilot 和 ChatGPT 等类似解决方案实施相对简单,组织常以此来作为部署人工智能的第一步。然而,随着公司日益成熟,组织往往会逐步倾向于外部的、更复杂的人工智能部署计划,以创造收入和探索新的商业机会。同时随着组织的进步,为最好地控制风险,确保安全、可靠、合乎道德的 AI 开发、实施和使用,组织对结构化治理的需求也逐步增加。

 

针对人工智能的监管正在不断加强,组织必须证明其合规。此外,用户固有的怀疑态度也撕开了一条必须弥合的信任鸿沟。为了构筑信任及利用一项技术,组织必须了解人工智能的工作原理,并且能够评估其安全性、可靠性和透明度。AI Assurance Club 已在2024年3月发布的一份题为《2023-24 年人工智能治理与保障全球趋势》的报告中强调了这一问题。该报告详细介绍了人工智能全球发展趋势以及全球立法发展情况。对于信任问题,报告指出:“人工智能治理的核心难题是信任。随着人工智能系统越来越多地渗入到包括基础设施、业务流程、公共服务或消费品等生活场景中,用户需要对人工智能充满信心——相信人工智能系统将始终按照预期运行,而不会造成伤害”。

 

弥合差距

信任差距是指利益相关方对组织的人工智能产品和/或服务缺乏信心和透明度。例如,如果医院使用了基于人工智能的诊断技术,作为病人,我能否相信这份诊断报告和医生单独诊断的一样准确甚至更好吗?于是,在人工智能系统变得过于复杂和自主之前,弥合信任差距需要更可靠的治理。

 

值得注意的是,建立信任是所有 ISO 管理体系标准的核心特征,因此在人工智能领域可以采用同样的方法也就不足为奇了。ViewPoint 调查显示,为确保对人工智能系统进行适当的治理,大多数在人工智能开发和实施方面领先的公司已经知晓 ISO/IEC 42001 标准,并已开始考虑采用人工智能管理体系。

 

目前在全球范围内,已有多个人工智能框架和补充标准,包括:NIST 人工智能风险管理框架、ISO/IEC 23894 人工智能风险管理指南、ISO/IEC 5338 人工智能系统生命周期流程以及 ISO/IEC TS 25058。2023 年 12 月,ISO 推出了 ISO/IEC 42001 人工智能管理体系标准(AIMS)。这是全球首个可认证的人工智能管理体系标准,它为组织管理人工智能机遇和风险提供了可靠的方法。由于合规性结果取决于像 DNV 等独立第三方认证机构颁发的证书,因此,通过认证并获得证书将有助于组织进一步缩小信任差距。此外,得益于该标准基于 ISO 高阶结构(HLS)建立,它可以很容易地与其他管理体系整合。  

 

ISO/IEC 42001 与其他 ISO 管理标准皆按照相同的高阶结构建立,因此对于已实施其他 ISO 管理体系的组织来说,此标准并不陌生。ISO/IEC 42001 遵循 “计划-实施-检查-行动”(PDCA)的方法对组织规定了具体要求,并侧重在人工智能管理体系的建立、实施、维护和持续改进方面。此外,ViewPoint 调查中的所有受访者一致认为网络安全是其实施人工智能的主要威胁,因此将此标准与符合 ISO/IEC 27001 标准的信息安全管理体系整合将大有裨益。

 

建立信任

随着越来越多的国家或地区出台人工智能法规,ISO/IEC 42001 标准的重要性将日益凸显。美国和中国已经制定了相关法规和政策。在欧洲,世界上第一部全面的人工智能法案《欧盟人工智能法案》已于近期生效。该法案旨在促进和确保人工智能系统的安全、可靠、可信和合乎道德的发展,建立人工智能治理是确保监管合规和建立信任的关键环节。

 

在团队中构建一个核心集中管理职能,以识别和理解 AI 技术、案例和供应商,是确保 AI 治理的核心。此外,由经认定的治理委员会和利益相关方定期评审和更新人工智能治理计划,以适应人工智能领域的不断发展和变化的监管环境至关重要。这便是实施符合 ISO/IEC 42001 标准的管理体系并获得认证的另一个关键好处。

 

采用结构化的方法来管理和负责任地使用人工智能终会成为组织的一种竞争优势,经过认证的管理体系将帮助任何组织向内外部利益相关方证明,该组织已制定了可靠的方法来保护用户并持续改进。同时通过认证也将表明组织承诺并每天采取行动,以确保在流程、产品和服务中安全、可靠、合乎道德地开发、实施和使用人工智能。