驾驭人工智能法规动态
人工智能(AI)正在以迅猛的速度重塑众多行业乃至整个社会,引发了空前的发展机遇和挑战。随着人工智能系统日益融入我们的商业和日常生活,制定强有力的立法来规范其开发和使用变得日益重要。
大多数监管框架旨在平衡创新需求与保护基本权利和公共安全。本文探讨了人工智能法规的现状,以及可能产生的影响与未来发展。
人工智能法规的兴起
欧盟(EU)近期出台了《欧盟人工智能法案》。这一综合框架旨在确保人工智能系统安全、透明并尊重基本权利。例如由于美国和中国等国家更早地处于人工智能技术的前沿,较早就制定了立法框架,以应对人工智能带来的独特挑战。无论人工智能技术的发展速度如何,为促进创新并建立信任,对人工智能技术进行监管是必要的。
值得信赖的发展道路
实施人工智能立法面临多重挑战。人工智能的飞速发展使得现有监管框架难以及时跟进。此外,立法需谨慎平衡创新与监管,以防止对技术进步造成不必要的阻碍。不过,人工智能立法也提供了重大机遇。通过制定明确的指导方针和标准,立法可以促进创新,增强公众信任,并确保负责任地开发和使用人工智能系统。此外,通过优先考虑安全性、透明度和道德因素,可以充分利用人工智能的潜力,同时保障个人和社会的利益。
国际标准的补充
ISO/IEC 42001 等国际标准是对立法工作的补充。这项可认证的国际标准规定了实施人工智能管理体系的要求,并在全球范围内适用。尽管 ISO/IEC 42001 本身并不是一项法律,但通过建立人工智能治理的最佳实践,它有望在促进可信的人工智能方面发挥重要作用。该标准旨在确保安全、可靠和合乎道德的人工智能开发、实施和使用,在相关法规中被认为是确保建立适当治理流程的重要方式。
人工智能法规的关键组成部分
人工智能法规通常包括几个关键组成部分:
- 安全性和可靠性:确保人工智能系统安全和可靠地运行至关重要。法规通常包括对风险管理、测试和验证要求,以防止对个人和社会造成伤害。
- 透明度和问责制:人工智能决策过程的透明度对于建立信任至关重要。法规要求人工智能开发商必须清楚地解释其系统的工作原理,并建立问责机制。
- 道德因素:公平、不歧视和尊重隐私等道德原则是人工智能立法的组成部分。这些原则指导着人工智能系统的开发和部署,以确保其符合社会价值观。
- 合规与执法:有效的执法机制对于确保遵守人工智能法规至关重要。监管机构的职责在于监控人工智能系统,进行审核并对违规行为进行处罚。
欧洲:《欧盟人工智能法案》
欧盟(EU)在人工智能(AI)监管方面迈出了重要一步。《欧盟人工智能法案》旨在确保系统安全、透明并尊重基本权利,同时促进创新。该法案于 2024 年 7 月 12 日发布,2024 年 8 月 1 日生效。其规定将逐步生效。法案规定从 2025 年 2 月 2 日起适用禁止行为的义务,从 2026 年 8 月 2 日起适用高风险人工智能系统要求。
《欧盟人工智能法案》根据风险等级对人工智能系统进行了分类:
- 不可接受风险,如社会评分,将被禁止
- 高风险,如招聘或医疗设备,在符合要求和合格评估的情况下允许使用
- “透明”风险,如聊天机器人或深度伪造,如遵守信息/透明度义务则允许使用
- 最低风险或无风险,没有任何使用限制
不可接受风险的人工智能系统,如操纵人类行为或利用漏洞的系统等,明令禁止使用。高风险人工智能系统,包括关键基础设施、教育和就业等领域的应用,在部署前必须经过严格的符合性评估。
《欧盟人工智能法案》还规定了透明度和问责制的要求。人工智能开发商必须提供关于其系统如何工作的明确信息,包括保存详细的文档和日志等,确保它们可以接受审核以促进监督和合规。该法案还适用于在欧盟经营或销售人工智能产品的公司。出口公司必须确保其人工智能系统符合指定的标准,并接受必要的评估。
美国的人工智能立法
尽管美国采用的方法与欧盟有所不同,但美国较早就意识到有必要制定全面的法律框架以规范人工智能开发和使用。联邦和各州因此出台了多项法案,2023 年就有 40 多项州法案出台。美国的立法环境相当复杂,但这很大程度上反映了社会日益增长的对平衡创新与保护措施以保护个人和社会免受人工智能风险的需求。
一些重要的立法和监管行动正在塑造美国的人工智能格局。2022 年 10 月美国发布的《人工智能权利法案蓝图》概述了保护个人免受人工智能潜在危害的原则。它侧重于关注隐私、免受算法歧视和确保透明度等权利。2023 年,美国总统签署了范围广泛的人工智能行政令,强调了安全、可靠和可信的人工智能的必要性。此行政令还授权联邦机构采取措施,确保负责任地开发和使用人工智能系统。还有一些法案旨在以安全、可靠、合乎道德和透明的方式促进创新,如《2020 年国家人工智能倡议法案》和《人工智能创新未来法案》。2024 年 5 月,科罗拉多州签署了开创性的《科罗拉多州人工智能法案》,这是美国首部人工智能法案,该法案是一部涵盖公共部门的跨部门人工智能治理法律。多项国会法案已处于制定流程中,如最近出台的加州 SB 1047 人工智能安全法案,目的是进一步监管最强大的人工智能模型。
中国的人工智能立法
截至目前,我国尚未发布全面的人工智能法律,但已发布了一些人工智能应用法规。不过,与欧盟的《欧盟人工智能法案》作为所有工智能系统的总监管框架不同,中国采取的是垂直方式来监管某些人工智能服务。
2017 年,国务院出台了《新一代人工智能发展规划》(以下简称《规划》),这是我国在人工智能领域首个系统性战略规划,其宏伟目标是成为全球人工智能发展和应用的领导者。《规划》刺激了行业活动的激增和对人工智能发展的政策支持。
中国的人工智能治理格局分为五个主要类别:
- 治理政策与战略。我国发布了一系列关于人工智能技术的国家级治理原则、规划、指南或意见,为我国的人工智能立法奠定了基础。例如,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》,体现了我国对人工智能技术伦理原则的考量。
- 法律。部分现行法律涉及开发、提供、部署和使用人工智能系统的某些方面,对人工智能立法产生了显著影响。在这些法律中,有三部重要法律,即《个人信息保护法》、《数据安全法》和《网络安全法》。
- 行政法规。一些行政法规对“深度合成内容”,“推荐系统”和“人工智能生成系统”等互联网信息服务中使用的人工智能算法提出了具体要求。
- 市政法规。中国的一些城市(上海和深圳)也出台了有关人工智能的市政法规,旨在促进人工智能行业的发展。这些法规均要求相关企组织必须有效控制人工智能带来的风险,对高风险的人工智能产品和服务的审查要比对风险较小的产品和服务的审查更为严格。
- 国家标准。为支持人工智能系统的监管工作,中国电子技术标准化研究院正在牵头制定涵盖人工智能技术多个方面的系列推荐标准。
立法对企业的影响
全球的立法趋势显示出对人工智能领域的全面覆盖,无论是在特定地区还是在国内运行的企业都必须对其加以管理,这无疑对人工智能监管环境增加了一定的复杂度。普遍而言,政府机构试图在促进人工智能技术发展的同时亦有效应对其带来的挑战。
立法的核心意图是促进创新以及负责任地开发和使用人工智能,确保人工智能技术能够造福社会,同时防范潜在风险。随着人工智能技术迅猛发展,监管机构正致力于同步更新其监管措施,与此同时,企业也必须适应这些变化确保其运行符合最新的法律法规要求。
为管理并确保稳健的治理,企业将获益于实施符合 ISO/IEC 42001 标准的人工智能管理体系以及针对信息安全(ISO/IEC 27001)或隐私(ISO/IEC 27701)的管理体系。这些标准为组织提供了一种结构化的风险管理方法,包括监管合规,并建立了持续改进的实践。经由 DNV 等独立第三方根据标准进行认证,将有助于确保人工智能系统的安全、可靠和合乎道德,支持监管合规并弥合信任差距。