DNV 人工智能丨《欧盟人工智能法案》与您的公司

《欧盟人工智能法案》是世界上第一部全面的人工智能法律,这意味着人工智能(AI)在欧盟的使用将受到该法案的监管。随着对人工智能的定义越发广泛,许多企业将受到影响,并需要开始为合规做好准备。

首部人工智能法律

人工智能技术正在日渐强大和普遍。如使用得当,它们可为个人、社会和行业带来巨大价值。然而,与任何先进技术一样,人工智能技术也可能以不负责任、不道德或恶意地使用。因此,欧盟制定了世界上第一部人工智能法律——《欧盟人工智能法案》——作为其数字战略的一部分。通过消除监管不确定性,欧盟希望促进安全的人工智能创新和部署,同时防止违反欧盟价值观或使人们面临不可接受的风险的使用。


广泛的范围和基于风险的要求

鉴于人工智能解决方案和应用范围广泛且不断变化,《欧盟人工智能法案》对人工智能的定义同样广泛:基本上,任何在欧盟部署的基于数据的驱动系统,无论其开发地点或数据来源如何,都将受其监管。对于凭借如此广泛的定义,欧盟采取了基于风险的方法来监管人工智能,对不同的风险等级实施不同的要求。


不可接受风险

被认为对人类构成威胁的人工智能系统属于不可接受风险的类别。例如:

  • 社会评分系统 
  • 旨在操纵儿童或其他弱势群体的系统
  • 实时远程生物特征识别的系统

以上这些系统是被禁止的。


高风险

对安全或基本权利产生负面影响的人工智能系统属于高风险。高风险可分为两个子类别:


1.人工智能系统用于欧盟产品安全法规范围内的产品,包括玩具、航空、汽车、医疗设备和电梯等。


2.需要在欧盟数据库中注册的八个领域的人工智能系统:

  • 自然人的生物特征识别和分类
  • 关键基础设施的管理和运营
  • 教育和职业培训
  • 就业、工人管理和自主创业
  • 获得和享受基本私人服务、公共服务及福利
  • 执法
  • 移民、庇护和边境管制管理
  • 协助法律解释和法律适用


高风险系统必须在上市前和整个生命周期内进行评估。


低风险

低风险人工智能系统包括聊天机器人以及图像、音频和视频生成等人工智能系统。这些系统必须遵守透明度要求,告知用户他们正在与人工智能系统互动,并允许用户决定是否希望继续使用它。生成式人工智能模型,如ChatGPT,还必须经过设计和训练以防止生成非法内容,且其制造商必须公布用于训练的受版权保护数据的摘要。


您的公司

DNV提倡所有将要或可能受法律监管的企业开始准备相应的合规工作。如果您的公司在欧盟使用或计划部署人工智能系统,那么现在是时候迈出合规的第一步了:

  • 熟悉该法案并评估贵公司是否将受到影响。
  • 确定您的人工智能系统的风险类别。
  • 通过构建特定于系统的一致性案例来确保和记录合规性。
  • 寻求建议以避免意外。


《欧盟人工智能法案》的定义较为笼统且广泛,为了弥合法律与您的特定符合性案例之间的差距,DNV发布了关于人工智能体系认证的推荐做法(RP)。这份推荐做法为您的公司提供了对《欧盟人工智能法案》的实用解读,使您能够确定适用的要求并收集证据来证明您的合规声明。 


联系我们,以详细了解《欧盟人工智能法案》,提高意识从而规避风险。