从媒体到工业4.0行业,不同领域该如何信任人工智能?
建立对AI的信任——来自不同行业的观点
随着人工智能(AI)的集成在各行各业变得越来越普遍,对 AI 技术的信任需求变得越来越重要。
在NorwAI组织的一系列研讨会旨在探讨人工智能中的信任概念、与人工智能系统相关的行业特定信任需求和挑战,以及人工智能创新的潜在机会。
NorwAI是挪威著名的人工智能创新学术组织,与DNV多位科学家与研究员共同研究人工智能信任的相关问题。本文总结了研讨会的主要发现,提供了对信任在人工智能中的重要性的见解。
免责声明:本文中的陈述并不一定代表DNV或任何NorwAI合作伙伴的立场。本文是作者针对NorwAI合作伙伴举行的两次位于欧洲的研讨会的讨论的总结和解读。
信任并不容易
若一项技术要被接受、使用并造福社会,就必须得到信任。如果该技术应该具有类似人类的智能,则尤其如此。信任是对某人或某事的可靠性、真理或能力的坚定信念,是所有社会经济关系的基础。对人工智能的信任很重要,因为投资、社会接受度、政治支持、知识发展和创新都将日渐依赖于它。因此,挪威人工智能创新中心(NorwAI)高度重视这一主题,与DNV展开深入合作,专注于了解各行业的信任需求,以及建立对安全和负责任的人工智能的信任的条件。这包括确保人工智能技术的隐私保护,为人工智能的可持续和有益使用制定指导方针,为可解释和透明的人工智能制定原则,以及为人工智能系统制定独立保证的原则。
信任是合同、业务关系和技术创新的核心特征。因此,对人工智能的信任必须适应特定环境、地点和组织文化的特殊性。作为NorwAI持续研究和创新的一部分,我们开展了一系列联合制作和共同设计研讨会,深入探讨媒体、银行和工业4.0行业的特殊性。每个研讨会都旨在收集有关特定行业信任需求、关注点和创新机会的知识。基于科学的跨学科行业视角用于构建讨论和处理信息。找到这些行业之间信任的共同点和差异至关重要,因为每个行业都有其独特的文化、创新流程和技术需求。我们从这些研讨会中得出的结论强调,行业和政策制定者必须通过向公众和相关利益相关者具体展示和传达可信度来积极培养对人工智能的信任。
共同的需求
用户接受度。人工智能治理的格局正在迅速发展,各国和行业机构都在为值得信赖和负责任的人工智能制定框架。在这种情况下,预测并领先于监管变化是一种商业优势,因为遵守相关法规和最佳实践是交易的门票。
然而,研讨会的行业参与者表示,监管并不是追求可信赖人工智能的主要驱动力。最重要的是,他们将信任与用户接受度联系起来。“没有信任,一切终将会破裂”, 一位参与者说。信任会带来更多的使用,并能够扩大人工智能技术的规模。
目标和价值观的一致性。利益相关方之间的信任从根本上说是相信其他行为者对他们的动机是开放和诚实的。当相关利益相关方(例如业务合作伙伴、客户和更广泛的公众)的目标和价值观保持一致时,信任就会进一步促进。即使在企业对企业的背景下,公平性以及人工智能对劳动力和环境的影响等道德问题也很重要,因为它们反映了公司的价值观。这凸显了利益相关方参与人工智能在所有部门的产品和服务中的开发和实施的重要性。
技术稳健性和人为监督。研讨会的几位与会者表示,技术稳健性是培养对人工智能的信任的关键,特别是可靠性和技术验证。此外,来自各行各业的与会者一致认为,信任与人类监督有关,以确保模型和算法,并强调了人工智能系统的透明度和可解释性的重要性。
人工智能素养。来自所有代表行业的参与者暗示,组织层面之间以及管理人员与实际从事人工智能工作的人员之间存在人工智能知识差距。管理者往往对他们不了解的技术持怀疑态度,这可能会成为人工智能采用的障碍。同时,不使用人工智能或几乎没有人工智能能力的员工可能会抵制影响他们工作方式的人工智能解决方案。基于此,提高人工智能素养似乎是实现更广泛采用人工智能的关键。
内部信任和外部信任。有人指出,在组织内建立对人工智能的接受和信任与获得客户的信任有很大不同。许多客户可能更喜欢“人类品牌”(即与人工智能无关的品牌),因此,对于公司来说,坚持使用熟悉的方法和技术是最安全的。因此,除非有明确的证据表明人工智能可以增加利润,否则公司不会采用人工智能。
我的信任需求和您的信任需求
虽然各行各业都有许多信任需求和关注点,但研讨会讨论强调了与每个行业特别相关的某些信任需求和关注点。
媒体 / Media
来自媒体行业的参与者表示,透明度、准确性和真实性对于培养用户信任至关重要。他们提出了“假新闻”的问题和对人工智能产生的错误信息的担忧。在新闻业中,90%的时间都是正确的是不够的,所以记者总是需要在循环中检查信息是否存在幻觉、偏见和人工智能的不正确性。一位与会者表示,“记者不喜欢被告知如何完成他们的工作”。人工智能主要被认为是提高生产力的有用工具,而不是对记者工作的威胁。
在与媒体合作伙伴的研讨会上,与会者讨论了如何激励内容所有者与人工智能开发人员共享数据。作为内容的制作者,媒体公司自然会担心人工智能模型可能会侵犯版权。例如,剽窃是一个日益受到关注的问题,因为使用大型语言模型在不引用(可信)来源的情况下生成内容变得越来越普遍。内容提供商还担心,他们的收入来源可能会受到人工智能模型泄露付费墙后内容的威胁。另一方面,人工智能开发人员和人工智能服务提供商希望访问付费墙背后的内容,以改进他们的模型。除了人工智能开发人员的安全保证之外,媒体公司共享数据的一个可能动机是尽早获得人工智能模型(例如,在竞争对手之前使用人工智能模型的权利)。提高内容的可搜索性可能是未来另一个可能的好处,但媒体参与者并不认为这是主要的激励措施。
银行业 / Banking
在银行业,信任至关重要,因为银行的主要资产是客户信任。银行拥有有关其客户的详细数据,可能比任何其他行业甚至政府都多。
银行在使用人工智能进行欺诈检测、信用风险评估等方面已经成熟。然而,银行业受到高度监管,正如一位参与者所表达的那样,“你离钱越近,它就越严格”。一些研讨会参与者提到,现有的金融法规和GDPR是该行业更多地采用人工智能的障碍。其他研讨会参与者推测,即将到来的人工智能法规可能对银行业的影响有限,正是因为该行业已经习惯了对数据、隐私和透明度的严格要求。在企业市场中,采用人工智能的门槛较低,隐私问题较少。
人工智能有可能通过自动化流程来提高银行业的效率。然而,银行需要公平并能够为其决策提供理由,这就对人工智能模型的公平性、透明度、可靠性和可解释性提出了要求。虽然对可解释性的要求可能是一个障碍,但它也可能是一个机会。例如,可解释的人工智能工具可以帮助银行顾问为决策提供比现在更好、更个人化的理由。这有可能让客户对他们的银行更加信任。
人工智能也有可能增强客户的银行体验,并为他们提供更好的个性化建议。例如,一位与会者概述了未来的银行如何采用个人人工智能助手的形式,为每个客户量身定制语言和风格。然而,银行服务的这种个性化引发了对数据隐私的担忧,特别是如果数据在银行的不同部门(如账户、贷款、保险和财产)之间合并。同样引发人们的担忧的还有银行可能会利用其详细知识以不道德的方式操纵客户。这凸显了银行让客户和公共利益相关者参与人工智能转型的必要性。
银行业研讨会的参与者一致认为,人工智能的透明度、遵守相关法规和人工监督是培养和维持客户信任的关键因素。人工智能在银行业的应用应该与监管机构和整个行业进行谈判,以建立信任的基础。
工业4.0 / Industry 4.0
对于能源等行业,人工智能可以成为自动化和决策支持的工具。一位与会者表示,由于提高效率的巨大压力,人工智能的采用往往感到不可避免。部署 AI 时的主要问题之一是 AI 模型是否足够准确,值得依赖。这是因为错误或不恰当的行为可能会产生危险且代价高昂的后果,或者可能对公司的声誉产生负面影响。即使一个人工智能模型在今天被声称是准确的,它在未来或当条件发生变化时是否值得信任?在预测人工智能模型的未来行为方面存在挑战,以及围绕这种行为的可解释性程度的不确定性。在开发 AI 模型时,数据质量也可能是一个问题。一位研讨会与会者强调了能够估计人工智能模型不确定性并评估这种不确定性对系统和决策的影响的重要性。
参加研讨会的工业4.0代表表示,人们非常担心将太多的责任转移到人工智能身上,如果人工智能失败,必须始终有人类的支持。这意味着公司需要保留人类的能力,即使在他们委托给人工智能的任务中也是如此。随着人工智能被赋予更多的责任,知道如何为人工智能技术的行为分配责任可能是一个挑战,这是监管机构和行业参与者可能会与之抗争的问题。
行业参与者需要建立对自己的产品和系统的信任,但他们也需要与业务合作伙伴和公众建立信任。信任需求可能取决于您在价值链中的位置(开发、实施等),这可能意味着 AI 开发人员和行业参与者在 AI 开发的初始阶段并不总是看到后期的信任需求。研讨会与会者提到,更多的合作、开发和最佳实践分享是在整个人工智能生命周期和价值链中整合信任心态的可能方法。与会者一致认为,值得信赖的人工智能是必须证明的,但声称这相当复杂且成本高昂。另一个担忧是,实施人工智能治理可能很困难,尤其是在大型组织中。
值得信赖的AI的机会是什么?在哪里?
除了探讨与人工智能相关的信任需求和担忧外,研讨会还探讨了潜在的解决方案和创新可能性,以建立对人工智能的更多信任。其中包括开发可解释的人工智能方法、风险管理方法、对不确定性影响的系统评估、数字成熟度评估以及教育和能力建设计划。创建最佳实践、指导和标准化对于建立共识和培养信任至关重要。让利益相关者参与进来,明确价值选择,并实施集中式人工智能治理被认为是建立信任的关键步骤。
结论
建立对人工智能的信任对于扩大创新规模和确保人工智能的广泛接受和采用至关重要。NorwAI 组织的研讨会为行业特定的信任需求、挑战和潜在的创新机会提供了宝贵的见解。需要注意的是,信任需求不能仅通过技术进步来解决;同样重要的是,必须通过适当的治理机制、组织和行为变革、利益相关方的参与和教育举措来解决这些问题。通过这些行动和机制的结合,可以在所有必要的组织和社会层面培养和扩大对人工智能的信任,就像水的涟漪一样,从而增强创新并保障社会需求。