可解释的人工智能路径

随着越来越多的企业使用人工智能(AI)为其做出决策,这使得治理工作变得至关重要,并且人工智能推理路径的可追溯性成为建立客户、员工、监管机构和其他关键利益相关方信任的关键。

人工智能(AI)将计算范式从基于规则的编程转变为基于结果的方法。它允许流程进行大规模运行,减少了人为处理错误的数量,并创造了解决问题的一些新方法。在围棋高手已使用相同的开局策略3000年后,阿尔法狗(AlphaGo)启发了围棋选手去尝试新的策略。随着人工智能采用率的增加,它将帮助组织解决传统自动化技术无法解决的“最后一公里”问题。但随着越来越多的企业让人工智能来为其作出决策,治理工作将变得非常关键。

最近,在简柏特公司(Genpact)针对最高管理层和其他高管人员的一项调查中,有63%的人表示,能够追踪一台使用人工智能设备的推理路径,这是非常重要或关键的,而在人工智能领域处于领先地位的公司中,持这一观点的人数比例达到88%。简柏特公司还与受管制市场中的财富500强企业合作,这些客户认为,在考虑使用人工智能之前,其推理的可追溯性将是一项关键要求。

为加强监管审查工作做好准备

最近,英国剑桥分析公司(Cambridge Analytica)对社交媒体数据的滥用,引起了公众的关注,该事件唤醒了企业对监管治理工作的更高要求。此外,欧盟的一般数据保护条例(GDPR)在5月25日已生效,这将解决数据和人工智能治理问题的诸多新要求。如该条例第22条所述,在其他领域中,“数据主体有权不受限于自动流程所做出的决定,包括对其产生法律效力或对其产生严重影响的分析。”在一个人被拒绝发放贷款或工作机会的情况下,这可能变得至关重要。同样,纽约市最近的算法决策透明度立法表明,美国的监管审查工作也在加强。在这种形式下,企业会很难接受“黑匣子人工智能”。

期待可追踪的人工智能技术

目前,一些技术已经足够成熟,可以提供可追溯性。在处理文本或数字时,企业可以考虑使用计算语言学,用户可以轻松地追踪推理路径并精确定位导致机器决定的单词或数据点。例如,如果第三方物流供应商同意每英里收取15美分,但其发票显示为每英里收取18美分,则机器可以利用上下文语境来提取发票中的价格和合同所约定的价格,并指出其差异。用户可以对比查看这些文件以确定机器是否判断正确。关键在于可跟踪某一决定的定义属性来自哪里,并以易于可视化的方式提供底层信息。

提供推理路径

实现可追溯性的另一种方式是解释在算法中的一些驱动因素和推理路径。Salesforce公司销售云爱因斯坦(Sales Cloud Einstein)产品中的主要评分功能可以让你直接了解其如何给出销售机会的分数,因此,一个公司的销售团队可以了解Einstein产品是如何预测某个销售机会转化为商机的。

计算语言学也有一个嵌入的推理路径逻辑,可以为使用技术的最终用户进行外化。例如,在贷款审批流程中,系统需要采取多个步骤来处理一个申请。如果某个申请在基于人工智能的自动化贷款申请过程中被拒绝,信贷员应该能够追溯到导致发生拒绝申请的特定步骤,更重要的是,可以解释为何人工智能在该步骤做出这样的决定。

因此,企业可以通过向消费者解释推理路径为什么会做出一个决定,而不只是简单地拒绝发放贷款,从而可能导致不良客户的体验和引发合规问题。因为具备可追溯性,当审计人员要求查看文档,或者客户提出询问,或者出现了其他潜在问题,那么企业就可以准确知道系统在何处以及如何做出该决定,而不是因为该决定和推理被锁在黑匣子里,导致一无所知。

为充分利用人工智能而设计数据

关键是要充分了解数据的行为。这不仅仅是为了实现人工智能算法,首先要建立起有效的数据工程。最佳实践包括记录关于数据完整性的假设,解决数据偏差,以及在实施前审查机器所确定的新规则。如果企业正在使用机器学习技术来识别异常情况,那么它可以通过检查和权衡来手动测试并确定这些结果是否合理。在设计和测试人工智能时,让熟知这些流程和行业领域问题的人来参与,这也很重要。

可解释的人工智能会加速人们对人工智能的使用

可追溯性还解决了人工智能技术实施中的几项难题。首先,它侧重于这种先进技术的新兴应用的质量问题。其次,在人与机器交互的发展过程中,可追溯性使结果更易于被人理解,并有助于推动人工智能的使用和促进成功实施所需的相关变更管理。第三,它有助于推动生命科学、医疗保健和金融服务等受监管行业的合规性。

可追溯性存在于一些更成熟的人工智能应用中,例如计算语言学。在其他不太成熟的新兴技术中,所谓的黑盒问题仍然存在。这一问题主要存在于深度神经网络,用于图像识别的机器学习算法或涉及海量数据集的自然语言处理的情况下。因为深度神经网络是通过这些海量数据集的多重关联建立起来的,所以目前很难知道为什么会得出一个特定的结论。企业需要更全面的治理结构,尤其是借助像神经网络这样不具备可追溯性的先进技术。

总而言之,可追溯性使企业能够更好地理解整个推理过程,并通过人工智能的实施建立信任关系,这可以帮助企业、员工和客户更好地接受人工智能。随着人工智能领域的其他方面逐渐成熟,我们希望在其他人工智能技术中也可看到类似的推理路径。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2018-06-07
可解释的人工智能路径
随着越来越多的企业使用人工智能(AI)为其做出决策,这使得治理工作变得至关重要,并且人工智能推理路径的可追溯性成为建立客户、员工、监管机构和其他关键利益相关方信任的关键。

长按扫码 阅读全文