打开AI的黑箱 IBM推出云工具检测AI偏见

IBM推出了一项软件服务,可以扫描人工智能系统的工作情况,以便检测偏见并为正在做出的自动决策提供解释,一定程度的透明度可能是合规目的所必需的,而不仅仅是公司自己的尽职调查。

新的信任和透明度系统运行在IBM云上,并与从IBM作为各种流行的机器学习框架和AI构建环境所构建的模型一兼容,包括自己的Watson技术,以及Tensorflow、SparkML、AWS SageMaker和AzureML。

它表示,可以通过编程来定制服务以满足特定的组织需求,以考虑“任何业务工作流程的独特决策因素”。

完全自动化的SaaS解释了决策并在运行时检测AI模型中的偏见,这意味着它正在捕获“发生时可能产生的不公平结果”。

它还会自动建议添加到模型中的数据,以帮助减少已检测到的任何偏见。

人工智能决策的解释包括显示哪些因素加重了某个方向的决策、对建议的信心和信心背后的因素。

IBM还表示该软件会记录AI模型的准确性、性能和公平性,以及人工智能系统的系谱,这意味着它们可以“以客户服务、监管或合规原因轻松跟踪和召回”。

关于合规方面的一个例子,欧盟的GDPR隐私框架参考了自动决策,并且包括让人们获得有关算法在某些情况下如何工作的详细解释的权利,这意味着企业可能需要能够审核他们的AI。

IBM AI扫描仪工具通过可视化仪表板提供自动决策的细分,这是一种减少对“专业AI技能”依赖的方法。

然而,它也打算让自己的专业服务人员与企业合作使用新的软件服务。因此,它既可以销售人工智能,也可以解决人工智能的不完美问题,当企业试图修复他们的AI时,专家可以帮助消除任何问题。这表明虽然AI确实会删除一些工作,但自动化将忙于创建其他类型的工作。

IBM也不是第一家发现AI偏见商业机会的专业服务公司。几个月前,埃森哲公开了一个公平的工具,用于识别和修复不公平AI。

因此,随着对多个行业自动化的大力推动,设置和销售服务以解决因增加AI的使用而出现的任何问题,看起来也相当庞大。

事实上,鼓励更多企业对进入自动化更有信心。(在这方面,IBM引用了它所进行的研究,发现虽然82%的企业正在考虑人工智能部署,但60%担心责任问题,63%缺乏内部人才来自信地管理技术。)

除了推出自己的付费AI审计工具之外,IBM表示,其研究部门将开放采购AI偏见检测和缓解工具包,旨在鼓励“围绕解决AI中的偏见进行全球合作”。

“IBM引领行业建立信任和透明度原则,以开发新的AI技术。现在是时候将原则付诸于实践了,”IBM认知解决方案高级副总裁David Kenny在一份声明中表示。“我们正在为使用人工智能并面临任何有缺陷的决策产生最大潜在风险的企业提供新的透明度和控制权。”

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2018-09-25
打开AI的黑箱 IBM推出云工具检测AI偏见
IBM推出了一项软件服务,可以扫描人工智能系统的工作情况,以便检测偏见并为正在做出的自动决策提供解释,一定程度的透明度可能是合规目的所必需的,而不仅仅是公司自己的尽职调查。

长按扫码 阅读全文