谷歌发布七条 AI应用的“道德原则”,确保技术在正确的轨道上进步

6月7日,谷歌CEO桑达尔·皮查伊发布了七条AI应用的“道德原则”,包括对社会有益;避免制造或强加不公平的偏见;发展和利用AI技术时注重隐私原则等。谷歌称其不会将AI用于军事武器和侵犯人权的监控中。但是仍会在其他领域保持跟政府和军队的合作,包括网络安全、军事训练、军队招募、退伍兵医疗、搜索、营救等方面。桑达尔·皮查伊表示这些合作至关重要,谷歌也会积极寻求其他方式来加强这些方面的工作,并保证服务人员和平民的安全。同时,谷歌不会研发可能会造成伤害的科技,除非谷歌认定“科技带来的好处远超过其造成的威胁”。

blob.png

早在4月,谷歌因为美国国防部提供AI技术而受到公司内外的广泛批评和质疑。合作项目叫做“ProjectMaven”,帮助开发应用于无人机的人工智能系统。此举遭到四千多名员工联名上书,数十名员工离职,要求皮查伊远离“战争的生意”。最终谷歌向员工做出妥协,承诺明年合约到期后将终止“ProjectMaven”计划。这场“风暴”之后,谷歌管理层承诺会发布一系列“道德原则”规范未来的项目,指导技术研究、产品发展、商务决策。谷歌对TheVerge透露,如果这项原则发布得早一点,谷歌也许不会参与到“ProjectMaven”中。

其实,谷歌决定发布这项AI原则也是考虑到多年以来自动化系统所构成的威胁,还有人工通用智能引起的耸人听闻的声音。就在上个月,一个人权组织和技术团体联盟发起“多伦多宣言”,呼吁政府和科技公司确保AI尊重平等和非歧视的基本准则。

作为行走在人工智能领域前沿的科技公司,谷歌早已将其未来押注在人工智能技术上,公司管理层都相信人工智能所带来的影响力绝不亚于互联网所能做到的。皮查伊表示,“在谷歌,我们用AI技术让产品变得更好:从Gmail电子邮件服务做到垃圾邮件拦截率高至99.9%,为用户编写邮件时提供简单的建议到语音助手自如地与用户交谈。但是AI也有“犯错”的时刻,比如GooglePhotos的图像识别功能曾将黑人识别成大猩猩。”

尽管谷歌发布了这项原则,也无法控制科技的方方面面。谷歌拥有顶级的人工智能实验室,承载很多重要的学术研究,谷歌也公开发布了人工智能领域的很多研究成果。这意味着,其他公司可以重新创造和使用谷歌的研究方法和思想。当谷歌与其他实验室合作的时候,如果认为后者没有“正当”使用自己的研究成果,就会将其收回。谷歌的一位发言人说道,“比如拿谷歌开源的AI软件库——TensorFlow来说,发布的原则不可能照顾得“面面俱到”,但是谷歌可以做到发挥其在开源社区的影响力,直接控制软件开发工具包,出台更严格的许可条例。最起码,在“不作恶”的这件事情上,谷歌明确表示,“如果在使用科技的过程中违背了原则,那么我们保留阻止或者停止科技的权利。”

谷歌还在极力争取竞标国防部价值100亿美元的云服务订单。在微软、IBM等公司的共同竞争下,谷歌AI原则的发布也许意味着其将离国防合同更远了一步。但是皮查伊表示“原则的出台为的就是减少人工智能造成的危害、限制人工智能的滥用。我们承认人工智能如此强大的科技一定会引起同等效应的社会问题。也许在未来的几年,人工智能的发展和应用会给社会造成严重的影响。但是作为人工智能领域的领导者,谷歌有责任要让人工智能的发展步入正轨。”

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2018-06-12
谷歌发布七条 AI应用的“道德原则”,确保技术在正确的轨道上进步
6月7日,谷歌CEO桑达尔·皮查伊发布了七条AI应用的“道德原则”,包括对社会有益;避免制造或强加不公平的偏见;发展和利用AI技术时注重隐私原则等。谷歌称其不会将AI用于军事武器和侵犯人权的监控中。

长按扫码 阅读全文