构建合乎道德的人工智能是一项极其复杂的任务。而当利益相关者意识到人工智能要与道德规范相符是局外人的观点时,事情就变得更加困难了。
加利福尼亚州月半弯——当地一篇新闻报道称,Clarifa正与美国国防部合作,但有一些员工质疑其开发分析无人机拍摄视频的人工智能系统的道德性,对此,该公司表示,该项目将能挽救平民和士兵的生命。
“Clarifai的使命是通过不断改进人工智能技术来加速人类的进步,”该公司创始人兼首席执行官、著名人工智能研究员Matt Zeiler在博客中写道。后来,在一次新闻媒体采访中,Zeiler宣布增加了一个新的管理岗位,这将确保公司的所有项目都符合道德规范。
随着活动人士、研究人员和记者对人工智能的崛起表示担忧,并对带有偏见、欺骗性和恶意的应用发出警告,开发此类人工智能技术的公司正在做出回应。从像谷歌和微软这样的科技巨头,到斗志昂扬的人工智能初创企业,都在制定企业原则,旨在确保他们的系统以一种合乎道德的方式设计和部署。还有一些公司设立了道德官员或审查委员会来监督这些原则的实施。
但随着一些人在质疑这些承诺最终能否兑现,紧张的局势变得愈加严峻。企业可以改变方式。而理想主义也可能屈服于财政压力。一些活动人士——甚至是一些企业——开始辩称,确保道德规范实践的唯一途径是通过政府监管。
但许多政策专家表示,他们认为政府制定的原则不太可能比大公司制定的更具影响力,特别是因为美国国防部在开发类似技术时,有足够动力与中国、俄罗斯和其他国际竞争对手保持同步。因此,一些人呼吁签订禁止使用自主武器的国际条约。
监管是否是最好的方法?
Clarifai的员工在他们的公开信中表示,他们不确定监管是否是解决人工智能技术道德问题的最好方法,并且,他们认为,直接责任在于公司本身。
“监管会减慢研究的步伐,而我们这个物种需要不断进步,才能在今天面临的许多威胁中生存下来,”他们在写给Zeiler和公司其他成员的信中写道,“我们需要有足够的道德感,让人们信任我们,才能靠我们自己来实现这项技术,因此我们有责任让公众清楚地了解我们的道德规范原则。”
但他们的信并没有达到预期的效果。Zeiler解释说,因为Clarifai很可能会致力于自主武器的开发。几天后,这封信的作者,也就是之前被任命为道德顾问的Liz O'Sullivan,离开了公司。
像Whittaker这样的研究人员和活动人士认为,这是一个科技公司的员工可以利用其自身的力量推动变革的时刻。但他们也表示,这必须发生在公司内外都能意识到道德规范重要性的情况下。
Whittaker 表示,“我们确实需要监管。”就连微软的首席法律官Brad Smith也持有相同观点。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )