当人们谈论未来的人工智能时,会出现一些恐慌——比如,它可以教会自己学习,并变得比我们人类所能理解的任何东西都更先进。在错误的人手中,甚至可能是自己的,这样一种先进的算法可能会统治世界各国政府和军队,赋予奥威尔式的监视、操纵和社会控制,甚至可以控制诸如军用无人机等自主致命武器的整个战场。
但一些人工智能专家并不认为这些担忧有根据。事实上,高度先进的人工智能可能比人类更擅长管理世界。这些恐惧本身才是真正的危险,因为它们可能阻碍我们将这种潜力变为现实。
“也许没有实现人工智能是人类面临的危险,”Facebook人工智能的研究科学家托马斯?米科洛夫在上周六于布拉格举行的“人类水平人工智能”联合会议上表示。
米科洛夫解释说,作为一个物种,人类在做出对我们有利的选择方面是相当糟糕的。人们已经将雨林和其他生态系统分割开,以获取原材料,不知道也不关心它们是如何导致地球整体缓慢而又不可逆转的退化的。
但是,一个高级人工智能系统或许能够保护人类不受其自身短视的残害。
米科洛夫补充说:“我们作为人类,非常不善于预测在某个遥远的时间线上会发生什么,也许从现在起20到30年。”“也许让人工智能比我们自己更聪明,在某种共生关系中,可以帮助我们避免未来的灾难。”
当然,米科洛夫认为一个优秀的人工智能实体将是仁慈的,这可能是少数派。在整个会议过程中,许多其他发言者表达了这些共同的恐惧,主要是关于人工智能被用于危险的目的,或者被恶意的人类行为者滥用。我们不应该嘲笑或轻视这些担忧。
我们不确定是否有可能创造出通用人工智能,通常被认为是复杂人工智能的圣杯,它能够做任何人类能做的任何认知任务,甚至可能做得更好。
先进人工智能的未来充满希望,但它带来了许多伦理问题,甚至是意想不到的问题。
但是,HLAI会议的大多数与会者都认为,在我们需要这些规则之前,我们仍然需要建立规则。政府、私营企业和学术界建立国际协议、伦理委员会和监管机构,应该将这些机构和协议落实到位,减少敌对政府、不知情的研究人员,甚至是一个疯狂科学家将会释放恶意的人工智能系统,或者将先进的算法武器化的可能性。如果有什么不好的事情发生了,那么这些系统就会确保我们有办法处理它。
有了这些规则和保障措施,我们将更有可能在先进的人工智能系统中与我们和谐相处,甚至可能拯救我们自己。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )