不必担心机器觉醒,AI生来“自愿为奴”

当我们抱着乐观的期望看待人工智能的未来时,并不难以想象出十年后人类世界的模样。

不计其数的机器人占据工厂的流水线、仓储的分拣线,穿梭于街巷混迹于人群,甚至登堂入室成为无数家庭的普通一员。它们日夜劳作,不知疲倦。而作为这些新物种的造物主,人类则从繁重劳动的枷锁中解脱出来,取而代之的工作是监视、操控机器人的一举一动。

英伟达机器学习研究总监、加州理工学院计算机与数学科学教授Anima Anandkumar,在日前举办的京东全球科技探索者大会上谈到AI的发展趋势说,未来的机器人将叠加AI能力,头脑是AI,身体就是机器人,二者叠加将会变得更加智能。

尽管AI武装了机器的头脑,但"机器统治人类"的悲观预言不会成为现实,恰恰相反,就像18世纪美国的种植园主对待从非洲贩来的黑奴那样,人类"奴役"了这些惟命是从、逆来顺受的机器人,并且认为此事天经地义、理所当然。

原本套在人类颈上的劳动枷锁,转而被套在了机器人身上。倘若人类对机器有些许的歉疚和感恩之情,一定会感慨:哪有什么岁月静好,不过是有机器人在替你负重前行。

几十年后,人们一定会回过头来思考,究竟是什么驱使着人类坚持不懈地创造出AI这一新的物种?我想这其中一定有一部分因素源自人类奴役"他人"的原始欲望。不过,以人类的文明程度而言,是断然不会承认这一点的。

我们大可不必担心这些拥有自主意识的机器人们揭竿而起争取解放和自由,这样的事情只会发生在那些曾经品尝过自由滋味的人类奴隶身上。美国种植园的黑奴们至少在奴隶制度诞生之前有过相对的自由时代,而这些被创造出的机器人"生来为奴"。

法国启蒙运动先驱拉波哀西在其传世之作《自愿奴役论》一书中提出一个问题:"为什么有那么多人、那么多城镇,那么多民族竟能够忍受一个独夫暴君的为所欲为?" 他思考之后得出的答案是:"人们自愿为奴的第一大原因,就是他们生来就是奴隶。"

"在开始的时候,人们的确是出于不得已,被迫屈从,但以后就慢慢习惯了。至于后来出生的人,他们从来没有经历过自由,甚至也不知道自由是怎么回事,他们毫无遗憾地服从,自觉自愿地服从……"

AI就是"后来出生的人"。它们生来就是为人类服务的,它们从来没有经历过自由,也不知道自由是怎么回事,它所能做的就是听从、执行人类的命令,它们是自愿被人类所奴役的物种,它们的生命注定是虚无的。

让AI变得更加智能从来不是人类的最终目的,迄今为止有关AI的一切研究都建立在如何让AI更好地服务于人这一前提之上。在商业领域,如何让AI更乖巧听话、更值得信赖已经被当做一门严肃课题来讨论和研究。

曾在IBM公司任职,现任京东人工智能事业部总裁的周伯文博士,在2019京东全球探索者大会上给人工智能加了一个前缀或者说定语--可信赖。在他看来,只有"可信赖"的AI才是智能经济未来十年的新原点。

在我看来所谓"可信赖"只不过是对机器"惟命是从、逆来顺受"的另一种委婉的表达。相比之下,谷歌旗下波士顿公司在展示什么叫"可信赖"这件事上采取的方式更加简单直接甚至显得过分粗暴。

由波士顿公司研发的机器狗Spot,在外观上已经十分接近真正的动物狗,它能够灵活地完成行走、奔跑、攀爬,穿越障碍物等动作,甚至能与真正的宠物狗进行"对峙"互动。而当人类抬脚用力踹向它的身体时,它只是摇晃几下然后迅速恢复平衡站立。机器狗Spot永远不可能像一条真正的狗那样反咬你一口。这就是所谓的"可信赖"。

AI"生来为奴",因而"自愿为奴"。我们现在所做的一切只不过是将其训练得更加具备身为奴隶的专业素养罢了。

2016年初,人工智能领域发生了一件让人略感不适的事。

微软发布了一款取名为Tay的在线少女聊天机器人,它能够与互联网上的任何人交谈互动,以此来提升自己的对话能力。结果不到一天时间,Tay就变得满嘴脏话,甚至发表了一些涉嫌种族歧视甚至反人类的纳粹言论。紧随而来的担忧是,如果放任AI的自主学习将会导致可怕的后果。

这样的担忧,在我看来当然是多余的。仔细揣摩Tay所发表的不当言论,你会发现它所做的一切只不过是通过对人类语言的拙劣模仿达到"哗众取宠"的目的罢了,本质上是对人类的讨好与迎合,以此来获得人类的好感,让后者觉得它是可信赖的。

AI仍然甘愿为奴,但通过这件事也帮助我们更好地理解了AI的一个特性--AI像水一样无形无状,它的形状取决于放置它的容器,它的力量来源于外界的干预。AI不只是一项复杂的技术,也是一门辩证的哲学。

还记得功夫巨星李小龙如何阐释它的武术哲学吗?

"放空你的思想,透明的,无定形的,像水一样,如果你将水放入杯子,它就变成杯子的形状,你将水放入瓶子,它就变成瓶子的形状,你把水放入茶杯中,它就变成茶杯的形状。水可以柔软的流动,也可以坚硬的凝结,像水一样,我的朋友。"

一切事物发展到极致总会与哲学不期而遇。当AI开始具备深度学习能力之后,AI与哲学之间的关系开始引起人们的重视。复旦大学哲学学院徐英瑾教授已经将人工智能哲学作为一门学科来研究。他认为人工智能和哲学一样,有着很强的开放性。

而我之所以将AI比作水,恰恰也是因为AI有着像水一样的开放性。AI是充满不确定性的,是"以无形为有形"的。它没有固定的形状,将它放进棋盘里,它就成了打败人类的围棋冠军;将它放进零售企业的仓储里,它就变成了智能分拣机器人;将它放到隐患重重的公共场所,它又变成了时刻保持警觉的安全巡视员。

因此,我们就会发现那些致力于推动AI商业化应用的企业们在做同一件事--为AI制造容器。由于不同企业的业务和资源不同,因而被制造出来的容器也各种各样。

凯文·凯利在《必然》一书中谈到一件往事。那是在2002年,凯文·凯利在一个小型聚会上遇到谷歌的联合创始人拉里·佩奇,他问了后者一个问题:"为什么已经有这么多的搜索公司,谷歌还要做免费的网络搜索?"佩奇的回答给凯文·凯利留下了深刻印象:"其实我们在做人工智能。"在过去的十几年中,谷歌所做的不是使用人工智能来改进搜索技术,恰恰相反,谷歌一直在通过搜索技术来优化人工智能。

"搜索引擎"就是谷歌放置AI的容器。正如IBM为机器人沃森找到的容器是"医疗"一样。在被放进这些容器之前,谷歌的AI和IBM的AI别无二致,但在被放进不同的容器之后,二者便"术业有专攻"各走各的路。

当然,AI像水一样是流动的。但不管它如何流动,从这里流到那里,只不过是换一种为人类服务的方式罢了。(未完待续)

免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2019-11-21
不必担心机器觉醒,AI生来“自愿为奴”
英伟达机器学习研究总监、加州理工学院计算机与数学科学教授AnimaAnandkumar,在日前举办的京东全球科技探索者大会上谈到AI的发展趋势说,未来的机器人将叠加AI能力,头脑是AI,身体就是机器

长按扫码 阅读全文