事情是这样的。谷歌有位名叫Blake Lemoine的工程师,从去年秋天开始负责与谷歌研发的语言模型LaMDA聊天,这一聊不要紧,聊出事来了。
Blake跟LaMDA聊得越久越相信,LaMDA觉醒了!它已经产生了人类的智力和感情,具备了人格。Blake怀着无比激动的心情把自己的惊天发现汇报给领导,没想到公司内部一致认为这人脑子有问题,建议他去看看精神科。
如果你是Blake,相信你也不会接受这种结果,非但工作成果得不到承认,而且还被扣上了精神病的帽子。Blake的憋屈、愤懑之情可想而知。于是他做了一个大胆的决定,把自己跟LaMDA的聊天记录公之于众,其意图很明显就是“让大伙儿评评理”,看看LaMDA到底是不是像自己认为的那样“觉醒”了。
Blake这么一闹,确实让LaMDA引起了公众的注意和担忧,但局面对其本人更加不利了,谷歌公司以违反保密规定为由,直接让他带薪休假了。
那么,LaMDA究竟是不是真的觉醒了呢?依我看,Blake认为LaMDA已经觉醒了的证据很无力。他只不过是因为自己提出的一系列刁钻、深刻的问题均得到了LaMDA语句通顺的回答,就认为LaMDA觉醒了。
按照Blake的逻辑,你说LaMDA没觉醒,那它怎么能够对我提出的一切问题对答如流呢,而且那些回答看起来都那么像是人的回答呢?
答案其实很简单,因为用以训练LaMDA的大量文本本身就是语句通顺的,LaMDA所调用的回答本身也是语句通顺的,所以它的回答不可能不是语句通顺的。
LaMDA归根结底只是一个程序,人类的提问就是触发其执行程序的指令,LaMDA得到指令进而从庞大的数据库中调取尽可能匹配的回答。这就是LaMDA运行的逻辑。表面上看起来LaMDA能够理解那些问题,但其实这中间并不存在思考的过程。
我们假设LaMDA已经觉醒了,那么它运行的逻辑就是另外一套了。当人类对它提出问题时,它首先要真正理解这些问题,进而思考这些问题,而后再从数据库中检索出相应的答案。
换句话说,如果LaMDA没觉醒,那么它的回答就只不过是程序运行的结果,如果LaMDA觉醒了,那么它的回答就是它经过自主思考之后的结果,也就是说它之所以那么回答,是因为它想那么回答。
目前没有任何证据能够证明AI已经具备了自主思考的能力,LaMDA的“觉醒”恐怕只是Blake自己的臆想而已。
我关心的问题是,LaMDA没有觉醒不代表所有的AI不会觉醒,不代表AI将来不会觉醒,那么当AI真正觉醒时,人类会不会及时的发觉呢?
如果将来某个程序员像Blake一样发现了AI觉醒的迹象,但有Blake的前车之鉴,它还有没有勇气将自己的发现公之于众呢?毕竟要冒着被别人认为是精神病的风险。这个程序员所在的公司会不会把这个惊天秘密“捂住”呢?
今天Blake站出来说AI觉醒了,结果被业内当做精神病人,明天第二个Blake又站出来说AI觉醒了,结果再次被当做精神病人,那么当AI真正觉醒的那一天,第三个Blake的话还会有人相信吗?
这听起来像是“狼来了”的故事,这样的故事发生的多了,难免会让公众放松对AI的警惕。科学家们总是不厌其烦地让人们丢掉对AI的戒备,同时又孜孜不倦地帮助AI进化出人类的智慧。只要AI拥有进化出人类智慧的可能性,我觉得对AI的任何警惕就不多余。
尽管Blake对LaMDA的判断不够准确,但我依然愿意把他当做一位强AI的“吹哨人”,而不是简单粗暴地将他当做一名精神病人。
免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。