01
近期,马斯克和千名科技大佬发出一份公开信,呼吁AI实验室暂停训练比GPT-4更强大的AI系统至少6个月,称其「对社会和人类构成潜在风险」。
这波操作让我想起了19世纪的红旗法案。
红旗法案是一个古老的英国法规,当时为了道路安全限制汽车速度,要求汽车前面走一个人,手持红旗或红灯。这实际上阻碍了汽车技术的发展。如今看来,红旗法案很好笑,未来我们也许会觉得这封公开信也相当可笑。
同时,这部法案一定程度上使英国失去汽车发展的先发优势,美国、德国的汽车产业后来居上。所以,签署这份公开信的人里,不排除有看到其他企业在AI方面跑得太快了,自己追得有点累,就想办法让对方停一停的人。
每次科技变革都会引发恐慌,如蒸汽机、汽车、电力、计算机。恐慌过后,我们需要思考的是技术进步与社会风险的平衡,需要制定的是防范未然的策略,需要反思的是技术创新的道德责任。
这些都很重要,但应该和技术的发展同步进行,而不是举红旗限速,更不是按暂停键。再说了,暂停多久才够呢?马斯克他们建议6个月,6个月就能想清楚吗?别告诉我,6个月后出现的是AI领域的红旗法案!
02
在腾讯新闻问答上,有一个问题关注度很高:马斯克等千名科技大佬声称AI可能毁灭人类,这是危言耸听吗?
我来说说我的看法。
AI失控甚至毁灭人类的前提是AI要具有自主性,就是在很大程度上独立完成任务。那么,在AI系统没有足够理解人类价值观和道德准则的情况下,这种自主性就可能导致失控的风险。
但目前的生成式AI本质上还是人类的工具,给它一个指令,它来生成相应的文字、图片等内容,距离具备自主性还非常的遥远。
虽然人工智能因ChatGPT这样的工具在近期被广泛关注,但它不是最近几年才出现的技术。我可是在2015年就出版了《智能爆炸》这本书,而从全世界范围来说,至少自1950年以来,人工智能就以某种形式存在(比如著名的图灵测试),甚至可以追溯到更早的时候。
也就是说人工智能经过了70多年的发展,才有了ChatGPT这种水平的产品。比起担心AI毁灭人类,我更担心在我的有生之年都不能见到真正具有人类水平智能的AI系统。即便是在非常遥远的未来,我也坚信AI毁灭人类的可能性微乎其微。
03
同时,我也觉得科技大佬们不见得是真的担心AI会毁灭人类,而是想用这种引人注目的方式来推动行业的健康发展(除了部分怀有私心的人)。
这封公开信能够带来的积极影响在于:提高公众对于AI技术发展潜在风险的认识;促进政策的制定,使得政府和国际组织对AI技术的发展进行更多的监管;引导整个行业的道德和伦理发展,使得企业、研究机构和开发者在开发和应用AI技术时遵循一定的道德规范,确保技术的安全和可靠;促成行业内的合作,共同制定标准和准则;此外,作为行业领导者,公开信也可以作为其表达对未来科技影响的担忧和对负责任创新的承诺的一种方式。
04
总之,这封公开信有负面的影响,如可能会阻碍技术的发展,也有一系列积极的影响。但只要适度,就可以做到利大于弊。
至于AI毁灭人类,想太多了!
免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。