开发代表体内平衡、情感和同理心的人工代理。(A)代理通过对未来状态的预测模型以及内部和显示情感的近似,通过寻求奖励和避免有害障碍来维护其在环境中的完整性。(B)代理必须利用这些模型来解码和预测其他代理的行为结果和内部情感状态。
南加州大学的社会科学家、神经学家和精神病学家与高级意识研究所、中佛罗里达大学和UCLA的David Geffen医学院的同事们一起,在《科学机器人》杂志上发表了一篇观点文章,概述了一种赋予机器人同理心的新方法。在他们的文章中,他们认为传统的方法可能行不通。
从几乎任何方面来看,ChatGPT和其他类似的AI应用程序已经影响了现代社会。它们被用于广泛的目的,但引发了限制其发展的讨论,因为它们可能对人类构成威胁。为了反驳这样的论点,AI领域的一些人建议防止出现这种情况的方法很简单,就是让这些应用程序具备同理心。在这篇新论文中,作者们同意这种方法,但在如何在机器中模拟这种神秘的人类品质方面存在差异。
目前赋予AI模型同理心的方法集中在教导它们观察人类在道德可议的场景下的行为,然后按照这种行为方式进行模仿,并通过将一些规则硬编码到它们的机器中。但作者们认为,这种方法忽略了自我保护在人类同理心中的作用。例如,如果一个机器人观看一个人因摔倒而经历痛苦的反应的视频,它可以被教导模仿这样的反应,作为与受害人联系的一种方式,但这只是一种表演,因为它不会感到任何同情心。
为了实现这一点,机器人必须经历因跌倒而引起的那种疼痛。研究人员建议,这就是让机器人理解为什么伤害别人是不好的原因,而不是将规则编码到它们的逻辑电路中。他们并不建议将机器人编程为感受真正的疼痛,尽管这可能有一天成为一种选择,而是让它们看到它们的行为可能会产生负面后果。例如,如果它们杀死了它们的人类伴侣,它们可能不得不面对没有人类伴侣的生活。或者因为它们所做的事情而被“杀死”。他们认为,这样做将涉及赋予机器人感受痛苦的能力,而这是一种自我约束的有效手段。
本文译自 techxplore,由 BALI 编辑发布。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )