聊天机器人能成为心理治疗师吗?只有在你希望它们成为心理治疗师的情况下才可以。
最近,人工智能公司OpenAI的一位经理写道,她刚刚与公司的病毒式聊天机器人ChatGPT进行了一次“非常情感化、个人化的对话”。Lilian Weng在X(前身为Twitter)上发帖称:“以前从未尝试过心理治疗,但这可能就是它?”这引发了一系列负面评论,指责她淡化了心理疾病的严重性。
然而,对于Weng与ChatGPT的互动,可能可以通过本周在《自然机器智能》杂志上发表的一项研究中提到的安慰剂效应来解释。
来自麻省理工学院(MIT)和亚利桑那州立大学的一个团队要求300多名参与者与心理健康人工智能程序进行互动,并对他们对互动的期望进行了引导。
有些人被告知聊天机器人具有共情能力,有些人被告知它具有操纵能力,第三组人被告知它是中立的。那些被告知他们正在与一个关心人的聊天机器人交谈的人,比其他组更有可能认为他们的聊天机器人治疗师是值得信赖的。
报告的合著者Pat Pataranutaporn表示:“从这项研究中,我们可以看出在某种程度上,AI是观察者的AI。”
近年来,一些备受关注的初创公司一直在推动提供心理治疗、陪伴和其他心理健康支持的人工智能应用程序,这是一个巨大的商机。
但这个领域仍然是一个争议的焦点。
“奇怪、空洞”
与AI威胁到其他行业一样,批评者担心机器人最终会取代人类工作者,而不是与他们相辅相成。
在心理健康领域,人们担心机器人不太可能做得很好。
“心理治疗是为了心理健康,是一项艰苦的工作,”活动家和程序员Cher Scarlett在回应Weng在X上的初始帖子时写道。“自我调适是可以的,但不是同一回事。”
除了对AI的普遍担忧外,心理健康领域的一些应用程序最近的历史也有些问题。一款名为Replika的热门AI伴侣应用程序有时被宣传为带来心理健康益处,但用户长期以来一直抱怨该机器人可能过于关注性和具有侮辱性。此外,一个名为Koko的美国非营利组织在2月份进行了一项实验,为4000名客户提供使用GPT-3进行咨询,结果发现自动回复根本无法起到治疗的作用。
该公司的联合创始人Rob Morris在X上写道:“模拟的共情感觉奇怪、空洞。”
但是,由于不清楚他的客户是否知道他们的参与,Morris后来不得不为自己辩护,因为他的实验受到了广泛的批评。
“降低期望”
巴塞尔大学的David Shaw并未参与MIT/亚利桑那州的研究,他告诉法新社,这些发现并不令人惊讶。但他指出:“似乎没有参与者被告知所有聊天机器人都是胡扯。”
他说,这可能是最准确的引导。
然而,聊天机器人作为心理治疗师的想法与该技术的20世纪60年代起源紧密相连。
第一个聊天机器人ELIZA就是为了模拟一种心理治疗而开发的。MIT亚利桑那州的研究人员将ELIZA用于一半的参与者,将GPT-3用于另一半。尽管GPT-3的效果要强得多,但被积极引导的用户通常仍然认为ELIZA是值得信赖的。
因此,Weng对她与ChatGPT的互动感到满意并不令人惊讶——她就是该公司的员工。
MIT亚利桑那州的研究人员表示,社会需要掌握有关人工智能的叙述。
该论文辩称:“向社会呈现人工智能的方式很重要,因为它改变了人工智能的体验。”“可能有必要引导用户降低或更加负面的期望。”
本文译自 medicalxpress,由 BALI 编辑发布。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )