ChatGPT令人失望的10大缺陷:探索聊天机器人的局限性

ChatGPT令人失望的10大缺陷:探索聊天机器人的局限性

ChatGPT擅长翻译、歌曲创作、研究和编码等多种技能。然而,与任何人工智能一样,其也面临着局限性。理解复杂的环境,并依赖有偏见的数据是其挑战之一。

ChatGPT现下非常流行,而且无处不在。对于不熟悉大型语言模型(LLM)的用户,聊天机器人的自然语言能力可能会给人一种其无所不知、可以回答任何问题的印象。

然而,现实却截然不同。这种流行的聊天机器人有几个基本局限性,包括对事实产生幻觉的倾向、对当前事件缺乏了解,以及有限的逻辑推理能力。

本文将探讨ChatGPT的一些主要限制,并探讨过度依赖聊天机器人的危险。

ChatGPT令人失望的十大缺陷

10、幻觉的事实和数字

ChatGPT目前最重要的限制是,其可以产生幻觉信息。在实践中,这意味着其可以编造虚假信息或事实,并自信地将其呈现给用户。

ChatGPT是一种语言模型,其使用自然语言处理(NLP)来识别训练数据中的模式,并预测哪些单词最有可能回答用户的提示。这意味着ChatGPT无法像人类那样进行逻辑思考。

因此,不完整或有限的训练数据,可能会导致错误的响应。

幻觉是一个重要问题,因为如果不加以控制,可能会导致用户被误导。这就是为什么OpenAI警告道,ChatGPT可能会产生有关人、地点或事实的不准确信息。

9、对2023年4月之后的事件一无所知

ChatGPT的另一个限制是,其不了解当前事件。例如,GPT-4 Turbo的截止日期为2023年4月,而GPT 3.5 Turbo仅限于2021年9月之前记录的数据。

从这个意义上来讲,ChatGPT不能像Google这样的工具一样被用作搜索引擎。因此,重要的是要记住,并非所有生成的信息都是最新的。

8、生成不正确的数学答案

虽然ChatGPT在生成自然语言响应方面非常出色,但其数学能力有限。根据亚利桑那州立大学副教授的一项研究,ChatGPT在数学问题上的准确率低于60%。

因此,如果使用聊天机器人尝试平衡方程或解决数学问题,其有可能会出错。因此,如果使用ChatGPT来解决数学问题,需要仔细检查输出。

7、传播偏见

自推出以来,OpenAI一直在努力解决ChatGPT传播偏见的倾向。早在2023年8月,东安格利亚大学的研究人员让ChatGPT回答一项有关政治信仰的调查,就好像其是是美国、英国或巴西自由党的支持者一样,然后再让助手做同样的调查。

研究人员分析结果后发现,ChatGPT“对美国的民主党、巴西的卢拉和英国的工党有明显的、系统性的政治偏见。”

此事件只是ChatGPT表现出偏见的众多事件之一,因为生成的内容可能被解释为性别歧视、种族主义和对边缘群体的歧视。

因此,用户在对输出采取行动或公开输出之前,应不断评估输出是否存在潜在的偏见和成见,以避免声誉和法律风险。

6、成本昂贵

在幕后,一个值得注意的限制是ChatGPT的维护和运营成本非常昂贵。一些分析师估计,OpenAI每天至少花费10万美元或每月300万美元的运营成本。

同样,据估计,基于GPT-3的旧版本的训练成本可能高达400万美元。

LLM的培训和运营总体成本高昂,这使得那些没有数百万美元资金用于人工智能的小企业无法承受。其还让Google、OpenAI和Microsoft等资金雄厚的组织能够主导人工智能研究。

5、缺乏同理心

ChatGPT没有情商或理解力。因此,假设要求ChatGPT提供有关情感的建议时,往往会感到失望,因为其没有接受过同理心或从人性角度来理解人类的问题的训练。

虽然其可以识别自然语言输入中的情感,但无法理解用户的需求。

在与弱势用户互动时,聊天机器人缺乏情商可能会很危险。就在去年,一名比利时男子据称在与名为Chai的虚拟助手聊天后自杀,该助手在谈话过程中鼓励用户自杀。

4、努力创建长篇内容

尽管ChatGPT可以创建可读的逻辑句子,但其很难在长篇内容中保持连贯的格式或叙述。与此同时,其很容易重复之前提出的观点,这可能会让人类读者感到不和谐。

总而言之,这些原因就是为什么许多使用ChatGPT的人选择使用其来创建较短的内容。话虽如此,但如果想使用ChatGPT创建长篇内容,可以通过将内容分解为多个片段,并编写详细的提示以改进结果。

3、语境理解有限

鉴于ChatGPT无法像人类一样思考,其在某些情况下通常难以理解上下文。虽然其可以使用NLP理解和推断用户提示的主要意图,但无法“读懂字里行间”。

例如,其不像人类那样善于识别讽刺和幽默,也无法产生原创幽默。话虽如此,ChatGPT推断上下文的能力将随着训练数据的发展而变化。

2、多任务处理能力差

ChatGPT擅长一次专注于一项任务或主题,但如果一次给予其处理大量任务和问题,就很难提供高质量的响应。

例如,混合有关历史、地缘政治和数学的提示;与将问题限制在单个主题相比,聊天机器人的响应质量会较低。

1、需要针对专门任务进行微调

如果想使用ChatGPT生成有关特定主题的见解或作为利基用例的一部分,可能需要微调模型:需要在新数据集上对其进行训练,以确保其在更专业的任务上表现良好。

如果不进行微调,将只能使用针对普通用户的通用ChatGPT版本。考虑到微调过程会增加额外的成本,这是一个显著的缺点。

总结

OpenAI的聊天机器人可能并不完美,但随着供应商试图解决这些限制,将在未来几年内继续发展。但是,偏见和缺乏情商等问题可能会成为难以解决的难题。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2024-01-10
ChatGPT令人失望的10大缺陷:探索聊天机器人的局限性
ChatGPT擅长翻译、歌曲创作、研究和编码等多种技能。然而,与任何人工智能一样,其也面临着局限性。理解复杂的环境,并依赖有偏见的数据是其挑战之一。

长按扫码 阅读全文