警惕“大模型幻觉”,中国AI要大胆前行

警惕“大模型幻觉”,中国AI大胆前行

随着人工智能(AI)技术的飞速发展,大模型已成为推动中国科技进步、经济增长和国家强盛的关键力量。然而,大模型也带来了一系列新的安全和监管挑战。全国政协委员、360集团创始人周鸿祎在两会期间,聚焦关注大模型安全和幻觉、网络安全行业转型问题,提出了一系列具有前瞻性的建议。

首先,周鸿祎强调了大模型“幻觉”的适度包容问题。他指出,大模型作为一种前沿技术,其“幻觉”现象是其重要特点之一,也是实现通用人工智能(AGI)的重要因素。在科研领域,大模型的“幻觉”能够“想象”新药分子结构、蛋白质的结构等,为新研究指引方向。然而,在医疗、法律、金融等对准确性要求高的领域,虽然大模型的“幻觉”可能出错,但可以利用技术手段进行矫正。因此,对于大模型的“幻觉”,我们应当持有适度包容的态度,避免过度追求准确而限制其创造力。

其次,周鸿祎提出了以模制模的解决大模型应用安全问题的方法。他指出,随着大模型的广泛应用,安全问题也随之而来。大模型存在幻觉、内容安全等诸多问题无法通过传统安全方案有效化解,一旦部署在政府、企业内部的基座模型、知识库或智能体中任一环节出现安全隐患,都极有可能诱发整个生产环境爆发系统性风险。对此,360运用人工智能技术重塑安全格局,采用“以模制模”的方式应对新难题,依托安全大模型技术搭建起覆盖“基座模型—知识库—智能体”的全链路安全体系,护航政府与企业“数转智改”。这一方法无疑为解决大模型应用安全问题提供了新的思路。

再者,周鸿祎关注到了网络安全行业转型的问题。他指出,当前网络安全行业内卷严重,传统模式问题重重,不仅难以实现安全能力的广泛覆盖,也无法帮助企业等客户迅速构建安全能力。为此,他建议推动网络安全服务化转型,鼓励从购买硬件产品转变为购买安全服务,并鼓励购买SaaS化的安全产品。这些建议将有助于网络安全行业适应新的市场环境,提升网络安全防护水平,为国家数字化建设筑牢安全基础。

综上所述,周鸿祎的提案为我们提供了一个全面而中立的视角来看待大模型的安全和监管问题。在数字化、智能化的浪潮中,我们不能仅仅关注技术的准确性,更要重视其创造力和想象力。对于大模型的“幻觉”,我们应当持有适度包容的态度,同时也要构建完善的监管体系,确保其在安全的前提下发挥最大潜力。对于网络安全行业转型问题,我们应当积极推动服务化转型,提升网络安全防护水平,为国家数字化建设提供坚实的保障。

面对未来,中国AI要大胆前行。让我们警惕“大模型幻觉”,把握住时代发展的机遇,共同为国家的科技进步、经济增长和国家强盛贡献力量。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2025-03-04
警惕“大模型幻觉”,中国AI要大胆前行
中国AI发展需警惕大模型幻觉,既要包容创新,又要确保安全,推动行业转型,为国家数字化建设筑牢基础。大胆前行,共创未来。

长按扫码 阅读全文