奇安信发布Q-GPT安全机器人和大模型卫士

8月25日,奇安信集团在京发布了Q-GPT(奇安信大模型)安全机器人和大模型卫士。Q-GPT安全机器人是基于奇安信大模型的“虚拟安全专家”,可以全天候工作,一台机器人等于60多位安全专家,可产生约2000万元的运营效益,极大提升了生产力。大模型卫士集安全风险发现、大模型访问控制、数据泄露管控、违法违规行为溯源、大模型应用分析等为一体,帮助企业更安全的向大模型要生产力。

在会上,京东方集团和吉利汽车集团等客户现场签约,成为国内首批Q-GPT安全机器人和安全大模型用户。同时,大模型卫士现场获得了国内多家客户的签约意向。

生产力才是硬道理,奇安信安全机器人解决三大困扰

“从我们开始训练自己的GPT安全大模型开始,就制定了明确的目标:一定要让客户在使用奇安信的GPT产品时就像是雇佣了一个高级安全专家队伍,把产品领回去就能变成自己的力量。所以这个产品的形态一定不会是一个问答对话框,而是一个聪明的机器人,它能帮助或者替代安全专家执行复杂任务,能全天候工作,成为真正的生产力。”奇安信集团董事长齐向东表示。

在网络安全上,政企机构长期面临着三大困扰,分别是告警疲劳、专家稀缺、效率瓶颈。首先,攻击者手法层出不穷,攻击频次日益密集,企业每天都会产生海量告警,有限的安全专家无暇应对,通常只有1%的告警被研判,99%的告警被无奈放弃,形成告警疲劳;其次,安全本来就是一个知识、技术和实战经验要求很高的行业,高水平人才难以快速培养,企业面临着专家少的难题,据教育部统计,到2027年,我国网络安全人员缺口将达到327万;第三,人本身受制于精力、情绪、状态等多方面因素,不可能全天候工作,形成效率瓶颈,也就是加人不划算、不加人干不完。

奇安信安全机器人究竟创造多大的生产力?以处理告警这个安全运营场景为例,一个3000人的数字化企业每天平均大约有10亿条日志, 产生约10 万条告警。一个安全分析专家一天最多能处理480条,要想把10万条全部处理完,需要200多个专家,按每人每年30万成本计算,需要6000多万元,这对于绝大多数企业显然难以承受。但如果选择奇安信安全机器人,每台机器人效率相当于60多位专家,可以产生约2000万元的运营效益。

据奇安信集团副总裁左文建介绍,早在2015年,奇安信就是业内最早将深度学习引入网络协议和应用程序识别的安全企业,如今,奇安信人工智能研究院已经在6大方向形成100余种AI能力,申请相关发明专利187项,曾多次获国际、国内比赛第一名。奇安信相继发布奥丁平台、洛基平台、天算平台等人工智能公共基础设施,累积接入公司50多个产品线,涵盖了威胁检测与态势感知、终端、边界、云安全等主流产品。

安全大模型是机器人的核心基础,Q-GPT基于奇安信多项业内领先的自研技术,例如预训练阶段tokenizer采用QPiece算法,以高效支持中英文和各种编程语言;在模型中使用分组注意力机制代替传统多头注意力机制,以获取更好的训练和解码速度。同时,在推理阶段,也使用了高效加速框架,加速比达6.5倍。

“大模型是不是聪明,要取决于知识数据的质量。比如,GPT写代码,生成代码质量最高的并不是OpenAI、谷歌、Meta等巨头,而是GitHub推出的Copilot,因为GitHub有全球9400万的开发者为其贡献高质量代码和注释;同样,大模型做安全分析师,分析质量最高的也不是巨头们的GPT,而是奇安信本次推出的Q-GPT,因为奇安信拥有业内最大规模的安全专家团队、海量的安全知识数据,以及在历年实战攻防演习中锤炼出来的最强攻击能力、防守能力,而且在预训练数据层面,奇安信具有百万亿级的安全日志、文档、知识库、情报类数据,存储体量达数百PB。”左文建表示。

在现场演示中,奇安信安全机器人展现了强大的智能分析和自动研判能力。某客户安全分析平台收到了海量告警,但安全专家的极限,只能对其中1%的重要告警进行分析研判,99%的告警被无奈抛弃,导致大量隐蔽攻击被忽视掉,增加了系统安全风险。通过安全机器人,可以实时、自动为客户研判“全部告警”,将需要响应处置的告警过滤出来,解决日常分析安全工程师的“告警疲劳”、“研判疲劳”问题,避免“漏报”和“误报”。

京东方集团和吉利汽车集团在发布会现场签约,成为国内安全机器人的第一批用户。京东方集团信息安全中心负责人李楠表示,“网络安全运营中有大量告警,而企业的安全专家总是非常稀缺。京东方随着业务的快速发展,分支机构、工厂也同步增加,网络安全暴露面不断扩大,大量安全设备日志和告警成为安全团队的困扰。希望新的Q-GPT能够帮我们解决安全研判等问题,尤其是非工作时间的应急事件自动处理,提高安全事件应急响应效率,解放安全专家及安全运营人员的人力。”

吉利汽车集团有限公司安全总监徐正伟表示,车联网是当前非常热门的领域,智能网联汽车除了拥有车辆本身数据外,还包括城市交通数据和用户个人数据等等,具有极高价值,数据安全关乎着国家安全和个人安全。面对来自云、网、端等越来越复杂的安全风险,我们期望使用Q-GPT安全机器人,就像雇佣了一个高级安全专家团队,能够提升吉利汽车的整体安全能力。

解决“想用不敢用”难题,大模型卫士助企业解放生产力

“ChatGPT等大模型,会泄露企业的商业秘密,已经引起广泛关注。据统计,在使用ChatGPT的员工中大多数会泄露数据,其中11%的数据为企业敏感数据。而越来越多的办公产品如Microsoft 365 Copilot、WPS AI、通义听悟等都集成了大模型,就意味着将有更多的员工使用大模型,这会加剧企业敏感数据的泄露风险。解决大模型数据泄露难题,迫在眉捷。”奇安信集团副总裁张卓表示。

此次发布会,奇安信正式推出业内首款大模型卫士产品,解决广大企业客户对于大模型“想用不敢用”的顾虑,让他们能够用好大模型提升核心竞争力。

张卓认为,数据泄露带来的直接结果,就是企业核心竞争力的逐步丧失。以某行业龙头企业A为例,该企业拥有大量核心技术专利,形成了强大的技术壁垒,然而,由于员工大量使用大模型应用处理日常工作,且缺乏监管,最终数据投喂过程中公司敏感技术信息不断泄露,时而久之,这些重要技术信息变成GPT知识库的一部分,又通过GPT传授给同行对手企业,导致企业的核心竞争力逐步丧失。

相反,作为一家现代企业,如果不积极使用GPT改进自己的技术、产品和市场推广,就会有落伍的风险。张卓进一步指出,行业里有一个共识,不掌握GPT方法的人,会失业;不使用GPT的企业,会落伍。

与此同时,数据安全相关法律法规为大模型应用定下了监管红线。我国相继出台了《网络安全法》、《数据安全法》、《中华人民共和国个人信息保护法》,以及数据跨境相关法律监管体系,这要求企业在使用大模型时亟需守住合规底线。

针对这些情形,奇安信发布了大模型卫士,为企业在使用大模型过程中提供四重防护:

第一是防止数据投喂造成的敏感数据泄露。包括建立内部技术监管手段,防止员工向大模型投喂敏感数据。

第二是建立身份识别与溯源机制。把身份与数据关联,在发生数据泄露风险时,找到数据泄露的主体。

第三是避免触发数据跨境安全监管红线。有效监控对ChatGPT等国外大模型的数据投喂行为,避免数据跨境安全违法的发生。

第四是对企业内部大模型应用状况全面分析。对员工的大模型应用状况进行分析,快速、有效的利用大模型技术重构企业经营生产活动流程,调整资源配置。

目前,大模型卫士能够完美适配主流大模型应用,并在终端侧和网络侧,通过检测审计平台、安全代理网关(SWG)等工具,对GPT实现精准管控,全面降低数据安全风险。

“针对汹涌而来的大模型浪潮,促进发展和防范风险需要两者并重。”张卓表示,大模型卫士能帮助企业发现大模型使用过程中的安全风险、实时管控大模型访问和数据投喂过程、提升企业的大模型应用能力、溯源违法违规行为,最终让企业更放心地使用大模型技术,更安全地提升生产力,为大模型健康发展保驾护航。

结语

当前,国内“百模大战”如火如荼,通用类、垂直类井喷之势发展。IDC预测,2026年中国AI大模型市场规模将达到211亿美元,人工智能将进入大规模落地应用关键期。随着Q-GPT安全机器人和大模型卫士两款产品的发布,奇安信将充分依托安全和人工智能两大领域的深厚积累,帮助广大政企客户向大模型要生产力,走好数智时代的发展之路。

免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2023-08-25
奇安信发布Q-GPT安全机器人和大模型卫士
奇安信发布Q-GPT安全机器人和大模型卫士

长按扫码 阅读全文