不会错过大模型的vivo,要先做好AI安全

9月8日消息,“百模大战”进行的如火如荼,手机厂商也纷纷来分一杯羹。

继华为、小米、OPPO等厂商之后,vivo的自研大模型也悄然亮相,8月中旬出现在了C-Eval(大语言模型的多层次多学科中文评估套件)排行榜上,以64.4的平均成绩位列第五。

大模型对手机厂商来说,是一块“必争之地”,仅更智能的手机助手这一点,就让厂商们难以拒绝,并不断布局和投入应用。

不过,新技术的应用必然也会带来新的风险,不久前,在2023 亚马逊云科技 re:Inforce 中国站活动上,vivo 首席安全官(CSO)鲁京辉表示,他们看到生成式人工智能首先被应用最好的就是欺诈,vivo已经识别出来深度合成的欺诈行为。

黑灰产是一个长期的话题,中国移动互联网生态的全部产值大概是10万亿,其中有20%到30%最后进入了黑灰产的池。尤其近两年来,行业从业务驱动数据转变成为数据驱动业务,让黑灰产的形态变得更加复杂。

在人工智能时代,数据是基础设施,手机又承载了各式各样的服务,要推动人工智能行业的健康、有序、可持续发展,手机厂商就必须重视数据安全和个人信息保护。

AIGC时代,作为一个手机厂商必须要做的事情是什么?鲁京辉认为,作为一个终端厂商,对生成式人工智能的应用是两方面:第一个是对自身内部提效的使用,第二个是要构建相关的生成式人工智能的产品和服务去服务用户。

“不管是基于Cloud based这种大模型的交互和人工智能的一些服务产品,还是刚才提到的端侧,我们都在做相应的工作。而且我们不仅是做一个简单的大语言模型的服务提供,还要在基于大语言模型服务提供的同时,做好端侧的内容过滤和生成内容的审核工作。” 鲁京辉说道。

说到AI和安全的关系,过去一般在说两个维度,一个是AI for Security,一个是Security for AI。病毒识别就是典型的AI for Security,隐私数据端侧处理时也会有很多AI相关的技术,比如隐私计算、联邦学习。vivo的“1001个小技巧”,背后也有很多是跟AI For Security相关的。

而Security for AI,一个核心点是,过去的一些安全防护手段,在新的AI时代下不太好用了,要与时俱进有一些新的技术手段去针对。

鲁京辉提出来生成式人工智能要解决四个方面的问题:

要解决内生安全的问题;要解决内容安全的问题;要解决运行安全的问题;要解决合规性的问题。

对于内生安全的问题,核心是要做好相应管理的基线、管理的流程/制度/规范/工具支撑,从数据源头做到可控,保证数据是无毒无害的,有相关的技术要去支撑保证。

鲁京辉介绍,vivo主要是做好作为一个智能手机厂商,在提供生成式人工智能服务的时候必须做好的工作,其他的有些是通过合作伙伴,包括亚马逊云科技这样的云服务厂商来共同来构建。“因为单纯一个厂商,是无法构建一个健康、有序的生成式人工智能生态的。”

在采访中,鲁京辉强调到:“我们一定不会缺席生成式人工智能这场盛宴的,但是我们希望不是去宣传,而是希望真正给用户提供相应的生成式人工智能产品和服务的同时,一定要做好本分的安全和合规性的工作。”

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2023-09-08
不会错过大模型的vivo,要先做好AI安全
做好本分的安全和合规性的工作。

长按扫码 阅读全文