2016年,欧盟委员会牵头与Facebook、Twitter、YouTube和微软等互联网巨头们集体签署了一项行为准则,承诺“接到举报后24小时内屏蔽和删除相关仇恨言论”。
“仇恨言论”在欧美已经是刻不容缓的互联网内容安全问题。
2019年发生在美国、新西兰等地的公共伤害事件,事后都被查明凶手为种族歧视的捍卫者,动手之前曾在网络上分享过自己的行程与仇恨理念。
而这只是互联网内容安全问题的冰山一角。
互联网上与日俱增的内容不仅代表着更多的流量,也预示着巨大的内容风险藏身其中。色情、毒品、旗帜、暴恐、血腥、武器等等不良、有害信息不仅危害互联网平台的内容生态,更可能导致安全问题,使业务发展遭受损失。
不夸张的说,内容安全就是互联网平台的风控命门。
过去,互联网公司通过增加内容审核人员规模来解决问题,比如2018年今日头条就曾将原有6000人的运营审核队伍扩大到10000人,社交巨头Facebook在全球范围内也拥有1.5万内容审核员。
但这也引出一个实际问题,大厂有能力和资金可以雇佣内容审核专员,或者自己开发机器审核,而小厂呢?如何应对这颗随时可能引爆的安全“炸弹”?
人工+机器辅助,AI内容风控了解一下
随着互联网内容愈发繁杂且海量,以及市场与行业升级之后,信息传播的媒介与形态越来越多样化,传统的人工审核方式已经不能从容应对内容安全危机了。
人工审核本身有着天然缺陷,比如成本高、效率低、主观成分高、评判标准不统一等等。仅成本一项就很难,有企业曾透露,一人一天审核4万条信息,日均100万数据,光审核人力成本就要200万以上。
对企业而言,概括起来说就是成本高、技术难、效果差。甚至,因为长期与极度负面的信息打交道,对审核员工的身心都会造成损伤。
今年3月,3000多名内容审核员就对Facebook发起了诉讼,这些内容审核员要求对这份工作引发的精神损害进行经济补偿。5月,Facebook不得不同意向这些内容审核员支付5200万美元的和解费。
并且,视频、音频等媒介形式的爆发,又给人工审核带来了新的挑战。
于是近几年,基于算法技术和人工智能,互联网平台开始开发机器辅助人工审核的方式应对内容安全问题。机器审核的一大优势就在于,可以应对不同媒介维度的内容审核工作。
文本内容:最基础的处理工作是匹配词库进行分类处理。区别于人工,AI可以通过预设违禁词库来完成文本内容筛选。
比如,百度内容审核平台就是预置违禁词库+用户自定义黑/白词库的配置,并根据色情、暴恐违禁、政治敏感、恶意推广等七大场景建立了黑词库和语义审核模型,不仅能够对敏感词和违禁词进行处理,也能根据上下文、语境、语义识别出违规信息。
图像内容:机器对图片类型的内容审核,其底层是图片识别的技术应用。以此为基础逻辑,图片内容的各个场景得以被辨识并应用到内容审核中,比如下图就介绍了百度内容审核平台的图像检测产品的主要功能。
视频内容:视频内容由音频内容、视频画面两个对象组成,视频画面的机器审核,业界目前常采用截取画面帧上传识别,最终复用的是图片识别通道对场景、人物、物品进行判断是否违规。
音频内容:音频识别的技术基础建立在以声学模型建立的发音模版,通过匹配发音模版判断出语种和对应表义,输出可被计算机理解的语言结果。
音频内容的审核要略微复杂一些,一方面是音频背景音需要降噪才能准确识别语音内容,另一方面是声音内容的颗粒度要更细,比如掺杂在声音内容里的娇喘声。百度内容审核平台为此增加了一个声学模型审核,对诸如娇喘声等违规信息可有效识别。
以上几种不同媒介的机器审核是目前业界最普遍的基础方案,相较于人工审核,人工+机器的复合审核方式相当于将一些重复性高、需要大量计算的工作交给机器精筛,再由人工复审,以此达到海量内容的高效审核。
这也存在一些问题,比如一张人像图片可以划分为“色情”、“性感”、“正常”三个维度,机器可以根据肉体裸露程度来判断,但在特定情况下又要有所区分,比如在电商平台销售内衣的模特照片就是合规的,而在母婴论坛可能就不一样。
所以,在流程设计上,机器审核可以做到的就是帮助运维者先行剔除大量确切违规的内容,剩下的人工审核流程依旧不能省。
需要怎样的内容风控解决方案?
那么,既然机器审核既有优势又有劣势,互联网平台究竟要怎样才能做到高效且节省成本的内容审核呢?
答案是从两个方面入手。
其一,部署性能优越的机器审核平台。目前,基本上互联网大厂都是自己开发,比如Facebook。疫情期间,由于大部分人工审核员居家隔离,Facebook依赖于AI检测系统,据说该系统可以自行检测到平台上90%的有害信息。
国内的百度、腾讯、阿里、头条、快手等也都是自己开发的机器审核。也有一些提供内容审核的大数据风控创业公司,比如同盾科技、数美科技等等。
其中,百度是为数不多开放这一产品的大厂。2018年,百度推出了基于AI开放平台的内容审核产品,支持图像、文本、音频、视频等多形式的审核。
经过两年多的发展,目前百度内容审核平台已经升级到14+项图像、 8+项文本、9+项语音审核能力,并可以基于多年的风险处置经验实时更新系统策略。
百度内容审核平台设定了全面的分类标签体系,包括色情20标签、暴恐17标签等等,这一体系可以让企业根据业务需求自由组合标签,也就是自定义模型。
举个例子,在视频直播场景下亲密行为属于正常,而在母婴论坛就不能通过。不同场景对违禁规则的需求不同,平台可以根据自身业务特性自定义模型,无疑这既增加内容审核准确度也不会对用户体验造成损伤。
而且百度内容审核平台背后还有顶尖的技术支撑,百度是唯一连续三年入选MIT科技评论的年度十大突破技术公司。在人脸检测Wider Face&person Chllenge 2019、机器阅读理解 MS MARCO数据集榜单等国际技术比赛中稳居第一。
其二,人工依旧是内容安全审核无法略去的重要环节,而提高人工审核效率也是关键之一。
据百度AI技术生态部高级产品经理Nathan透露,百度内容审核平台的客户存在一个非常明确的诉求,即AI 审核能力提高的同时,还需要一套功能更加完备的审核系统来提升审核的管理效率。
近日,百度大脑就在内容审核平台的基础上又推出了人机协同审核管理平台。
该平台的逻辑是辅助内容审核平台,相当于在整个审核流程中加入了一个新的AI机审。以短视频为例,AI机审可以调用内容审核平台接口,通过截帧、抽取音频的方式进行审核,对比内容审核平台,AI机审在这其中增加了图像指纹、声纹黑库功能,进一步强化审核准确度。
同时,人机协同审核管理平台还推出了三层人审机制,具体流程可参考下图。
百度方面表示,通过优化人机协同机制,能够帮助客户降低30%人力消耗并大幅提升单人审核效率。而且在服务形态上提供公有云、私有化灵活的部署方案,帮助客户极大节省平台开发和运维成本。
国信聚安是一家聚焦于内容安全生态的专业服务商,其基于百度大脑的算法、模型、数据和研发打造了一套新媒体内容风险管理方案。
国信聚安的业务能力主要在前端数据,包括用户信息、图片信息、视频、互动等,借助人机协同审核管理平台建立自定义模型,对色情、涉政等违规信息进行关键词匹配、语义分析等检测操作,再通过人工复审实现结果输出。
通过借力百度大脑,国信聚安实现了四大提升:
1 借助标准化、易接入的人机审核平台,提升了业务拓展和线上效果;
2 提高专项内容审查的应对能力;
3 高危内容研判耗时缩短,准确率提升;
4 人力成本下降。
“借助模型快速的研判和准确率,使得研判耗时缩短了95%,准确率提升了70%,也大大降低了一线审核员的压力。”国信聚安CEO陈太锋表示。
工欲善其事,必先利其器
从全球内容产业的发展来看,内容安全审核是整个互联网平台进化的重要一步。一方面,机器审核方式的加入提升了内容审核效率,另一方面也直接强化了内容分发的商业效率。
也就是说,除了内容安全问题,AI也在让内容产业变的更“轻”——轻人力、轻成本、轻流程,让AI来解决更多问题。
而近年来内容安全事件的高发,也证明了行业中内容安全风控仍存在缺口。主要表现在建立内容审核编辑责任制落地不到位、在新媒介内容审核上技术投入不足等等,这其中有技术问题也有人力、资金问题。
考虑到这些现实问题,而内容风控又是必须要做的事情,类似百度大脑这样的高效、低成本审核手段就有了用武之地。
在这样的前提下,利用AI进行内容风控的重要性只会不断提高,我们未来需要应对的不仅仅是不当内容和低质量内容,很可能还会有人类都难以分辨的虚假内容。这样看来,AI内容风控不仅仅是一项增益技术,而是驶向内容产业金银岛保驾护航的必由之路。
免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。