极客网·人工智能12月5日 最近一些分析师发出警告,OpenAI开发的聊天机器人ChatGPT可以生成恶意软件。AI生成的代码可能会给网络安全造成严重威胁,人类编写的防护软件无法抵御。
据Tech Monitor报道,不久前OpenAI正式发布ChatGPT聊天机器人,它是根据OpenAI的GPT-3大语言模型开发的。事实证明ChatGPT可以完成多种任务,比如回答客户提问,生成代码,根据提示撰写复杂且精准的散文。
但是,ChatGPT还可以用于网络犯罪,这恐怕是很多人没有想到的。推特网友@lordx64是一名工程师,他用ChatGPT生成了新的恶意软件。他指出,用户可以用OpenAI生成负载,可以具体指定执行何种负载以及如何执行,这可以用于网络战争。
2019年时OpenAI曾做过尝试,用AI软件生成假新闻。给AI一个主题,给出简单提示,它就能生成连贯文章。即使换一个不同主题,AI也不需要重新训练就能上岗。
ChatGPT能不能生成恶意软件?
网络安全行业已经开始引入AI,它可以快速发现攻击并回应。ChatGPT能不能更进一步?能不能生成代码?牛津大学AI、网络安全顾问Raj Sharma给出自己的看法:
“这些代码都是非常基本的代码,但还是可以用来犯罪。AI有一个擅长的技能,那就是自动化。如果黑客能训练AI,让它编写恶意软件,它会不断学习,到时黑客就能拥有一款基于学习的黑客工具。”
Trend Micro技术专家Bharat Mistry认为,ChatGPT在基础层面很容易使用,但想让它生成强大的恶意软件还是很难,许多黑客都做不到。他说:“聊天机器人越来越多,背后的智能越来越高。网络犯罪也越来越复杂,黑客必须知道如何调校引擎,让它做黑客需要引擎做的事。总之,实际操作会比预想的复杂很多。”
Mistry认为,完成这种操作需要很强的技术实力,恐怕只有国家资助的网络间谍才能做到。他强调:“需要非常强大的团队才能做到,这样的工具如果被坏人掌握,那是相当危险的。”
如何抵挡AI生成的恶意软件?
用AI系统生成种族主义内容和仇恨内容不是什么新鲜事,许多人讨论过。OpenAI曾刊发论文,说它开发的系统可以用来降低虚拟信息传播成本。
Sharma认为,可以通过控制措施阻止恶意内容生成,比如,如果请求次数太多,或者某类信息播放的次数很多,就可以启动审查,如此一来机器就会知道它不该这么做。
对于恶意软件,那就是另一码事了。如果想对抗用AI系统生成的恶意代码,最好的办法就是用AI来创建保护机制。Sharma称:“如果有什么黑客工具用到了AI,我们必须用AI来理解其行为,用传统的安全控制措施是无法应付的。”
Mistry也认为在此种环境下应该将AI用作防御手段,因为AI有自己的优势。AI擅于创建“多态”事物,可以改变形态去适应每一次交互——与系统的交互。AI引擎可以高速运行、大规模部署,这是人类做不到的。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )