王皓:构建‘安全人才’培养与‘人才安全’培育双促进、双保障格局

今年上半年大模型产品和概念火出圈,也引发了一系列问题和担忧。

10月19日,在2023第六届SSC网络安全大会上,西安电子科技大学教授王皓表示:“大模型迅速发展所暴露出的安全问题,在做好监管亟的同时,要加强对于网络安全人才的培养”。

王皓在第六届SSC网络安全大会以“大模型时代的数字安全法治人才培养初探讨”为题演讲

2022年底chatGPT的爆发,带来了巨大的技术变革,在国内外引起了广泛讨论以及关注,国际上各类通用大模型迅速相继涌现。发展至今通用大模型已经突破自然语言屏障,升华为多模态的生成式人工智能工具。能够真正像人类一样来聊天、交流,完成撰写邮件、文案、代码、论文等复杂任务。目前,国内外众多网络科技公司纷纷推出了自己的通用大模型,如华为的盘古系统,讯飞的星火系列以及百度的文心一言。

大模型由于发展时间短,信息保护比较脆弱,容易导致信息泄露。此外,别有用心的群体或个人设计了“邪恶大模型”,通过创建破解工具、钓鱼邮件、甚至恶意的攻击软件,进行一些危害个人或者社会的事情。”王皓说道。

目前,全球范围都已意识到大模型迅速发展所暴露出的问题。我国上半年出台了《生成式人工智能服务管理暂行办法》,欧洲、美国也颁布了一些初级的协议、权力法案,开始加强对大模型的约束。

除了通过立法加强AI监管、通过技术进步不断完善大模型外,我们也要加强对于网络安全人才的培养。王皓表示,“西安电子科技大学通过构建‘安全人才’培养与‘人才安全’培育双促进、双保障格局,加强信息安全学科建设、加快信息安全人才培养”。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )