11月5日消息(安迪)在今天举行的中国移动“5G+E”网边融合技术峰会”上,清华大学计算机科学与技术系教授、网络技术研究所所长崔勇发表了“基于边缘计算的沉浸式VR”的主题演讲。崔勇表示:基于现有通信技术的MEC VR成为创新思路,可通过MEC提升计算能力,通过协同渲染解决带宽、时延等问题。
2016年就进入了VR元年。而近两年,VR新品与核心技术不断涌现,例如爱奇艺VR一体机,高通推出了VR芯片骁龙835,谷歌推出AR Core,Facebook推出社交VR等实时互动的最新相关VR,索尼推出VR实时互动桌游,华为VR眼镜获得2019世界VR产业大会创新金奖,近日华为发布VR Glass 6DOF游戏套装等,说明大厂依然在VR/AR方面发力。
但业界也有人认为VR寒冬将至——应用未果,投资遇冷。究竟是缺乏应用场景,还是技术不够呢?
在崔勇看来,VR/AR的技术痛点包括:由于VR响应时延需要非常低(小于25ms),沉浸式VR的基本需求包括高刷新率(100Hz)、4K及深度图像等高质量图像、360度全景视角,因此难点在于时延、高清、交互,也就是超高清实时交互。在这种情况下超高清实时交互需要计算来提供实时交互,但是高清渲染计算在哪算?如果手机或VR头盔的GPU进行实时渲染会导致用户体验画面卡顿、手机温度过热等问题,因此VR业界正在呼唤高性能计算设备。
崔勇分析了移动VR应用的核心技术难点,边缘计算模式霞,PC端VR在PC上渲染计算高质量图像,将图像实时传输至移动端,画质体验好但移动受限制。如果让PC服务器进行高性能的图像计算,将计算好的图像实时传输到移动端,但大家看到的商店里各式各样VR产品都戴着小辫子,戴上VR眼镜玩一会儿看不到小辫子在哪就很容易摔倒。如何砍断小绳子、打造高质量移动VR呢?对此业界这几年研究了不少方案,包括预渲染和缓存预测,都难以做到实时交互。
“基于现有通信技术的MEC VR成为创新思路,可通过MEC提升计算能力,通过协同渲染解决带宽、时延等问题。”崔勇表示:移动VR的内容可以分为前景交互和背景交互,前景交互随机、不可预测、工作量小,但要求实时渲染,可在移动端渲染;背景交互环境连续、可预测、工作量大,可提前在边缘服务器渲染。这就需要协同渲染:一是手机GPU根据实时交互渲染前景;二是远端GPU预渲染背景并进行编码;三是将临近的编码数据帧预先传输到手机;四是手机CPU根据实时交互解压并协同显示。如果传输带宽不足,可降低背景传输带宽,离散化虚拟世界,预先渲染全景帧、采用H.264预先编码;如果遇到延时挑战,可基于移动预测,手机预取置临近的帧;手机上解码一个全景帧大约需要40ms的时延,通过并行解码显著降低解码时延。通过这样设计,可把原来手机上只能看到的每秒5到7帧的内容提升到每秒60多帧,跟手机刷新频率差不多,并且30分钟使用了手机不会发热或发烫,GPU和CPU计算资源使用率尚可,网络传输平均带宽127-130Mbps。
边缘计算确实是非常重要的技术创新,崔勇认为,未来MEC的新业务和新需求还包括从VR到云游戏,以及沉浸式远程教学。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。