首页 > 最新资讯 > NVIDIA Turing 推动 VR 迈向完全沉浸式体验
NVIDIA Turing 推动 VR 迈向完全沉浸式体验

NVIDIA Turing 推动 VR 迈向完全沉浸式体验

2018-09-29 17:34


在过去的数十年中,vr 体验不再只是科幻电影的专属,它们已经进入研究实验室,进而走向了家庭和办公室。但是,即便是今天的最佳 vr 体验也尚未实现完全的沉浸感。

nvidia 最新推出的 turing gpu 蓄势待发,有望使 vr 体验朝着这一目标迈进一大步。nvidia 在 siggraph 和科隆游戏展 (gamescom) 上宣布,turing 将结合实时光线追踪、ai 和全新渲染技术,推动 vr 技术在沉浸感和逼真度方面再次飞跃。

实时光线追踪

通过引入光线追踪核心 (rt core),turing 可达到逼真的视觉保真度。这些处理器专门用于加速光线与环境中物体相交位置的计算,首次在游戏和应用程序中实现了实时光线追踪。

这些光学计算可复制光线的行为方式,从而创造出惊艳无比的逼真画质,让 vr 开发者能够更好地模拟现实世界的环境。

turing 的 rt core 还可以利用 nvidia vrworks audio sdk 进行音频模拟。迄今的 vr 体验可以提供方位精准的音频体验。但它们仍无法满足计算需求,不能充分地反映出环境的空间大小、形状和材质属性,在动态环境中尤甚。



与上一代技术相比,借助 rtx 平台,vrworks audio 的运行速度可提高 6 倍。其光线追踪的音频技术能够实时创建虚拟环境的物理逼真声学图像。

在 siggraph 上,我们演示了 vrworks audio 与 nvidia holodeck 的集成,并展示了在开发复杂虚拟环境时,该技术如何创建更为逼真的音效并加速音频工作流程。

ai 打造更为逼真的 vr 环境

作为一种 gpu 加速 ai 的方法,深度学习有望能够解决 vr 的最大视觉和感知挑战。图像可以得到进一步增强,位置和眼动追踪可以得到改善,角色动画也可以变得更加生动逼真。

turing 架构搭载的 tensor core 每秒可进行高达 500 万亿张量运算,从而加速推理过程并将 ai 应用于高级渲染技术,使虚拟环境更加逼真。

高级 vr 渲染技术

turing 还搭载一系列全新渲染功能,可提升 vr 的性能和视觉质量。

可变速率着色 (vrs, variable rate shading) 能够优化渲染。主要方法是在场景的详细区域中应用更多着色性能,并在拥有较少可感知细节的场景中限制计算。这可以降低场景外围区域的着色率(用户不太可能留意的区域,尤其是当与眼动追踪相结合时),从而用于注视点渲染。

多视图渲染 (multi-view rendering)能够支持提供超宽视场和斜面显示屏的下一代头显设备,这样用户就能看到一个无边框的虚拟世界。多视图渲染是单通道立体视觉 (single pass stereo) 的新一代版本,可以将单个渲染通道的投影视图数量增加两倍,达到四张。这四张投影视图现在都独立于位置,并且能够沿任何轴移动。通过渲染四张投影视图,系统可以加速搭载极宽视场的斜面(非共面)头显设备。

turing 的多视图渲染技术可以加速四张视图的几何处理。

turing 的多视图渲染技术可以加速四张视图的几何处理。

vr 连接轻而易举

turing 是 nvidia 首款拥有 usb type-c 和 virtuallink* 硬件支持的 gpu,其中 virtuallink 是通过单一的轻量级 usb-c 数据线来驱动新一代 vr 头显设备的全新开放式行业标准。

现在的 vr 头盔在设置上十分复杂,需连接多条笨重的数据线。virtuallink 通过一根数据线来提供电源、显示和数据,同时可传输大量带宽以满足未来头显设备的需求,从而简化了 vr 的设置过程。单条连接器同时还可以用于将 vr 连接至小型设备,如轻薄型笔记本电脑,后者只提供一个小巧的 usb-c 连接器。

上市情况

开发人员可在 9 月的 vrworks sdk 更新版中获取 vrworks variable rate shading、multi-view rendering 和 audio sdk。

nvidia 基于 turing 架构的 quadro rtx 和 geforce rtx gpu 将于今年球季在 nvidia.com 网站上发售,也可于领先制造商和插卡合作伙伴处购买。

* 为了兼容最新的 virtuallink 标准,turing gpu 已根据 “virtuallink advance overview” 实施了硬件支持。如欲进一步了解 virtuallink,请访问 www.virtuallink.org。