自从 Facebook年更名为 Meta 以来,关于元宇宙的热议不断,人们对虚拟世界的兴趣也重新燃起,因为尽管虚拟现实 (VR) 的概念由来已久,但该技术现在才开始真正得以应用。
首先是 The Metaverse,这个概念至少可以追溯到 1984 年,当时威廉·吉布森 (William Gibson) 写了他的小说《神经漫游者》( Neuromancer ),这个概念一直是科幻小说的常规特征。
几十年来,VR 一直是流行文化的一部分,出现在《黑客帝国》、《电子世界争霸战》和《头号玩家》等电影中。自从 Oculus Rift、PlayStation VR、Valve Index、HoloLens 甚至 Google Glass 等消费设备推出(偶尔失败)以来,该技术一直稳步走出科幻领域,进入商业现实。但还有很长的路要走。
本文把虚拟现实和增强现实技术作为一个由三个主要类别组成来讨论:一端是完全身临其境的虚拟现实,另一端是增强现实 (AR),在中间,称之为“融合现实”(MR)的各种方法。
这个范围可以被认为是一个更广泛的类别,称为“扩展现实(XR)”,它包括上面定义的三个类别以及触觉和空间音频等支持技术。
未来,XR扩展现实可能包括脑机接口、气味和温度反馈,甚至可能包括味觉。由于各种原因,这些未来的概念还没有出现,但主要是因为在设备上仍然需要进行大量的研发工作。还不清楚感官接口的数据是什么样的,但现阶段确实拥有用于 AR/VR、触觉和空间音频的设备和数据,因此这些正在向前发展。
我们经常被问到的问题是,“为什么扩展现实还没有起飞?为什么不是到处都是XR?” 要回答这些问题,并讨论我们如何努力实现包含元宇宙体验的未来,我们需要审视当今存在的一些局限性。
对于 AR,眼镜笨重、笨拙,而且基本上只有一种款式。还记得谷歌眼镜或 Snapchat 眼镜吗?如果你喜欢这种风格,那就太好了。否则,无论这项技术多么酷,你都可能不会佩戴它们。人们需要多种风格选择,因此要实现真正的广泛应用,技术需要能够兼容多种选择。
至于 VR 耳机,一个简单的事实是大多数人不想长时间佩戴耳机。它们很重而且会发热,所以你会感到热和出汗,这只会让你感到不舒服。
但它们适合短时间佩戴,例如模拟从飞机上跳下或与大白鲨一起自由潜水。但它们不是大多数人用来观看故事片或玩电子游戏三个小时的那种设备。当谈论 AR 或混合现实设备时,它们可能会变得更加笨重。例如,你永远不会看到大多数人在公共场合佩戴 HoloLens。但随着设备变得更小、更舒适,这种情况可能会改变。
未来的混合现实/融合现实设备还需要更多功能和更广阔的视野,以便为 AR 应用提供更先进的透视显示。实现这一目标需要更多、更好的摄像头、红外 (IR) 摄像头或其他传感器来创建准确的空间地图,从而提高整体体验质量。设备制造商都知道这些挑战,并且已经在研究解决方案。
无论用户使用的是什么设备,虚拟/增强/融合现实世界实际上是什么样子的?是 AR,将不同的皮肤覆盖到真实世界的环境中,让现代城市看起来像中世纪,还是改变人们的衣服?或者我们是在谈论现实世界的真正虚拟表示,就像你所在城市的数字双胞胎?
还有更奇幻的:完全身临其境的虚拟环境,在现实世界中根本不存在。无论我们谈论的是什么,都需要进行大量计算,而且设备本身太小,无法容纳呈现这些体验所需的所有处理能力。
为了让眼镜和耳机变得更小、更轻、更便携,同时也能够处理所需的功能,移动网络必须得到改进。为了使设备更小、电池寿命更长和发热更少,我们需要将处理能力卸载到网络边缘。这必须以延迟保持在或低于 20 毫秒阈值的方式完成,因为在 VR 中超过 20 毫秒的延迟,人们会感到恶心。设备跟踪和识别快速移动物体的一些高级 AR 应用程序将需要更低的延迟,低至 5 毫秒范围。
随着时间的推移,我们会看到在头戴式设备本身上完成的计算越来越少。为了使设备移动,我们的 5G(和 6G)网络将需要处理网络吞吐量、边缘计算和延迟的能力;我们需要低延迟、低抖动、高带宽和超可靠且无丢包的传输网络。我们正在实现目标,但网络还不能做到这一切。
我们需要更强大的网络,不仅是因为缩小设备的需要推动了边缘计算需求,还因为虚拟世界需要大量的图形处理和渲染。这种渲染需要在边缘完成,渲染的世界近乎实时地返回给设备和佩戴者。
将图形处理和渲染转移到边缘为设备变得更小、更轻打开了大门,但它也为复杂渲染的新创新奠定了基础,这些创新可以远程发生并返回给设备。远程渲染视频游戏等相对线性的虚拟世界是一回事,而实时渲染现场体验则完全是另一回事。
一些设备已经尝试了不同的卸载计算能力模型:Valve Index是一种 VR 设备,它通过有线连接连接到高性能计算机,主要用于游戏。
然后是一家名为Nreal的公司提供了一套 AR 眼镜,它使用有线连接来利用智能手机的处理能力。虽然这两个示例都使用有线连接,但它们都在将我们推向可以通过无线网络访问、处理和呈现的应用程序、设备和虚拟世界。
还有一种称为 SideLink 的技术正在 3GPP 中标准化,以允许某些蜂窝设备无需通过核心网络即可相互通信。这有可能对 VR 和 AR 渲染非常有用,因为蓝牙等短距离无线技术速度太慢,无法有效处理这些应用程序的高带宽需求。这些创新激发了眼镜等设备有朝一日取代手机的潜力。
Facebook/Meta 会“拥有”元宇宙吗?他们将拥有一个虚拟世界,他们可以称之为元宇宙,但他们不会拥有所有元宇宙,就像他们今天拥有互联网一样。元宇宙将是我们可以访问的虚拟世界的集合,非常像互联网,有无数的站点可用于各种可以想象的目的。元宇宙的某些部分可能是现实世界的数字双胞胎,某些部分可能是现实世界与虚拟世界的合并版本,而其他部分可能仍然完全是虚拟的。
元宇宙最终将变得去中心化和设备独立。而且,就像互联网一样,它需要一系列标准、协议和通用 API 才能确保其正常工作并具有高度的互操作性。一旦发生这种情况,用户将能够使用手机等智能设备通过 5G(或 6G)网络访问 Facebook Metaverse,就像你能够使用 Sony 设备通过 AT&T 网络访问 Google 的虚拟世界一样轻松。
如果设备和世界像今天一样在很大程度上保持专有,增长潜力将受到限制。Metaverses 的互操作性标准将是必不可少的,就像 MPEG 用于视频压缩和 3GPP 用于蜂窝通信一样。在虚拟世界中,无论您使用哪个提供商访问,您都可以进入不同的区域,每个企业都将在虚拟世界中拥有自己的品牌特定体验,就像他们在现实世界中所做的那样。
为了为最多的用户提供最高质量的体验,设备和网络的互操作性至关重要,并且必须标准化。一旦制定了这样的标准,就没有任何一家公司拥有该标准,就像没有一家公司拥有 3GPP 或 MPEG 一样。
那么,一旦我们到达那里,将如何使用扩展现实呢?我们预计游戏仍将是一个重要的驱动力,就像今天一样。但是我们还有很多其他方法可以看到这项技术的形成。
如果我们可以设计一个虚拟体育酒吧,在那里可以通过 VR 设备观看任意数量的比赛并通过移动你的头部看向不同的方向来改变频道;或者,在观看赛车时,可以将沉浸式体验的视角从驾驶座切换到维修区或看台;如果你可以模拟与鲨鱼一起潜水、跳伞或参观世界级博物馆,会是怎样的体验?元宇宙的可能性似乎无穷无尽。
我们距离真正标准化、开放的元宇宙可能还有 15 到 20 年或更长时间。与此同时,我们会看到无数公司尝试他们自己的元宇宙,就像 Facebook 提出的 big-M Metaverse 一样。但 Facebook/Meta 最终会拥有这一切吗?当然不是。Facebook 可能拥有一个“品牌化”元宇宙,但会有许多元宇宙可供探索和享受。
3DCAT实时渲染云始终走在云化XR的前列,基于3DCAT稳定、高效、低延时的云端GPU实时渲染能力,云化XR(CloudXR)可将任意终端设备(包括头戴显示器HMD和连网的Windows、安卓设备)转变为可显示专业级质量图像的高清XR显示器。
本文《元宇宙与VR虚拟现实的未来如何?》内容由3DCAT实时渲染云解决方案提供商整理发布,如需转载,请注明出处及链接。