HNT:腾讯马晓轶:元宇宙离我们还有多远?_MIR

演讲:晓轶,腾讯高级副总裁

整理:游戏葡萄

来源:腾讯文化

4月24日,腾讯高级副总裁马晓轶在复旦大学管理学院校友会上,分享了他对元宇宙、VR/AR等内容的看法。

在元宇宙热潮下,马晓轶对元宇宙短期2-3年内的变化,看法是保守的。尽管现在很多专项技术有了突破,但元宇宙时代所需要的通用设备现在还没有出现。无论从技术还是商业来看,离它的发明与普及都还有距离。

但对于更长线的10年发展前景,他有很强的信心。一方面,元宇宙概念在近两年得到更多的技术支持,正在从多方面解决自身的瓶颈问题;另一方面,社会对其认知也正在突破,从仅局限于游戏、软件中的概念,朝着跨越多个场景的方向发展。而元宇宙质变的时间点,他认为是2030年。

元宇宙的技术现在发展到了什么状态?元宇宙需要什么样的设备和内容支撑?为什么质变会在2030年发生?在马晓轶的分享中,或许能找到答案。

元宇宙最近非常火,不过倒推来看,这并不是一个新鲜话题。

1997年,有款叫《UltimaOnline》的游戏,就在当时提出概念:这是一个持续运转的世界。这个理念下,游戏即使没有人在线参与互动,它的世界也在持续存在和持续发展。这个理念和现在元宇宙的理念是完全一致的。

差不多也是在1995-1998年这几年,各个互联网公司开始创业,考虑怎么把生活中的场景、关系放到线上。

Metaverse这个词,来自于1992年的一本小说。最近一次在商业界被提及,是2018年一个美国分析师写的一篇文章,标题是:腾讯的梦想到底是什么。

文章分析了腾讯为什么投资EpicGames、Roblox、Reddit、Snapchat,以及各种各样的内容和平台型的公司。当他把投资布局组起来后,他觉得用一个叫Metaverse的词再好不过。

随着Roblox的上市,Facebook改名Meta,元宇宙变成了一个越来越热的概念。为什么这么早的概念,在今天突然热起来了?我觉得是因为相较于过去,这几年发生了很多变化。

第一是整个计算能力到了临界点。2016年有一波VR浪潮,当时我就比较保守,也相对悲观一点。和很多行业里的人聊了,我们觉得要真正在VR的设备上支持好的体验,做到大规模应用,所需的技术远远没有成熟。

举个例子,当时的移动计算芯片完全无法支持高分辨率的显示,再加上电池、显示设备本身的限制,使得这个体验做的很差。

其次,是一些关键的新技术没到位。我很关心也一直在看很多上游的关键技术,甚至一些器部件生产的进展。我们已经看到一些路线图正逐步清晰起来,在未来的几年里,这些关键技术都会有一个突破性的发展。

第三,我自己觉得比较重要的是,互联网的渗透率也到了临界点。特别是经历了这两年的全球疫情之后,大家可以发现在家办公正变成主流——如果你是科技公司,如果不提供给员工在家上班的选项,那么你就失去了吸引力。大家已经习惯把生活的很大部分通过网络实现。

最后,我们站到用户的角度,从需求来看。人作为一个物种,最大的特征是「协同」。随着整个社会越来越复杂,我们需要的技术也复杂起来。当社会看到一些技术是有机会去满足这些需求的时候,便会推动它去实现一个非常大的突破。

基于以上几点来看,2006年《SecondLife》的第一次尝试,明显是太早了,到了2015年、2016年第一波VR的时代,我觉得也是太早了。

到了今天,或许便是一个合适的时间点。

所以正好借着这次会议,我们可以谈一下对未来Metaverse的畅想——说实话,我个人和外面很多媒体的报道有一些不一样的观点,就比如我会觉得现在谈论Metaverse的细节还是太早了。

毕竟元宇宙到底该长什么模样、由什么部分组成......还是个很难清晰、精准定义的工作。

但是,我们现在可以将元宇宙,视为一种未来新技术、新应用的可能集成方式,是对未来人机交互、人人交互想象的合集。

我主要从沉浸感的体验和内容发展聊聊对元宇宙未来的想象。

沉浸感:2030年后,元宇宙或开始普及

首先,沉浸感,我觉得主要是两个方向:

人机接口&交互方式;

VR等设备的体验问题。

现在我们提到Metaverse,大家会不由自主地将它和VR联系在一起。当然,这是基于两个原因,一方面是因为前段时间Facebook下了非常大的注在VR的方向;另一个方向,我们如果要达成Metaverse的概念,那么VR这样的全新设备是免不了的。

为什么呢?普通人借助键盘、鼠标、触控等设备输入给电脑的信息,从电脑的技术角度来看,它们带宽其实很窄,能输入的信息很有限。而电脑只能根据这些东西,做出反馈,更多的信息都没有办法直接地输入进去。

但是,随着输入的带宽增加,其实我们可以加入更多维度。

比如,可以给VR设备增加更多的摄像头、传感器,将环境信息也输入到电脑当中。可以追踪人体状态,现在最新的技术可以实现6个维度——前后左右上下——的3D追踪,包括头的位置、眼睛朝向,方便和周围的环境互动起来。

其中最值得关注的,便是手的操作。现在最新的OculusQuest2,还需要用手柄来输入信息,但是业内有一个共识,更自然的交互,是用手来交互。

这个进步,在手机上就出现过:早期的手机都是用触控笔来写的,但苹果就站出来说,这是违反人直觉的。人的直觉,应当是用手指去触摸屏幕——这个道理放在VR设备上也是一样。所以现在我们很多进展,就是去捕捉手指的动作。

另外,我们看到一些最新的技术专注做面部识别,捕捉表情。大家都知道人和人交流的时候,对方的反应是很重要的反馈。

比如说我们现在的线上会议,我的体验其实并不好,因为我看不到大家的表情,我不知道现在我的演讲是讲快了,还是讲慢了。可如果在线下,我就能马上看到观众的反应。所以未来我们也需要借助面部识别,去追踪人实时的表情,然后投射到虚拟的场景当中去......

这些新的输入方式,集成在一起,让信息带宽更大,能极大地改变电脑的信息输入。

也有一些让人非常兴奋的技术发展。

比如最近我们看VR头显上的显示单元。大家如果试过OculusQuest2,就知道它上面使用了Fast-LCD的技术。不过这个技术有一个问题,那就是纱窗效应。当设备离眼睛太近的时候,你能看到pixel像素点就在你的眼前,好像隔着一个纱窗在看。这个其实就和当年低分辨率的手机显示屏一样。

之后的故事大家都知道,iPhone能成功的很大一个原因,就是他们在iPhone4提出了视网膜屏幕的概念,极大地改善了大家使用手机屏幕的体验。

VR发展到了今天,针对这些问题,也有一些新的技术在诞生。比如说已经在生产线上的,4K分辨率的硅基OLED显示屏,已经能够为VR头显提供足够高的分辨率。

如何在VR头显上达成视网膜屏幕的效果?现在有一个标准,即,人的每一度视角上应该有多少个像素点。大致来说,有30个的时候,你已经开始感受不到像素的边界,如果到了60个/度,你就可以完全看不出像素点。所以,4K硅基OLED显示屏已经足够让大家有一个非常好的体验。

亮度,也是一个VR头显的改变点。

从现在的硅基OLED显示屏,到未来的MicroOLED显示,都可以提供更高的亮度。之前,LCD大致大概只有400-500nit的亮度,现在我们已经能看到2000nit,而且从未来发展的路线图来说,我们已经看到10000nit的在研设备。

这就解决了一个非常大的瓶颈问题,即,提升显示单元的技术,增加用户的沉浸感。市场上也有了一些成型的产品。

但未来,还有一个很重要的发展方向,那就是折叠光路的技术。

以前的VR设备通常又厚又重又大,戴在头上很不舒服。未来我们能看到折叠光路的设备,可以将VR头显单元做得非常薄,更接近于普通戴眼镜的感觉。

还有一个突破,就是VR/AR的争论。VR说,所有的内容都来自显示单元,但AR说,得将内容和现实环境做重叠结合。

现在来看,行业大家做的都是折叠光路的方案——依旧用显示屏来呈现所有的内容,但是会在外界增加更多的感应器,来捕捉用户的周围情况,最后叠加在你的显示屏上——行业里还有一个传闻,大概在明年年初的时候,苹果就会出这样的一个设备,运用折叠光路的方案,实现VR/AR的效果。

综上所述,人机接口方面的技术路线图发展得很清晰。除了电池受到不少限制以外,其他方面,几乎都有了解决方案,且都在进展当中。

这也是我们对于元宇宙、VR/AR的发展抱有信心的原因。

另一个点,要想让技术体验足够好,单是设备内部有硬件支持还不够,还得有软件发展。

需要指出的是,这里的软件,指的是技术,不是内容。我们将其归结为3个维度:

1.可信的环境:Metaverse的场景越来越真实,让用户能相信这是一个真实的世界。

2.可信的人物:人是社交属性很重的生物,我需要与群体互动、交流、协作。这个当中,最需要的便是一个可信的人物。我相信大家都对这一点多少有所体会。

3.可信的交互:还是聊线上会议,这种形式更像一个演讲,而不是讨论,线下会有人插入进来讨论,有碰撞,但现在的线上没有这些东西。

如果要做一个更真实的交互,要涉及到很多让人足够相信的细节。比如我让你拿一瓶水,我和你握手,我能感受到其中的温度、重量,而这些,都是传统的电脑、Pad完全做不到的交互......不过现在已经有技术在这方面有了不少进展。

总结一下就是,随着技术的发展,我们需要提供很多的工具给做Metaverse、VR/AR的公司,同时,帮助大家可以做出更可信的世界和人物关系。

内容量:谁来提供足够多的内容?

这是一个挺大的话题。因为我们仍然不知道Metaverse需要包含哪些内容。不过现在来看,我们会觉得分几个维度:专业内容和通用内容。

这部分我会比较悲观。因为尽管技术在路线图上发展着,但需要更多的时间去准备。专用到通用,还需要更多的时间。

当一个技术还没有到举足轻重的地步时,它往往只是一个相对专业、专用的应用,比如说游戏、影视等方面;而通用类,比如说大家正在用的手机,现在已经有成千上万种办法去使用它。

大致拍脑袋说一下,我和内部团队交流的时候,一般将2030年作为一根基准线,在那之前,Metaverse还会是专用的阶段,到了之后,才可能会有些机会走向更通用的状态,开始挑战现有的电脑、手机的使用场景。现在更多是一个新的、补充的场景定位。

这里可能需要更细致地说一下专用和通用的差别。

差不多一个半月之前,我和EpicGamesCEOTimSweeney开会,讨论到这个问题的时候,我的总结是:我们现在的游戏,就是一个「游戏」,你看视频,看的也只是一个「视频」,但是Metaverse不一样,你应当是在Metaverse当中「生活」。期间有本质的区别。

比如当你去一个线上的电影院,那是一个专门的世界,割离出现实。但是Meta是将大家的生活融入、整合到这个虚拟世界当中。所以这就需要有足够多的内容,让你愿意生活在其中。

这些足够多的内容可以分为几个路线:

1.PGC的专业制作,例如腾讯这样的公司制作电影、游戏、电视剧,这是一个专业的制作。PGC仍然是Metaverse很重要的部分。

2.UGC。也就是用户产生的内容。

3.虚实结合。我们刚刚说了很多技术,便是要将现实世界整合、融入到虚拟的世界当中。

这三个部分,都是非常关键的内容组成部分。

那么如何实现呢?

首先,大规模的PGC内容,其实最近也有一些突破。关注新游戏的同学就知道,前段时间,EpicGames有一个非常震撼的demo,他们在《Matrix》上映的同时,做了一个虚拟的城市,这个城市的规模大概有10-20平方公里,当中有3万个市民,有大量的交通、建筑。

关键是,当中的车辆有自己的动作:到了红绿灯会停下来,看到人会停下来,而且这3万个市民,每一个人的穿着、行为、长相都不一样——若放在以往,要完成这么大规模的虚拟世界创造,几乎是一个不可能的任务。

但在今天,随着技术的发展,这些不可能的任务都在逐步实现,因为,一方面技术能力在增长,另一方面,这些东西有了更多的好方法去解决。

比如,我们和EpicGames有两个项目正在合作。一个项目,是可以通过AI来导入现实世界。之前我们去新西兰的一个山谷,那是一个10平方公里的山谷,我们在那里拍了7000-8000张照片,然后把照片导入引擎,这个引擎就会把山谷大致地还原出90%,然后再经过我们手动的一些微调,就可以实现在短时间内生成一个非常大的世界,而且这个世界看起来还非常的真实。

另一个项目,我们做的是一个虚拟人的项目——国内叫做Siren。后来EpicGames也发布了MetaHuman的项目,一个高度仿真的人。这其实都回到刚才我们提到的概念:一个可信的人是虚拟世界当中重要的构成。

同样放到以前,你要做一个虚拟人物需要花费相当多的时间。

大家也许听说过这个故事:好莱坞很多电影要做一个虚拟人,线上渲染10s的片子需要几个月的时间,但以现在的技术,好莱坞要4个月做出来的内容,我们能在0.01秒就渲染、达成前者95%的质量。

这些,都使得大规模的制作有了更好的办法。包括动作捕捉等内容,在AI的加持下,可以让创建一个内容变得更加容易。

其次是UGC部分,我和外部看法多少也不太一样。

比如,外部谈到UGC,那最关键的就是去中心化,但这个点上,我和Roblox的CEODavid有很多的交流——我们很早就参与了Roblox的建设,2015年左右就开始参与,做了不少投资——我们说到UGC内容成功的关键时,都提到社区的原则、透明性,尤其其中维持秩序、状态的部分,是需要强中心化的执行。

但这倒不是说我与外部意见相左,我认为,去中心化应该是指能力的去中心化:把工具、能力、资源给到用户,让大家无需一个中心化的平台,就能创建属于自己的内容。而能够支撑这些内容的,便是刚才所说的,一个持续、有原则、长线稳定的平台。我认为,这是一个做出UGC最重要的点。

而第三点,虚实的结合,很大程度上回到刚才我们所说的Metaverse、VR/AR新技术。其实我们所希望达到的目标,和互联网、人类社会以往的努力是一致的。人类一直想打破物理的限制,比如飞机、汽车都是为了消除物理的限制,缩短物理的损耗,提高大规模协同的效率。

所以长远来看,Metaverse更多是考量如何引入更多外部、现实世界的服务和内容,打破物理的界限。

更现实的问题

最后,我想聊一聊Metaverse、VR/AR存在的问题。

虽然我刚才所讲到的内容好像都很乐观,但是我个人内心深处,还是略带一些悲观。

平时,我和大家聊的时候都会这么说:看短期1-3年,我比大部分人更加悲观,看长线的10年之后,我会比大部分人更乐观,会认为这些新技术的场景会为整个人类社会带去很大的变化。

就我的观点而言,现在的这些技术会在2025-2027年之间大规模面世,但是要铺开来做,还是得等到2030年。这是我心目中的一个时间表。

举个简单的例子,价格就是一个重要的参考。比如刚才所说的4K硅基OLED显示屏,它的体验非常好,但价格太贵,光是一个显示单元的价格,就和整个OculusQuest2的整机价格是一样的。所以,价格下来还需要很长的时间。

其次,商业模式本身也还存在一些问题。如刚才我所说,现在还为时太早。

如果要将我们当下的阶段去对应到过去的历史,那么有这样两个时间点:

1.通用设备的普及。

很多年轻人可能不知道,最先家用的专用设备,其实是游戏机——雅达利2600,1977年发布,它可以对标到现在OculusQuest2的情况。

而大家熟知的IBMPC,是在1981年进入的市场,家用PC真正普及,是在Windows面世之后,85年是第一个版本,大规模推广的3.0版本是92年才有的,而更广为人知Windows95已经是95年的事情了。

可以看到,这个过程起码有6-10年的发展。

2.商业模式的成立。

其实90年就有互联网出现,但是大家知道的互联网公司,包括腾讯、Google等,都是在98年才成立。而且,这些公司真正找到支持他们的商业模式,大概都是在2004年左右。这过程同样花了很多年。

所以,短线来看,整个Metaverse的发展,还需要好几年的培育,但是培育的方向是清晰的,潜力也是非常清晰的。

上一个20年,整个互联网对人类社会、经济、技术的贡献,大家有目共睹,所以我相信未来20-30年里,以Metaverse为核心的、集成的互联网体验,会给整个社会带去更大的冲击。

而这其中,还会有很多的点,值得大家探讨、协作、推动。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

大币网

[0:15ms0-8:507ms