唯我独法:我在都市修奥法 第504节

  整个视频总算能播放完了。

  这一幕刚一结束,大厅沉默了足足三秒,像是谁按下了暂停键。

  众人面面相觑,一来是没回过神来,二来是都想提问,但都不知道该从哪里开始提,该怎么提。

  全塌马是疑问啊!

  总不能直接说:方总,你吹牛逼呢吧?

  “方……”

  魏骜率先回过神来,急切的举起手,刚说了一个“方”字,就听到隔着几桌传来一个鄂州口音。

  诶诶诶?你这货怎么不讲武德呢?我都举手了你还抢话?

  魏骜朝祝一飞的方向瞪了一眼,祝一飞毫无所觉。

  “方总,我想问一下,你们这个《太荒:山海界》用的是什么引擎?”

  “据我所知,应该现在没有任何一个游戏引擎能制作出这样的游戏。”

  “还是说,这只是个特效制作的宣传片,并不是实机演示?”

  长着一副圆脸,戴着眼镜,看着就像中年社畜的祝一飞五官都皱在一起,跟个包子似的。

  听到祝一飞的问题,所有人都情不自禁的点点头,面露恍然之色,把目光集中在了方豫的身上。

  到底是做主机游戏的大佬啊,看问题一针见血。

  对啊,根本就没有能支持这个游戏的引擎啊。

  难不成你柚子科技还能自己做个引擎出来?

  面对众人的目光,方豫捏起瓶水,拧开喝了一口。

  “祝总的网名叫虎老大吧?”

  “你说的没错,现在确实没有任何一款引擎能够支持《太荒:山海界》的制作和运行。”

  祝一飞闻言,眉毛动了动,不由得露出一丝“果然如此,就是特效”的眼神。

  那么说,这次让我们来,估计就是搞个AR的建模?

  祝一飞刚想追问,就看到方豫咧嘴一笑。

  “因为确实没有,所以……”

  “我们自己开发了一个。”

  自己开发了一个?

  游戏引擎?

  说胡话呢吧?

  看到台下四五十双懵逼的眼睛,方豫按了下遥控器,六面大屏切换到了keynote的页面。

  “因为虚幻4和Unity根本无法支持这种级别的计算,对AR的支持不够。”

  “并且,我们发现,它们的渲染管线太重,模块耦合度高,移动端部署时性能瓶颈明显,无法支撑我们这种动态环境感知与实时物理反馈的AR玩法。”

  “它们的渲染机制不适合我们这种需要多层叠加、现实环境实时融合、自定义材质融合逻辑的设计需求。”

  “最主要的是,在AR上,它们的延迟太严重了,我们根本没法用。”

  “所以我们干脆自己写了一版引擎,顺便做了一套对应的开发工具帮助开发者进行开发。”

  “而这,就是柚果游戏自行研发的、具备叠层渲染与环境理解能力的、世界上第一款‘以现实为底图’的AR一体化建构平台——

  “——蜃景1.0。”

  说罢,方豫按动翻页器,一页keynote出现在屏幕之上。

第496章 游戏有帧率,现实有吗?(5737)

  蜃景1.0!?

  自研搜索引擎!

  现场众人一片哗然。

  等等,刚才方豫并没有否定这就是实机演示,反而说这是基于柚子科技的自研引擎——蜃景1.0,难道说这真的是在手机端达成的?

  别说手机的处理能力,就算一台GTX1080双路交火的PC神机,或索大法刚刚公布的PS4Pro,哪怕有外设,也不可能达成这个效果!

  而这是在手机上达成的?!

  还是自研引擎?

  “当然,世界观介绍后的那一段,底层架构还没有做好,是使用AI协助生成的宣传片,但前面‘影’部分的游戏画面,确实是使用‘蜃景引擎’开发出来的。”

  方豫这句话一说完,现场所有人都不由得脸色一变。

  真的是实机演示!

  艹艹艹!这太特么离谱了!

  哪怕不是AR,不和实景相结合,刚刚相当一部分画面手机GPU渲染起来都费劲。

  水果上个月发布的A10不行,高通的骁龙821更不行!

  如果结合上AR实景的实时运算,桌面级产品也没戏!

  方豫不用看,都知道其他人是什么表情,微微一笑。

  “可能有人会质疑,‘蜃景引擎’是如何做到在手机这样的轻量化计算平台上实现实时建模渲染,并且做到与实景几乎无延迟结合的。”

  方豫拿了一支触控笔,在大屏幕上显示的keynote上写写画画。

  “具体的技术问题我今天不详细展开,只说一下原理。”

  “第一,‘蜃景引擎’的云端架构其实承载了最主要的渲染计算,返回到手机上的,只是渲染后的‘状态’数据,这部分数据量其实很小,每秒只有3MB左右。”

  云端计算?每秒只需要3MB的数据传输?十年前的半条命渲染一面墙都不够吧?

  “不是大家理解的这样。”

  听到有人在下面有些疑惑的讨论,方豫摇了摇头:“我们并不是将帧画面流推送到手机,而是将每一帧的场景状态、材质映射信息、光照解算等用定制协议传回,而这一部分协议数据,仅占3MB/s。”

  真的假的?祝一飞嘴唇微动,还没等他追问,就听到方豫继续道:

  “第二,之所以这些‘状态’数据能做到这么精简,是因为‘蜃景’独有的‘环境探针阵列’技术。”

  环境探针阵列?听到个新名词,所有人都聚精会神的盯着方豫。

  “‘环境探针阵列’并非实体探针,而是我们开发的一种基于AI视觉系统的纯软件虚拟概念,是在移动端完成这部分的计算。”

  “通过调用GPU的资源重复绑定,在2.5秒内针对视觉内的环境钉入数千枚虚拟探针,这些探针钉入后,云端渲染的素材会固化在这些探针上,从而做到无论摄像头如何移动,都不会延迟脱层的效果,只是这一项,就节约了超过90%的AR重复渲染资源。”

  众人听得似懂非懂,他们虽然是游戏开发者,但涉及到这种底层技术是如何达成的,能搞懂的屈指可数。

  “第三,就是蜃景引擎最重要的特性——‘模拟现实刷新’,也正是这个特性,能够让蜃景引擎在移动端的GPU算力下,实现刚刚看到的3D画面渲染效果。”

  说到这里,方豫停顿了一下,环顾了一圈,看到众人皆是一脸茫然。

  模拟现实刷新?什么意思?浮动刷新率吗?VVR虽然不算什么新技术,但移动端GPU还没有吧?

  方豫翻了一页keynote。

  “模拟显示刷新不是调整刷新率,而是一种算法,一种能够在大多数环境下,相较虚幻4节省95%渲染资源的算法,蜃景自然能够将更多的算力投入到更好的渲染效果中。”

  日常场景下节省95%渲染资源!?

  什么算法也不可能做得到啊!

  祝一飞额头和面颊都是红的,皱着五官举手:

  “方总,就算您刚讲的环境探针阵列能够降低每一帧材质的重复渲染,但只要是运动画面,每帧毕竟仍旧还有大量材质需要实时渲染。”

  “刚刚您的第一段演示,屏幕上的帧率是38帧-60帧,这种效果如果是实时渲染,哪怕是GTX1080的理论值,也得卡成翔,最多也就十几帧。”

  “哪怕再差的游戏引擎,对GPU的核心执行单元的有效利用率也有30%以上,虚幻4大概在45%-60%之间,没有那么大的提高空间。不是我不信,主要是这节省95%渲染资源,突破了理论极限了啊。”

  方豫一看有捧哏的,眼睛都亮了。

  可以啊虎老大,路走宽了呀。

  方豫点了点头,嘴角微翘:“你说的没错,如果采用虚幻的实时渲染方式,不管是移动端还是桌面端,应该都跑不动。不过,虎老大,我问个问题。”

  祝一飞目光诚恳:“您说。”

  方豫眼皮微抬,看着祝一飞:“游戏有帧率,现实有吗?”

  祝一飞愕然,看上去好像没听明白:“什么?”

  方豫指了指窗外:“游戏是靠每秒的帧率变化动起来的,无论是环境变化还是动作变化,都相当于电脑一秒钟画了几十甚至上百张图,才让我们肉眼看到这个虚拟世界是运动的。”

  “但现实,是这么运行的吗?”

  祝一飞身体微震,似乎懂了什么,但又好像没完全反应过来:“您是说……”

  方豫微微一笑:“我说,现实没有帧率,只有连续的状态变化。”

  “那渲染,为什么一定要以‘帧’为单位?”

  不以帧为单位渲染?那以什么?

  看到包括祝一飞在内,现场众人迷茫的神态,方豫摇了摇头:“大家是不是忘了柚子科技是做什么的了?”

  “我们是做AI的。”

  听到这句话,现场中有些反应快的,脸色已经完全变了。

  方豫看了一圈众人,挑了挑眉:“现实世界没有帧率,因此渲染也不该基于离散帧,而应基于‘变化趋势’进行连续性预测。”

  “人不会在每一毫秒都重建姿势,布料也不会在每一秒重新计算自己下一刻的位置。”

  “一切变化,都是连续性的。”

  “所以蜃景引擎不会再以每秒60帧那种古老方式去计算场景状态。”

  “我们为蜃景训练了数十万种材质、肢体、光线与环境反应的模型,能够根据已有信息直接‘想象出’合理的下一状态。”

  “我们构建了一组融合材质-动态-光照的多模态状态映射模型,可实时根据行为逻辑预测下一状态。”

  “比如一个人跑步,传统渲染引擎要计算骨骼、蒙皮、材质、光照、合成、帧输出。”

  “而蜃景引擎的计算模式是——‘他下一步会是什么姿势’,然后渲染这个连续姿势。”

  “我们不是丢弃帧率,而是让帧率成为一种展示接口,而非渲染决策逻辑。”

  “你你看到的是60帧,但实际核心渲染路径只触发了两帧级别的重建,其余都是AI生成的连续状态帧。”

  “并且,这两帧的资源消耗,还被云端服务器分担了一大部分,毕竟手机GPU芯片相当多的物理特性都不支持。”

  “它不是单一的图形模块,而是集成了感知、预测、内容生成、资源调度的AI引擎中枢。”

  “是的,没错,‘蜃景引擎’本质上就是一个大模型,一个云端与移动端或桌面端共同协作的大模型。我刚刚说减少了95%的移动端算力资源消耗,其实是非常保守的一个预估。”

  “这一部分算法让我们头疼了很长时间,最后总算做出来了,虽然最终的效果我们还是不太满意,但也算能用,应该还有很大的改进空间。”

  方豫摇了摇头,一脸的不满意。

首节 上一节 504/522下一节 尾节 目录