中国经济观察网 | 手机客户端 |
当前位置: 首页 > 财经

虚幻5再次炸场,1部iPhone搞定3A大作级动作捕捉

作者:宋元明清    栏目:财经    来源:IT之家   发布时间:2023-03-27 12:00   阅读量:9023   

内容摘要:原文标题:《虚幻5再次炸场!1部iPhone搞定3A大作级动作捕捉,网友:游戏行业要变天》 什么样的新技术,能在ChatGPT的包围圈里脱颖而出火爆全场? 一部iPhone,两分钟,真人大变数字人! 还是表情动态、眼神细节一比一还原的...

原文标题:《虚幻 5 再次炸场!1 部 iPhone 搞定 3A 大作级动作捕捉,网友:游戏行业要变天》

什么样的新技术,能在 ChatGPT 的包围圈里脱颖而出火爆全场?

一部 iPhone,两分钟,真人大变数字人!

还是表情动态、眼神细节一比一还原的那种。

没错,动作捕捉视频,发布会现场 iPhone 录制,后期处理全过程也都当场完成。

在此之前,这位《地狱之刃》女主演经历的动捕都是酱婶的:

复杂的设备必不可少,而且不仅要在脸上标满定位点,后期花费的时间也还得长达几周甚至数月。

这不,Epic 刚把虚幻引擎 5 这一新能力公布出来,网友们都炸了锅了,相关视频播放量迅速突破百万。

“现场”氛围嘛,总结起来就是一通操作猛如虎,网友直呼太疯狂:

从几个月到几分钟,未来几年游戏的发展必定是疯狂的。

还有网友表示,以后再也不能说什么眼见为真了。

三帧视频就能生成 3D 模型

具体来看看,这一名为“MetaHuman Animator”的骚操作,究竟是如何做到两分钟搞定面部动捕的。

以现场演示为例。首先,演员要录制一段视频,期间可以做出任何表情。可以是夸张的愤怒:

也可以是细小的眼神变化:

并且录制全程只需一部 iPhone。

接下来,技术人员将录制好的视频上传到软件,整个处理过程都是在本地进行。

总结下来,处理过程分为两步:

1、最新版本的 Live Link Face 应用程序会尽可能用最佳的分辨率捕获所有面部动态;

2、MetaHuman Animator 使用视频和 Dev 数据将其转换成高保真的动画。

在这个过程中,先是用 Live Link Face 对演员的视频进行面部动作捕捉。

完成面捕之后,只需要三帧视频就能生成演员的“元人类 DNA”。

其中用到的算法是定制版面部特征算法,生成的过程只要几秒钟。

这样一来,所有的面部数据都会被标定,还原出刚刚视频录制中的面部表情也就更加容易了。

更重要的是,在这个过程中,可以将真人视频与生成的建模视频进行逐帧比较。

然后等几分钟不到,完整的动画视频就成功生成了,最终工作人员要做的就只有微调和导入音频。

在新应用的加持下,做到下图这样的效果,对于工作人员来说也是信手拈来。

算法细节上,Epic 是采用自家“面部求解器”和“标志检测器”来确定视频中人物面部的关键操作点。

利用这些关键点,基于语义空间解决方案,AI 会将每一帧视频映射到“n 维人类空间”数据库中的最近邻居上。

这个所谓“n 维人类空间”,是 Epic 在多年来收集到的详细面部捕捉数据的基础上,挑选打磨过的庞大数据库,包含头部各个部位的各种运动姿态。

网友:3D 动画和游戏都要变天了

Epic 这波炸场,算是给最近被 AI 大浪冲击得恍恍惚惚的人类,又添了一点刺激。

有 metahuman 领域的网友就说“3D 动画和游戏都要变天了”:

几个月前用 iPhone 还只能捕捉到大致的面部肌肉控制。

不过,相比于各种“失业”现场,对于这项技术,更多人乐见其成。

有网友表示,有了这项技术之后,开发人员直接效率翻倍,能够节省太多时间,要做的就只有后期润色。

还有网友已经在期待电影制作人使用这项技术了:

Epic 自己则说,新的 MetaHuman Animator 有利于“复杂角色技术的民主化”。并表示这项新技术有望在今年夏天更广泛地推出。

那么,你期待吗?

参考链接:

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

相关阅读