记得《地狱之刃:塞纳的献祭》的动作捕捉是在去年SIGGRAPH 的Real-time live上展示的,所以先说下今年的real-time live把。

个人觉得比较有意思的是USC的Hao Li教授的创业团队Pinscreen的

Pinscreen: 3D Avatar from a Single Image

他们做了一个通过single image生成3D头像的技术。有了3D头像可以很多事情。在SIGGRAPH上他们展示了用别人比如名人的照片生成的3D头像,在视频对话中放在自己的头上来进行聊天,可以冒充各种其他角色来聊天。当然也可以制作一个虚拟的自己,在VR中来进行social或者通话等等。我个人认为该技术未来在游戏行业还是很有前景的,放入各种捏人的游戏中(类似黑魂,幽灵行动等等),可以直接把主角变成自己来游戏。附上链接:http://vgl.ict.usc.edu/Research/3DAvatar/

顺便聊一下USC的Hao Li,非常高产以及和工业界联系非常紧密的一位教授。很多publication都对影视动画游戏行业有关,其主页:http://www.hao-li.com/Hao_Li/Hao_Li_-_about_me.html


再说说Technical Paper吧,跟游戏直接相关的我暂时就知道一篇

Phase-Functioned Neural Networks for Character Control

主要作者是爱丁堡大学的研究人员。以前的游戏中人物的行走动画大多是事先动作捕捉好以后,根据不同的场景再进行调用播放。而该paper提出了用一个深度神经网络PFNN训练一些人的动作,然后通过用户输入(即相位)来自动生成人的动作动画效果,会更加的真实。链接:http://theorangeduck.com/。另外第一作者现已加入育碧蒙特利尔,可能不久之后就会在育碧的游戏中看到这项技术。