Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >VRMMO的技术挑战

VRMMO的技术挑战

作者头像
逍遥剑客
发布于 2018-05-09 08:57:09
发布于 2018-05-09 08:57:09
1.7K0
举报

又是新的一年, 2016总体不错, 前两年的坚持和积累开始产生效果, 2017不忘初心, 继续前行. 从做PC网游开始, 到2014年做主机游戏, 2015年做单机VR游戏, 2016年做多人VR游戏, 我们一直在走一条非主流的路. 不过现在回头看看, 冒似绕了一条路走在了前面, 做为一名技术人员来说, 还是挺有成就感的. 看看目前绝大数的VR游戏, 其实就是美术做个场景, 程序实现一下交互, 然后就可以拿去上线了, 难怪2016下半年VR热度开始冷却, 因为忽悠太多了. 我们也是从一开始做VR, 觉得这东西很好玩, 到之后开始觉得VR游戏好像没有什么技术含量, 再到做多人VR遇到的各种坑, 才知道, 单人和多人VR游戏的技术含量, 完全不是一个量级的. 只有耐心把地基打好, 才能建造一座高楼. 下面也是随便说说我们遇到的问题和挑战, 不对解决方案和实现做详细说明.

做为一个多人游戏, Avatar是必须的. 而很多单机的VR游戏只有两只手. 有些多人VR游戏就是只做了一个头加两只手的形象, 说是”可信度”>”真实度”. 虽然这个思想是没错, 但只有头跟手在表现力上也太搓了点. 这么做的原因是VR设备只提供了头显和两只控制器的Transform, 所以没办法完美地模拟出身体其它骨骼的运动. 或许有人说可以像其它网游那样使用美术制作的动画, 但是那样的话, 就失去了”可信度”, 毕竟面对面交流的感觉, 是需要身体语言的, 而VR设备三个骨骼的Transform就可以表达出很多信息了. 所以, 要想让玩家的Avatar生动起来, 必须把他身体的动作同步到Avatar上面. 但是, 由于没有身体的其它骨骼关节的信息, 只能依靠FullbodyIK的技术进行模拟. 目前看来, 做得比较好的中间件有FinalIK和IKinema. 头部的转动IK是最容易实现的, 类似传统游戏中的AimIK/LookAt等; 胳膊的IK稍困难, 需要避免与身体的穿插, 还要保证肘部关节和肩部关节的角度不会超出约束范围, 不然会看着像骨折了; 下半身的IK是最难的, 因为双腿需要跟着上半身做弯曲/下蹲/转身/迈步等, 跳跃和弯腰更是目前无法完美模拟的.

说到VR游戏中的移动, 很多人已经有个共识就是会晕. 所以, 对于小范围的移动, 通常是使用RoomScale的空间走动; 对于大范围的, 目前通用方法是使用传送. 虽然也有驾驶类的, 但是与特定游戏玩法相关性比较大, 这里不做讨论. RoomScale的移动对于单人来说, 很好处理, 但是反应到其它玩家的Avatar上就是一个问题了. 因为在逻辑上, 他们的Transform并没有变化, 只是头跟手的Transform发生了变化. 如果Avatar的设计有腿的话, 就需要腿跟随头部移动和转向, 这样出来的效果十分诡异, 因为正常人是下半身带动上半身移动/转向的, 而VR里是头和手带动上半身, 上半身再带动下半身, 出现的动作就会不协调. 2017年应该会上市很多HomeScale的头显, 采用类似Hololens的SLAM定位技术, 这时候腿部表现就是不可避免的了.

除了肢体语言, 手势也是一种极富表现力的交流手段. OculusTouch的Touch特性用来模拟拇指/食指/中指的动作, 进行一下组合就能实现很多种常见的手势, 配合肢体语言, 可以极大地增强面对面交流时的真实感. 当然这个没什么技术含量, 会做动画状态机就能做, 难的是手拿物体的动作. 如果只有固定的几种东西, 那就可以针对每个物体做不同的手抓住的动画. 但是如果想用双只手交替拿物体的任意部位, 这种预置动画是满足不了需求的. VirtualGrasp就做了这样的技术, 可以让手指在不同物体的不同部位, 都能让手指贴到物体表面上, 做到了比较自然的抓握动作.

多人交流, 那沟通是少不了, 但是VR游戏没人会用键盘去玩的, 所以语音聊天成了多人VR游戏必须做的一个基础功能. 不过VR中的语音聊天不仅仅是像YY那样开个房间就好, 而是需要把声音空间化, 做成3D音效, 这样才像是从玩家Avatar的嘴里发出来的声音, 2D音效在VR里是相当违和的. 再进一步, 需要考虑声音的反射和遮挡, 这个目前还没有在实际产品中看到比较完美的技术方案, 大家最多只是做个混响效果. Oculus Audio SDK中有Sound Spatialization的技术, NVIDIA有VRWorks Audio, AMD也有TrueAudio, 因为大家都意识到, 在VR中, 声音的重要性, 不亚于画面.

好了, 说话时有了声音, 那Avatar的嘴要动吧? 这就是涉及到LipSync的技术了. LipSync不是什么新技术了, 在AAA游戏中用得很多, 只不过大家用的都是离线生成的口型数据, 而VR语音聊天是需要实时生成的口型的. 如果只是单音节识别, 还算比较简单, Oculus的LipSync就是这样, 效果一般. 再进一步就是需要考虑前后声音的相关性, 做出口型的连续变化, 而不是简单的插值. 这方面目前看着效果比较好的是SpeechGraphics做的中间件. 最难的是情绪识别, 因为嘴能动了, 脸还是僵硬的, 看着也是很假. 另外, 语音识别什么的, 也是有可以用的时候, 毕竟在VR里做交互和做文字输入什么的, 没有直接说话来得轻松.

上面说到了脸部的表现, 最最基本的, 需要做个表情吧? 简单的卡通风格用贴图画就可以, 偏写实的风格就需要用绑定大量脸部骨骼或者导出MorphTarget去表现表情的变化. 一旦使用了基于Mesh的表情制作方案, 动画美术就疯了, 绑定一张脸的Rig就累个半死. 不知道DCC工具中有没有比较快速绑定脸部骨骼或者生成MorphTarget的技术, 不然制作成本是个问题. 好了, 等美术做好了几个表情动画, 问题来了, 我怎么触发呢? 体感控制器上就那么几个按钮, 总不能都用来触发表情吧? 那就做个UI? 等你选完早就不笑了. 用身体动作触发? 老是会误触发, 一会儿哭一会儿笑的, 跟精神病一样.

有了口型变化, 有了表情变化, 为什么还有两只死鱼眼呢? 这时候又需要做眼神的控制了. 随机眨眼是比较简单的, 难的是视线方向的控制. 因为目前的量产头显都不带眼动追踪的功能(只听说FOVE有), 所以你没法知道对面玩家的眼睛到底在看哪里. 那只能做个策略来进行模拟, 比如根据声音, 根据运动物体的位置, 根据头部朝向的目标等, 怎么调出来让人觉得自然也是需要很多精力和时间反复调整的.

嗯, 脸部表现丰富了, 肢体动作也有了, 其它方面也要跟上吧? 头转了, 头发是不是也要甩一甩? 身体动了, 衣服是不是也要飘一飘? 这又掉进物理模拟的坑里了, 大量AAA级游戏都有比较成熟的方案, 不再多说.

物理最麻烦的不是模拟, 而网络同步. 在任何一个使用双持体感控制器的VR游戏中, 都少不了各种带物理模拟属性的物件, 可以拿起来扔之类. 而到了多人VR游戏中, 这些物件的运动一样需要同步到其它客户端. 可能这一秒还在你手上, 下一秒就被其它人拿去了. 另外, VR游戏中现在大多是90FPS, 手上拿的东西如果模拟稍微有点延迟立即就能察觉, 影响所谓的”手感”. 在场景多的物理对象很多的时候, 你用帧同步吧, 延迟太大; 你用状态同步吧, 服务器跑个物理引擎又比较吃力, 下发的数据量也很大, 不知道玩家带宽能撑住不. 再说了, 之前同步头和手外加语音聊天已经占用掉很大一部带宽了, 留给物理对象的已经不多了…

解决了上面那些基础问题, 好了, 终于可以开始做游戏玩法了. 嗯? 不对, 怎么过去了一年……

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017年01月22日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
GDC2017: 《Lone Echo》中的VR动画
去年在Oculus Connect 3体验过《Lone Echo》的多人竞技玩法, 品质很高, 算是VR游戏中的一线大作了. 正好今年GDC上他们分享了一些关于VR中角色动画的一些经验, 还是比较有借鉴意义的, 毕竟Avatar做了全身的VR游戏少之又少. 这是一个太空失重背景下的游戏, 可以用手抓住环境物体或者推墙进行反向的漂浮. 一开始他们是通过手部射线了检测是不是抓住静态几何体, 通过让身体与双手保持与真人1:1的相对位置来驱动身体, 但是这样对于抓/推动态的环境物体效果不是很好. 原因
逍遥剑客
2018/05/09
8750
CVPR 2024 | 面部+肢体动画,一个框架搞定从音频生成数字人表情与动作
AI 数字人面部与肢体的驱动算法作为数字人研发的重要环节,可以大幅度降低 VR Chat、虚拟直播和游戏 NPC 等领域中的驱动成本。
机器之心
2024/04/12
1.4K0
CVPR 2024 | 面部+肢体动画,一个框架搞定从音频生成数字人表情与动作
数字未来设计趋势|人物篇
回顾互联网发展历程,从桌面端拨号上网到高速5G的移动互联网,随时随地互联互通对现实生活的影响力也逐步提升,虚拟与现实的距离也逐渐缩小。未来数字世界在沉浸感、参与度、永续性等方面对体验提出了更高的要求。本系列文章将从虚拟世界的视角,对设计挑战和机遇进行总结和预测。
晓吾
2022/03/30
7020
数字未来设计趋势|人物篇
游戏NPC不再是站桩工具人,AI凭对话内容生成3D动作,真实度超越人类|网易新研究
不仅能按角色的性别、说话的习惯和姿态,合成不同风格的动作,还可自由替换或指定待定动作。
量子位
2022/12/09
6440
游戏NPC不再是站桩工具人,AI凭对话内容生成3D动作,真实度超越人类|网易新研究
《 NEXT 技术快报》:图形篇(上)
本文介绍了如何利用机器学习方法在渲染中自动生成布料模拟,并针对该方法在真实感、计算效率、易用性、模拟质量等方面进行了评估。作者提出了一种基于神经网络的方法,可以自动从输入的渲染图像中提取布料模拟信息,并利用该方法对多个渲染结果进行评价。该方法在多个公共数据集上进行了实验验证,结果表明,该方法具有较高的准确性和鲁棒性,可以有效地支持布料模拟的自动生成和优化。"
serena
2017/10/11
1.9K0
《 NEXT 技术快报》:图形篇(上)
CVPR 2024 | 面部+肢体动画,一个框架搞定从音频生成数字人表情与动作
EMAGE 研究论文包含 BEAT2 与 EMAGE 两部分。用户可以自定义动作的输入,在接受预定义的时序与空间的动作输入方面具有灵活性,最终可生成完整的、与音频相同步的结果,EMAGE 输出全身动作的效果属于业界 SOTA。
Python编程爱好者
2024/04/19
4210
CVPR 2024 | 面部+肢体动画,一个框架搞定从音频生成数字人表情与动作
李飞飞团队统一动作与语言,新的多模态模型不仅超懂指令,还能读懂隐含情绪
人类的沟通交流充满了多模态的信息。为了与他人进行有效沟通,我们既使用言语语言,也使用身体语言,比如手势、面部表情、身体姿势和情绪表达。因此,为了理解和生成人类动作,理解这些多模态的行为至关重要,而且这一研究方向最近受到的关注也越来越多。
机器之心
2025/02/14
1290
李飞飞团队统一动作与语言,新的多模态模型不仅超懂指令,还能读懂隐含情绪
Meta用一个头显搞定全身动捕,无需手柄和下身传感器,网友:VR终于少点物理挂件了
萧箫 发自 凹非寺 量子位 | 公众号 QbitAI 还记得你玩VR的时候,完全看不到自己下半身的样子吗? 毕竟,目前的VR设备通常只有手柄和头显,没有下半身传感器,系统无法直接判断下半身的动作,预测时也容易出bug。 现在,Meta终于迈出了一大步——只凭头显(甚至不用手柄),就能搞定全身动捕,连双腿的不同动作都预测得一清二楚! 新研究一po出就在网上爆火。 有网友调侃,小扎的元宇宙终于要有腿了,顺手还po了个Meta的股票。 还有VR玩家感到高兴:玩游戏时终于可以在身上少挂点硬件了! 这项研究
量子位
2022/09/27
6670
Meta用一个头显搞定全身动捕,无需手柄和下身传感器,网友:VR终于少点物理挂件了
每日学术速递4.20
作者:Yuming Du, Robin Kips, Albert Pumarola, Sebastian Starke, Ali Thabet, Artsiom Sanakoyeu
AiCharm
2023/05/15
2760
每日学术速递4.20
ECCV 2022 | 普通VR设备实现全身运动捕捉,ETH&Meta为虚拟人物形象添加了下半身
近日,Meta Connect 大会上「有腿」的虚拟世界人物形象引起机器学习和VR社区的高度关注。人们意识到,在构建元宇宙的美好愿景中,虚拟形象的生动逼真是非常重要的。
机器之心
2022/12/15
6260
ECCV 2022 | 普通VR设备实现全身运动捕捉,ETH&Meta为虚拟人物形象添加了下半身
连虚拟化身都没有的你,还敢自诩自己走在时尚科技的尖端?
在VR所创造出的新世界中,你可以尽情徜徉,逛遍世界各地,也可以走入开发者脑洞大开开发的异次元世界,瞧一瞧,看一看...但时间一长,当新鲜感褪去后,无尽的孤独将包围你,因为在VR中你总是一个人。 那么如
VRPinea
2018/05/15
8820
Meta用头显实现全身动作追踪!没有腿部信息,也可准确估计姿态
还没完!在没有任何关于下半身信息的情况下,它还可以踩箱子,跨过障碍物,精准跟踪人体动作。
量子位
2023/08/05
1900
Meta用头显实现全身动作追踪!没有腿部信息,也可准确估计姿态
Harmon | 从语言描述中生成人形机器人的全身动作
项目地址:https://ut-austin-rpl.github.io/Harmon/
一点人工一点智能
2025/02/26
1471
Harmon | 从语言描述中生成人形机器人的全身动作
一个普通摄像头就让二次元老婆“活”了过来,网友:求收费
这还不算完,更让网友们直呼“离谱”的是,这样的视频动作捕捉AI,只要你有一台电脑+一个RBG摄像头,就能直接抱回家。
量子位
2021/11/23
9850
一个普通摄像头就让二次元老婆“活”了过来,网友:求收费
与人类贴身热舞!人形机器人进阶到街头耍宝,6华人组团出品
好啦,这不是惊悚恐怖片,而是来自UCSD(加州大学圣地亚哥分校)全华人团队的最新研究成果。
量子位
2024/02/29
1370
与人类贴身热舞!人形机器人进阶到街头耍宝,6华人组团出品
商汤的数字人研究,在CVPR上成了爆款
机器之心原创 作者:泽南 在 CVPR 大会上,看数字人技术的最新趋势。 对表情和手势进行精细建模、让数字人跳舞的算法、用 2D 图片生成 3D 模型…… 最近一段时间,AI 领域里面向元宇宙和数字人的新技术越来越多。 人工智能最重要学术会议之一——CVPR 2022 这几天正在进行过程中,今年大会获得的投稿数量超过一万,接收论文数量超过 2000 篇,是历届规模最大的一次。 在大会上,商汤科技及其联合实验室有 71 篇论文被录用,其中近四分之一为 Oral(口头报告)论文。值得关注的是,这些最新研究中有
机器之心
2022/06/24
9690
商汤的数字人研究,在CVPR上成了爆款
神“乐”马良:AI直接将音频转换成动画
【新智元导读】根据音乐信号预测身体的运动是一个极具挑战性的计算问题。来自Facebook、斯坦福大学和华盛顿大学的研究人员开发了一种基于深度学习的方法,该方法可以将乐器的声音转换成对骨骼关键点的预测,并可以用于制作动画角色。
新智元
2018/07/31
1.4K0
神“乐”马良:AI直接将音频转换成动画
Morph动画的转移
以往做游戏换装什么的, 大多是使用骨骼来调整体型/脸型, 这算是比较成熟的技术了. 最近的项目里尝试了使用MorphTarget(BlendShape)来做这个事情, 好处是能够做到逐顶点的调节, 可以做出比较细腻的效果, 但是与此同时带来了制作成本的上升. 不过目前AAA级的游戏中这种做法已经比较普遍了, 所以还有必要把制作流程理一下. 常见的问题: 比如我们人的身体通过Morph做了胖瘦, 那么衣服也需要跟随身体做相应的变形. 这在使用骨骼控制时是没有问题的, 但是使用Morph后, 就需要衣服
逍遥剑客
2018/05/09
3.3K0
专访 OmniH2O 项目发起人何泰然:探索人形机器人遥操作通向具身智能的可行之路
在谈到人形机器人遥操作的可行路径时,何泰然表示他既可以实现机器人的全身控制,还可以用强化学习来实现这一点。在他所探索的这条路上,不必因为技术瓶颈或短期目标而妥协,可以“既要又要”。
AI科技评论
2024/07/05
7800
专访 OmniH2O 项目发起人何泰然:探索人形机器人遥操作通向具身智能的可行之路
《Honey Select》捏人剖析
关于游戏中的捏人系统, 很少有资料提到怎么做, 印象中只有《天涯明月刀》分享过. 前段时间关注了个VR资源分享的公众号, 经常推送HS的捏人作品, 所以才引发了我的好奇心, 决定一探究竟.。
逍遥剑客
2018/05/09
5.9K0
推荐阅读
相关推荐
GDC2017: 《Lone Echo》中的VR动画
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档