XR交互工具包(XRI)是一个高等级的、基于组件的交互系统,用于创建VR和AR体验。它提供了一个通用的交互框架,并简化了跨平台XR应用的创建。此次更新增加了三个关键功能:用于更自然交互的眼睛凝视和手部跟踪功能,将交互带入现实的视听启示功能,以及用于在编辑器中测试迭代改进的设备模拟器功能。在本文中我们将详细地为大家解读每个新增功能的作用及用法,那么让我们开始吧。
完全支持关节式手部跟踪
随着XRI 2.3的更新,Unity将在预发布中推出Unity XR Hand Package。XR Hands是一个新的XR子系统,它增加了支持Unity中的手部跟踪的API。这包括对OpenXR的内置支持,对元平台的支持也将很快推出。此外,外部硬件提供商可以通过遵循提供的API文档,从他们现有的XR SDK中输入手动跟踪数据。
新版本的XRI包括双手互动演示,一个展示手部交互设置的示例包,用户可以在手部和控制器之间切换,而无需更改设备上场景中的任何内容。使用此功能,您的内容可以从标准的控制器设置开始,无缝过渡到游戏中特定任务或自然交互的手部动作。
XRI 2.3还支持通过XR戳交互器进行自然戳交互。这允许用户在3D UI上用手或控制器与XRI的UGUI画布元素进行戳动交互。
使用眼睛凝视进行交互
像HoloLens 2,Meta Quest Pro和PlayStation VR2这样的新头显带有眼部传感器,可以跟踪用户的视线。基于凝视的交互可以帮助用户构建感觉更自然的XR应用程序,并提供一种额外的方式来与内容进行交互。为了支持这种类型的交互,Unity引入了XR凝视交互器,由眼睛凝视或头部凝视姿势驱动。用户可以使用这个交互器进行直接操作,比如悬停或通过停留在可交互对象上并进行选择。
由于Unity通常不建议应用程序完全由眼睛控制,所以其引入了一种额外的控制器形式和基于手的交互辅助来帮助用户选择特定的对象XR可交互快照卷。该组件可作为凝视交互器的补充,因为它允许在瞄准对象周围的定义区域将交互捕捉到附近的可交互对象。捕捉体积也可以在没有凝视交互器的情况下使用,以便于用户选择对象。
通过联觉效应(Affordance)将互动带入现实
使用手进行交互不同于使用控制器,因为没有触觉或触觉反馈来确认交互何时发生。联觉效应(Affordance)系统是一组性能组件,它可以根据对象的交互状态激活对象或触发声音效果,有助于缓解这种反馈差距。这个系统是为在新的和现有的项目中与interactor和interactable的任意组合一起工作而构建的。
用双手拉伸、摆动和旋转虚拟物体
新的XR通用抓取转换器降低了层次结构的复杂性,并允许一个通用转换器在一个可交互的设备上支持单手和双手交互,而不是多个抓取转换器。它还支持双手缩放,让你通过分开或合拢双手来缩放对象,类似于在手机上放大和缩小。
新版本中还添加了一个交互组组件。这种行为允许开发人员将交互器组合在一起,并按优先级对它们进行排序,这允许每个组在给定时间只有一个交互器进行交互。例如,用户戳一个按钮将暂时阻止其他交互器与场景交互。这可以防止用户在远处工作时不小心抓住附近的东西,并防止其在近距离抓住或戳对象时光线投射到场景中。
使无需头显的XR迭代变得更加容易
在头显上测试XR应用很重要,但在编辑器中测试有助于减少迭代时间。在此版本中XR设备模拟器进行了一项主要的可用性更新,在更新中添加了一个新的屏幕UI小部件,可以更容易地看到哪些输入驱动模拟器,以及哪些输入当前是活动的。
此外更新中还添加了新的模拟模式,因此用户可以在常用的控制模式之间切换。启动时,设备模拟器会激活新的第一人称射击(FPS)模式,该模式可以操纵头显和控制器,就好像整个玩家都在转动躯干一样。然后,用户可以在其他模式中循环操作各个设备:头显、左控制器和右控制器。要使用XR设备模拟器,请从包管理器中导入示例。
体验新版本中XRI的示例项目
经过了漫长的等待,新版示例项目现在终于来了。新的示例项目展示了用户可以在XRI 2.3中使用的一系列XR体验构建模块。该项目分为几个站,并包括几个简单的使用案例,这能够帮助用户更清楚的了解XRI的每个主要功能是如何工作的。
领取专属 10元无门槛券
私享最新 技术干货