扩展手部跟踪示例

核心资产

核心资产示例提供了预定义的资产,这些资产可以在多个项目之间共享使用。

 

这些资产作为示例提供,可以被导入到项目中,并作为基础进行定制。

 

该示例包含预定义的XR设备架和交互器,以及默认的输入映射,有助于加快设置QCHTI项目的过程。

 

图片1.png


QCHT示例

该示例场景展示了在演示环境中如何使用手部跟踪功能进行多种交互(近距离、远距离、单手、双手)。详细了解手部跟踪的工作原理,请参阅手部跟踪集成部分。

 

构建示例场景

首先,请确保在OpenXR项目设置中启用手部跟踪功能

 

图片2.png


接着,从QCHT Unity Interactions包中导入示例。

 

图片3.png


完成设置后,可以在Assets > Samples > QCHT Unity Interactions > [包版本号] > QCHT Interactions Samples中找到所有场景。

 

要在编辑器模式下测试这些示例,请打开Assets > Samples > QCHT Unity Interactions > [包版本号] > QCHT Interactions Samples > Menu > Scenes中的QCHT Sample - Menu场景。要在编辑器模拟模式下进行交互,请参考场景设置中的信息。

 

图片4.png


图片5.png

 

示例描述

这个示例分为4个场景,其中主要的场景是QCHT Sample - Menu,整合了所有其他场景。

 

主菜单允许您在不同场景、交互方式和手部化身之间进行切换。一般来说,在增强现实环境中显示手部化身并不被推荐。

 

近距离交互

 

图片6.png


简单交互

使用捏取手势与一个带有捕捉功能(粉色立方体)或无捕捉功能(蓝色立方体)的3D对象进行近距离交互。

 

捕捉功能

当用户使用捏取手势与粉色立方体进行交互时,他们的手部化身会按照在近距离捕捉编辑器中预设的位置捕捉到它。

 

可捕捉对象主要依赖于捕捉姿态提供器系统和捕捉姿态生成器进行工作。

 

远距离交互

 

图片7.png


当用户用手部发出的射线瞄准熊猫时,可以与其进行交互。通过捏取手势,可以移动、旋转和调整大小,这些操作依赖于控制框组件。

 

UI元素


图片8.png

 

对于UI元素,使用射线投射系统进行操作。有多种可交互的元素,如单选按钮、复选框、滑块、滚动视图和按钮。要操作对象,先将其瞄准,然后捏取进行选择。

 

UI元素接收并转换所有事件至Unity标准。它是用户动作和系统反应之间的桥梁。射线投射的元素会响应所有Unity回调,详细了解射线投射系统,请参阅远距离交互部分。

 

绘图

 

图片9.png


使用捏取手势开始绘图动作,张开手掌手势则结束绘图。

 

戳击(实验性功能)

 

您可以在Assets > Samples > QCHT Unity Interaction > [包版本号] > QCHT Interaction Samples > Poke > QCHT Sample - Poke路径下找到戳击的实现示例,即QCHT Sample - Poke场景。

 

图片10.png


在该场景中,戳击交互器被应用在虚拟键盘上。用户可以通过使用戳击交互器,通过触碰键盘上的键来使用食指输入文本。

 

每个键包含一个按钮和一个简单的可交互组件。此外,每个键还配有XRPokeFollowTransform组件,用于给键添加视觉效果以模拟按下的动作,并且有KeyButton来设置按下时的行为。

 

还可以使用远距离交互来操作键盘上的键。