包含此页的版本:
不含此页的版本:
处理输入的主要选项XR一个总称,包括虚拟现实 (VR)、增强现实 (AR) 和混合现实 (MR) 应用。支持这些形式的交互式应用程序的设备可以称为 XR 设备。更多信息
请参阅术语表游戏或应用程序包括:
在某些情况下,你可能会同时使用多个选项。例如,你可以使用 XR 交互工具包允许用户拾取环境中的对象,使用输入系统将暂停功能绑定到控制器按钮,并使用 XR。用于读取硬件状态的节点 API,以便您可以对控制器进行动画处理游戏对象Unity 场景中的基本对象,可以表示角色、道具、风景、相机、航路点等。游戏对象的功能由附加到它的组件定义。更多信息
请参阅术语表.
注意:OpenXR 的插件在 Unity 外部创建的一组代码,用于在 Unity 中创建功能。可以在 Unity 中使用两种插件:托管插件(使用 Visual Studio 等工具创建的托管 .NET 程序集)和本机插件(特定于平台的本机代码库)。更多信息
请参阅术语表支持许多不同的 XR 设备和控制器,提供了自己的附加方式来访问 XR 输入和跟踪数据。您仍然可以使用 XR 交互工具包、输入系统或XR.InputDevice和XR.Node蜜蜂属。(使用 OpenXR 插件时,不支持旧版输入管理器。有关详细信息,请参阅 Unity OpenXR 中的输入。
XR 交互工具包基于输入系统和基础UnityEngine.XR支持 XR 输入和交互的 API。它提供了一组近乎即用型的组件,用于处理 XR 输入并定义用户与环境之间的交互,以及场景场景包含游戏的环境和菜单。将每个唯一的场景文件视为一个独特的关卡。在每个场景中,你放置你的环境、障碍物和装饰品,基本上是将你的游戏设计和构建成碎片。更多信息
请参阅术语表用户界面。
XR 交互工具包提供:
你可以访问XR控制器的控件,例如按钮和纵杆,就像访问任何游戏控制器控制游戏中对象和角色的设备。
请参阅术语表.要访问跟踪数据,请使用 XR。InputTracking API 的代码。还可以使用输入系统 TrackedPoseDriver 组件通过跟踪设备(如 HMD 或控制器)控制游戏对象。TrackedPoseDriver 组件也可从旧版输入帮助程序包中获得,以防你不使用输入系统。
注意:使用 OpenXR 插件时,必须使用输入系统。这输入管理器设置(Input Manager Settings) 可在其中为项目定义所有不同的输入轴、按钮和控件。更多信息
请参阅术语表不支持。
XR Hands 包提供对来自支持它的 XR 设备的手部跟踪数据的访问。若要访问此数据,还必须使用已更新为支持手部跟踪的 XR 提供程序插件,例如 OpenXR 版本 1.12。
XR Hands 包提供以下功能:
在 visionOS 上的输入选项取决于你的 App 是否在窗口模式下运行,混合现实混合现实 (MR) 将自己的虚拟环境与用户的现实世界环境相结合,并允许他们相互交互。
请参阅术语表mode 或虚拟现实虚拟现实 (VR) 使用耳机和运动跟踪,让用户沉浸在逼真的图像和声音的人工 3D 世界中。更多信息
请参阅术语表模式。
在窗口模式下,用户的凝视和捏合手势由作系统转换为触摸事件。您的应用无权访问原始输入数据。visionOS 最多报告两个触摸点。
在混合现实模式下,输入选项进一步取决于应用是在与其他应用的共享空间中运行还是在沉浸式空间中运行。在共享空间中,情况类似于窗口应用程序;作系统将用户的注视和手部动作转换为触摸手势。在这种情况下,您可以使用空间指针设备来访问 3D 触摸数据,而不仅仅是 2D。在沉浸式空间中,您还可以访问手势开始时用户视线的 3D 光线原点和方向。此外,您还可以访问ARKit数据,例如头部和手部跟踪、平面检测、场景重建网格和图像跟踪。
在虚拟现实模式下,您可以访问ARKit数据,例如头部和手部跟踪、平面检测、场景重建网格和图像跟踪。(你无权访问空间指针设备或其他特定于 PolySpatial 的组件。
有关更多信息,请参阅 PolySpatial visionOS:输入。
XR 输入 API 提供对 XR 输入的直接访问。该 API 允许您查找连接的 XR 设备并读取其跟踪数据及其输入硬件的状态。
有关 XR 输入 API 的更多信息,请参阅 Unity XR 输入。
设备制造商和其他第三方通常会提供自己的输入和交互 API,您可以使用这些 API 来代替 Unity 提供的 API,也可以作为 Unity 提供的 API 的补充。