双重渲染融合是一个新的增强现实(AR)核心功能,可以与 Snapdragon Spaces for Unity SDK 一起使用。它允许在同一 Android 活动中同时将渲染输出到移动屏幕和连接的增强现实设备。这还支持充分利用移动触摸屏输入和 Snapdragon Spaces 提供的全面感知能力。
注意! 从Snapdragon Spaces SDK for Unity 0.23.0 版本开始,双渲染融合(实验性)功能已作为 SDK 的一部分包含在内。要开始使用最新版本的双渲染融合,请按照设置指南中的说明进行操作。 在 Snapdragon Spaces SDK for Unity 0.13.0 和 0.21.0 版本之间,有一个可选的附加包可用。 提示! 有关使用旧版本可选附加包设置 Dual Render Fusion 项目的信息,请参阅版本0.13.0 至 0.21.0 页面。 提示! 有关将使用旧版本 Dual Render Fusion 的项目迁移到该功能的最新集成版本的信息,请参阅Dual Render Fusion 迁移指南。 |
要查看架构信息和支持的平台,请参阅双渲染融合架构页面。
双重渲染能力
双重渲染融合将智能手机设置为主要显示屏,同时将连接的 AR 头显作为次要显示屏。
在这个截图中,AR 显示在编辑器中测试时的目标设置为显示器 2,而在实际设备上,AR 显示应设置为显示器 1。
这种双重渲染功能能够将新的或现有的 2D 移动应用扩展为 3D 增强现实体验,无需编写代码。其核心概念是在 2D 应用中添加第二个游戏内摄像头,以充当扩展的 AR 显示屏。
多模态输入
双重渲染融合还为开发者提供了使用 Snapdragon Spaces SDK 启用的 XR 输入(如手部追踪、射线检测和注视指针)的选项,同时也允许用户使用全功能的移动触摸屏。通过多点触控功能,用户界面可以像任何现有的手机应用一样动态。
移动应用扩展
由于手机能够提供全面的输入和渲染功能,添加 AR 现在变得非常简单,只需添加第二个游戏内摄像头来处理增强现实眼镜的姿态和输出。这样,现有的移动应用可以以全新的沉浸式方式呈现,同时保留熟悉的控制机制。这使得将现有应用和演示快速移植到 Snapdragon Spaces 成为可能。
应用实例
双重渲染融合的应用场景几乎无限,就像手机一样,这种功能可以用来增强任何现有的移动应用。以下是一些示例,展示了利用双重渲染融合的自然输入如何提升日常的增强现实体验。
购物
通过触摸屏输入,用户界面可以在智能手机上得到优化,而重要的元素,如世界尺度的家具或服装,则可以通过连接的增强现实头显直接进行定制和查看。
媒体
开发者可以结合自然的触摸屏输入功能,在智能手机上滑动浏览最喜爱的照片,同时利用增强现实中的手部追踪功能移动和放大单张照片。
游戏
双重渲染融合还允许开发者将智能手机作为移动游戏的全触摸屏控制器使用,同时在增强现实中显示额外的沉浸式游戏视角。