香港服务器

ARKit 5 中 App Clips 的新功能

Apple 在 WWDC 2021 上悄然重要的公告之一必须是它计划改进 ARKit 5 的应用剪辑代码功能,该功能已成为任何 B2B 或 B2C 产品销售企业的强大工具。

有些东西似乎从页面上爬了下来
去年推出时,重点是提供对应用程序中工具和服务的访问。所有应用程序剪辑代码都可以通过可扫描模式和可能的 NFC 获得。人们使用相机或 NFC 扫描代码以启动 App Clip。

今年,Apple 增强了 App Clip 和 App Clip Codes 中的 AR 支持,它们现在可以识别和跟踪 AR 体验中的 App Clip 代码——因此您可以在没有整个应用程序的情况下运行部分 AR 体验。

[相关:技术活动日历:即将举行的展览、会议和 IT 博览会]
在客户体验方面,这意味着公司可以创建增强现实体验,当客户将相机对准产品参考手册中的应用程序代码、海报上、杂志页面内、贸易展览商店 – 无论您需要他们在哪里找到此资产。

Apple 提供了两个主要的现实世界场景,它想象使用这些代码:

瓷砖公司可以使用它们,以便客户可以在墙上预览不同的瓷砖图案。
种子目录可以显示种植植物或蔬菜的 AR 图像,并可以让您通过 AR 看到花园中生长的绿色植物的虚拟示例。
两种实现看起来都相当静态,但可以想象更雄心勃勃的用途。它们可用于解释自组装家具、详细的汽车保养手册,或提供有关咖啡机的虚拟说明。

什么是应用剪辑?
应用剪辑是应用的一小部分,它可以让人们浏览应用的一部分,而无需安装整个应用。这些应用程序剪辑节省了下载时间,并将人们直接带到与他们当时所处的位置高度相关的应用程序的特定部分。

推荐的白皮书
对象捕捉
Apple 还在 WWDC 2021 上推出了一个必不可少的支持工具,RealityKit 2 中的对象捕获。这使开发人员可以更轻松地使用在 iPhone、iPad 或 DSLR 上捕获的图像快速创建真实世界对象的照片般逼真的 3D 模型。

这实质上意味着 Apple 已经从授权开发人员构建仅存在于应用程序中的 AR 体验转变为创建可移植的 AR 体验,或多或少在应用程序之外。

这很重要,因为它有助于创建一个由 AR 资产、服务和体验组成的生态系统,它在试图在这个领域进一步推进时将需要这些。

需要更快的处理器
了解能够运行此类内容的设备类型非常重要。当 ARKit 首次与 iOS 11 一起推出时,Apple 表示它至少需要 A9 处理器才能运行。从那时起事情就发生了变化,ARKit 5 中最复杂的功能至少需要一个 A12 仿生芯片。

在这种情况下,App Clip Code 跟踪需要配备 A12 仿生处理器或更高版本的设备,例如 iPhone XS。这些体验需要苹果最新的处理器之一,这一点值得注意,因为该公司无情地推动推出 AR 眼镜。

它有助于理解苹果投资芯片开发的战略决策。毕竟,从 A10 Fusion 迁移到 A11 处理器带来了 25% 的性能提升。在这一点上,苹果似乎在其芯片的每次迭代中都取得了大致相似的收益。一旦它在 2022 年转向 3nm 芯片,我们应该会看到每瓦性能的又一次飞跃——由于 M 系列 Mac 芯片,这些功能的进步现在可以在其平台上使用。

尽管拥有如此强大的功能,Apple 警告说解码这些剪辑可能需要时间,因此它建议开发人员在魔术发生时提供占位符可视化。

ARKit 5 中还有哪些新功能?
除了 App Clip Codes 之外,ARKit 5 还具有以下优势:

定位锚
现在可以将 AR 内容放置在特定的地理位置,将体验与地图的经度/纬度测量联系起来。此功能还需要 A12 或更高版本的处理器,并且在美国主要城市和伦敦可用。

这意味着您只需将相机对准标志或检查地图中的位置,就可以四处闲逛并获得 AR 体验。这种重叠的现实必须暗示公司的计划,尤其是在可访问性、人员识别和步行方向方面的改进。

动作捕捉改进
ARKit 5 现在可以更准确地跟踪更远距离的身体关节。动作捕捉还更准确地支持 A12 或更高版本处理器上更广泛的肢体运动和身体姿势。无需更改代码,这意味着一旦 iOS 15 发布,任何以这种方式使用动作捕捉的应用都将受益于更高的准确性。