元宇宙已经配不上库克的野心了( 二 )



在混合现实的应用场景下 , 这些技术可以实时提取当前环境下的人像或物体信息,并融合在其他现实场景中 。
而另一项相对实用的功能则更好地展现出了混合现实的应用 。在iOS 15上,用户可以通过相机识别、提取图片中的文字,到了本代系统,用户可以直接在视频暂停的任何一帧画面中进行文本操作,比如翻译,或是实时的汇率换算,这十分符合混合现实最基本的设计理念——在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路 。

元宇宙已经配不上库克的野心了

文章插图


如果说以上功能升级,都不能直接说明苹果是在为AR/MR产品做出准备,那么针对AirPods的技术升级,则完全无法解释的通了,因为这项技术几乎就是为AR/MR头戴显示器量身定制的 。

在iOS 16 中,AirPods 的使用者可以利用 iPhone 的深感摄像头来创建个性化的“空间音频档案”,从而实现更准确和具有沉浸式的听觉体验,简单地说就是基于算法来实现三维动态头部追踪,让声音环绕在使用者的周围,为音乐和视频营造三维空间效果 。
但在大多数应用场景下,人们在听音乐时根本不会进行频繁的头部运动(除了蹦迪),那么这项技术显然不适用于手机,或者说是目前苹果所有的硬件终端产品线 。
最合理的解释,这项技术是为AR/MR产品的前期技术储备 。
苹果的野心有多大?
在今年5月的最后一天,有开发者在苹果APP store上传日志和开源代码中,意外发现了对“realityOS”的引用,虽然苹果在消息曝出后的第一时间删除了这个提交,但苹果的首款XR(VR、AR、MR的合称)操作系统算是正式坐实了 。
现在的问题是,苹果的首款XR产品会以什么样的形式出现?
首先排除的就是行业内现阶段最普及的VR头显 , 因为这类产品高度依赖于元宇宙概念,而不符合库克对XR产品的规划 。
早在今年1月初,彭博社的Mark Gurman就曾表示过 , “如果苹果在发布第一款头显时说出‘元宇宙’一词,我会非常震惊 。”这位苹果知名爆料人士称,在苹果内部“元宇宙”基本属于禁词 。
这倒不是库克有多么鄙视Meta提出的概念,而是苹果的基本盘决定了这家公司不可能去依附现有的行业生态 。长久以来 , 苹果在消费电子领域中都坚持两项准则,其一是对硬件产业链的掌控,其二是通过多端口构建闭源生态 。
而且目前XR最受人诟病的一点就是贫瘠的内容生态 , 而由于APP store能为开发者提供持续且稳定的高收入,苹果数以千万计的开发者甚至都不会允许苹果在XR赛道中开发委身于Meta的“元宇宙” 。
那如果不去做VR和“元宇宙”,苹果只能投身于AR或是MR赛道,某种程度上 , 两者的技术路径是相通的,而且苹果已经积攒了足够多的开发工具和技术储备 。早在2017年的WWDC上,苹果就已发布了支持Unity、Unreal引擎的AR软件开发工具ARKit 。而在去年的WWDC上 , 苹果已经将这一工具更新到了ARKit 5,同时还发布了AR Maps、Object Capture、RealityKit 2等新功能 。
在今年3月美国专利商标局公布的专利名单中,苹果申请的一项授权专利更是表明苹果可能绕过AR,直接推出MR产品 。
根据专利场景设想描述 。在系统的支持下,医生可以直接在头显中实时接收到另一家医院病人的脑部扫描图像,并可以改变图像的视角和信息,这与混合现实的定义已十分接近 。
元宇宙已经配不上库克的野心了

文章插图


图片来源:Patenly Apple

相关经验推荐