apple vision pro算得上是最近数码产品里最有热度的了!关于参数、外观、去现场实际体验的大佬把感受也讲了下,那么这个差不多3万块的产品究竟为啥这么贵?它比目前的头显设备好在哪里呢?
首先,苹果在头显设备领域起步并不晚,Facebook 2014年收购Oculus,2019年推出Facebook Horizon,2020年后Oculus一家独大,Oculus Quest2热卖。Google则在2019年上线,Stadia布局云游戏,同时通过Youtube VR布局软件和服务,当时大家都以为这就是头显设备的形态了。
智慧芽Dicsovery:2010年苹果收购Polar Rose(瑞典面部识别技术公司);2013年,收购PrimeSense(3D感应与动作捕捉技术公司);2015年,收购了Faceshift(面部动作捕捉技术公司),Metaio(增强现实公司);2016年收购了Emotient(面部表情AI分析公司)、Flyby Media(AR社交软件);2017年,收购Vrvana(混合现实技术提供商);2020年收购了Next VR(虚拟现实公司)上面不少公司都是只有十几个人的小型公司。
(资料图片仅供参考)
最近10年,苹果和子公司公司在全球126个国家共有5056件与“AR”“VR”相关的专利申请,其中,发明专利占比超过97%。2017年后,苹果年专利申请量均维持在600件以上,所以应了咱们那句老话:不怕慢只怕站。
OculusRift在Kickstarter众筹成功,后又被Facebook以20亿的天价收购,而在2017年到2020年之间,价格高、内容匮乏等情况,头显设备基本都是进入了低谷期,苹果这个错峰出行666。
前面啰嗦一下,因为前期投入、研发花不少钱,所以这个价格高是能想象得到,不过技术层面呢?头显设备大家体验过后,有一个最明显的不适应就是——眩晕!
衡量 VR 设备的最重要指标是延迟(延迟是指头部转动到画面呈现到人眼的时间)头动和视野的延迟不能超过 20ms,不然就会出现眩晕。头显设备的的 CPU 和GPU 处理能力比 PC 差很多,仔细想一下,这次apple vision pro直接上了一个M2+R1芯片。
一个M2芯片就比目前不少人的电脑CPU都要好不少了吧~另外的R1 芯片处理来自 12 个摄像头、5 个传感器和 6 个麦克风的输入;苹果放弃英特尔自己开始搞CPU后就彻底赚麻了。
而除此之外,还有一个重点技术就是眼球追踪!其实90年代初咱们的西安电子科技大学就在这方面有很棒的研究了!传统的电极法就不说了,目前基本都是采用非接触的方法进行眼球追踪:瞳孔-角膜反射、普尔钦像法(普尔钦像是眼球的角膜、晶状体等若干光学表面发生光反射形成的图像)和3D模型法。
相对来说普尔钦像法更好一些,图像产生畸变的原因是不同凸透镜的球面位置的焦距不同,远离中轴线的光线焦急越短,根据凸透镜的成像原理,焦距 f 越短放大倍数越大,所以远离中心点的图像看上去就越被拉伸,所以通过凸透镜放大后的物体,人眼看到的虚像会产生一个枕形畸变的效果,所以不少头显带着眩晕也有这个原因,普尔钦像法就能尽量模拟人眼真实情况。
当下主流的眼球追踪仪采样速率都是50~60Hz,少部分厂家采用250以上高采样速率,采样点基本都在水平+/-45°垂直+/-35°。这样的采集数据速度,随着使用时间的增加,就会马上积累大量的采集数据,对采集数据进行存储是一件很困难的事情。
apple vision pro在内部眼眶的位置搞了一圈红外相机和LED矩阵,配合M1+R1的强大计算能力,就是为了捕捉面部结构、眼部动作。
至于看到不少数码大佬去Apple Park小黑屋体验apple vision pro都提到了,会用iPhone前置镜头扫描人脸,然后再带头上扫描,至于有没有用到其他什么自研黑科技,就得看后面苹果那边会不会解密了~
明年1月北美开放购买,所以在此期间期待苹果再多加一些新技术和改进,也期待华强北强势跟进!
关键词:
Copyright 2000-2023 by www.jiaoyu.yzbytv.com all rights reserved
邮箱 : 5 516 538 @qq.com