AI和AR特性:
关于全新的A11 Bionic芯片,另一个惊艳之处在于首次引入了面向AI计算的双核神经网络引擎单元。
苹果今年为iOS生态推出了ARKit的开发套件,手机融合AR乃至AI的趋势已经越来越明显,A11 Bionic芯片推出也再次证明了这个方向。
苹果在发布会上称其为“A11 Bionic”(A11仿生)芯片。虽然苹果没有像华为那样直接用“AI”这个火热字眼,但几乎没有人否认A11的移动AI芯片属性。苹果A11 Bionic内置的神经网络引擎主要用来处理一些人工智能方面的算法,比如AR场景识别里的计算机视觉算法。在我们测试的AR应用里,iPhone 8 Plus能更快的识别出场景,比如最常见寻找平面。不过在AR应用中还是感觉到了背部双摄区域稍微明显的发热,所以说AR应用将对续航造成明显影响。
苹果的ARKit拥有强大计算机视觉算法,可以单单通过单摄像头就能够获取一定较为理想场景信息,而全新的iPhone 8 Plus前后摄镜头也均未配备像iPhone X“刘海”处用于3D深度测算的传感器,所以无法构建更精确的深度环境场景,这样一来iPhone 8系列和iPhone X后置镜头在应对AR应用的某些场景时就会存在较大误差,比如我们用AR尺子进行较远距离或较偏角度测量时,经常出现识别错误的状况。
笔者分析下来,苹果在iPhone 8/iPhone 8 Plus乃至iPhone X的后摄并未加入3D深度传感器,很大原因在于目前手机AR生态尚处于起步阶段,而这时候要塞入更多传感器在设计和续航上都需要重新博弈,毕竟后摄深感组件的功率要足够大才能获取更多数据来构建更真实精确的场景应用。
苹果在iPhone X的前置镜头区域才是真AR的硬件,3D深度系统带来的Animoji实时表情就是个例子。而用户要得到配备3D深感的更强AR体验可能得等到下一代iPhone。
评论 {{userinfo.comments}}
{{child.content}}
{{question.question}}
提交