近期,海外VR开发人员Antony Vitillo在其博客Skarredghost中分享了一则消息:Android XR将允许开发人员调用透视相机数据,并贴出了谷歌发言人的邮件回复信息:
与任何Android应用类似,开发人员可以在获得用户许可的情况下使用现有的摄像头框架进行XR开发开发人员可以请求camera_id=0作为主面向世界的摄像头流。这对应于标准Android用语中的“后置摄像头”。同样,开发人员可以请求camera_id=1作为主自拍摄像头流。这对应于“前置摄像头”。这两个流都通过标准Android相机API访问,即Camera2和CameraX为了访问面向世界的摄像头源(类似于智能手机上的后置摄像头),应用程序必须请求相机权限(类似于手机上请求的相机访问权限)当应用程序请求自拍相机时,它们会收到包含用户头像的图像流。此头像视频流由头戴设备上的头像提供程序应用程序/服务生成。这些应用程序根据来自OpenXR API的用户跟踪数据(例如头部、手、眼睛、脸部)生成流。此跟踪数据是从监控用户动作和面部表情的物理内置摄像头获得的。无独有偶,去年Meta Connect大会期间,Meta也宣布将于今年开放透视相机Passthrough API接口,此举最大的价值在于可以解除开发人员束缚,从而构建更多真正的MR体验。

来源:Skarredghost