IT之家 1 月 3 日消息,据 The Information 报道,苹果公司的混合现实头显将具有一个物理拨盘,用于将试图切换到现实世界,还带有小型电机,可自动调整其镜片。
该报道声称揭示了该头显的一系列以前闻所未闻的功能,包括:
在其右侧有一个类似数字表冠的小表盘,使用户能够在虚拟和物理世界之间快速转换。与 Apple Watch 不同,它不会提供触觉反馈。
虽然曾经有传言说该头显的头带会像 Apple Watch 的表带一样可以更换,但现在已经不是这样了,因为工程师们面临着头带作为头显的“电源管道”的技术挑战。
为眼镜佩戴者定制的处方镜片可通过磁力吸附。
小型电机可自动调整其镜片,以适配佩戴者的瞳孔间距离,为每个人提供尽可能大的视场。
120 度的视野,比 Meta Quest Pro 和 Valve Index 的 106 度视野要更大。
H2 芯片用于与第二代 AirPods Pro 的超低延迟连接。
搭载两个芯片,包括一个主 SoC,包括 CPU、GPU 和内存,以及一个专门的图像信号处理器。两者都是用 5 纳米工艺制造的,这些芯片通过一个定制的流媒体编解码器进行通信,由于不可接受的延迟,苹果被迫开发了这个编解码器。
专用的 ISP 将外部摄像头捕捉到的失真图像翻译成用户周围环境的忠实视频,并具有低延迟。该芯片包含由 SK 海力士制造的定制高带宽内存。
用户的输入预计将主要来自手势和语音识别。
The Information 还独立证实了彭博社、日经亚洲和 DigiTimes 等消息来源之前报道的功能的存在。
该头显在设备的正面包含一个大尺寸超外的显示屏,可以向周围的人显示头显佩戴者的面部表情,寻求减少使用该设备时的孤独感。
这个朝外的显示屏具有超低刷新率和低功耗的特点,很像 Apple Watch 和 iPhone 14 Pro 的全天候显示屏。
内部显示屏每只眼睛具有 4K 分辨率,使用的是索尼公司生产的 Micro OLED 面板,整体组成 8K 图像。
每只眼睛都由至少一个摄像头追踪,使头显能够准确地追踪用户是否盯着虚拟化身。眼球追踪还使头显能够进行凹陷渲染,以节省电力,只在用户看的地方直接渲染全分辨率的图像。
十多个摄像头和传感器捕捉面部表情和身体动作,包括用户的腿。苹果公司在开发机器学习来完成这一任务时,取消了捕捉眉毛和下巴动作的摄像头。
搭载短距离和长距离的 LiDAR 扫描器,可以在三维空间中绘制表面和距离。
报告称,苹果供应商和硕公司去年在上海附近的一家工厂组装了数千台头显的原型机,已经通过了多个原型机阶段,并进入工程验证测试。
此外,据四位知情人士向 The Information 透露,苹果公司已经讨论了该头显的定价,根据其配置,定价约为 3000 美元(约 20730 元人民币)或更高。产品采用了铝、玻璃和碳纤维等超优质的组件和材料,据说比刚刚发布的 Meta Quest Pro 更薄、更轻。
游戏预计不会成为该产品的主要用例,苹果“认为视频会议是一个潜在的杀手级应用”,使用数字化身进行虚拟对话。苹果公司内部的一些小组正在研究增强现实的教育内容,iPhone 应用程序也将以叠加的 2D 格式运行。
IT之家了解到,苹果公司的第一个混合现实头显的发布日期仍不清楚,预计将在今年的某个时候正式发布。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/665/359.htm]