XREAL CEO 致社区:3D 空间的诞生故事、X1 芯片的核心细节,还有咱们的下一步(没错,60Hz 安排!)


XREAL 社区的朋友们: 我认真看了大家对于 3D空间 OTA 的所有反馈,不得不说——我和团队看到大家的热情,真的非常兴奋。看到你们以全新的方式重温最爱的动漫、电影和经典游戏,这正是我们做这件事的意义所在。

我想亲自来和大家聊点“幕后故事”,分享一下我们到底是如何实现这个功能的,以及为什么这对 X1 芯片来说仅仅是个开始。

核心秘诀:在于NPU

很多人问,我们是如何直接在眼镜上实现这种水平的 2D 转 3D,同时又不费电或依赖笨重的主机设备的。答案就在于 X1 芯片。

在 X1 内部,我们集成了一颗小巧但强大的 NPU(神经网络处理单元)。这让我们拥有了在设备端持续、高效运行 AI 模型的能力。通过彻底重构我们的渲染管线,我们借助这颗 NPU 实现了深度估计和 2D 转 3D,功耗和成本远低于传统的 GPU 方案。这是我们从头构建的全新技术,说实话,我们内部团队和你们一样激动!

这只是 V1.0 版本(60Hz 即将到来!)

请大家记住:这只是一个开始。我们把 3D空间 定位成一项会不断迭代优化的功能。我知道很多朋友都关心帧率 —— 这里跟大家同步个好消息,60Hz 支持已经在测试了!我们正在全力优化相关算法,预计很快就能发布给大家。

大家的反馈特别宝贵。无论是关于画面瑕疵、景深层次,还是特定游戏的兼容情况,欢迎随时告诉我们。我们会认真听取大家的反馈,也会持续进行优化和迭代。

聊聊“那些难啃的骨头”

我还想跟大家聊聊,为什么你在别的产品上看不到类似的功能,甚至连稳定、无漂移的 3DoF 都不一定有。

我们注意到,其他产品多依赖现成的芯片(比如新唐科技的方案)来处理基础的 3DoF。但实际情况是,这类芯片通常缺乏专用的 NPU,或者缺乏实时处理 AI 任务所需的强大算力。它们应付常规功能还行,但没有专门的神经处理能力,根本撑不起 3D空间 这样的功能 —— 这是硬件上的天花板,仅靠软件更新是无法突破的。

即便是基础的 3DoF,实现起来也比看起来难得多。大家在其他设备上经常遇到的“漂移”问题,根源往往在于校准。在 XREAL,每一台设备出厂前,我们都会在传感器层面进行深度的校准。没有这种严格的初始校准,后期想纯粹通过软件更新来“修复”漂移,是极其困难——甚至几乎不可能的。这是我们多年来构建的、一道“看不见的技术护城河”。据我们所知,目前我们在这方面仍然保持着显著的领先优势。

分享最惊艳你的 “3D空间” 瞬间

分享到这里,我有一个问题想问大家:2D 转 3D 能够看任何内容,我超级好奇你们觉得什么内容效果最惊艳? 是某款特定的经典游戏?视频网站上的无人机航拍视频?还是一张让你瞬间穿越回过去的家庭老照片? 欢迎在社区评论区留言,分享让你最惊艳的 3D空间 体验瞬间。(举的例子请注意尺度,避免被删帖😉)

我们会持续分享

我们始终认为,就算是表面看似 “简单” 的功能,背后都藏着扎实的技术积累。为了跟大家分享更多这方面的内容,我已经邀请工程团队定期来社区,给那些对技术细节感兴趣的小伙伴做深度分享。

谢谢大家陪我们一起乘风而上,我们还有更多惊喜等着大家!

此致,
徐驰