【环球网科技报道 记者 张阳】12月9日,在谷歌举行的The Android Show发布会上,谷歌正式发布其XR硬件参考设计Project Aura,并同步披露Android XR操作系统的核心架构进展。这款由谷歌与中国AR硬件企业XREAL联合开发的设备,被官方定位为“迄今最接近Android XR理想形态的硬件实现”,更关键的是它首次赋予Gemini AI原生的空间感知能力,标志着大模型从“屏幕内智能”迈向“物理世界智能”的关键转折。
长期以来,尽管多模态大模型已实现文本、图像、语音的跨模态理解,AI仍被限制在二维交互界面中。而Project Aura的推出,意味着Gemini不再仅是响应指令的语言引擎,而是能够通过光学传感器实时构建环境语义地图、理解用户行为意图,并在三维空间中主动提供上下文服务的“空间智能体”。
谷歌在发布会上明确指出,Android XR的战略目标是打造一个开放、统一的扩展现实平台,让AI能够嵌入真实世界的光线、几何结构与人类活动流中。Project Aura正是这一愿景的具象化载体,被谷歌称为“Gemini AI的第一双原生空间之眼”。
XREAL凭借其在光波导、空间计算芯片与SLAM算法上的全栈自研能力,成为该项目的核心硬件合作伙伴。XREAL创始人兼CEO徐驰表示:“真正的AI Agent必须硬件化。眼镜作为离人最近、具备持续感知能力的可穿戴设备,是承载下一代智能终端的天然载体。其所产生的高维空间数据,将成为通向AGI的关键燃料。”
Project Aura 的技术突破集中体现在三大维度:
70°光学透视视场角(FOV)——消费级 AR 的实用上限:搭载XREAL自主研发的X-Prism光学系统,Project Aura实现了目前消费级AR设备中最大且可用的70°视野。这一参数不仅显著提升数字内容与物理环境的融合自然度,更使Gemini能够“看到”用户所见,实时识别物体、场景语义与操作流程。典型用例包括:厨房中随动作动态更新的AR食谱、机舱内悬浮的私密虚拟屏、客厅中无缝展开的沉浸式巨幕影院。
X1S空间计算芯片——专为空间AI优化的SoC:XREAL端到端自研的X1S芯片,集成专用NPU与低延迟视觉处理单元,构建起从传感输入到语义输出的高效推理链路。该芯片是Project Aura实现“本地化、实时化空间理解”的底层算力基础,也是其区别于通用移动芯片的关键所在。
Gemini与系统深度耦合——AI成为OS本身:Project Aura将多模态Gemini模型直接集成至Android XR底层,与摄像头、麦克风、IMU及环境传感器形成闭环。这使得AI不再以“应用”形式存在,而是作为操作系统级服务,提供连续、情境感知的交互体验。
尤为值得注意的是,ProjectAura的核心技术链高度依赖中国智造:X-Prism光学模组由中国团队独立研发并量产;X1S芯片完成从架构设计到流片的全流程自研;整机供应链扎根长三角,实现全球最快的硬件迭代周期。XREAL全球研发中心设于上海,正成为AI终端创新的重要策源地。
徐驰认为:“下一代计算平台无法由单一公司垄断。它需要操作系统、AI模型与硬件的深度协同,而中国凭借完整的制造生态与敏捷的工程能力,首次站在了定义全球标准的位置。”他强调,连接AI与物理世界的‘眼睛’,正在中国加速诞生。
根据官方路线图,Project Aura将于2026年正式商用。随着Project Aura的落地,XR行业或将迎来从“显示设备”向“空间智能终端”的迁移,而这一次,中国硬件创新力量,站在了舞台中央。