欧博谷歌眼镜,要靠AI+AR再赢一次?
2025-04-25 09:51 谷歌眼镜,欧博要靠AI+AR再赢一次?
本文来自微信公众号:,作者:AI硬件组,编辑:冬日果酱,原文标题:《谷歌入局AI眼镜!昔日智能眼镜鼻祖,要靠AI+AR再赢一次?》,题图来自:AI生成
文章摘要
谷歌在TED大会展示搭载Android XR和Gemini的AI眼镜,具备视觉记忆、实时翻译、AR导航等功能。其核心突破在于连续性感知与多模态交互,但Android XR系统面临生态碎片化挑战。AI+AR融合或成新趋势,但平台战争格局未定,谷歌需突破技术及用户习惯壁垒。
• 🧠视觉记忆突破:Gemini可记住用户瞥见的物体,实现跨时间问答。
• 👓AR显示革新:MicroLED屏幕叠加现实信息,支持导航、翻译等直观交互。
• 🤖系统生态布局:Android XR欲复制智能手机成功,但面临Meta、Rokid等自研系统竞争。
• 💬多模态交互升级:结合语音、视觉与空间感知,超越传统“打开App”逻辑。
• ⚔️平台战争隐现:AI眼镜厂商各自为战,谷歌需重新定义“系统”价值。
• 🚀未来场景潜力:眼镜或替代手机成为AI助手载体,实现无感化人机交互。
2025年的今天,AI眼镜越发成为焦点,或许我们可以大胆地猜测,未来的AI助手不是藏在手机App里,而是戴在你脸上、看你所看、答你所问。
4月举办的TED大会上,Google也给出了自己的答案。在TED官方上周最新发出的视频中,谷歌首次公开展示了搭载Android XR的AI眼镜,如何在Gemini AI的加持下如何运行:
不仅能听懂语言、即时翻译,还能“看见”世界,甚至记住用户曾看过的物体、识别书名、直接播放唱片上的音乐、叠加导航指引。
图/TED
这场现场演示,也再次引发了外界对于AI眼镜的广泛热议。诚然,这不是Google第一次做眼镜,也不是第一款AI眼镜,但它背后是Google最新构建的XR系统平台Android XR,也是Gemini大模型首次与现实空间深度融合的结果。
尤其在Meta、Rokid、雷鸟等厂商接连发布AI眼镜后,Google Android XR的这次“下场”,也被视作AI眼镜“平台战争”的新号角。但Android XR能够复制Android在智能手机市场的成功吗?或许很难。
Google做的AI眼镜,到底有什么不一样?
在TED放出演讲视频《The next computer? Your glasses》中,能够很明显看到Google打造的AI眼镜,很像一副普通眼镜。别误会,这是大势所向。
进行演示的Google AI眼镜,图/TED
不同于AR眼镜过去的张扬设计,今天AI眼镜追求的就是越像普通眼镜越好,以便于消费者在日常生活中无感地进行使用。包括Google这副看似朴素的智能眼镜,一开始或许不如Vision Pro那样炫技,但当AI开始真正“看懂”世界,它释放出的潜力,足够让人重新想象AI眼镜的未来。
其中最引发热议的,就是Gemini展示出的“记忆”能力。
我们可能都见过这样的演示:戴着AI眼镜对着某个画面询问AI。不过TED现场的演示中,Google不只是展示了这类实时响应,让Gemini看着现场写俳句(日本的一种古典短诗)。
但更让人惊喜的是,Google员工Nishtha Bhatia只是轻轻瞥了一眼身后的书架,然后背身再等了一段时间,才询问眼镜“后面架子上那本白色封皮的书叫什么?”,随后Gemini秒答:
那是詹姆斯·克利尔所著的《Atomic Habits》(中文版译名为《掌控习惯》)。
不仅如此,Gemini还能提前记住看过的信息,然后在之后的询问中直接告诉Nishtha Bhatia房卡放在了唱片旁边。相比之前AI眼镜只能“问答”或“识图”,Google这次展示的AI眼镜,在“连续性”和“上下文感知”方面,可以说迈进了新的维度。
这不是传统意义上的图像识别,而是近乎具备了“视觉记忆”的AI。用户视线已经离开,AI却“记住了”曾经看到的物体。换句话说,它也不只是识别“是什么”,而是真正能理解“你在问什么”。不过Google也留下了一些疑问:
AI眼镜上Gemini的“记忆窗口”能有多长?
但无论如何,这都是我们之前在所有AI眼镜中,没能看到的。当然,这主要还是得益于Gemini模型的能力,理论上随着其他第三方大模型的迭代和释放,其他AI眼镜也能实现。
AI眼镜=AI+AR,这也是Google的看法
TED现场的这场演讲之所以引发广泛关注,不仅因为Gemini的“记忆力”突破,更因为Google这次交出的,是一副具备AR显示能力的AI眼镜。
关注Google Project Astra项目的朋友可能还会记得,2022年谷歌官宣收购了一家名为Raxium的MicroLED显示屏公司,当时就引发了诸多猜想。而在TED演讲中,Google XR负责人Shahram Izadi就透露,现场演示的AI眼镜搭载了MicroLED显示屏。
Shahram Izadi展示AI眼镜显示屏,图/TED
从视频中的演示也可以看出,Gemini的交互界面直接出现在镜片中,不只是在耳边回应,还会透过光波导镜片展现在眼前。这种形态AI眼镜的优势,我们已经说过很多回:
核心在于纯语音交互天然存在体验上的障碍,而视觉+听觉的交互体验,更符合人类天生的认知和交互习惯。
还是拿Google的现场演示来说,Gemini能够在回复——不管是回答还是翻译直接呈现在眼前让人阅读,不仅作为观众的他者,就连进行演示的Nishtha Bhatia本人也能非常高效地了解信息,而不用等待Gemini的逐词念出。更不用说,嘈杂环境下,就连更靠近耳道的开放式耳机也很难,遑论AI眼镜。
除此之外,显示能力的加入也带来了更多的交互可能,比如最直接的就是——AR导航。通过将数字信息透过眼镜叠在眼前,Google AI眼镜能够进行在现实空间中进行为用户进行更直观的导航,包括实际的方向、距离和路线。
这种轻量化AR能力的加持,当然也不只是Google一家在做。
事实上,雷科技多次在AI眼镜报道中提到的Rokid Glasses就率先采用了这种AI+AR的路线,配备了双目AR显示,支持信息推送、空间导航、翻译字幕、AI对话等功能。另一边,Meta与雷朋(Ray-Ban)合作的下一代智能眼镜,也被英国《金融时报》爆料将在今年晚些时候加入AR显示功能。
但想要做好AI+AR显示,并不简单,其实背后蕴含的是对空间感知、视觉识别和语义推理的整合能力,同时也代表了AI眼镜从“语音驱动”跨越到“多模态交互”的重要节点。
Google欲再造Android奇迹,但很难
Google这次带来的AI眼镜背后,是一个新名字——Android XR。虽然披着Android的外衣,但它其实是Google为XR(扩展现实)设备打造的一套全新操作系统架构,主打融合语音交互、视觉感知和空间定位等能力。
换句话说,它不是给手机用的Android,而是Google想在下一代计算平台上,再复制一次Android的生态奇迹。
但现实是,今天的AI眼镜,不是15年前的智能手机。
回看AI眼镜行业的现状,我们几乎看到每一家头部厂商都在自研操作系统。Rokid自研了空间操作系统YodaOS-Master,这是专为空间计算与多模态AI交互设计的操作系统。Meta也有自己的Horizon OS,不仅强调空间操作系统定位,甚至计划向第三方开放。
YodaOS-Master,图/Rokid
简单来说,大家早已不再指望Android给XR提供答案。Google推出Android XR时,虽然能打出“兼容Android应用”的优势牌,但这张牌,现实里其实越来越轻了。
智能手机之所以需要操作系统标准,是因为它承载的是高频App使用场景:社交、支付、娱乐、地图……都需要一个稳定的生态容器。
但AI眼镜不是手机,它的核心交互逻辑并不依赖“打开某个App”,而是基于语音、图像和上下文理解的即时响应。在TED的演示中,我们也可以看到,用户不需要点击任何图标,不需要跳转任何应用——只要说出来、看过去、问一句,就能触发系统执行:
看到书架,问书名;
看向唱片,播放歌曲;
嘴里说“去哪”,导航就展开。
这些体验很多都不太依赖庞大的App生态,而更接近服务即操作、意图即执行的系统级协作。硬要说的话,Gemini或者说AI才是真正的关键。在这方面,Gemini很强,但还远不能“力压群雄”。
写在最后
从TED演示的那副眼镜出发,我们看到Google正试图用Gemini重构AI眼镜的交互方式,并借由Android XR再次发起一场平台级的进攻。它做出了真正“看得见”的AI眼镜,也带来了记忆、导航、翻译等一整套超越传统的体验。
但要构建一个真正意义上的平台,靠炫目的演示还远远不够。Android XR面临的不只是技术挑战,还有群雄的市场格局,以及用户交互迁移的巨大挑战。包括当用户不再“打开App”,而是与AI直接对话时,什么才是平台?
这也是Google此前所有XR项目始终未能落地的症结所在——它太擅长构建系统,却始终没找到下一个系统存在的理由。
但无论如何,AI眼镜确实展现了成为新一代个人计算平台的巨大潜力,至于Android XR能不能成为那个定义标准的平台,还是需要我们抱有耐心,见证历史。