從藍牙到XR芯片:AI眼鏡的4種計算方案如何分工?
當(dāng)你戴上一副AI眼鏡時,它可能在幫你翻譯路牌、拍攝Vlog,或是在視野里疊加導(dǎo)航箭頭。但你是否想過,這些功能背后到底由誰來“思考”?實際上,AI眼鏡的計算能力并非千篇一律,而是像手機、電腦一樣,有一套清晰的“分工體系”。目前,市面上的AI眼鏡主要依賴4種計算方案,從低功耗的藍牙芯片到高性能的XR專用芯片,它們各懷絕技,適配不同場景。
方案一:藍牙音頻SoC——“輕量級選手”
代表功能: 語音助手、音樂播放、通話降噪
典型產(chǎn)品: 華為智能眼鏡2、界環(huán)AI音頻眼鏡
芯片舉例: 恒玄BES2700、高通QCC系列
這副眼鏡的核心是一顆藍牙音頻SoC(如高通QCC系列或恒玄BES2700),它像一位“極簡派管家”,專注處理音頻任務(wù):
- 本地能力:語音識別(如喚醒詞“小藝小藝”)、基礎(chǔ)降噪算法。
- 云端依賴:復(fù)雜指令(如“幫我訂一張去北京的高鐵票”)需通過手機或云端AI完成。
- 優(yōu)勢:功耗極低(續(xù)航10小時+),重量可控制在35克以內(nèi),成本僅需百元級。
局限:無法處理圖像或AR顯示,相當(dāng)于“能聽不能看”。
方案二:藍牙+外接ISP——“兼職攝影師”
代表功能: 第一視角拍攝、實時物體識別
典型產(chǎn)品: Ray-Ban Meta、閃極A1
芯片組合: 藍牙SoC(如展銳W517) + 獨立ISP(圖像處理器)
這類眼鏡在藍牙SoC基礎(chǔ)上外掛一顆ISP芯片(如索尼IMX系列傳感器配套ISP),分工如下:
- ISP:專職處理攝像頭數(shù)據(jù),完成1200萬像素照片拍攝或1080P視頻錄制。
- 藍牙SoC:負責(zé)音頻和簡單AI任務(wù)(如語音控制拍照)。
- 云端:AI識別(如“這是什么花?”)仍需上傳至Meta的Llama大模型處理。
優(yōu)勢:成本比純AR眼鏡低50%,重量僅40-50克,適合Vlog用戶。
代價:續(xù)航縮短至2-4小時,且無法本地運行復(fù)雜視覺算法。
方案三:專用XR SoC——“全能戰(zhàn)士”
代表功能: AR導(dǎo)航、3D物體疊加、實時翻譯字幕
典型產(chǎn)品: 雷鳥X2、Rokid Glasses
芯片舉例: 高通驍龍AR1、驍龍XR2 Gen 2
當(dāng)眼鏡需要顯示虛擬信息時,必須依賴XR專用芯片:
- CPU/GPU:渲染3D箭頭、虛擬屏幕(如FOV 30°的AR畫面)。
- NPU:本地運行AI模型,實現(xiàn)實時翻譯(如中文字幕疊加在英文菜單上)。
- ISP:同步處理攝像頭畫面,用于空間定位(SLAM)。
性能標(biāo)桿:驍龍AR1可驅(qū)動Micro-LED光波導(dǎo)顯示,亮度達2000尼特,但需350mAh電池支撐,重量增至60克+。
突破:2024年國產(chǎn)芯片如華為昇騰610開始替代高通,成本降低30%。
方案四:雙SoC架構(gòu)——“性能與續(xù)航的平衡術(shù)”
代表功能: 全天候AR辦公、工業(yè)級遠程協(xié)作
典型產(chǎn)品: 微軟HoloLens 2、李未可LAWK S3
芯片組合: 高性能SoC(如驍龍XR2) + 低功耗協(xié)處理器(如STM32 MCU)
- 分工策略:
- 主SoC:在需要時啟動AR渲染(如展示建筑BIM模型)。
- 協(xié)處理器:待機時僅維持傳感器數(shù)據(jù)(如陀螺儀、光線傳感器),功耗降低70%。
- 場景案例:工地工程師佩戴HoloLens 2,主芯片僅在查看圖紙時全速運行,其余時間由協(xié)處理器維持基礎(chǔ)功能,續(xù)航可達5-6小時。
未來:芯片的“融合”與“下沉”
- 融合:聯(lián)發(fā)科2025年將推出MTK XR Fusion芯片,集成5G、NPU、ISP于一體,單芯片解決所有需求。
- 下沉:Redmi計劃2026年發(fā)布199元AI眼鏡,采用國產(chǎn)展銳W319芯片,僅保留語音和基礎(chǔ)攝像功能,推動全民普及。
從藍牙的“單線程”到XR芯片的“多任務(wù)”,AI眼鏡的計算方案正像一場精密的交響樂——藍牙芯片負責(zé)低吟淺唱,XR芯片奏響高潮,而雙SoC架構(gòu)則讓旋律收放自如。下一次當(dāng)你戴上眼鏡時,不妨想想:此刻為你工作的,是哪一顆“大腦”?
AI/AR 智能眼鏡系列文章:
第一篇:AI眼鏡的“大腦”:SoC芯片如何讓智能眼鏡又輕又快?
第二篇:從藍牙到XR芯片:AI眼鏡的4種計算方案如何分工?