http://www.kblhh.cn 2026-02-02 10:17 來源:優(yōu)必選科技
過去一年,以人形機器人為代表的具身智能在實驗室中的“場景理解”與“任務(wù)規(guī)劃”上進展顯著,但面對真實的工業(yè)產(chǎn)線任務(wù)時,往往面臨“想得到但抓不準(zhǔn)、算得出但跟不上”的困境。這背后,是長期橫亙在實驗室環(huán)境與真實應(yīng)用場景之間的鴻溝:人形機器人在空間層面的度量失準(zhǔn)與時間層面的響應(yīng)遲滯。

基于百億參數(shù)底座模型,優(yōu)必選對其具身智能大模型Thinker進行了架構(gòu)升級。本次升級聚焦“小參數(shù)、高性能、全開源”,旨在打造一個能為工業(yè)人形機器人提供快速反應(yīng)與精準(zhǔn)空間感知的下一代具身智能大腦,以應(yīng)對動態(tài)工業(yè)場景的挑戰(zhàn)。Thinker將作為智能基座,為優(yōu)必選的群腦網(wǎng)絡(luò)和協(xié)作智能體Co-Agent提供認(rèn)知與決策支持,進而驅(qū)動單機自主與群體智能的協(xié)同進化。
Thinker 實現(xiàn)了 “小體積大能量” 的關(guān)鍵性能突破,優(yōu)必選此次將其開源,讓廣大開發(fā)者可基于該基座探索人形機器人大腦的應(yīng)用,一同加快具身智能技術(shù)的迭代節(jié)奏,攜手共建人形機器人的全新未來。
小參數(shù)+高性能+全開源
狂攬9項基準(zhǔn)全球第一
當(dāng)前,機器人領(lǐng)域大模型表現(xiàn)欠佳,尤其在空間理解、視覺感知等關(guān)鍵任務(wù)上精度不足;且模型參數(shù)量普遍較大,難以滿足機器人對實時性的高要求;其次,互聯(lián)網(wǎng)上雖有海量數(shù)據(jù),但質(zhì)量參差不齊,制約了模型通過Data Scaling 實現(xiàn)性能有效提升。
優(yōu)必選具身智能大模型Thinker以“小參數(shù)、高性能、全開源”突破具身大腦領(lǐng)域限制。近日,在涵蓋10B以下具身智能大腦模型的權(quán)威基準(zhǔn)評測中,Thinker一舉拿下9項第一,重新定義了該領(lǐng)域的性能標(biāo)桿。這些基準(zhǔn)全面評估了具身智能的兩大核心能力:一是機器人第一視角下的場景認(rèn)知與任務(wù)規(guī)劃能力,二是支撐物理交互的精準(zhǔn)感知與空間理解能力。
該權(quán)威榜單囊括了英偉達、字節(jié)跳動、北京智源及北京人形等頂尖團隊近期發(fā)布的代表性模型,集中體現(xiàn)了具身智能行業(yè)的前沿水平。

優(yōu)必選具身智能大模型Thinker
在9項權(quán)威基準(zhǔn)評測中排名全球第一
(數(shù)據(jù)更新至01/30/2026,結(jié)果基于flageval, evalscope框架評測)
從海量數(shù)據(jù)到高質(zhì)量“大腦”
Thinker的數(shù)據(jù)轉(zhuǎn)化之道
具身智能的核心競爭力根植于高質(zhì)量數(shù)據(jù)的支撐,但行業(yè)普遍面臨原始數(shù)據(jù)噪聲大、多模態(tài)對齊困難、標(biāo)注成本高、小樣本泛化難等痛點。優(yōu)必選以數(shù)據(jù)為核心,構(gòu)建了覆蓋"精煉提純 - 自動化標(biāo)注 - 數(shù)據(jù)驅(qū)動訓(xùn)練” 的全鏈路解決方案,通過極致的技術(shù)優(yōu)化破解行業(yè)難題,為輕量化具身大模型的高性能表現(xiàn)筑牢數(shù)據(jù)基座。

優(yōu)必選具身智能大模型Thinker技術(shù)架構(gòu)圖
從20B 到 10M
多模態(tài)數(shù)據(jù)的 “精煉提純” 流水線
面對高達20B、含噪聲、難對齊、模態(tài)缺失的原始數(shù)據(jù),優(yōu)必選構(gòu)建了全流程自動化“精煉提純”流水線。通過“數(shù)據(jù)篩選”與“質(zhì)量評分”兩步,實現(xiàn)從20B到10M級別高質(zhì)量數(shù)據(jù)的極致提純。
廣度篩選:基于定制化規(guī)則,從視覺、語言、動作、環(huán)境等多模態(tài)數(shù)據(jù)中,快速過濾出約1%的候選數(shù)據(jù)池。
深度評分:引入大模型構(gòu)建多維度評分模塊,從質(zhì)量、任務(wù)、場景等多維度進行精細評價,最終篩選最高價值的訓(xùn)練數(shù)據(jù)。
自動化標(biāo)注閉環(huán)
人工參與率<1% 的高效方案
針對具身數(shù)據(jù)標(biāo)注難度大、成本高的行業(yè)痛點,優(yōu)必選搭建了 “弱監(jiān)督 + 自監(jiān)督 + 少量人工校驗” 的自動化標(biāo)注體系:
核心技術(shù):采用 “大模型輔助標(biāo)注 + 多模型交叉驗證” 策略,對視覺場景分割、動作序列分類、指令意圖解析等任務(wù)實現(xiàn)端到端自動化標(biāo)注;
人工校驗機制:僅對標(biāo)注置信度低于閾值的樣本進行人工復(fù)核,最終將人工參與率控制在1%以下,較傳統(tǒng)全人工標(biāo)注方案成本降低 99%,標(biāo)注效率提升超百倍;
動態(tài)迭代優(yōu)化:將模型訓(xùn)練后的誤差反饋至標(biāo)注流水線,持續(xù)優(yōu)化標(biāo)注算法參數(shù),形成 “標(biāo)注 - 訓(xùn)練 - 反饋 - 迭代” 的閉環(huán),標(biāo)注準(zhǔn)確率隨迭代逐步提升。
Data-centric 核心優(yōu)勢
小樣本撬動強泛化能力
具身智能的核心需求是 “在復(fù)雜真實場景中精準(zhǔn)交互”,而數(shù)據(jù)質(zhì)量直接決定模型的環(huán)境適配與任務(wù)遷移能力。優(yōu)必選的訓(xùn)練范式以下三個核心維度系統(tǒng)保障模型的泛化與遷移能力:
樣本多樣性覆蓋:基于精煉的10M高質(zhì)量數(shù)據(jù),全面覆蓋具身智能四大核心任務(wù)類型:任務(wù)規(guī)劃, 視覺定位,空間理解,通用知識;
任務(wù)導(dǎo)向型采樣:針對具身智能 “感知 - 決策 - 執(zhí)行” 閉環(huán)中的關(guān)鍵環(huán)節(jié)(如精細操作、模糊指令理解、突發(fā)場景應(yīng)對),進行樣本動態(tài)采樣,提升模型核心能力;
L4級標(biāo)注標(biāo)準(zhǔn): 通過設(shè)計精細的4級數(shù)據(jù)標(biāo)簽,從任務(wù)-功能-分類-模態(tài)4個維度進行精確劃分,實現(xiàn)對訓(xùn)練數(shù)據(jù)配比的精準(zhǔn)把控。

Thinker訓(xùn)練數(shù)據(jù)類型分布
轉(zhuǎn)動數(shù)據(jù)飛輪
驅(qū)動模型持續(xù)進化
依托具身智能大模型Thinker的技術(shù)積淀,優(yōu)必選創(chuàng)新性打通數(shù)據(jù)回流機制,通過在工廠搬運、工件分揀等真實場景中的深度部署,確保技術(shù)優(yōu)勢轉(zhuǎn)化為落地優(yōu)勢,并反哺模型持續(xù)進化。包含:
基礎(chǔ)能力深度解析
詳細拆解模型多模態(tài)理解、空間推理、任務(wù)規(guī)劃等核心能力,明確不同具身場景下的能力邊界與適配閾值,為下游應(yīng)用提供精準(zhǔn)的技術(shù)參考。
精準(zhǔn)問題定位指南
提供場景化問題診斷方法論,針對落地中常見的指令理解偏差、操作精度不足等問題,給出可直接套用的排查流程與解決方案。
實操優(yōu)化全流程指導(dǎo)
涵蓋Prompt工程精細化優(yōu)化技巧,以及SFT微調(diào)階段的數(shù)據(jù)構(gòu)造規(guī)范、不同任務(wù)類型樣本比例配比建議,助力快速完成場景適配。
雙向數(shù)據(jù)回流機制
回收下游場景中的全新數(shù)據(jù)、新興任務(wù)需求及交互反饋,將其轉(zhuǎn)化為模型可學(xué)習(xí)的訓(xùn)練資源,反向注入Thinker迭代過程,持續(xù)擴展模型基礎(chǔ)能力與泛化性。以工廠搬運為例,系統(tǒng)持續(xù)收集實際作業(yè)中的長尾案例數(shù)據(jù),如料箱識別失敗、抓取軌跡動態(tài)調(diào)整等。這些真實場景數(shù)據(jù)直接反哺 Thinker 模型的訓(xùn)練,推動其自主進化,不斷增強基礎(chǔ)性能與場景適應(yīng)能力。最終基于Thinker大模型,Walker S2可在箱體搬運、工件分揀等下游應(yīng)用場景中實現(xiàn) 99.99% 的作業(yè)準(zhǔn)確率。

具身智能大模型Thinker的應(yīng)用閉環(huán)
當(dāng)前,具身智能正加速滲透工業(yè)智造、商用服務(wù)等千行百業(yè),但技術(shù)門檻與成本限制成為行業(yè)普及的關(guān)鍵瓶頸。優(yōu)必選堅持開源共享理念,將模型權(quán)重、訓(xùn)練工具鏈與應(yīng)用案例全量開放,希望與更多開發(fā)者和企業(yè)共同擁抱具身智能的浪潮。