王興興:具身智能GPT時刻或需2-3年,泛化能力不足是核心挑戰

藍鯨財經
昨天

出品|派財經李唐

3月17日,在2026亞布力論壇上,宇樹科技創始人王興興發表主題演講。演講中,王興興拋出了兩項關鍵判斷:

一方面,他預計到今年年中的時候,全球尤其中國人形機器人應該會跑得比人還快,比博爾特更快一些,百米衝刺的速度應該可以跑到十秒以內;

另一方面,他認為具身智能行業距離真正的「GPT 時刻」仍需 2-3 年,只有當機器人能在80%陌生場景中僅憑語言指令完成80%任務時,賽道纔會迎來爆發式增長。

他同時指出,運動能力是機器人落地真實場景的前提,而模型泛化能力、數據效率與強化學習規模效應,仍是制約行業跨越臨界點的核心瓶頸。

以下是公司研究室對王興興演講內容的整理,在不改變原意的前提下,進行了一定程度的增刪修改:

初心與歷程十年磨一劍

宇樹科技過去10年,一直專注於高性能足式和人形機器人的自主研發,從足式機器人到人形機器人,從實驗室研發到行業實際應用,我們始終在做一件事情,就是讓機器人從能走到真正成為智能生產力的一部分,這也和我們長期專注的發展理念相契合。

宇樹科技是2016年成立的,到現在差不多快10年的時間。我本人最早接觸機器人研發,是在上海讀碩士期間,當時做的XDog這款機器人,開創了目前全球範圍內低成本、高性能足式機器人技術方案的先河。

其實我接觸人形機器人研發的時間更早,2009年我剛上大一,第一個寒假就做了一款小的雙足機器人,那也是我做的最早的一款機器人,當時只花了200元人民幣,算下來我在機器人行業其實已經做了十幾年的時間。

產品突破

從小巧靈活到工業級應用

我們2023年開始正式研發仿生人形機器人,2024年發布的第二代人形機器人,在2024到2025年取得了全球非常矚目的成績,這款機器人也是目前全球出貨量最多的人形機器人,去年加起來在全球範圍大概出貨了5000台。

這台機器人最大的特點就是體型相對小巧,大概只有1.3米高,同時更加輕量化,關節自由度和靈活性都非常好,不管是中國還是海外市場,大家能看到的、大部分客戶在使用的人形機器人,基本上都是我們這款產品。

去年我們還發布了新一代的機器狗,這款是面向工業級應用的,相比我們之前發布的產品,這款屬於中型款,具備防塵防水的特性,續航時間也非常長,充滿電空載續航可以達到20幾千米,硬指標方面處於全球領先水平。

同時我們還發布了新一代更小巧的人形機器人,目前售價大概3萬元人民幣左右,在全球市場上非常有競爭力。

去年我們還發布了新一代的人形機器人H2,這款機器人尺寸更大,大概1.8米高。

目前市場上出貨量高、大家用得比較多的還是我們那款小的人形機器人,因為它用起來更方便、更安全,但在工業場合,甚至未來的農業場景中,機器人需要做一些體力勞動,這就對機器人的尺寸和手臂力量有了更高的要求,H2就是針對這類場景研發的。

當然更大的機器人也有個小缺點,因為力氣比較大,看起來會有點嚇人,所以大家看到1.7米或者1.8米的人形機器人,最好還是保持兩到3米的安全距離。

生態理念讓技術真正普及

我們始終相信,想要讓一項技術真正普及起來,就像當年的手機和電腦一樣,最大的挑戰之一就是要讓更多人用起來、更多人採購,讓更多的開發者參與進來,大家共同努力把這個行業做好。

大家都知道,二十幾年前個人電腦剛出來的時候,對普通老百姓來說其實沒什麼實際用處,最早大家用電腦也大多是打遊戲。

目前的人形機器人其實也處於這個相對早期的階段,現在就讓它在家庭或工廠裏大規模應用還不太現實,但目前不管是娛樂場景還是一些商業場景,人形機器人其實已經開始落地使用了。

我們的目標也很簡單明確,就是希望全世界的開發者都能在我們的平台上參與研發,讓每年、每個月都有更多的應用和軟件被開發出來,這樣機器人的能力、功能會越來越強,受衆也會越來越多,整個行業的規模體量也能快速發展。

運動能力突破從走路到功夫

去年8月份,我們參加了北京人形機器人運動會,這也是全球首屆人形機器人運動會,我們拿下了1500米、400米、4×100米障礙賽的冠軍,是全場獲得冠軍數和總獎牌數最多的公司。

當時參賽的這款機器人最快速度能達到五點幾米每秒,雖然100米還跑不過人類,但1500米能跑到六分多鐘,基本上比我們公司所有人都跑得快。

我預計再過幾個月到年中,全球尤其是中國的人形機器人,百米衝刺速度就能超過人類,甚至比博爾特更快一些,跑進10秒以內,這是我覺得今年很快就能實現的事。

另外,去年我們也完成了機器人軟件的諸多升級,實現了機器人在任意動作情況下的自主恢復,我始終認為,大規模的機器人普及,必然要求它具備極高的穩定性,如果一台機器人連走路、跳舞都做不好,就根本不可能實現大規模應用。

所以我們在機器人穩定性上做了大量的完善工作,比如機器人在做各種動作時摔倒後能自己恢復,這也是我們的機器人能登上春晚,完成20幾台機器人全自動錶演的原因,春晚的表演對機器人的穩定性和動作一致性要求非常高,而我們的技術正好能滿足這個要求。

現在我們的機器人還能通過數據採集和AI訓練,學會人類能做的各種動作,大家如果有空的話,也可以去我們的展區看看更多機器人的展示。

最近幾年我們在機器人AI領域,尤其是具身強化領域取得了比較明顯的進步:2023年的時候,機器人大概只能簡單走路、簡單跑一下;2024年就能完成一些相對複雜的舞蹈動作;2025年最大的升級就是實現了功夫模式,機器人可以打各種功夫。

理論上來說,現在我們1.8米的人形機器人,普通人其實已經打不過了,能看到人形機器人的技術進步非常顯著,今年還會有更多的精彩成果和大家見面。

春晚亮相科技與文化的全球傳播

今年春晚我們的機器人舞蹈節目也取得了很好的成績,節目裏我們讓機器人復刻了很多複雜的動作,比如單腿的連續空翻、兩步上牆,這些動作對機器人的硬件和穩定性要求都非常高。

這個節目不僅在國內備受矚目,在海外的關注度也非常高,那一周海外的各類網站基本都被這個節目刷屏,很多國家的官方電視台也做了相關報道。

我們在義烏分會場的節目還結合了中國的傳統文化形象,這個機器人功夫節目,不只是科技的呈現,更多的是中國傳統文化的呈現,中國功夫在海外有很高的認可度,所以這個節目也是中國文化出海的一個很好的載體。

為了登上春晚這個舞台,我們對機器人也做了很多改進:比如在機器人頭部加裝了128線的3D激光雷達,提升了機器人在複雜場景下的定位能力;訓練了預訓練的RL模型,讓機器人的各種動作能實現複雜的銜接。

目前市面上其他廠家的AI訓練模型,動作是不能隨意切換的,機器人在做一個動作時沒法中途暫停,必須把動作做完,但我們目前的算法可以實現動作中途直接暫停,暫停後還能切換到任何動作,大幅提升了動作組合的靈活性,我們還開發了機器人全身的協調能力。

還有一個很有趣的點,我們為了春晚節目開發了集群定位和跑位的算法。

之前2025年初春晚的機器人表演,機器人是慢慢走上來的,視覺效果不夠好,所以這次我們做了跑位算法,讓機器人在變隊形的時候可以跑步上去,讓動作的銜接更自然,而且這個視頻是沒有加速的,機器人的走位速度很快,還能變換各種隊形。

全身遙操作系統數據採集與遠程操控

前段時間我們還開發了一款更小巧的機器人機構,基本上我們每年都會推出一兩款新產品。

去年下半年我們還開發了全身遙操作系統,之前機器人的很多表演,包括武術動作,都是提前預訓練的,先採集人的動作再進行AI訓練,和舞蹈節目一樣是提前編排好的,動作不能隨時變化,而這套全身遙操作系統可以實現動作的實時變化,人在做什麼動作,機器人就能同步做什麼動作。

這個技術有兩個非常實用的功能:第一個是能實現人形機器人大規模的數據採集,現在的AI都是靠數據驅動的,數據的質量和數量直接決定了AI的能力,而目前人形機器人的相關數據非常稀缺,通過這套系統,我們可以部署大規模的數據採集。

如果今年年底之前能部署幾千台甚至1萬台人形機器人,每天採集十個小時的數據,那未來一兩年甚至兩三年,人形機器人的數據稀缺問題就能得到徹底解決。

第二個實用功能是可以實現機器人的遠程操控,比如我在外地,就可以直接控制杭州的一台機器人,這樣甚至都不用回公司上班,不過目前這個技術還面臨着通信延遲等一些挑戰。

工業落地從試點到自產自造

可能大家覺得我們的機器人更多是出現在表演場景,但實際上過去幾年,我們的機器人已經在工業領域做了很多部署和試點落地應用。

比如我們的機器人已經能在自己的工廠裏裝配機器人的關節電機,我們始終相信,未來當機器人真正實現普及應用時,我們的工廠裏會是機器人自己生產自己,這會帶來生產力的大幅提升。

過去幾年我們還和一些頭部的汽車公司展開了合作,不過這個領域目前在全球範圍內還都處於試點階段,因為機器人的工作效率和成功率還面臨着不少挑戰,目前的AI能力還需要進一步提升。

核心理念運動能力是幹活的前提

我們公司一直貫徹的邏輯就是運動和幹活並行推動,因為我們相信運動能力是機器人真正能幹活的先決必要條件。

未來人形機器人想要在家庭或者農業場景真正普及應用,連跳舞、打功夫都做不到是不可能的,這就和人類的運動員一樣,運動能力越強,幹活的能力也會越強,當人形機器人的運動能力足夠豐富,能做各種各樣的動作時,我們只需要把這些動作組合在一起,機器人就能完成各種工作任務。

行業進步全球共創的成果

過去一兩年,在很多客戶的共同努力下,整個人形機器人行業的技術都取得了快速進步,去年全球範圍內的人形機器人技術都有顯著提升。

我們公司能有這樣的進步,很大一部分原因是全世界有非常多的客戶,包括一些頂尖的科技公司、實驗室和高校,都在使用我們的機器人開發各種軟件,英偉達還開源了很多相關軟件,這些都推動了整個行業的技術進步,今年行業的技術還會繼續快速發展。

在未來,如果真正的AI具身智能達到一個臨界點,我們公司的機器人出貨量可能會一下子飆升到一年幾百萬台,這是非常有可能的。

目前行業的發展靠的是全球大家共創的努力,並不是某一家公司的單獨貢獻,是全球從業者的共同努力,加速了整個人形機器人行業的技術迭代。

仍需2-3年時間具身智能「GPT時刻」

最近幾年,不管是機器人領域還是中國的AI領域,都取得了非常明顯的技術進步。

我個人印象比較深的是今年1月份字節跳動發布的Seedance2.0視頻生成軟件,這款軟件的效果非常好,是目前全球最好的視頻生成軟件,沒有之一,在全球範圍內遙遙領先。

我相信在未來幾年,具身智能的軟件也能實現這樣的技術突破,但目前來說還差一點火候,想要讓具身智能或者機器人迎來屬於自己的GPT時刻,還面臨着一些挑戰,其中最大的挑戰就是目前AI模型的泛化能力不夠。

具身智能的真正GPT時刻目前還差一點火候,但我覺得也快了。

目前行業裏有些人比較樂觀,預估18個月就能實現,我可能稍微悲觀一點,覺得至少需要兩到3年的時間,但這個過程肯定也會非常快。

我個人對具身智能的GPT時刻做了一個簡單的定義:未來如果有一天,一個機器人的AI模型,可以在80%左右的陌生場景中,通過語言和文字指令,實現80%的任務,那就差不多達到了具身智能的GPT時刻。

比如說,我把一台人形機器人帶到一個它完全沒有見過的場景,它也不認識場景裏的人,我跟它說"幫忙把這瓶水帶給某人"或者"幫忙找一支筆過來",它能完全自主地完成這些任務,不需要提前建圖,也不需要提前預設程序,那我覺得就真正實現了具身智能的GPT時刻,整個行業也會迎來真正的爆發期。

技術路線世界模型與VIA模型

目前整個人形機器人行業在全球範圍內非常火熱,最近幾年也取得了很大的技術進步,但同時也面臨着不少的挑戰。

目前全球範圍內具身智能或者機器人領域的模型進步,主要有兩個流派:一個是VIA模型,就是在語言模型或者文字模型的基礎上,再把機器人模型加進去;還有一個是世界模型,大家可能也聽過,就是通過對世界的預估來建模,再推動機器人的動作實現。

我個人覺得世界模型,包括基於視頻生成的世界模型,都是非常有發展可能性的,這也是我們去年開源了基於視頻生成的世界模型的原因,我個人非常看好基於視頻生成的世界模型的發展。

如果讓AI生成模型生成一個機器人在家裏幹活的視頻,當視頻的質量足夠好時,只要把視頻裏的動作投射到機器人上,機器人就能完成相應的幹活任務,這個想法非常簡單直接,但目前還面臨着一些挑戰,最大的挑戰就是視頻裏的動作和機器人的實際動作沒辦法很好地對齊和統一,這也是目前全球行業都面臨的最大挑戰。

一旦視頻生成的動作和模型能與機器人實現統一,這個問題就能從根本上解決,機器人計算模型也就基本上可以誕生了。去年我們也開源了一個基於VIA模型的相關技術,目前全球範圍內做這個流派的人也更多一點。

核心挑戰泛化能力不足

目前對於機器人來說,如果是提前訓練過的一個或幾個場景,它的工作成功率基本上能達到100%,但如果換一個陌生場景,成功率就會大幅下跌,所以我們必須提升人形機器人或具身智能的泛化能力。

首先要提高模型的表達能力,如果模型本身的表達能力或者能實現的動作豐富度不夠,泛化能力自然也無從談起。

其次要提高對數據的利用率,語言模型或多模態模型有互聯網上的大量數據作為支撐,但機器人領域的相關數據非常稀缺,所以我們要在有限的數據情況下,儘可能提升數據的利用率,這對整個行業都非常有價值。

第三,強化學習的一些泛化效應也需要進一步提升。

為了解決上述的這些問題,最關鍵的一點還是要全球合作。

現在的AI或者機器人的發展,都不是靠單家公司能實現的,尤其是AI領域,目前都是全球共創的結果。

過去幾年大家能看到,AI領域的發展就是這家公司今天做出一點貢獻,那家公司明天取得一些突破,所以最關鍵的還是通過全球合作,共同推動這個產業的進步。

試想一下,在當下的AI和具身智能機器人時代,如果再早個5年或者晚個5年,其實都不會有這麼好的發展機會。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10