中國銀河證券:櫃內電源功率提升 推動液冷及零部件廠商技術升級

智通財經
03/20

智通財經APP獲悉,中國銀河證券發布研報稱,AI行業已經逐步從生成式AI時代跨入推理式AI時代和智能體AI時代,目前推理以及渠道訓練成為AI行業增長的核心計算需求。該行預計相關電源廠商單機櫃價值量有望得到較大提升。該行認為,配套Vera Rubin的將是能支持更大流量的液冷系統以及更新的冷卻架構,有望持續推動液冷解決方案及零部件廠商技術升級需求。

中國銀河證券主要觀點如下:

事件

北京時間3月17日凌晨,英偉達年度開發者大會(GTC 2026)在加州開幕。創始人兼CEO黃仁勳發表了主題演講,分享了AI行業發展趨勢,發布了公司最新一代Vera Rubin全棧AI算力平台系統,同時對機櫃電源、全液冷方案等新技術方向進行了展望。

行業進展

1)推理和智能需求是行業發展趨勢:AI行業已經逐步從生成式AI時代跨入推理式AI時代和智能體AI時代,目前推理以及渠道訓練成為AI行業增長的核心計算需求,過去兩年,這帶來了AI的計算需求增加了大約100萬倍。

2)吞吐效率及交互性/推理速度是AI工廠的核心指標:token成為AI工廠的核心生產資料。吞吐效率(token/watt)的核心是功率效率;交互性/推理速度即Token的生成速度決定AI的「智能程度」。

3)英偉達將2025年定義為「推理年」:全力優化AI推理全流程,降低客戶的AI基礎設施成本,成為全球成本最低、最可信的AI基礎設施平台。

公司收入預期

英偉達對2027年前的Blackwell和Rubin旗艦芯片產品線的數據中心營收展望樂觀,預計這兩款產品在計算和網絡領域的營收總額將超過1萬億美元,相較於公司2025年GTC大會披露的2026年前5000億美元的預期有顯著增長。

產品進展

1)正式發布Vera Rubin全棧AI算力平台系統:其中包括Vera CPU、Rubin GPU、Groq 3 LPU等七款計算及互聯芯片,同時涵蓋NVL72(計算)、Groq-3 LPX(優化解碼階段即輸出生成token性能)、獨立Vera CPU、BlueField-4 STX(存儲)、Spectrum-X(交換)五款機架。一套Vera Rubin全棧AI算力平台系統具體配置為,16架Vera Rubin NVL72,10架Groq-3 LPX,2架獨立Vera CPU,2架BlueField-4 STX存儲,10架Spectrum-X交換。

2)算力提升顯著:Vera Rubin AI算力平台系統的發布,讓算力在10年內提升了4000萬倍。

3)產能進展順利:微軟Azure已部署首台Vera Rubin機架;英偉達供應鏈已實現每周數千台的產能,每月可支撐多GW級AI工廠建設,同時並行量產Vera Rubin與GB 300機架。

電源進展

1)櫃內電源:根據Vera Rubin NVL72參考設計,該行預計VR NVL72將採用4組Powershelf, 每組Powershelf功率為110KW,由6個18.3KW電源,合計供電功率為440KW。對比GB200/GB300 NVL72的264KW供電功率提升較大,達60%以上。該行預計相關電源廠商單機櫃價值量有望得到較大提升。

2)櫃外電源:英偉達稱將全面普及800V高壓直流供電、CPO光互聯與高密度PCB,推動數據中心PUE降至1.1以下。

液冷進展

1)Vera Rubin採用100%液冷設計,Tray內無纜化設計,採用45℃熱水冷卻,這將減少機械冷卻中的壓縮步驟,可以帶來顯著的能源效率提升,降低數據中心冷卻成本,釋放更多電力用於計算;但與之對應的,更高的熱水溫度冷卻,需要更高的冷卻流量來帶走相同的熱量,該行預計配套Vera Rubin的將是能支持更大流量的液冷系統以及更新的冷卻架構,有望持續推動液冷解決方案及零部件廠商技術升級需求。2)Vera Rubin部署效率大幅提升,從傳統2天安裝縮短至2小時,該行預計將顯著提升可維護性;3)此次發布的Vera Rubin平台採用了較為傳統的液冷方案,該行認為後續隨着Rubin Ultra、Feynman等更高功率芯片的發布,微通道、微流控以及金剛石散熱等新技術方向值得持續期待。

風險提示

行業政策不及預期的風險;新技術進展不及預期的風險;原材料價格暴漲、企業經營困難的風險;海外政局動盪、貿易環境惡化的風險。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10