
有這樣一則消息在AI圈悄然流傳:DeepSeek研究員郭達雅已經離職。
大家第一時間的反應普遍是「誰?誰是郭達雅?」
這不難理解,因為郭達雅的知名度遠不如創始人梁文鋒以及「天才AI少女」羅福莉。
但是在學術研究以及對DeepSeek大模型的貢獻上,郭達雅要比後兩者高許多。
截止至發稿,郭達雅發表的論文已經被引用超過37000次,遠遠超過了同齡的研究者。
郭達雅的h指數為37,i-10指數為46,說明他不僅學術產出非常穩定,而且他還發表了多篇擁有極高影響力的論文。
甚至可以這麼說,只要你了解過郭達雅的研究方向以及他所主導的研究後,你就會認識到,當年之所以能出現DeepSeek時刻,郭達雅絕對功不可沒。
那他去哪了?目前有兩種說法,一種說是百度,一種說是字節。
實際上這兩年加入字節的這幾個大牛,周暢、鬱博文、蔣路,他們都是視頻方向的。
郭達雅不一樣,他是代碼智能和數學方向的,他剛好可以補強字節在Vibe Coding以及AGI這兩大板塊。
如果是去百度,那也說得通。文心快碼在3月份啱啱完成了4.0版本迭代,推出了多agent協同全鏈路開發的功能。
但是你知道文心快碼3.0是什麼時候發布的嗎?是2024年11月。兩個大版本中間相隔了一年多,這在以周為單位的AI圈是不太常見的。
這麼看下來,百度其實比字節更需要郭達雅。
然而對於遲遲不發布V4的DeepSeek,郭達雅的離職,無疑是雪上加霜。
01
郭達雅其人
郭達雅1995年出生於廣東珠海,2014年考入中山大學數據科學與計算機學院。大四時入選中山大學與微軟亞洲研究院聯合培養博士生項目,在印鑑教授和周明博士指導下攻讀博士學位,研究方向是自然語言處理。
2020年獲得微軟學者獎學金,這個獎項每年只授予亞太地區12名博士生。2023年博士畢業後,他加入DeepSeek擔任研究員,專注代碼智能和大語言模型推理。
郭達雅在博士期間的一個細節值得注意。他在微軟亞洲研究院實習時,分別在EMNLP和NeurIPS這兩個頂會發表了論文。
如果按照中山大學的畢業要求,郭達雅在博士入學的第三天,就已經完成了博士學位最難的論文發表要求。
他本人在接受採訪時也提到了這件事。那我們不妨挑一篇其中影響力最高的來一起過一遍。
2020年,郭達雅作為共同第一作者,在EMNLP 2020上發表了CodeBERT。另一位共同第一作者是哈爾濱工業大學的馮章印。
CodeBERT是首個將雙模態預訓練的效果做到跨語言通用的SOTA,它能同時處理自然語言和編程語言。在此之前,BERT等預訓練模型,雖然在自然語言處理領域取得了成功,但針對編程語言的預訓練模型研究相對匱乏。
CodeBERT的核心創新在於引入了替換標記檢測任務。傳統的掩碼語言建模只能利用配對的自然語言-代碼數據,而替換標記檢測借鑑了ELECTRA的思想,通過檢測生成器產生的似是而非的替代標記來訓練模型。
這使得CodeBERT能夠利用大量單模態代碼數據,大大擴展了訓練數據規模。模型在代碼搜索和代碼文檔生成任務上取得了當時的最優性能。

或者我換一種方式來描述,CodeBERT它能讓AI既能讀懂人類語言的需求描述,又能理解代碼的邏輯結構。比如你用中文說「給我找一個排序算法」,它就能幫你找到相關的代碼;或者你給它一段代碼,它能用人話解釋這段代碼在幹什麼。
雖然現在看來這沒什麼,可這篇論文是2020年發表的,在當時,代碼就是代碼,自然語言就是自然語言,這兩者之間隔着一條通天河。
因此,CodeBERT的出現,其實可以被看做是現如今Vibe Coding的開端。
加入DeepSeek以後,如果你要問郭達雅參與過的最有影響力的學術成果,那肯定是非DeepSeek-R1莫屬了。
但如果你要問排名第二的是哪篇,那我告訴你,答案不是DeepSeek-V3,而是DeepSeekMath。
DeepSeek-V3的技術報告引用數量為3890,而DeepSeekMath的引用數量為5182。
2024年2月,郭達雅作為核心貢獻者參與了DeepSeekMath的研發。這是繼郭達雅以第一作者身份發表DeepSeek-Coder後的又一力作,這個項目的目標是提升大語言模型在數學推理方面的能力。
DeepSeekMath的關鍵創新是引入了GRPO,即群體相對策略優化。這是近端策略優化PPO的一種變體。
傳統的PPO需要訓練一個獨立的價值函數模型,這增加了內存使用和計算開銷。
所以GRPO乾脆直接放棄了對獨立價值函數模型的依賴,轉而通過群體內的相對比較來估計優勢,因此降低了訓練資源需求。
GRPO的工作流程是這樣的:對於同一個數學問題,模型生成多個候選答案,然後根據這些答案的正確性進行排序,將正確答案的概率提高,錯誤答案的概率降低。
這樣一來,大模型在下次遇到類似問題就知道該怎麼做了。
這種方法不需要額外的價值網絡,只需要一個能夠驗證答案正確性的獎勵函數。在數學推理任務中,獎勵函數可以直接檢查最終答案是否正確。
相當於讓模型在判斷問題的時候,又快又準確,關鍵是還節省了內存佔用。
經過GRPO強化學習優化後的DeepSeekMath-RL 7B,在無外部工具、無投票集成的條件下,在MATH基準上取得了51.7%的成績,這和同期的Gemini-Ultra和GPT-4接近,在當時的開源大模型領域,已經非常難得了。
因此,GRPO在後來也被應用到了DeepSeek-R1的訓練當中。
02
郭達雅去哪?
其實如果咱們從技術貢獻的角度看,雖然梁文鋒、羅福莉的知名度更高,但是郭達雅對DeepSeek的貢獻要比他們倆都高。這點和公衆認知是相反的。
梁文鋒的作用是提供研究方向和資源支持。他在多篇論文中的署名位置通常靠後,表明他不是主要的技術貢獻者。
羅福莉雖然也參與了DeepSeek-V2的研發。不過從論文作者名單看,她的名字並沒有標註為核心貢獻者。
言歸正傳,在agent的本質,就是代碼理解(Code Understanding)、代碼生成(Code Generation)和程序綜合(Program Synthesis)這三件事。
而巧合的是,從CodeBERT開始,郭達雅的研究方向就是如此。
因此我認為,郭達雅的離職,對於DeepSeek來說,影響是非常大的。
除了前文提到的CodeBERT,郭達雅還主導了GraphCodeBERT和DeepSeek-Coder。

前者是讓AI能理解代碼中變量之間的依賴關係,比如說改了a會影響b,改了b又會影響c。這對代碼重構和修復Bug特別有幫助。
後者則是通過支持多種編程語言和更長的上下文,讓模型能一次性理解整個項目的代碼架構。DeepSeek-Coder-V2的代碼性能與同期的GPT-4 Turbo相當。
2024年的時候,字節從阿里挖走了周暢。周暢在阿里通義千問負責多模態相關研究,加入字節後擔任Seed視覺多模態負責人,主導Seedream和Seedance的研發。
2026年春節,周暢交出了在字節的第一份答卷Seedance 2.0,憑藉「導演級」的視頻生成能力在全球範圍內引發轟動。
現在,字節用同樣的方式挖走了郭達雅。周暢補強的是視覺多模態,郭達雅要補強的,是代碼智能和推理能力。
字節Seed團隊在2025年初經歷了一次重組。
吳永輝接管後,打破了模型部門間的數據壁壘,組建了三層架構:Edge團隊負責長周期的AGI課題,Focus團隊負責核心技術攻堅,Base團隊確保當前一代模型的穩定交付。
從技術匹配度看,郭達雅最可能負責的,是代碼大模型的全鏈路技術攻堅。
比如說主導字節Code-LLM的下一個迭代之類的。
因為郭達雅擅長預訓練架構優化、超長上下文適配、多語言支持等核心技術的研發,所以他很可能會為字節帶來那種「項目級」的代碼生成agent。
第二個核心方向是推理能力。
目前字節Seed團隊的核心戰略之一,就是類o1的通用推理大模型,郭達雅的加入,將直接給字節帶來行業最成熟的GRPO落地經驗。
他大概率會負責推理方向的強化學習算法研發,優化豆包大模型的數學推理、多步邏輯推理、複雜任務拆解能力。
第三個方向是數學推理專項模型研發。
數學推理能力是大模型通用邏輯能力的核心底座。Seed團隊專門設立的Edge團隊,聚焦3年以上的長期AGI基礎研究。
並且取消了短期季度考覈,允許團隊投入資源做探索性研究。
郭達雅所參與過的DeepSeekMath,正是這個方向。
如果郭達雅選擇加入百度,他同樣能在代碼智能領域發揮重要作用。
前文提到,文心快碼在2026年3月啱啱完成了重大升級,更新的重點是多agent協同。
它具體的協同方式是:Plan agent負責需求澄清和任務規劃,Architect agent通過SubAgents機制拆解複雜任務,每個子agent擁有獨立上下文,以解決長Context下的「遺忘」問題。
而郭達雅剛好研究過這套全鏈路環節上的每一個節點,換句話說,百度正在做的事情,和郭達雅的研究方向完全重合了。
因此,如果他加入文心團隊,很可能會負責優化這些agent之間的協同機制,提升代碼生成的準確性和項目級理解能力。
說到挖角DeepSeek核心人才,阿里也不容忽視。2026年3月初,阿里通義千問技術負責人林俊暘在社交平台突然宣佈離職。
更糟糕的是,除了林俊暘外,千問在2026年還失去了後訓練負責人鬱博文、代碼模型負責人惠彬原等多名技術骨幹。
就在這個關鍵時刻,阿里CEO吳泳銘在3月19日的財報電話會上放出狠話,說當前阿里的ATH事業群,更高優先級是「打造智能能力最強的模型」。
這時候,如果阿里能夠引進郭達雅這樣的頂級專家,那無疑是一箭雙鵰。既能填補林俊暘離職留下的技術空白,又能直接獲得DeepSeek在代碼智能和推理能力方面的核心經驗。
講真的,比起遲遲不發V4的DeepSeek,郭達雅有理由趁着年輕,去字節或者百度、阿里做出點成績。
03
DeepSeek-V4還會來嗎?
2026年1月初,外媒援引兩名知情人士的消息稱,DeepSeek計劃在春節期間推出下一代旗艦模型V4。消息還提到,V4 在內部測試中的編程能力已經超越了Claude 3.5 Sonnet和GPT-4o。
這個消息讓整個AI圈都興奮起來。
自2025年1月20日發布 DeepSeek-R1 以來,DeepSeek沒有發布過任何一個大版本的迭代,最新的模型也只到了DeepSeek-V3.2。
春節來了,V4沒來。
2月11日,有用戶發現DeepSeek的App版本號更新為1.7.4,上下文窗口從128K提升至1M,知識庫截止時間更新到2025年5月。
社區立刻沸騰了,大家紛紛在猜,說這就是傳說中的V4灰度測試嗎?
但接近DeepSeek的人士很快給出了否定答案:「這不是V4,就是一個小版本更新。」
隨後外媒又報道稱,DeepSeek將在3月2日發布 V4。報道還表示,V4 將針對國產芯片進行優化,是該系列大模型中第一個完全基於國產算力生態的版本。
這一消息很快被大量國內媒體轉載。
3月2日到了,無事發生。
緊接着第二天,又有消息稱V4「極大概率」將在本周發布,還有泄露的基準測試數據顯示,V4在HumanEval上得分 90%,作為對比,DeepSeek V3為82%。
事實上,HumanEval只是一個入門級的代碼生成基準測試,目前已趨於指標飽和,根本無法完整區分頂級代碼大模型的真實能力,所以當時我就覺得這是個假新聞。
果然,眼瞅要到4月了,V4依然沒有出現。
現在還有報道稱DeepSeek-V4預計在2026年4月正式發布,重點提升長期記憶能力,並深度適配國產芯片。
延期的原因衆說紛紜。有人說是模型規模膨脹導致訓練進度延遲,還有人說是多模態功能的整合比預期複雜。
但有一個細節值得注意,V4的核心賣點之一,就是「超強編程能力」。根據泄露的信息,V4能處理30萬行代碼邏輯鏈。

而郭達雅,正是DeepSeek在這一塊的頂樑柱。
DeepSeek的核心研究人員不多。從論文作者名單看,經常出現的名字不超過20個。
在這樣一個精英小團隊裏,每一個都是不可缺少的,更何況他還是郭達雅這樣的超級大牛。
道理就擺在這了,如果V4成功了,說明DeepSeek找到了替代者,或者團隊成功完成了技術交接。
如果V4再次延期,或者代碼能力沒有達到預期,那麼郭達雅離職的影響就會真正顯現出來。
從現在的情況看,DeepSeek正在經歷一場嚴峻的考驗。它需要證明,即使失去了核心人才,它依然能夠保持技術創新的節奏。