梁文峰發新論文,“基模四傑”聊下一代模型正規化今年會否出現

繼去年底釋出新論文之後,1月12日晚,DeepSeek又上新一篇署名梁文峰的論文論文。這篇論文聚焦大模型的條件記憶模組, DeepSeek在結論中認為這將成為下一代稀疏大模型不可或缺的核心建模原語。此前有爆料稱,DeepSeek下一代大模型將在春節前後釋出,業內猜測這或是下一代模型DeepSeek V4的研究路線圖。

近期在中關村國際創新中心的AGI-Next前沿峰會上,被稱為“基模四傑”的月之暗面創始人兼CEO楊植麟、阿里巴巴Qwen技術負責人林俊暘、騰訊首席AI科學家姚順雨和清華大學教授、智譜創始人兼首席科學家唐傑也對下一代模型的正規化和重點進行了探討論文。AI行業先鋒密集發聲,或能窺見2026年中國大模型發展的方向和趨勢。

大模型發展將如何分化論文

進入2026年,已有兩家大模型企業完成上市,與此同時,各家都在押注不同的領域論文。接下來中國的模型會分化成哪些方向?

姚順雨此前為OpenAI著名研究者,專注於將大型語言模型從理論研究推向實際應用,特別是AI Agent的開發論文。2025年底,騰訊升級大模型研發架構,新成立AI Infra部、AI Data部、資料計算平臺部,全面強化其大模型的研發體系與核心能力。姚順雨出任“CEO/總裁辦公室”首席AI科學家,向騰訊總裁劉熾平彙報;他同時兼任AI Infra部、大語言模型部負責人,向技術工程事業群總裁盧山彙報。

姚順雨認為,To C和To B明顯發生了分化論文。首先在To C端,大部分人多數時候其實不需要用到這麼強的智慧。“可能今天用ChatGPT和去年相比,寫抽象代數或者去解伽羅瓦理論的能力變強了,但是大部分人感受不到。大部分人尤其在中國,更多像在用搜尋引擎的加強版。”

但在To B端,智慧越高很多時候就代表生產力越高、可以賺的錢越多論文。所以To B大部分時候很多人願意用最強的模型。“起碼美國人會願意花溢價去用最好的模型。因為可能他的年薪是20萬美元,他每天要做10個任務,那一個像Opus 4.5這樣非常強的模型,它可能10個任務裡做對八九個,差的模型可能做對五六個。問題是你不知道這五六個是哪五六個,就要花很多額外精力去監控。所以在To B這個市場上,強的模型和稍微差點的模型,分化會變得越來越明顯。”

另外,姚順雨認為,以往的發展趨勢“垂直整合”以及“模型和應用分層”也開始出現分化論文。“過去大家會認為當企業有垂直整合的能力,就肯定會做得更好,但今天來看不一定。首先,模型層和應用層需要的能力不一樣,尤其是對於To B或者說生產力場景,更大的預訓練(Pre-training)還是一個非常關鍵的事情,但這個事情對於產品公司確實很難做。但想要把一個特別好的模型用好,或者說讓模型有溢位能力,也需要在應用側或者說在環境側做很多相應的事情。”

展開全文

他總結稱,在To C應用垂直整合還是成立的,無論是ChatGPT還是豆包,模型和產品是非常強耦合去緊密迭代論文。但對於To B來說趨勢似乎是相反的。模型變得越來越強,但也同樣會有更多應用層的東西想要去利用這樣的好模型,在不同的生產力環節發揮作用。

姚順雨還談到自己在騰訊做哪些事情論文。他表示,騰訊還是一個To C基因更強的公司。所以會思考如何讓今天的大模型或者說AI的發展能夠給使用者提供更多價值。但同時我們也不斷發現,很多瓶頸可能在To C端不是缺更大的模型、更強的強化學習或更強的獎勵模型,很多時候需要的可能是額外的上下文和環境。

“比如說我想問‘我今天該去吃什麼’論文。其實你今天問ChatGPT 和你去年問、或者明天問,這個事情可能體驗都會很差。因為想要變好,不是說你需要更大的模型、更強的預訓練,這個問題的瓶頸可能是你需要更多額外的輸入,或者說上下文。比如說如果它知道‘啊今天我其實特別冷,我需要吃點暖和的’,反而會給使用者帶來很多額外的價值。”姚順雨舉了這樣一個例子。

To B方面,姚順雨說騰訊目前會思考先服務好自己論文。“創業公司做Coding和大公司做Coding(程式設計)的一個區別是,大公司本身已經有很多應用場景、各種各樣需要生產力變得更好的地方。如果我們模型能夠在這些地方做得更好,不僅模型會有自己獨特的優勢,更關鍵一點是,對於真實世界的更多樣化的場景資料的捕捉,會是一個很有意思的事情。”

唐傑則認為,智譜是第一個做出來Chat產品的企業,但這一仗從DeepSeek出來之後就結束了論文。在DeepSeek出來後,智譜押注的下一個方向是Coding。

誰將成為下一代正規化的推手論文

過去十年,OpenAI先後推動了兩個重要正規化:一是以預訓練為核心的通用模型正規化,二是以對齊、推理和強化學習為代表的能力增強正規化論文。下一代正規化會是什麼?誰將成為下一代正規化的推手?

姚順雨認為,新正規化的瓶頸不是方法論,而是資料或者說任務論文。但同時他認為,自主學習是新正規化的前提。“我覺得這個事情已經在發生了,可能更像是一個漸變,而不像一個突變。比如現在ChatGPT利用使用者資料擬合聊天風格,使它的感覺越來越好,今天Claude Code已經寫了95%的程式碼,在幫它自己變得更好”。

姚順雨認為,下一代正規化最大的瓶頸可能是想象力論文。談到下一代正規化創新將會由哪個公司引領,姚順雨依然認為是OpenAI的機率更大。

林俊暘也認為,下一代正規化可能會落到自主學習上論文。另外他還補充,AI更強的主動性或許也是下一個正規化。“這意味著,環境可能就是輸入訊號。比如說我現在這個AI,必須得有人類去給它提示詞才能夠啟動它。那有沒有可能環境就能提示它?它自己能自主思考,去做一些事情。”但林俊暘也表達了自己對模型擁有更強主動性的同時引發安全問題的擔心。

如果自主學習真的會在2026年顯露出成為下一代正規化的訊號,具體會在哪些任務上最先出現?林俊暘認為,在理解使用者這件事情比如個性化上會更快出現論文。但問題在於,在資訊推薦時代,個性化做得越好使用者就會點選得更多、買得也更多。在AI時代個性化的衡量指標是什麼?

唐傑認為,Scaling這樣的規模定律仍然是有效的,只要繼續擴大算力、資料與引數規模,模型能力依然會提升論文。但現在真正的瓶頸已經不在於有沒有卡,而在於收益的效率是否值得。“一方面我們需要Scaling Up,就像我剛才說的‘反正最笨的辦法就是Scaling’,因為Scaling我們肯定有收益,這是一個工程做法。但我們也應該定一個(標準)叫‘智慧的效率’,即用多少的投入能獲得智慧的增量。”

楊植麟在演講階段也提到了Token效率問題論文。他提到從2019年至今,大模型始終遵循同一條基本邏輯:即透過Scaling Law將更多算力、資料和引數轉化為更低的消耗、更高的智慧水平。但這一邏輯的前提是Token可以被無限消耗。

但現實並非如此,當預訓練Token被吃完,模型能達到的智慧上限也到了,這意味著,問題不再只是“用多少Token”,而是每一個Token能換來多少有效智慧論文

正因如此,過去一年,月之暗面幾乎將所有核心工作都壓在token效率上,即用更少的Token,做到更低的消耗論文。在K2模型中,他們嘗試引入新的最佳化器與架構設計,透過提升Token效率,使模型在“用一半資料達到相同效果”的意義上,獲得等價於一次Scaling的收益。

智慧體2026年如何發展論文

拾象科技創始人李廣密觀察到,最近大家對於2026年還有一個很大的預期,即Agent現在可以在後臺比如推理3~5個小時,做人類1~2天的工作量,2026年是否有希望做人類正常工作一週到兩週的工作量論文。如果一個Agent可以自動化人一天或者一週的工作流,2026年真有可能是Agent“創造經濟價值”的關鍵一年。

姚順雨認為,生產力的Agent才剛剛開始論文。現在可能除了模型之外有兩個瓶頸,一是部署的問題。他提到,即使今天模型不再變好、所有的模型訓練全部停止,但如果把這些模型部署到世界上各種各樣的公司,它可能還是能帶來今天的10倍或者100倍的收益,或者說可能對GDP產生5%~10%的影響。但今天,模型的影響還遠遠不到1%。

另外在環境上,姚順雨認為人和人的差距在拉大,會使用AI工具的人在替代那些不會使用的人論文。他認為現在中國能做的一個最有意義的事情是更好的教育,教大家怎麼更好地去使用像Claude Code或者ChatGPT這樣的產品。

林俊暘認為,接下來因為自我進化和主動學習Agent可以做到更厲害論文。“現在Agent其實已經開始越來越變得‘託管式”’,而不是說我要不斷來來回回互動的形式。從這個角度上來說,它對模型的要求其實是很高的,模型就是Agent,Agent就是這個產品本身。如果它們都是一體化的話,那麼今天做基礎模型本身其實也就是在做這個產品。如果不斷提升模型能力的上限,包括Test-time Scaling能做上去的話,確實能夠做到這個事情。”

另外林俊暘也提到,他認為Agent與環境也強相關論文。“有沒有可能我們未來AI 環境能複雜到可能是真實人類世界的環境,指揮機器人去做實驗,去加快效率?如果能達到這一個點,可能才是我想象當中 Agent 能夠做人類很長時間的活,而不是說僅僅是在電腦中寫個檔案。我覺得接下來三年到五年的時間,可能這個事情會更有意思。這個又要跟具身智慧結合在一起。”

唐傑則認為,未來有幾個因素會決定Agent走勢論文。一是Agent能解決的事情價值有多大,而是解決這件事情要花多少成本。三是做應用的速度有多快。“如果你說我有個時間窗,我能夠拉開半年的時間窗,迅速把應用滿足了,半年以後,要麼迭代,要麼怎麼著,反正能往前走。說白了大模型時代到現在,更多的是在拼速度、拼時間。”

中美AI路徑差異

在唐傑、姚順雨、林俊暘等人的討論中論文,一個反覆被討論的話題是:中美大模型之間的演進路徑有何差異,這一差異的背後原因是什麼?

姚順雨認為,關鍵點其實在於中國的算力瓶頸能不能突破、包括光刻機和軟體生態等產能能不能突破論文。另外一個問題是,除了To C能不能有更成熟或者更好的To B市場,或者有沒有機會在國際的商業環境去競爭。“今天我們看到很多做生產力或者做To B的模型,還是會誕生在美國,因為支付意願更強,To B的文化更好。中國國內做這個事情很難,所以大家都會選擇出海或者做國際化。”

姚順雨說自己觀察到,中美之間的差異在於,在中國大家還是更喜歡做確定性的事情,“比如今天預訓練已經被證明可以做出來了論文。這事情其實也非常難做,有很多技術問題要解決。但是隻要一旦被證明能做出來,我們都很有信心幾個月或者一段時間內就把這個東西搞清楚。但是如果今天要讓一個人去探索一個比如長期記憶或者持續學習,大家不知道怎麼做,能不能做起來。那這個我覺得還是比較困難。”

另外他還觀察到,在中國大家對於刷榜或者數字會看得更重一些論文。但像海外Anthropic、國內DeepSeek這樣的企業,可能沒有那麼關注榜單的數字,會更注重什麼是正確的、體驗感到底好不好。

林俊暘提到,目前美國的算力可能整體比中國大1~2個數量級,但不管是OpenAI還是 Anthropic大量的算力其實都是投入到下一代的研究當中去論文。但國內今天相對來說捉襟見肘,光交付可能就已經佔據了絕大部分的算力,這會是一個比較大的差異。

另外一個需要思考的點是,從軟硬結合的角度,是不是真的有可能端到端地做出來論文。“我特別記得在2021年的時候,當時我們在做大模型。阿里做了晶片,來找我說:能不能預測一下三年之後這個模型是不是Transformer架構?三年之後模型是不是多模態?為什麼是三年呢?他說我們需要三年的時間才能流片。我當時回答是:三年之後,我在不在阿里巴巴,我都不知道。但最後我今天還在阿里巴巴,然後他果然還是Transformer,還是多模態,我就非常懊悔為什麼當時沒有催他去做。”

另外,林俊暘也提到了冒險精神論文。他表示,在冒險精神上,中國可能還需要改變的是教育,現在團隊裡面有很多00後,大家的冒險精神也是在增強的。

採寫論文:南都N影片記者 林文琪

本站內容來自使用者投稿,如果侵犯了您的權利,請與我們聯絡刪除。聯絡郵箱:[email protected]

本文連結://m.sqhhba.com/tags-%E9%9A%B1%E5%BD%A2.html

🌐 /