原文標題: DeepSeek今年春節再爆「驚奇」? 官方披露正測試新模型結構
原文連結: https://www.ettoday.net/news/20260214/3119059.htm
發布時間: 2026年02月14日 15:01
記者署名: 陳冠宇
原文內容:
DeepSeek去年春節期間橫空出世,震撼全球人工智慧(AI)行業。官方披露,目前正在測
試新的長文本模型結構。這意味著,DeepSeek或將在今年春節再次發布新模型,可能再度
引爆市場話題。
《澎湃新聞》報導,2月13日,DeepSeek的網頁與APP正在測試新的長文本模型結構,支持
1M上下文。其API服務不變,仍為V3.2,僅支持128K上下文。
今年1月12日,DeepSeek曾發布一篇新論文《ConditionalMemoryviaScalableLookup:ANew
AxisofSparsityforLargeLanguageModels》(基於可擴展查找的條件記憶:大語言模型稀
疏性的新維度),深度求索(DeepSeek)創始人兼執行長梁文鋒位列作者名單中,這篇論
文為北京大學和DeepSeek共同完成。
據分析,這篇論文的核心直指當前大語言模型存在的記憶力問題,提出了「條件記憶」這
一概念。當時行業就普遍猜測,DeepSeek的下一代模型V4或將在今年春節前後正式發布。
去年12月1日,DeepSeek曾經同時發布兩個正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-
Speciale,官方網頁端、App和API均已更新為正式版DeepSeek-V3.2,Speciale版本目前
僅以臨時API服務形式開放,以供社區評測與研究。
據介紹,DeepSeek-V3.2的目標是平衡推理能力與輸出長度,適合日常使用,例如問答場
景和通用Agent(代理)任務場景。在公開的推理類Benchmark測試中,DeepSeek-V3.2達
到GPT-5的水準,僅略低於Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的輸出長度大
幅降低,顯著減少計算開銷與用戶等待時間。
作為大陸大模型風向球,DeepSeek一舉一動都受到行業整體關注。網易有道詞典發布2025
年度詞匯「deepseek」以867萬2940次年度搜尋量成功當選。據介紹,「deepseek」在詞
典內部的搜尋曲線呈現明顯的爆發式特徵,從年初因「低成本」突破算力封鎖起,幾乎每
個重要進展都會帶動搜尋量上漲。
不過,近期DeepSeek傳出爭議,OpenAI指控DeepSeek透過「模型蒸餾」方式複製美國技術
。根據路透取得的一份備忘錄內容,OpenAI已向美國國會提出警告,指稱DeepSeek試圖規
避存取限制,藉此取得模型輸出進行訓練。
心得/評論:
又是考古題了 去年沒有上車的這次準備上車
去年過年剛推出確實造成轟動但被發現
是蒸餾GPT來訓練模型
去年12月V3.2只有達到GPT-5程度但
略輸Gemini 3
期待這次會推出什麼殺手級的應用
推文討論 193