DeepSeek新模型曝光?
上海证券报  3小时前

  恰逢DeepSeek-R1模型发布一周年,DeepSeek新模型“MODEL1”现身开源社区。

  

  

  近日,DeepSeek官方在GitHub更新了一系列FlashMLA代码,涉及的114个文件中,有数十处提到了此前未公开的“MODEL1”大模型标识符。

  2025年2月,DeepSeek启动“开源周”,计划以每日解锁的形式逐步公开5个代码库,Flash MLA为首个开源项目。公开资料显示,Flash MLA通过优化Hopper GPU的内存访问和计算流程,显著提高可变长度序列的处理效率。其核心设计包括动态内存分配机制和并行解码策略,可减少冗余计算并提升吞吐量,尤其适用于大语言模型的推理任务。

  在某些文件中,“MODEL 1”与已知的现有模型“V32”(即DeepSeek-V3.2)并列提及。行业分析认为,“MODEL1”或许代表一个不同于现有架构的新模型,可能正是DeepSeek还未对外发布的下一代模型(R2或者V4)。

  此前有市场消息称,DeepSeek计划在2月春节前后发布新一代AI模型DeepSeek V4,但发布时间可能会视实际情况而变化。V4模型是DeepSeek 2024年12月发布的V3模型的迭代版,具备强大的编程能力。DeepSeek内部的初步测试显示,V4在编程能力上超过了目前市场上的其他顶级模型,如Anthropic的Claude和OpenAI的GPT系列。

  2026年1月以来,DeepSeek动作不断,已陆续发布了两篇技术论文,分别介绍了名为“优化残差连接(mHC)”的新训练方法,以及一种受生物学启发的 “AI记忆模块(Engram)”。

  1月12日,DeepSeek在github上发表新论文,文章由DeepSeek与北京大学合作完成,作者中有梁文锋署名。文章指出,Transformer架构缺乏原生的知识查找机制,迫使它们通过计算低效地模拟检索。为此,DeepSeek提出了条件记忆(conditional memory),并给出了实现方案Engram模块。DeepSeek称,该模块不仅有助于知识检索,同时在一般推理和代码/数学领域方面取得了更大的进步。

  在业内看来,梁文锋旗下私募幻方量化较高的收益率,为DeepSeek的研发提供了更多支持。公开资料显示,幻方量化2025年的收益均值达56.55%,在中国管理规模超百亿的量化私募业绩榜中位列第二,仅次于以73.51%收益均值登顶的灵均投资。目前,幻方量化管理规模已超700亿元。

  作者:孙小程

  

作者:上海证券报