deepseek
产品25 篇资讯深度求索发布SPCT技术,预告下一代R2模型
深度求索AI发布研究论文,介绍一种提升通用奖励模型推理可扩展性的新技术SPCT。公司同时预告了下一代模型R2即将推出,引发AI社区关注。该技术通过动态生成原则和批评来优化奖励生成,利用拒绝微调和基于规则的在线强化学习实现。
智谱AI开源新一代GLM模型并推出国际平台Z.ai
智谱AI宣布全面开源其新一代通用语言模型GLM-4系列和GLM-Z1推理模型。GLM-Z1推理速度比DeepSeek-R1快8倍,达到每秒200个令牌。公司还推出了面向国际的平台Z.ai,提供免费访问和API服务。
快手AI发布SRPO框架,训练效率提升10倍
快手Kwaipilot团队推出新型强化学习框架SRPO,旨在解决GRPO在跨域训练中的性能瓶颈和效率问题。SRPO基于Qwen2.5-32B模型,在数学和代码领域达到DeepSeek-R1-Zero级别性能。该框架仅需十分之一的训练步骤即可实现同等性能,并已开源模型和技术报告。
英特尔发布AutoRound:面向大语言模型和视觉语言模型的先进量化工具
英特尔推出了AutoRound,这是一种专为大语言模型和视觉语言模型设计的后训练量化方法。该工具通过有符号梯度下降优化权重舍入和裁剪范围,支持INT2至INT8的低比特量化,在保持高精度的同时减少模型大小和推理延迟。AutoRound兼容多种模型架构和设备,并提供快速量化能力,例如在A100 GPU上量化72B模型仅需37分钟。
深度求索发布DeepSeek-Prover-V2,通过递归证明搜索推进神经定理证明
深度求索AI发布了专为Lean 4环境设计的开源大语言模型DeepSeek-Prover-V2。该模型采用创新的递归定理证明流程,利用DeepSeek-V3生成高质量初始化数据,在神经定理证明中达到领先性能。同时,深度求索推出了新基准ProverBench,包含325个问题,用于更全面评估数学推理能力。
DeepSeek-V3新论文发布:揭秘硬件感知协同设计实现低成本大模型训练
DeepSeek团队发布14页技术论文,探讨大语言模型与硬件架构的协同设计。论文以DeepSeek-V3为例,展示如何通过硬件感知设计克服内存和计算瓶颈。研究聚焦硬件特性对模型架构的影响,为低成本大规模训练提供实践指导。
Featherless AI 成为 Hugging Face Hub 推理服务提供商
Featherless AI 已加入 Hugging Face Hub 作为推理服务提供商。该提供商支持多种文本和对话模型,包括 DeepSeek、Meta 和 Google 的最新开源模型。用户可通过网站界面或客户端 SDK 轻松使用 Featherless AI 进行无服务器推理。
租用8张H100复现DeepSeek mHC,性能超越官方报告
一位开发者租用8张英伟达H100 GPU,成功复现了深度求索的mHC模型。复现结果显示,模型性能优于官方报告中的基准。这一成果展示了开源AI模型复现的可行性和社区贡献。
Kimina-Prover-RL:开源Lean 4定理证明训练管道发布
Kimina-Prover-RL是一个基于DeepSeek-R1启发的开源训练管道,用于在Lean 4中进行形式定理证明。该管道采用结构化推理-生成范式,并发布两个新模型,在MiniF2F基准测试中创下开源模型新纪录。
Scaleway 成为 Hugging Face Hub 推理服务提供商
Scaleway 已加入 Hugging Face Hub 作为推理服务提供商。该服务提供无服务器推理,支持 GPT-OSS、Qwen3 等流行开源模型。Scaleway 的 API 按令牌计费,起价为每百万令牌 0.20 欧元。
英伟达利用仿真技术提升AI芯片HPC性能以对抗AMD
英伟达在Rubin GPU中采用仿真技术提升双精度浮点计算性能,以增强高性能计算和科学计算应用。该技术通过CUDA库实现,可将FP64矩阵性能提升至200 teraFLOPS,是Blackwell加速器的4.4倍。AMD研究人员认为仿真技术在某些基准测试中表现良好,但在实际物理科学模拟中效果尚不明确,仍需进一步研究。
全球AI计算格局转变:中国芯片崛起重塑开源与部署
中国在开源AI模型开发方面取得巨大进展,正推动国内AI芯片的快速发展。华为昇腾和寒武纪等芯片已开始为高性能开源模型提供推理支持,部分模型训练也开始使用国产芯片。美国出口管制加速了中国芯片生产,芯片短缺激励了计算效率创新,如DeepSeek的MLA和GRPO技术。
OVHcloud成为Hugging Face推理服务提供商
OVHcloud正式成为Hugging Face Hub支持的推理服务提供商。该服务提供对GPT-OSS、Qwen3、DeepSeek R1和Llama等开源模型的访问。OVHcloud AI端点提供完全托管的无服务器推理服务,起价为每百万token 0.04欧元。
深度求索新模型开发遇阻,转用英伟达芯片
中国AI初创公司深度求索在开发新旗舰模型时遇到困难,不得不转用英伟达芯片。据内部人士透露,公司最初尝试使用华为等中国制造商的芯片,但效果不佳。最终,深度求索通过疑似走私的英伟达芯片推进了部分训练任务。
英伟达DGX Spark与DGX Station在CES展示本地运行前沿AI模型能力
英伟达在CES展会上展示了DGX Spark和DGX Station两款桌面AI超级计算机。这些系统基于Grace Blackwell架构,支持在本地运行从千亿到万亿参数的大型AI模型。DGX Station搭载GB300超级芯片,可运行包括Qwen3、DeepSeek-V3.2在内的多种前沿模型。
研究警告AI模型趋同或导致人类创造力同质化
一项大规模研究发现,不同AI语言模型在开放任务中产生惊人相似的答案。研究人员警告这可能对人类创造力产生长期影响,导致文化同质化。研究指出模型间相似度高达81%,原因尚不明确。
微软报告:阿联酋AI采用率达64%领先全球,美欧大幅落后
微软AI经济研究所报告显示,全球生成式AI采用率从15.1%升至16.3%。阿联酋以64%采用率位居榜首,新加坡以60.9%紧随其后,美欧国家普遍落后。韩国采用率增长最快,达30.7%,中国DeepSeek模型在非洲市场表现突出。
DeepSeek提出条件记忆机制,解决LLM静态查询的GPU资源浪费问题
DeepSeek发布条件记忆研究,解决大语言模型静态信息检索的GPU计算浪费问题。该研究引入Engram模块,将静态模式检索与动态推理分离。实验显示,在复杂推理基准测试中准确率从70%提升至74%。
谷歌研究发现重复提示可提升LLM非推理任务准确率高达76%
谷歌研究团队发布论文,发现简单重复输入提示能显著提升大型语言模型在非推理任务中的性能。该方法在包括Gemini、GPT-4o、Claude和DeepSeek在内的多个主流模型上均有效,且对生成速度几乎没有影响。研究显示,在70项基准测试中,重复提示在47项中获胜,零失败。
MiroMind发布MiroThinker 1.5,30B参数模型实现万亿级性能,成本降低95%
MiroMind发布了MiroThinker 1.5 AI模型,仅300亿参数,性能媲美万亿参数模型。该模型具备代理研究能力,推理成本仅为竞争对手的二十分之一。MiroThinker 1.5采用可验证推理架构,降低幻觉风险,适用于金融和医疗等监管行业。
英伟达Vera Rubin GPU将于2026年下半年发布,Blackwell架构性能持续提升
英伟达CEO黄仁勋在CES主题演讲中宣布,Vera Rubin GPU的推理和训练性能分别是Blackwell的5倍和3.5倍,但该芯片预计2026年下半年才上市。英伟达通过TensorRT-LLM引擎的优化,在三个月内将Blackwell GPU的推理性能提升了2.8倍。这些优化包括程序化依赖启动、全对全通信、多令牌预测和NVFP4格式,降低了每百万令牌的成本并提高了吞吐量。
深度求索新技术平衡大模型信号流与学习能力
深度求索研究人员开发了一种名为Manifold-Constrained Hyper-Connections的技术,旨在解决大型语言模型训练中的稳定性问题。该技术通过数学约束控制信号放大,使信号强度保持在理想范围内,从而避免训练崩溃。在27B参数模型测试中,mHC技术实现了稳定的训练曲线,并在多项基准测试中表现优于基线方法。
DeepSeek母公司幻方量化去年盈利50亿,为AGI研发提供充足资金
DeepSeek的母公司幻方量化在2025年实现约50亿元人民币盈利。这笔资金将用于支持DeepSeek的AGI研发,无需外部融资或商业化。DeepSeek持续产出高水平论文并保持团队稳定,专注于底层模型训练。