h100
硬件12 篇资讯租用8张H100复现DeepSeek mHC,性能超越官方报告
一位开发者租用8张英伟达H100 GPU,成功复现了深度求索的mHC模型。复现结果显示,模型性能优于官方报告中的基准。这一成果展示了开源AI模型复现的可行性和社区贡献。
NVIDIA AI-Q 在 DeepResearch Bench 评测中登顶开源模型榜首
NVIDIA 的 AI-Q 蓝本在 Hugging Face DeepResearch Bench 的“LLM with Search”排行榜中位列第一。AI-Q 融合了 Llama 3.3-70B Instruct 和 Llama-3.3-Nemotron-Super-49B-v1.5 两个开源大语言模型,支持长上下文检索和代理推理。该架构还包括 NVIDIA NeMo Retriever 和 NeMo Agent 工具包,用于可扩展的多模态搜索和复杂工作流编排。
OpenAI发布GPT OSS开源模型系列,包含117B和21B两个版本
OpenAI发布了全新的开源模型系列GPT OSS,包含117B和21B两个参数规模的模型。这两个模型采用专家混合架构和4位量化方案,支持推理和工具使用。模型采用Apache 2.0许可证,旨在促进AI技术的广泛可及性。
SAIR 数据集发布:AI 赋能药物研发的结构智能突破
SandboxAQ 发布了 SAIR 数据集,这是最大的共折叠 3D 蛋白质-配体结构数据集,包含超过 500 万个 AI 生成的高精度结构。该数据集在 Hugging Face 上免费开放,链接了分子结构与药物效力,旨在加速药物研发。SAIR 的创建利用了高性能 AI 计算,耗时超过 13 万 GPU 小时,使用 Boltz1 模型在 NVIDIA H100 处理器上完成。
英伟达利用仿真技术提升AI芯片HPC性能以对抗AMD
英伟达在Rubin GPU中采用仿真技术提升双精度浮点计算性能,以增强高性能计算和科学计算应用。该技术通过CUDA库实现,可将FP64矩阵性能提升至200 teraFLOPS,是Blackwell加速器的4.4倍。AMD研究人员认为仿真技术在某些基准测试中表现良好,但在实际物理科学模拟中效果尚不明确,仍需进一步研究。
英伟达发布Nemotron Speech ASR:专为低延迟语音代理设计的开源转录模型
英伟达发布了专为低延迟语音代理和实时字幕设计的流式英语转录模型Nemotron Speech ASR。该模型采用缓存感知的FastConformer编码器和RNNT解码器,支持可配置的上下文大小以控制延迟。在Hugging Face OpenASR基准测试中,模型在0.16秒块大小下词错误率约为7.84%。
谷歌发布开源翻译模型TranslateGemma,支持55种语言
谷歌发布了开源翻译模型TranslateGemma系列,支持55种语言。该模型提供三种参数规模,适用于移动设备、笔记本电脑和云服务器。其12B版本在翻译质量上超越了更大规模的模型,尤其在低资源语言上表现突出。
AI助手助力伯克利粒子加速器保持稳定运行
劳伦斯伯克利国家实验室部署了名为加速器助手的AI系统,该系统基于大语言模型,用于支持高级光源粒子加速器的实验。加速器助手利用NVIDIA H100 GPU进行加速推理,能自主编写Python代码并解决问题,将实验设置时间减少100倍。该系统为粒子加速器和核设施等复杂科学基础设施提供了应用AI的蓝图。
Lightricks 开源 AI 视频模型 LTX-2,挑战 Sora 和 Veo
以色列公司 Lightricks 开源了 190 亿参数的 AI 视频模型 LTX-2。该模型能从文本提示生成长达 20 秒的同步音视频内容,包括口型同步语音和背景音效。LTX-2 声称比竞争对手模型快 18 倍,并支持高达 4K 分辨率的视频生成。
超大规模AI数据中心:2026年十大突破技术
超大规模AI数据中心正以革命性架构为AI模型提供算力,但能耗惊人。这些数据中心将数十万GPU芯片集成同步集群,构成巨型超级计算机。科技巨头投入数千亿美元建设,但高能耗带来环境与社区挑战。