英伟达发布了600万条多语言推理数据集,支持法语、西班牙语、德语、意大利语和日语五种语言。该数据集基于先前发布的英语推理数据翻译而成,旨在提升开源模型的推理能力。数据集已发布在Hugging Face平台上。
英伟达同时推出了Nemotron Nano 2 9B模型,采用混合Transformer-Mamba架构,模型参数量为90亿。该模型支持可配置的思考预算,用户可根据需求调整准确度、吞吐量和成本,推理成本可降低高达60%。模型权重可在Hugging Face获取,并作为NVIDIA NIM提供高吞吐量和低延迟服务。
在数据集构建过程中,英伟达将英语推理数据逐行翻译为目标语言,并保留原始英语推理链。为保持高质量翻译和减少幻觉,采用了分句翻译、特定格式包装和语言识别等机制。模型目标应用包括客户服务代理、支持聊天机器人、分析副驾驶和边缘/RTX部署。