nvidia
公司75 篇资讯Hugging Face 推出高速 Whisper 转录推理端点
Hugging Face 今天发布了基于 OpenAI Whisper 模型的新推理端点。该端点利用 vLLM 项目优化,在 NVIDIA GPU 上实现高达 8 倍的性能提升。用户可通过一键部署,以经济高效的方式使用专用转录模型。
DeepSeek-V3新论文发布:揭秘硬件感知协同设计实现低成本大模型训练
DeepSeek团队发布14页技术论文,探讨大语言模型与硬件架构的协同设计。论文以DeepSeek-V3为例,展示如何通过硬件感知设计克服内存和计算瓶颈。研究聚焦硬件特性对模型架构的影响,为低成本大规模训练提供实践指导。
Thinking Machines 人才流失后或面临投资者质疑
由前 OpenAI CTO Mira Murati 创立的 AI 初创公司 Thinking Machines Lab 上周失去五名员工,其中四人加入 OpenAI。公司正寻求以 500 亿美元估值融资,但人才流失可能动摇投资者信心。投资者包括 Andreessen Horowitz、Accel 和 Nvidia,目前公司仅发布一款产品。
微软发布 OptiMind:20B 参数模型将自然语言转化为优化模型
微软研究发布了 OptiMind,这是一个基于 AI 的系统,能将复杂决策问题的自然语言描述转化为优化求解器可执行的数学公式。该模型拥有 200 亿参数,采用专家混合架构,输出包括数学公式和可执行的 Python 代码。OptiMind 旨在解决运筹学中长期存在的瓶颈,减少专家建模需求。
红杉资本新领导层批准首笔对Anthropic投资,融资目标250亿美元
红杉资本计划首次投资Anthropic,本轮融资由新加坡主权财富基金GIC和美国投资者Coatue领投,各出资15亿美元。Anthropic估值预计达3500亿美元,微软和英伟达计划联合投资高达150亿美元。Anthropic正筹备今年可能进行的首次公开募股。
AI芯片初创公司FuriosaAI计划IPO前融资5亿美元
AI芯片设计公司FuriosaAI计划在首次公开募股前进行一轮融资,目标金额高达5亿美元。此举旨在挑战行业巨头英伟达公司。融资计划由知情人士透露,目前尚未正式公布。
Hugging Face 与 NVIDIA 合作推出训练集群即服务
Hugging Face 与 NVIDIA 在 GTC Paris 上宣布推出训练集群即服务。该服务旨在让全球研究机构更容易访问大型 GPU 集群。用户可按需请求 GPU 集群,仅支付训练期间的费用。
NVIDIA Llama Nemotron Nano VLM 模型登陆 Hugging Face Hub
NVIDIA 发布了 Llama Nemotron Nano VLM 模型,这是一个基于 Llama 架构的视觉语言模型。该模型已上传至 Hugging Face Hub,供开发者免费下载和使用。它支持图像理解和文本生成任务,适用于多模态 AI 应用。
租用8张H100复现DeepSeek mHC,性能超越官方报告
一位开发者租用8张英伟达H100 GPU,成功复现了深度求索的mHC模型。复现结果显示,模型性能优于官方报告中的基准。这一成果展示了开源AI模型复现的可行性和社区贡献。
NVIDIA NIM 加速 Hugging Face 上大量 LLM 的部署
NVIDIA 宣布 NIM 推理微服务现可加速部署 Hugging Face 上的超过 10 万个大型语言模型。NIM 提供单一 Docker 容器,支持多种 LLM 格式和推理框架,自动优化性能。用户需具备 NVIDIA GPU、Docker 和相应账户,以简化模型部署流程。
Hugging Face 发布轻量级实验跟踪库 Trackio
Hugging Face 推出了开源实验跟踪库 Trackio,用于机器学习模型训练。Trackio 提供本地仪表盘,并与 Hugging Face Spaces 集成,便于分享和协作。该库可作为 wandb 的替代品,支持标准 API 调用。
NVIDIA AI-Q 在 DeepResearch Bench 评测中登顶开源模型榜首
NVIDIA 的 AI-Q 蓝本在 Hugging Face DeepResearch Bench 的“LLM with Search”排行榜中位列第一。AI-Q 融合了 Llama 3.3-70B Instruct 和 Llama-3.3-Nemotron-Super-49B-v1.5 两个开源大语言模型,支持长上下文检索和代理推理。该架构还包括 NVIDIA NeMo Retriever 和 NeMo Agent 工具包,用于可扩展的多模态搜索和复杂工作流编排。
英伟达发布600万条多语言推理数据集
英伟达发布了包含600万条样本的多语言推理数据集,支持法语、西班牙语、德语、意大利语和日语五种语言。该数据集基于先前发布的英语推理数据翻译而成,旨在提升开源模型的推理能力。同时,英伟达还推出了Nemotron Nano 2 9B模型,采用混合Transformer-Mamba架构,提供可配置的思考预算以优化成本。
SAIR 数据集发布:AI 赋能药物研发的结构智能突破
SandboxAQ 发布了 SAIR 数据集,这是最大的共折叠 3D 蛋白质-配体结构数据集,包含超过 500 万个 AI 生成的高精度结构。该数据集在 Hugging Face 上免费开放,链接了分子结构与药物效力,旨在加速药物研发。SAIR 的创建利用了高性能 AI 计算,耗时超过 13 万 GPU 小时,使用 Boltz1 模型在 NVIDIA H100 处理器上完成。
Palmyra-mini 系列模型发布:轻量高效,专为推理设计
WRITER 团队发布了 Palmyra-mini 系列的三款开源模型,参数量在 1.5B 到 1.7B 之间。这些模型包括基础版和两个专为复杂逻辑与数学推理优化的变体,采用了思维链训练方法。模型已在 Hugging Face 上提供,并支持 GGUF 和 MLX 量化格式。
英伟达发布印度合成数据集Nemotron-Personas-India
英伟达发布了首个面向印度的开源合成数据集Nemotron-Personas-India。该数据集基于真实人口统计和文化分布,包含2100万个人物角色和多语言支持。它旨在为印度AI系统提供隐私保护的数据基础,支持从聊天机器人到专业助手等应用。
英伟达利用仿真技术提升AI芯片HPC性能以对抗AMD
英伟达在Rubin GPU中采用仿真技术提升双精度浮点计算性能,以增强高性能计算和科学计算应用。该技术通过CUDA库实现,可将FP64矩阵性能提升至200 teraFLOPS,是Blackwell加速器的4.4倍。AMD研究人员认为仿真技术在某些基准测试中表现良好,但在实际物理科学模拟中效果尚不明确,仍需进一步研究。
红杉资本投资Anthropic,打破风投不投竞争对手的禁忌
红杉资本据报道将参与Anthropic的巨额融资轮。此举打破了风投机构避免投资同一领域竞争对手的传统做法。Anthropic此轮融资目标估值3500亿美元,微软和英伟达已承诺投资高达150亿美元。
全球AI计算格局转变:中国芯片崛起重塑开源与部署
中国在开源AI模型开发方面取得巨大进展,正推动国内AI芯片的快速发展。华为昇腾和寒武纪等芯片已开始为高性能开源模型提供推理支持,部分模型训练也开始使用国产芯片。美国出口管制加速了中国芯片生产,芯片短缺激励了计算效率创新,如DeepSeek的MLA和GRPO技术。
英伟达发布PersonaPlex-7B-v1:专为自然全双工对话设计的实时语音模型
英伟达研究人员发布了PersonaPlex-7B-v1,这是一个全双工语音对话模型,旨在实现自然的语音交互和精确的角色控制。该模型采用单一Transformer架构,替代了传统的ASR-LLM-TTS级联流程,支持流式语音理解和生成,能够处理重叠语音和自然打断。PersonaPlex基于Moshi架构和Helium语言模型构建,使用真实和合成对话数据进行训练,以提升交互的自然性和适应性。
开放ASR排行榜新增多语言和长音频赛道,揭示模型趋势
Hugging Face开放ASR排行榜新增多语言和长音频转录评估赛道。该排行榜已收录60多个开源和闭源模型,涵盖11个数据集。研究发现,Conformer编码器结合LLM解码器的模型在英语转录准确率上领先。
NVIDIA 发布 Nemotron 3 Nano 并采用开放评估标准
NVIDIA 发布了 Nemotron 3 Nano 30B A3B 模型,并采用开放评估方法。该公司发布了完整的评估配方,使用 NeMo Evaluator 库构建,确保结果可独立验证。这一举措旨在解决模型评估中的透明度问题,使开发者能够复现评估流程。
深度求索新模型开发遇阻,转用英伟达芯片
中国AI初创公司深度求索在开发新旗舰模型时遇到困难,不得不转用英伟达芯片。据内部人士透露,公司最初尝试使用华为等中国制造商的芯片,但效果不佳。最终,深度求索通过疑似走私的英伟达芯片推进了部分训练任务。
英伟达在CES 2026展示DGX Spark与Reachy Mini打造现实世界AI智能体
英伟达在CES 2026上发布了多款开源模型,包括Nemotron推理大语言模型和Isaac GR00T N1.6视觉语言模型。黄仁勋演示了如何利用DGX Spark处理能力和Reachy Mini机器人创建可交互的AI智能体。该演示提供了使用DGX Spark和Reachy Mini在家复现的步骤指南。
普林斯顿Zlab发布LLM-Pruning Collection:基于JAX的大语言模型剪枝算法库
普林斯顿Zlab研究人员发布了LLM-Pruning Collection,这是一个基于JAX的开源库,整合了多种大语言模型剪枝算法。该库提供了统一的训练和评估框架,支持GPU和TPU,便于比较不同剪枝方法。它包含Minitron、ShortGPT、Wanda、SparseGPT、Magnitude、Sheared Llama和LLM-Pruner等算法实现。
英伟达发布新开源模型、数据与工具,推动各行业AI发展
英伟达今日发布新开源模型、数据与工具,旨在加速各行业AI应用。这些模型涵盖代理AI、物理AI、自动驾驶、机器人和生物医学等领域。英伟达还贡献了开源训练框架和大量多模态数据,包括10万亿语言训练令牌和500,000个机器人轨迹。
英伟达DGX Spark与DGX Station在CES展示本地运行前沿AI模型能力
英伟达在CES展会上展示了DGX Spark和DGX Station两款桌面AI超级计算机。这些系统基于Grace Blackwell架构,支持在本地运行从千亿到万亿参数的大型AI模型。DGX Station搭载GB300超级芯片,可运行包括Qwen3、DeepSeek-V3.2在内的多种前沿模型。
英伟达将BlueField网络安全与加速功能纳入企业AI工厂验证设计
英伟达扩展了企业AI工厂验证设计,以包含BlueField的网络安全和基础设施加速能力。该设计整合了多家合作伙伴的软件平台,旨在提升AI工厂的运行时保护和运营效率。BlueField通过专用处理器加速网络、存储和安全服务,确保AI工作负载的高性能与实时安全。
英伟达发布Cosmos Reason 2,为物理AI带来高级推理能力
英伟达发布了Cosmos Reason 2,这是一个开源的推理视觉语言模型,专为物理AI设计。该模型在物理AI基准测试中排名第一,支持256K输入令牌和多种视觉感知能力。它适用于视频分析和数据标注等用例,帮助AI代理在物理世界中执行复杂任务。
英伟达在CES发布Rubin平台与开放模型,推动AI多领域应用
英伟达CEO黄仁勋在CES 2026上宣布AI正扩展到所有领域和设备。他发布了Rubin AI平台,该平台已全面投产,可将AI代币生成成本降低约十分之一。同时,英伟达推出了用于自动驾驶开发的开放推理模型系列Alpamayo,作为其推动AI进入各领域的一部分。
NVIDIA RTX 加速 PC 端 4K AI 视频生成,LTX-2 与 ComfyUI 升级
NVIDIA 在 CES 上宣布了针对 GeForce RTX 设备的 AI 升级,包括 ComfyUI 集成 RTX Video Super Resolution 以加速 4K 视频生成。LTX-2 音频视频生成模型的开源版本获得 NVFP8 优化,支持本地生成 20 秒 4K 视频。通过 PyTorch-CUDA 优化和 NVFP4/NVFP8 精度支持,视频和图像生成 AI 性能提升高达 3 倍,VRAM 减少 60%。
Chai Discovery 与礼来达成合作,成为 AI 药物研发领域新星
AI 初创公司 Chai Discovery 在成立一年多后,已融资数亿美元并获得硅谷投资者支持。该公司最近宣布与制药巨头礼来合作,利用其 Chai-2 算法开发抗体药物。这一合作正值礼来与英伟达共同投资 10 亿美元建立 AI 药物发现实验室之际。
Black Forest Labs发布开源AI图像生成模型FLUX.2 [klein],生成时间不到一秒
德国AI初创公司Black Forest Labs发布了开源AI图像生成模型FLUX.2 [klein]。该模型包含40亿和90亿参数两个版本,可在Nvidia GB200上不到一秒内生成图像。4B版本采用Apache 2.0开源许可,企业可免费用于商业用途。
英伟达发布Nemotron Speech ASR:专为低延迟语音代理设计的开源转录模型
英伟达发布了专为低延迟语音代理和实时字幕设计的流式英语转录模型Nemotron Speech ASR。该模型采用缓存感知的FastConformer编码器和RNNT解码器,支持可配置的上下文大小以控制延迟。在Hugging Face OpenASR基准测试中,模型在0.16秒块大小下词错误率约为7.84%。
微软谷歌大力招聘能源专家应对AI电力瓶颈
微软和谷歌等科技巨头正积极招聘能源领域专家,以应对AI发展中的电力短缺问题。自2022年以来,微软新增超570名能源员工,谷歌新增340名,亚马逊新增605名。微软CEO纳德拉指出,缺电比缺GPU更致命,电力供应已成为AI发展的关键瓶颈。
美国政府将对AMD和NVIDIA在华AI芯片销售征收25%关税
美国总统特朗普宣布对NVIDIA和AMD的AI芯片销售征收25%关税,作为与科技巨头达成协议的一部分。这一关税适用于H200和MI325X等芯片,旨在实施销售分成并保护这一特殊安排。关税基于国家安全调查,不适用于在美国国内使用的芯片。
美国对运往中国的英伟达H200 AI芯片征收25%关税
美国政府宣布对包括英伟达H200在内的先进AI芯片征收25%关税。该关税适用于在美国境外生产、经美国转运至其他国家的芯片。英伟达表示此举允许其向经批准的客户销售H200芯片。
OpenAI 呼吁美国本土 AI 硬件供应商以推动国内制造
OpenAI 发布提案征集以促进美国本土 AI 硬件生产。该公司寻求数据中心组件、消费电子和机器人领域的制造商和供应商。申请截止日期为 2026 年 6 月。
英伟达开源KVzap:一种近乎无损的KV缓存剪枝方法
英伟达开源了KVzap,这是一种先进的KV缓存剪枝方法,能实现2到4倍的压缩。KVzap使用小型代理模型替代昂贵的评分机制,直接基于隐藏状态预测重要性分数。该方法在保持模型准确性的同时,显著减少了内存占用,适用于长上下文部署。
超半数AI项目因基础设施复杂而搁浅
DDN联合谷歌云和Cognizant的研究报告显示,过去两年超半数AI项目因基础设施复杂被延迟或取消。约三分之二的美国企业决策者认为AI环境过于复杂难以管理。DDN CEO指出基础设施、电力和运营基础不足是主要挑战,导致项目延迟和GPU利用率低。
RISC-V 领军者 SiFive 加入 Nvidia NVLink Fusion 生态系统
RISC-V 芯片设计公司 SiFive 宣布支持 Nvidia 的 NVLink Fusion 互连技术。该技术用于连接 CPU 和 GPU,以构建统一的 AI 加速器。此举增强了 NVLink 在数据中心 AI 计算中的行业地位。
英伟达推出ICMS平台,为智能体AI扩展提供新内存架构
随着基础模型参数达万亿级,智能体AI的长期记忆存储成为瓶颈。英伟达在Rubin架构中推出推理上下文内存存储平台。该平台创建专门存储层,提升长上下文工作负载吞吐量达5倍。
卡特彼勒与英伟达合作,为工程机械带来边缘AI助手
卡特彼勒在CES上展示了搭载英伟达边缘AI平台的迷你挖掘机。该设备通过本地运行的AI系统实现自然语言交互,辅助操作员安全高效工作。双方正探索将AI技术扩展至整个车队和工地,并试点工厂数字孪生项目。
阿斯利康收购Modella AI以加速肿瘤学研究
阿斯利康已同意收购波士顿AI公司Modella AI,以深化其在肿瘤学研究和临床开发中的AI应用。Modella AI专注于使用计算机分析病理数据,其基础模型和AI代理将被整合到阿斯利康的研发工作中。此次收购反映了制药行业从AI合作转向收购的趋势,旨在增强对AI工具的控制和整合。
美国众议院通过法案,将远程GPU访问纳入出口管制
美国众议院以369-22票通过《远程访问安全法案》,将远程访问高端GPU等受控芯片纳入出口管制范围。此举旨在堵住中国公司通过云服务租用美国芯片的漏洞。法案仍需参议院通过和总统签署才能生效。
中国收紧英伟达H200芯片采购限制,仅限特殊情况
中国政府收紧对英伟达H200 AI芯片的采购限制,仅允许特殊情况如大学研究实验室购买。英伟达否认了预付款的说法,称未交付订单不收取费用。此举旨在保护国内芯片产业,优先于让本地AI开发者轻松获取先进美国处理器。
英伟达与礼来宣布AI药物发现联合创新实验室
英伟达与礼来在摩根大通医疗健康年会上宣布成立首个AI联合创新实验室。该实验室将结合礼来的制药专长与英伟达的AI技术,共同投资10亿美元用于人才、基础设施和计算资源。目标是利用AI加速药物发现过程,特别是针对衰老脑部疾病等复杂生物模型。
AI芯片初创公司Etched融资5亿美元挑战英伟达
AI芯片初创公司Etched在新一轮融资中筹集了约5亿美元。这笔资金旨在帮助公司在人工智能处理器市场与英伟达竞争。人工智能处理器市场目前正处于快速增长阶段。
Hugging Face 模型使用的 Python 库遭恶意元数据攻击
Hugging Face 模型使用的流行 Python 库存在安全漏洞,允许攻击者通过元数据隐藏恶意代码。漏洞涉及 NVIDIA、Salesforce 和 Apple 开发的开源库,均使用 Meta 维护的 Hydra 库。Palo Alto Networks 发现并报告了这些漏洞,维护者已发布修复措施。
物理AI成为科技新前沿,英伟达CEO称其重要性堪比ChatGPT
物理AI是AI在硬件中的实现,能感知环境并执行动作。英伟达CEO黄仁勋在CES上将其重要性比作ChatGPT的发布。智能眼镜等设备已体现物理AI,应用于机器人等领域。
美国新规为英伟达向中国销售H200芯片铺平道路
特朗普政府发布修订标准,为英伟达向中国销售H200 AI芯片提供审批路径。新规旨在规范处理器出口至中国买家的政府批准流程。此举可能影响英伟达在中国市场的AI芯片销售策略。
Cerebras 拟以 220 亿美元估值融资 10 亿美元
AI 芯片提供商 Cerebras Systems 正洽谈新一轮融资约 10 亿美元。此轮融资将使公司估值达到 220 亿美元。资金将用于增强与英伟达的竞争能力。
Anthropic 拟以 3500 亿美元估值融资 100 亿美元
据《华尔街日报》报道,Anthropic 正计划以 3500 亿美元估值筹集 100 亿美元新资金。Coatue Management 和新加坡主权财富基金 GIC 将牵头本轮融资。此次融资独立于 NVIDIA 和微软此前承诺的 150 亿美元投资。
Nous Research 发布开源编程模型 NousCoder-14B,对标 Claude Code
开源 AI 初创公司 Nous Research 发布了 NousCoder-14B 编程模型。该模型在 LiveCodeBench v6 基准测试中准确率达 67.87%,基于阿里 Qwen3-14B 训练。Nous Research 公开了模型权重和完整训练环境,强调开源透明度。
日本科技机构开发NVIDIA驱动的Moonshot机器人用于老年护理
日本科学技术振兴机构Moonshot项目利用NVIDIA技术开发AI驱动的老年护理机器人。这些机器人集成NVIDIA GPU和Jetson模块,用于执行烹饪、清洁和护理任务。项目旨在到205年实现自主学习的机器人融入日常生活。
AI助手助力伯克利粒子加速器保持稳定运行
劳伦斯伯克利国家实验室部署了名为加速器助手的AI系统,该系统基于大语言模型,用于支持高级光源粒子加速器的实验。加速器助手利用NVIDIA H100 GPU进行加速推理,能自主编写Python代码并解决问题,将实验设置时间减少100倍。该系统为粒子加速器和核设施等复杂科学基础设施提供了应用AI的蓝图。
英伟达要求中国客户预付H200订单款项
英伟达可能在本季度开始向中国客户销售H200 GPU,但要求预付全款且不提供退款。中国监管机构预计将批准H200的销售,但政策变化风险导致英伟达采取这一措施。尽管H200已推出两年,它仍是中国市场性能最强的芯片之一,吸引了大量订单。
英伟达在CES 2026发布Rubin架构和Alpamayo AI模型
英伟达在CES 2026上推出了Rubin计算架构,计划于2026年下半年开始取代Blackwell架构。同时,英伟达发布了Alpamayo开源AI模型系列,专为自动驾驶车辆设计。这些发布旨在满足AI应用日益增长的计算需求。
研究人员发现商业AI模型可完整输出《哈利·波特》书籍
斯坦福和耶鲁大学的研究人员测试了Claude 3.7 Sonnet、GPT-4.1、Gemini 2.5 Pro和Grok 3等商业AI模型。他们发现这些模型能记忆并输出受版权保护的内容,如《哈利·波特》书籍。这一发现涉及AI模型训练数据使用和版权侵权的法律问题。
英伟达Vera Rubin GPU将于2026年下半年发布,Blackwell架构性能持续提升
英伟达CEO黄仁勋在CES主题演讲中宣布,Vera Rubin GPU的推理和训练性能分别是Blackwell的5倍和3.5倍,但该芯片预计2026年下半年才上市。英伟达通过TensorRT-LLM引擎的优化,在三个月内将Blackwell GPU的推理性能提升了2.8倍。这些优化包括程序化依赖启动、全对全通信、多令牌预测和NVFP4格式,降低了每百万令牌的成本并提高了吞吐量。
物理AI正进军汽车领域,英伟达等芯片商引领趋势
物理AI指自主系统通过摄像头和传感器数据理解现实世界并执行复杂任务。英伟达和ARM在CES上宣布针对物理AI的新举措,包括开源模型和新部门。福特、索尼本田合作车型Afeela及吉利等车企计划推出自动驾驶系统,依赖芯片商提供计算资源。
英伟达发布多智能体智能仓库与零售目录增强AI蓝图
英伟达发布了多智能体智能仓库和零售目录增强两款AI蓝图。这些开源参考架构旨在为零售价值链提供定制化AI解决方案。蓝图将帮助开发者降低集成成本,提升零售行业的运营效率。
人工大脑或引领超高效超级计算机发展
桑迪亚国家实验室的研究表明,神经形态计算机能高效解决偏微分方程等复杂数学问题。该研究在英特尔Loihi 2神经芯片上开发了NeuroFEM算法,实现了近理想的强扩展性。神经形态系统如Hala Point的能效可达15 TOPS/瓦,是英伟达Blackwell芯片的2.5倍。
英国初创公司利用行星生物多样性生成AI候选药物
英国初创公司Basecamp Research与Nvidia和微软合作,开发了名为Eden的AI模型系列。该模型基于超过100万个微生物物种的进化数据训练,旨在生成潜在的基因疗法和抗生素。Eden已设计出能进行精确DNA插入的酶和对抗耐药细菌的抗菌肽,在测试中显示出高功能性命中率。
智能仓库弃用云端转向边缘AI以解决延迟陷阱
智能仓库正从云端转向边缘AI,以解决物流中的延迟瓶颈。自主移动机器人依赖本地处理实现毫秒级决策,避免碰撞。这一转变改变了仓库的带宽经济,支持大规模机器人部署。
英伟达发布Rubin架构,强调网络协同设计以提升AI性能
英伟达在CES上意外发布了Vera Rubin架构,预计今年晚些时候交付客户。该架构相比Blackwell架构,推理成本降低10倍,训练特定模型所需GPU数量减少4倍。Rubin平台包含六款新芯片,包括GPU、CPU和四款网络芯片,通过协同设计实现性能优势。
Lightricks 开源 AI 视频模型 LTX-2,挑战 Sora 和 Veo
以色列公司 Lightricks 开源了 190 亿参数的 AI 视频模型 LTX-2。该模型能从文本提示生成长达 20 秒的同步音视频内容,包括口型同步语音和背景音效。LTX-2 声称比竞争对手模型快 18 倍,并支持高达 4K 分辨率的视频生成。
中国研究人员诊断AI图像模型失语症,开发自愈框架
中国研究人员发现多模态AI模型存在理解与生成能力不匹配现象,将其称为传导性失语症。他们开发了UniCorn框架,让单一模型同时扮演提议者、求解者和评判者三个角色。该框架在复杂场景生成和空间理解任务上表现显著提升,甚至在某些基准测试中超越GPT-4o。
超大规模AI数据中心:2026年十大突破技术
超大规模AI数据中心正以革命性架构为AI模型提供算力,但能耗惊人。这些数据中心将数十万GPU芯片集成同步集群,构成巨型超级计算机。科技巨头投入数千亿美元建设,但高能耗带来环境与社区挑战。
Multiply Labs 利用 NVIDIA 技术自动化细胞疗法生物制造实验室
Multiply Labs 正在通过机器人自动化细胞疗法制造,以提高精度和卫生标准。该公司使用 NVIDIA Omniverse 和 Isaac Sim 开发数字孪生和训练机器人。这项技术旨在降低污染风险并扩大细胞疗法的生产规模。
英伟达Rubin平台实现机架级加密,提升企业AI安全
英伟达在CES 2026上宣布Vera Rubin NVL72平台,为72个GPU、36个CPU和整个NVLink结构提供加密。这是首个跨CPU、GPU和NVLink域的机架级机密计算平台。该技术允许企业通过加密验证安全,而非依赖云提供商的合同信任。
物理AI成为AI新前沿,已在CES展会上崭露头角
物理AI是AI技术的新前沿,旨在让AI在现实世界中感知和行动。英伟达CEO黄仁勋在CES上将其重要性比作ChatGPT的发布。智能眼镜等设备被视为物理AI的早期应用示例。
英伟达与礼来合作投资10亿美元,利用Vera Rubin GPU加速AI药物研发
英伟达与礼来宣布合作投资10亿美元建立联合创新实验室。双方将利用英伟达BioNeMo平台和Vera Rubin GPU加速AI药物研发。该实验室预计今年开放,旨在开发药物发现基础模型并优化相关流程。