NVIDIA 发布了 Llama Nemotron Nano VLM 模型,这是一个基于 Llama 架构的视觉语言模型。该模型已上传至 Hugging Face Hub,供开发者免费下载和使用。它支持图像理解和文本生成任务,适用于多模态 AI 应用。
NVIDIA 发布了 Llama Nemotron Nano VLM 模型,这是一个基于 Llama 架构的视觉语言模型。该模型已上传至 Hugging Face Hub,供开发者免费下载和使用。它支持图像理解和文本生成任务,适用于多模态 AI 应用。
NVIDIA 发布了 Llama Nemotron Nano VLM 模型,这是一个基于 Llama 架构的视觉语言模型。该模型已上传至 Hugging Face Hub,供开发者免费下载和使用。它支持图像理解和文本生成任务,适用于多模态 AI 应用。
视觉语言模型(VLM)是 AI 领域的一个重要分支,它结合了计算机视觉和自然语言处理技术,能够理解和生成与图像相关的文本。近年来,随着多模态 AI 的发展,VLM 在图像描述、视觉问答、文档分析等应用中展现出巨大潜力。NVIDIA 作为 AI 硬件和软件领域的领先者,此前已推出多个 AI 模型和工具,如 NeMo 框架和 Blackwell 架构,以加速 AI 研究和部署。Hugging Face Hub 是一个流行的 AI 模型共享平台,汇集了众多开源模型,方便开发者快速访问和集成。此次 NVIDIA 发布 Llama Nemotron Nano VLM,进一步丰富了其 AI 模型生态,为开发者提供了更多选择,可能推动多模态 AI 技术的普及和创新。
NVIDIA 宣布 NIM 推理微服务现可加速部署 Hugging Face 上的超过 10 万个大型语言模型。NIM 提供单一 Docker 容器,支持多种 LLM 格式和推理框架,自动优化性能。用户需具备 NVIDIA GPU、Docker 和相应账户,以简化模型部署流程。
NVIDIA 的 AI-Q 蓝本在 Hugging Face DeepResearch Bench 的“LLM with Search”排行榜中位列第一。AI-Q 融合了 Llama 3.3-70B Instruct 和 Llama-3.3-Nemotron-Super-49B-v1.5 两个开源大语言模型,支持长上下文检索和代理推理。该架构还包括 NVIDIA NeMo Retriever 和 NeMo Agent 工具包,用于可扩展的多模态搜索和复杂工作流编排。
英伟达发布了包含600万条样本的多语言推理数据集,支持法语、西班牙语、德语、意大利语和日语五种语言。该数据集基于先前发布的英语推理数据翻译而成,旨在提升开源模型的推理能力。同时,英伟达还推出了Nemotron Nano 2 9B模型,采用混合Transformer-Mamba架构,提供可配置的思考预算以优化成本。
登录后参与评论