transformer

技术27 篇资讯
2026年1月19日

Holo1:新型GUI自动化视觉语言模型家族发布,赋能Surfer-H代理

H公司发布了Holo1,这是一个专为深度网络UI理解和精确定位设计的开源动作视觉语言模型家族。该家族包括Holo1-3B和Holo1-7B模型,后者在常见UI定位基准测试中达到76.2%的平均准确率。Holo1模型基于Qwen2.5-VL架构,完全兼容transformers,并支持WebClick基准数据集。

20:47

SGLang 集成 Transformers 后端,提升 AI 模型推理性能

SGLang 现已支持 Hugging Face Transformers 作为后端。用户可在 SGLang 中直接运行任何 Transformers 兼容的模型。该集成旨在结合 Transformers 的灵活性与 SGLang 的高性能推理能力。

20:41

Gemma 3n 模型全面开源,支持多模态本地运行

Google 的 Gemma 3n 模型现已全面开源,可在主流开源库中使用。该模型原生支持图像、文本、音频和视频输入,专为本地硬件运行设计。发布两个版本,E2B 和 E4B,分别需要 2GB 和 3GB GPU 内存,性能超越传统参数规模模型。

20:39

NVIDIA NIM 加速 Hugging Face 上大量 LLM 的部署

NVIDIA 宣布 NIM 推理微服务现可加速部署 Hugging Face 上的超过 10 万个大型语言模型。NIM 提供单一 Docker 容器,支持多种 LLM 格式和推理框架,自动优化性能。用户需具备 NVIDIA GPU、Docker 和相应账户,以简化模型部署流程。

09:28

英伟达发布600万条多语言推理数据集

英伟达发布了包含600万条样本的多语言推理数据集,支持法语、西班牙语、德语、意大利语和日语五种语言。该数据集基于先前发布的英语推理数据翻译而成,旨在提升开源模型的推理能力。同时,英伟达还推出了Nemotron Nano 2 9B模型,采用混合Transformer-Mamba架构,提供可配置的思考预算以优化成本。

09:19

谷歌发布EmbeddingGemma,高效多语言嵌入模型

谷歌发布了EmbeddingGemma,这是一款高效的多语言嵌入模型。该模型拥有308M参数和2K上下文窗口,支持超过100种语言。在MTEB基准测试中,它是500M参数以下排名最高的纯文本多语言嵌入模型。

09:18
2026年1月18日

AI助力食物过敏研究:首个社区驱动实验室成立

全球约2.2亿人患有食物过敏,严重影响生活质量。AI模型如AlphaFold和AllergenAI正加速过敏蛋白识别与药物发现。AI for Food Allergies项目宣布建立首个社区驱动研究实验室,旨在通过开放协作项目推动该领域发展。

20:53

Sentence Transformers 库正式加入 Hugging Face

Sentence Transformers 库已从德国达姆施塔特工业大学的 UKP 实验室转移至 Hugging Face。该库是一个用于生成高质量语义嵌入的开源工具,自 2019 年发布以来被广泛用于 NLP 任务。Hugging Face 将提供基础设施支持,确保项目持续更新和发展。

20:51

DeepMind发布Aeneas模型,AI助力历史学家解读古罗马铭文

DeepMind在《自然》杂志发表论文,推出首个用于古铭文语境化的AI模型Aeneas。该模型能快速检索数千拉丁铭文,帮助历史学家解读和修复文本。Aeneas基于多模态生成神经网络,训练数据集包含超过17.6万条拉丁铭文。

20:40

Hugging Face与谷歌云深化合作,推动开放AI模型构建

Hugging Face宣布与谷歌云建立新的战略合作伙伴关系,旨在帮助企业利用开放模型构建自己的AI。双方将共同优化谷歌云平台上的模型部署和下载体验,包括创建CDN网关以加速模型访问。此次合作还将为Hugging Face用户提供更多谷歌云实例和成本效益。

20:31

英伟达发布PersonaPlex-7B-v1:专为自然全双工对话设计的实时语音模型

英伟达研究人员发布了PersonaPlex-7B-v1,这是一个全双工语音对话模型,旨在实现自然的语音交互和精确的角色控制。该模型采用单一Transformer架构,替代了传统的ASR-LLM-TTS级联流程,支持流式语音理解和生成,能够处理重叠语音和自然打断。PersonaPlex基于Moshi架构和Helium语言模型构建,使用真实和合成对话数据进行训练,以提升交互的自然性和适应性。

20:27

Transformers v5 发布:简化模型定义,支撑 AI 生态系统

Hugging Face 发布了 Transformers 库的 v5 版本,这是自 2020 年 v4 以来的重大更新。该库每日安装量从 v4 的 2 万次增长到 300 万次,总安装量已超过 12 亿次。v5 专注于简化模型定义、训练、推理和生产部署,支持超过 400 种模型架构。

09:15