DeepMind发布AGI安全技术方法论文
DeepMind发布新论文《技术AGI安全与安全方法》,概述AGI安全风险领域。论文聚焦滥用、错位、事故和结构性风险,强调主动规划与行业合作。DeepMind探索前沿AGI技术,旨在负责任地开发通用人工智能。
DeepMind发布新论文《技术AGI安全与安全方法》,概述AGI安全风险领域。论文聚焦滥用、错位、事故和结构性风险,强调主动规划与行业合作。DeepMind探索前沿AGI技术,旨在负责任地开发通用人工智能。
Meta 在 Hugging Face 上发布了 Llama 4 Maverick 和 Scout 两款大型语言模型。这两款模型均采用混合专家架构,支持原生多模态处理,并已集成到 Hugging Face 生态系统中。Llama 4 Scout 设计为可在单 GPU 上部署,而 Maverick 提供 BF16 和 FP8 格式,适用于不同硬件需求。
Inception与MBZUAI合作推出阿拉伯语AI排行榜空间,整合了AraGen-03-25和阿拉伯语指令遵循评估。AraGen基准更新至03-25版本,数据集扩展至340个问答对,涵盖问答、推理、安全和语法分析。阿拉伯语指令遵循排行榜基于首个公开的阿拉伯语IFEval基准,旨在评估模型遵循指令的能力。
Hugging Face与Cloudflare宣布合作,为FastRTC开发者提供企业级WebRTC基础设施。开发者可使用Hugging Face令牌免费每月流式传输10GB数据。该合作旨在简化AI开发者构建低延迟音频视频应用的过程。
Google Cloud Next 2025 大会宣布多项 AI 更新。Ironwood TPU 提供五倍计算能力和六倍内存容量。Vertex AI 新增 Lyria 模型,支持视频、图像、语音和音乐生成。Gemini 2.5 Flash 模型即将在 Vertex AI 上线。
语言技术实验室发布了 Visual Salamandra,将 Salamandra 大语言模型扩展至图像和视频处理。该模型基于 70 亿参数基础模型,整合了 Google SigLIP 编码器和先进融合技术。Visual Salamandra 支持从图像、视频到文本的多样化输入,并强调欧洲语言多样性。
深度求索AI发布研究论文,介绍一种提升通用奖励模型推理可扩展性的新技术SPCT。公司同时预告了下一代模型R2即将推出,引发AI社区关注。该技术通过动态生成原则和批评来优化奖励生成,利用拒绝微调和基于规则的在线强化学习实现。
Hugging Face 宣布收购 Pollen Robotics,以扩展其开源机器人业务。收购后,Hugging Face 将开始销售开源人形机器人 Reachy 2,售价为 7 万美元。这是 Hugging Face 的第五次收购,旨在推动 AI 与机器人技术的结合。
Protect AI 与 Hugging Face 自 2024 年 10 月起合作,使用 Guardian 技术扫描机器学习模型安全。截至 2025 年 4 月 1 日,已扫描 447 万个模型版本,识别出 35.2 万个安全问题。合作期间,Protect AI 推出了四个新的威胁检测模块,增强了对模型漏洞的检测能力。
Google 开发了大型语言模型 DolphinGemma,用于研究海豚的通信方式。该模型旨在帮助科学家分析海豚的声音和行为模式。目标是探索海豚可能表达的含义,推动跨物种沟通研究。
Gemini Advanced 和 Whisk Animate 新增视频生成功能。用户可通过文本提示在 Gemini Advanced 中生成高分辨率八秒视频。Whisk Animate 则支持将图像转换为八秒动画片段。
普林斯顿大学研究人员发布了HELMET基准,用于全面评估长上下文语言模型。该基准改进了现有评估方法的多样性、可控性和可靠性。研究评估了59个最新模型,发现前沿模型在复杂任务上仍有局限。
Cohere 现已作为推理服务提供商在 Hugging Face Hub 上得到支持。这是首个直接在 Hub 上分享和部署模型的模型创建者。用户可通过 Cohere 对多个模型进行无服务器推理。
智谱AI宣布全面开源其新一代通用语言模型GLM-4系列和GLM-Z1推理模型。GLM-Z1推理速度比DeepSeek-R1快8倍,达到每秒200个令牌。公司还推出了面向国际的平台Z.ai,提供免费访问和API服务。
谷歌推出了Gemini 2.5 Flash模型,这是其首款全混合推理模型。该模型允许开发者根据需要开启或关闭推理功能。这一发布旨在为开发者提供更灵活的AI工具选择。
快手Kwaipilot团队推出新型强化学习框架SRPO,旨在解决GRPO在跨域训练中的性能瓶颈和效率问题。SRPO基于Qwen2.5-32B模型,在数学和代码领域达到DeepSeek-R1-Zero级别性能。该框架仅需十分之一的训练步骤即可实现同等性能,并已开源模型和技术报告。
Google DeepMind 宣布 Music AI Sandbox 新增功能并扩大访问范围。该工具基于 Lyria 2 模型开发,由 Google DeepMind 团队和 YouTube 合作完成。新增功能旨在为音乐创作者提供更多 AI 辅助工具。
Hugging Face开源了实验性强化学习实现PipelineRL,旨在解决大规模语言模型强化学习中推理吞吐量与在线数据收集之间的权衡问题。PipelineRL的核心创新是在训练过程中进行飞行权重更新,允许推理服务器保持高吞吐量,同时最小化用于生成数据的模型权重与最新更新权重之间的延迟。该方法在Open-Reasoner-Zero数据集上训练7B和32B模型时,在AIME 2024和MATH 500基准测试中取得了竞争性结果,且使用更简单的强化学习算法。
Meta 发布了 Llama Guard 4,这是一个 120 亿参数的多模态安全模型。该模型旨在检测图像和文本中的不当内容,支持多语言输入。同时发布的还有两个新的 Llama Prompt Guard 2 模型,专注于检测提示注入和越狱攻击。
英特尔推出了AutoRound,这是一种专为大语言模型和视觉语言模型设计的后训练量化方法。该工具通过有符号梯度下降优化权重舍入和裁剪范围,支持INT2至INT8的低比特量化,在保持高精度的同时减少模型大小和推理延迟。AutoRound兼容多种模型架构和设备,并提供快速量化能力,例如在A100 GPU上量化72B模型仅需37分钟。
深度求索AI发布了专为Lean 4环境设计的开源大语言模型DeepSeek-Prover-V2。该模型采用创新的递归定理证明流程,利用DeepSeek-V3生成高质量初始化数据,在神经定理证明中达到领先性能。同时,深度求索推出了新基准ProverBench,包含325个问题,用于更全面评估数学推理能力。
Google 提前发布了 Gemini 2.5 Pro 预览版,旨在让开发者更早体验。该版本在编程性能方面有所改进,基于开发者使用反馈进行优化。
LeRobot社区数据集旨在成为机器人学领域的“ImageNet”,以解决机器人泛化能力的数据瓶颈。当前机器人数据集多来自学术环境,缺乏多样性,限制了VLA模型的泛化表现。通过社区贡献和开放数据共享,构建多样化的数据集是推动机器人技术进步的关键。
Hugging Face 今天发布了基于 OpenAI Whisper 模型的新推理端点。该端点利用 vLLM 项目优化,在 NVIDIA GPU 上实现高达 8 倍的性能提升。用户可通过一键部署,以经济高效的方式使用专用转录模型。
Kaggle和Hugging Face宣布平台集成,用户可直接在Kaggle上发现和使用Hugging Face模型。集成支持从模型页面一键创建Kaggle笔记本,并自动生成模型页面。未来计划扩展至Kaggle竞赛,确保数据安全性和模型完整性。
DeepMind推出AlphaEvolve,这是一个由大语言模型驱动的进化编码代理,用于通用算法发现和优化。AlphaEvolve结合Gemini模型的创意问题解决能力和自动化评估器,通过进化框架改进算法。该代理已应用于Google数据中心、芯片设计和AI训练过程,提升了效率并解决了数学和计算问题。
Falcon-Edge 系列是基于 BitNet 架构的三元格式语言模型,提供 1B 和 3B 参数版本。该系列通过单一训练过程同时生成非量化和量化模型变体,支持轻松微调。模型已在 Hugging Face 上发布,适用于边缘设备部署。
DeepSeek团队发布14页技术论文,探讨大语言模型与硬件架构的协同设计。论文以DeepSeek-V3为例,展示如何通过硬件感知设计克服内存和计算瓶颈。研究聚焦硬件特性对模型架构的影响,为低成本大规模训练提供实践指导。
由前 OpenAI CTO Mira Murati 创立的 AI 初创公司 Thinking Machines Lab 上周失去五名员工,其中四人加入 OpenAI。公司正寻求以 500 亿美元估值融资,但人才流失可能动摇投资者信心。投资者包括 Andreessen Horowitz、Accel 和 Nvidia,目前公司仅发布一款产品。
微软发布了Differential Transformer V2,这是一种改进的Transformer架构。该版本通过增加查询头数量但不增加键值头,提升了大型语言模型的解码速度。DIFF V2无需自定义内核,可在标准GPU上高效运行。