MiroMind发布了MiroThinker 1.5 AI模型,该模型仅有300亿参数,而领先的基础大语言模型通常使用数千亿或万亿参数。MiroThinker 1.5在小型推理模型中脱颖而出,提供代理研究能力,可与Kimi K2和DeepSeek等万亿参数竞争对手相媲美,但推理成本大幅降低。
发布标志着高效、可部署AI代理的推进里程碑。企业长期以来被迫在昂贵的前沿模型API调用或妥协的本地性能之间做出选择。MiroThinker 1.5提供了第三条路径:专门为扩展工具使用和多步推理设计的开源权重模型。行业趋势正从高度专业化代理转向更通用的代理,MiroThinker 1.5是该领域的一个严肃开源权重竞争者。
对于评估AI部署的IT团队,幻觉仍是使用开源模型的主要障碍。MiroThinker 1.5通过MiroMind所称的“科学家模式”解决此问题,这是模型处理不确定性的基本架构转变。模型被训练执行可验证的研究循环:提出假设、查询外部来源获取证据、识别不匹配、修订结论并再次验证。在训练中,模型因缺乏来源支持的高置信度输出而受到明确惩罚。
企业部署的实际意义是可审计性。当MiroThinker产生答案时,它可以展示推理链和咨询的外部来源。对于金融服务、医疗和法律等监管行业,这创建了基于记忆模型无法提供的文档轨迹。合规团队可以审查模型得出的结论及其推理过程。这种方法还减少了生产AI系统中常见的“自信幻觉”问题。模型被训练在不确定时寻求验证而非推断,这直接转化为更少的昂贵错误。
在此框架下,MiroThinker-v1.5-30B提供与参数多30倍的模型相媲美的性能,包括万亿参数的Kimi-K2-Thinking模型。在BrowseComp-ZH基准测试中,300亿参数模型以69.8分超越了其万亿参数竞争对手。成本差异同样显著,MiroMind报告300亿变体的推理成本低至每次调用0.07美元,约为Kimi-K2-Thinking成本的二十分之一,且推理速度更快。更大的235B变体在多个搜索代理基准测试中排名全球顶级,在一般代理搜索评估中与DeepSeek V3系统持平。