谷歌研究发现重复提示可提升LLM非推理任务准确率高达76%

6 天前·来源:VentureBeat
谷歌LLM提示工程TransformerAI模型

谷歌研究团队发布论文,发现简单重复输入提示能显著提升大型语言模型在非推理任务中的性能。该方法在包括Gemini、GPT-4o、Claude和DeepSeek在内的多个主流模型上均有效,且对生成速度几乎没有影响。研究显示,在70项基准测试中,重复提示在47项中获胜,零失败。

谷歌研究团队发布了一篇新论文,标题为“Prompt Repetition Improves Non-Reasoning LLMs”。研究发现,对于不需要复杂推理步骤的任务,简单重复输入提示(即复制粘贴提示使其出现两次)能显著提升大型语言模型的性能。该方法在包括Gemini、GPT-4o、Claude和DeepSeek在内的多个主流模型上均有效。论文指出,由于Transformer架构的工作原理,这种“重复提示”技巧对生成速度几乎没有影响。研究人员测试了七种不同模型,从轻量级模型如Gemini 2.0 Flash Lite和GPT-4o-mini到重量级模型如Claude 3.7 Sonnet和DeepSeek V3。在70项基准测试中,重复提示在47项中获胜,零失败。在需要从提示中精确检索的任务中,提升尤为显著。例如,在自定义的“NameIndex”基准测试中,Gemini 2.0 Flash-Lite的准确率从基线21.33%提升至97.33%。论文解释了重复提示有效的原因:大多数现代LLM是“因果”语言模型,处理文本时严格从左到右。重复提示将输入从<QUERY>转换为<QUERY><QUERY>,使模型在处理第二个查询副本时能“回顾”第一个副本的所有标记,从而实现类似双向注意力的效果,帮助解决歧义或检索细节。

背景阅读

大型语言模型(LLM)如GPT、Gemini和Claude基于Transformer架构,该架构通过自注意力机制处理序列数据。传统上,LLM优化常涉及复杂提示工程技术,如“思维链”(Chain of Thought),要求模型逐步推理并展示过程,以提升复杂任务性能。然而,这些方法可能增加计算开销或用户交互复杂度。谷歌研究的重复提示技术提供了一种简单替代,特别适用于非推理任务,如信息检索或分类,这些任务不依赖多步逻辑推导。该发现挑战了现有提示工程范式,表明基础架构限制(如因果建模)可能通过简单操作缓解。随着LLM在搜索、客服等应用中的普及,此类效率提升技术对降低部署成本和提升用户体验具有重要意义。相关研究可能推动更广泛的模型优化策略探索。

评论 (0)

登录后参与评论

加载评论中...