谷歌研究团队发布了一篇新论文,标题为“Prompt Repetition Improves Non-Reasoning LLMs”。研究发现,对于不需要复杂推理步骤的任务,简单重复输入提示(即复制粘贴提示使其出现两次)能显著提升大型语言模型的性能。该方法在包括Gemini、GPT-4o、Claude和DeepSeek在内的多个主流模型上均有效。论文指出,由于Transformer架构的工作原理,这种“重复提示”技巧对生成速度几乎没有影响。研究人员测试了七种不同模型,从轻量级模型如Gemini 2.0 Flash Lite和GPT-4o-mini到重量级模型如Claude 3.7 Sonnet和DeepSeek V3。在70项基准测试中,重复提示在47项中获胜,零失败。在需要从提示中精确检索的任务中,提升尤为显著。例如,在自定义的“NameIndex”基准测试中,Gemini 2.0 Flash-Lite的准确率从基线21.33%提升至97.33%。论文解释了重复提示有效的原因:大多数现代LLM是“因果”语言模型,处理文本时严格从左到右。重复提示将输入从<QUERY>转换为<QUERY><QUERY>,使模型在处理第二个查询副本时能“回顾”第一个副本的所有标记,从而实现类似双向注意力的效果,帮助解决歧义或检索细节。