AiSiri网3月3日消息,当你还在为如何写出“完美提示词”而绞尽脑汁时,谷歌研究院告诉你,也许是时候返璞归真了。最近一篇名为《提示重复可增强大语言模型非推理性能》的论文揭示了一个对业界颇具启发的发现:想让AI在某些事情上做得更好,最简单有效的方法可能就是——把话再说一遍。
以科技KOL的风格来讲,这就像是你在跟心不在焉的朋友交代一件重要的事,在旁边踩他一脚,提醒道:“喂,我刚才说的,你再听一遍。”
具体操作简单到令人失语:把你原本需要发给AI的提示词完整地复制一遍,然后粘贴在原提示词后面,再发送出去。比如你的需求是“总结这份报告的核心观点”,那么就把它变成“总结这份报告的核心观点 总结这份报告的核心观点”。至此,你的提示词优化工作就完成了。
这个方法在学术上被称为“提示重复”(Prompt Repetition)。谷歌团队在论文中指出,现代主流大语言模型基于Transformer架构,其工作原理如同单方向阅读,模型在读取提示词时,是逐词进行的,无法前瞻。这种机制有时会导致对前文信息的利用不足或丢失。
而重复提示词,相当于为模型创造了一次“虚拟重读”的机会。当模型第二次“看到”相同内容时,整个上下文的关联信息在模型内部得到了强化,从而更容易抓住关键指令,并生成更准确的回应。
效果如何?数据给出的答案有些惊人。研究团队对包括Gemini、GPT、Claude在内的7个主流大模型进行了广泛测试。在非推理任务(如信息提取、简易问答、内容分类)上,该方法在70个测试场景中的47个里带来了模型性能的显著提升,23个场景持平,全程未出现负面效果。
一个典型的例子是“姓名索引”任务(NameIndex):给模型一份包含50个人名的长列表,然后询问“第25个人是谁”。对于Gemini 2.0 Flash-Lite模型,在常规提示下其准确率只有21.33%,几乎不具备可用性;但采用重复提示词后,准确率飙升至97.33%,提升了超过4倍。
这种提升背后并非简单的“加长输入”。论文明确指出,性能的优化来源于“重复”这一结构本身,而非单纯增加了输入内容的长度。实验甚至发现,在某些任务上,将提示词重复三次的效果会更好。
然而,这项技巧并非“万能钥匙”。它的局限性同样明确。对于那些本身就内置了深度推理机制、会进行内部反复推算的模型——例如OpenAI的o1系列或DeepSeek-R1——外部提示词的重复收效甚微。因为这些模型已经自主完成了“重复思考”的过程。
此外,该方法也不适用于纯粹的创造性任务,如诗歌创作、开放式写作。更重要的是,如果原始提示词已经很长,接近模型的上文处理极限,重复操作可能导致处理延迟甚至错误,需要用户酌情判断。
这项研究的商业意义可能大于其技术炫酷程度。它提醒业界,在追逐复杂算法和庞大参数的同时,有时最朴素、最高性价比的优化恰恰隐藏在基础交互逻辑里。对于企业而言,这可能意味着在无需对现有AI系统进行大规模改造的前提下,仅通过调整输入端的交互协议,就能在特定业务场景(如客服信息提取、文档关键点查找)中获得显著的效果提升。
有行业观察者评论,这一发现让复杂的提示词工程学显得有些尴尬,但它也揭示了当前大模型底层架构中一个有趣的信息处理特性,为未来的模型优化方向提供了新的思路。
如今,普通用户面对AI偶尔的“答非所问”或“丢三落四”,或许可以先尝试将这个成本近乎为零的技巧——将自己要说的话,再说一遍。从某种意义上说,这句古老的沟通智慧,在人类与AI的对话中,再次被证明是有效的。
事实上,很多让AI性能飙升的技巧,往往并不神秘,甚至足够简单。


