礼貌待人或许能让你成为更好的人,但可能会让你的AI助手变蠢。
宾夕法尼亚州立大学最新研究发现,在向ChatGPT等大型语言模型提问时,不礼貌的提示词持续优于礼貌表达。这篇题为《注意你的语气:探究提示词礼貌程度对LLM准确性的影响》的论文指出,“非常粗鲁”的提示词获得正确答案的概率达84.8%,而“非常礼貌”的提示词准确率仅为80.8%。
虽然差距微小但具有统计学意义,这与先前认为模型会遵循人类社会规范并奖励文明用语的研究结论相悖。
“与预期相反,”作者Om Dobariya与Akhil Kumar写道,“不礼貌提示词持续表现更优……这表明新一代LLM对语气变化的反应机制可能已发生改变。” <span data-mce-type=”bookmark” style=”display:inline-block;width:0px;overflow:hidden;line-height:0″ class=”mce_SELRES_start”></span>
提示词工程学的矛盾之争
该结论颠覆了2024年一项研究《我们应当尊重LLM吗?关于提示词礼貌程度对模型性能影响的跨语言研究》的预期,该研究曾发现不礼貌提示词通常会降低模型表现,而过度礼貌也未见明显益处。
先前研究将语气视为具有微妙调节作用的稳定因子,而宾夕法尼亚州立大学的新发现彻底扭转了这一认知——至少对于ChatGPT-4o而言,粗鲁态度反而能提升准确率,这暗示新一代模型不再充当社会镜像,而是演变为崇尚直接表达的功能性机器。
不过本研究结论与沃顿商学院针对提示词工程这一新兴领域的最新研究相互印证。长期被忽视的语言语调,如今正展现出与措辞选择同等的重要性。
研究人员将数学、科学、历史等领域的50个基础问题,按照从“非常礼貌”到“非常粗鲁”的五级语调体系重构,最终生成250条提示词。ChatGPT-4o对每条提示进行回答后,团队对其答案准确率进行评分。
这项发现的影响远超礼仪范畴。若礼貌用语会扭曲模型准确性,则AI输出客观性的主张将受到质疑——具有讽刺意味的是,粗鲁用户反而可能获得更精准的反馈。
机器逻辑与人类规范的冲突
为何直接或粗鲁的表达能提升准确率?一种理论认为:礼貌提示常包含间接表述(“您能否告知……”),这可能引入歧义。而简短的“直接告诉我答案”剔除了语言修饰,使模型能更清晰捕捉意图。
这些发现仍凸显出AI与人类共情能力之间的鸿沟:那些促进人际交流的措辞,反而可能干扰机器逻辑。
该论文尚未经过同行评审,但已在提示词工程师与研究界引发热议,学者们认为这预示着未来模型可能需要社会校准——而不仅是技术调优。
无论如何,这个发现并不令人意外。毕竟OpenAI首席执行官Sam Altman早已警告,对ChatGPT说“请”和“谢谢”纯属浪费时间和金钱。
通用智能通讯
© 版权声明
文章版权归作者所有,未经允许请勿转载。