中国科学院、微软和威廉与玛丽学院的研究人员从心理学中获得灵感,在今年8月发布了一篇题为《EmotionPrompt: Leveraging Psychology for Large Language Models Enhancement via Emotional Stimulus的论文。当时,大语言模型(LLMs)在许多领域取得了显著的性能,如推理、自然语言理解和生成,甚至数学问题解决,被认为是迈向人工通用智能(AGI)的重要一步。然而,LLMs 对提示的敏感性仍然是日常采用的主要瓶颈,作者等人在这样的大背景下提出了 EmotionPrompt 这个概念。
EmotionPrompt 方法通过在提示中加入情感刺激来实现 LLMs 性能的提升。我们可以把它和零样本和少样本学习结合起来,在需要情感刺激的更复杂的任务中取得更好的效果。
论文中提及 EmotionPrompt 实际产生作用和影响的主要有 11 种方法,个人测试后的感觉是,其中有两种方法大规模使用后被认为更适合在 ChatGPT 中使用。