当前的大语言模型(LLMs)主要在“语言空间”中进行推理,依赖“思维链”(Chain-of-Thought, CoT)逐步生成解决问题的步骤。然而,这种方法效率低下,大量生成的文本主要用于流畅性表达,对推理无直接帮助。
Coconut(Chain of Continuous Thought,连续思维链)是一种新的推理框架,旨在让大语言模型(LLMs)在连续潜在空间中进行推理,而不是传统的语言空间。核心思想是通过使用模型的隐藏状态(hidden state)作为推理步骤的表示,从而避免将每一步都解码为语言标记(token)。这种方式让推理可以在潜在空间中自由进行,减少了语言生成的约束。