凌晨 1:47,我盯着一段中文数学题的推理轨迹发呆:同一个模型、同一套提示词,英文答案能“写满一页”,中文却像被剪断——三步就结束。你能明显感觉到它在“想”,但它只肯在英语里把完整思路说出来。

那一刻的直觉是:不是中文能力弱,而是“长链思维”跨语言迁移出了问题。

这篇文章围绕一篇刚发布的 arXiv 研究(Long Chain-of-Thought Reasoning Across Languages),用“效果展示 → 问题描述 → 步骤教学 → 升华总结”的结构,带你理解:为什么长链思维在英文更强?跨语言推理到底哪一步出了偏差?更重要的是,我们能做什么,把“英文长链”的能力迁移回中文和更多语言?

注意:本文以论文摘要公开结论为依据,不做超出研究范围的过度推断。


效果展示:同一模型,为何“英文能写长,中文写不长”?

论文给出了一个直观现象:在多语言推理任务中,让模型“用英文思考”(En‑CoT)往往比“用目标语言思考”(Target‑CoT)表现更好。这不是个别案例,而是系统性的差异。

研究把场景切成两个设置:

  • En‑CoT:输入是目标语言,但思维链用英文生成;
  • Target‑CoT:输入和思维链都用目标语言生成。

核心发现可以简单概括为三条:

  1. 扩展模型规模能提升 En‑CoT,但 Target‑CoT 仍然落后。

规模越大,英文长链越强;但目标语言长链并没有同步拉升,甚至差距扩大。

  1. 在需要长、多步推理的任务中,Target‑CoT 的落差更明显。

也就是说,任务越“长链”,差距越大。

  1. “专门的推理预训练”并不必然帮助目标语言长链,反而可能拖累。

广泛的多语言预训练能同时提升两种模式。

这意味着:长链思维并不是“语言中立”的能力。它在英语里被塑形、被加速,但到了目标语言就出现“长链断裂”。

这就是当下的热点:我们正在进入“推理能力本地化”的新阶段


问题描述:为什么长链思维跨语言会“断链”?

要理解“断链”,需要把推理能力拆成四个环节:规模、预训练、后训练、推理时策略。论文的结论正是从这四个环节逐层拆解。

1) 规模在增强“英文长链”,但没有填补“语言鸿沟”

模型越大,英文长链越强,这是事实;但如果缺少足够的目标语言推理轨迹,规模只会放大已有优势,而不是弥合差距

2) 专门的推理预训练可能只会“更偏英文”

研究发现:加入“专门推理阶段”可能提升 En‑CoT,但对 Target‑CoT 反而不利。说明模型在这种阶段学到的是“英文推理模式”,而不是“语言无关推理模式”。

3) 目标语言高质量推理轨迹稀缺

论文直接指出:非英文高质量长链数据稀缺。这导致模型在目标语言中很难学到“长链推理的正确范式”。

4) 合成数据策略对结果影响巨大

研究比较了两种后训练方式:

  • 用英文黄金推理轨迹翻译成目标语言进行微调;
  • 用大模型在目标语言中蒸馏生成推理轨迹再微调。

结果是:“翻译黄金轨迹”更有效

这意味着:不是“随便造一些目标语言 CoT”就能解决问题,数据质量和推理结构才是关键


步骤教学:把“英文长链”迁移回目标语言的 6 步路线

以下路线不是“理论架构图”,而是一份可执行的工程路径。你不需要一次做完,但至少要建立“跨语言长链”的系统思维。

步骤 1:先测清楚你到底在“哪一段断链”

在多语言评估里,别只看准确率。把评估拆成:

  • En‑CoT vs Target‑CoT 差距
  • 任务长度(短链 vs 长链)的分段差距
  • 不同语言之间的差距分布

只有这样,你才知道问题来自“推理长度”、“语言迁移”,还是“数据质量”。

步骤 2:优先补齐“高质量目标语言推理轨迹”

论文强调高质量数据的稀缺性。因此路线优先级是:

  1. 从英文黄金 CoT 翻译成目标语言(优先级最高)
  2. 目标语言人工标注(成本高但质量好)
  3. 目标语言自蒸馏(需严格过滤)

核心原则:宁可少,也要对。长链推理对“结构正确性”极其敏感。

步骤 3:用“广泛多语言预训练”替代“单一推理预训练”

研究发现,广泛的多语言预训练能同时提升 En‑CoT 和 Target‑CoT。这意味着你应该把推理能力当作“多语言能力的一部分”来训练,而不是单独加一个“推理模块”

步骤 4:建立“语言一致性”的推理模板

在推理时策略层面,确保:

  • 目标语言的推理模板保持结构一致(分步、编号、显式逻辑)
  • 控制“语言切换”导致的结构漂移
  • 对长链任务设置最低推理长度门槛(避免过早结束)

这不是“prompt 技巧”,而是让模型在目标语言中建立稳定推理节奏。

步骤 5:用“翻译黄金轨迹”做后训练主干

论文实证显示:翻译黄金轨迹 > 目标语言蒸馏轨迹。因此后训练策略建议:

  • 先收集高质量英文 CoT
  • 翻译为目标语言(最好人机结合校对)
  • 以此为主要微调数据

这一步是“断链修复”的最关键步骤。

步骤 6:把“长链能力”作为跨语言核心指标

长期来看,跨语言模型的竞争力会越来越集中在“长链质量”。建议建立以下长期指标:

  • 多语言长链任务的 P50 / P90 / P99 完成率
  • 推理长度一致性(目标语言 vs 英文)
  • 长链任务中间步骤的逻辑一致性评分

只有当这些指标稳定提升,“跨语言长链”才算真的建立起来。


升华总结:下一阶段的 AI 竞争,是“推理能力本地化”

过去的竞争是“模型做不做得出来”,现在的竞争是“模型能不能在你的语言里做得出来”。这篇研究传递的核心信号是:

  • 长链推理能力不是语言中立的,它会被训练语料分布塑形;
  • 数据质量和训练路径决定了迁移效果,规模不是万能钥匙;
  • 跨语言能力必须被当作“系统工程”来解决

当你能让模型在中文、日语、阿拉伯语里都保持“英文级别的长链深度”,这就不仅是一次技术改进,而是“产品可信度”的飞跃。

AI 热点的本质,正在从“模型更大”转向“推理更本地化”。

这也许是下一波真正决定胜负的门槛。


参考链接