<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>CoT on POOROPS</title><link>https://blog.20231106.xyz/tags/cot/</link><description>Recent content in CoT on POOROPS</description><generator>Hugo -- gohugo.io</generator><language>en-us</language><managingEditor>poorops@163.com (poorops)</managingEditor><webMaster>poorops@163.com (poorops)</webMaster><lastBuildDate>Thu, 02 Apr 2026 18:00:00 +0800</lastBuildDate><atom:link href="https://blog.20231106.xyz/tags/cot/index.xml" rel="self" type="application/rss+xml"/><item><title>为什么AI会“英文长链、中文短链”：跨语言长链思维的新证据与实战路线</title><link>https://blog.20231106.xyz/posts/2026-04-02/multilingual-long-cot-reasoning/</link><pubDate>Thu, 02 Apr 2026 18:00:00 +0800</pubDate><author>poorops@163.com (poorops)</author><guid>https://blog.20231106.xyz/posts/2026-04-02/multilingual-long-cot-reasoning/</guid><description>&lt;p&gt;凌晨 1:47，我盯着一段中文数学题的推理轨迹发呆：同一个模型、同一套提示词，英文答案能“写满一页”，中文却像被剪断——三步就结束。你能明显感觉到它在“想”，但它只肯在英语里把完整思路说出来。&lt;/p&gt;
&lt;p&gt;那一刻的直觉是：&lt;strong&gt;不是中文能力弱，而是“长链思维”跨语言迁移出了问题。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这篇文章围绕一篇刚发布的 arXiv 研究（Long Chain-of-Thought Reasoning Across Languages），用“效果展示 → 问题描述 → 步骤教学 → 升华总结”的结构，带你理解：为什么长链思维在英文更强？跨语言推理到底哪一步出了偏差？更重要的是，&lt;strong&gt;我们能做什么，把“英文长链”的能力迁移回中文和更多语言？&lt;/strong&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;注意：本文以论文摘要公开结论为依据，不做超出研究范围的过度推断。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h2 id="效果展示同一模型为何英文能写长中文写不长"&gt;效果展示：同一模型，为何“英文能写长，中文写不长”？&lt;/h2&gt;
&lt;p&gt;论文给出了一个直观现象：在多语言推理任务中，&lt;strong&gt;让模型“用英文思考”（En‑CoT）往往比“用目标语言思考”（Target‑CoT）表现更好&lt;/strong&gt;。这不是个别案例，而是系统性的差异。&lt;/p&gt;
&lt;p&gt;研究把场景切成两个设置：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;En‑CoT&lt;/strong&gt;：输入是目标语言，但思维链用英文生成；&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Target‑CoT&lt;/strong&gt;：输入和思维链都用目标语言生成。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;核心发现可以简单概括为三条：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;扩展模型规模能提升 En‑CoT，但 Target‑CoT 仍然落后。&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;规模越大，英文长链越强；但目标语言长链并没有同步拉升，甚至差距扩大。&lt;/p&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;strong&gt;在需要长、多步推理的任务中，Target‑CoT 的落差更明显。&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;也就是说，任务越“长链”，差距越大。&lt;/p&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;strong&gt;“专门的推理预训练”并不必然帮助目标语言长链，反而可能拖累。&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;而&lt;strong&gt;广泛的多语言预训练&lt;/strong&gt;能同时提升两种模式。&lt;/p&gt;
&lt;p&gt;这意味着：&lt;strong&gt;长链思维并不是“语言中立”的能力&lt;/strong&gt;。它在英语里被塑形、被加速，但到了目标语言就出现“长链断裂”。&lt;/p&gt;
&lt;p&gt;这就是当下的热点：&lt;strong&gt;我们正在进入“推理能力本地化”的新阶段&lt;/strong&gt;。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="问题描述为什么长链思维跨语言会断链"&gt;问题描述：为什么长链思维跨语言会“断链”？&lt;/h2&gt;
&lt;p&gt;要理解“断链”，需要把推理能力拆成四个环节：&lt;strong&gt;规模、预训练、后训练、推理时策略&lt;/strong&gt;。论文的结论正是从这四个环节逐层拆解。&lt;/p&gt;
&lt;h3 id="1-规模在增强英文长链但没有填补语言鸿沟"&gt;1) 规模在增强“英文长链”，但没有填补“语言鸿沟”&lt;/h3&gt;
&lt;p&gt;模型越大，英文长链越强，这是事实；但如果缺少足够的目标语言推理轨迹，&lt;strong&gt;规模只会放大已有优势，而不是弥合差距&lt;/strong&gt;。&lt;/p&gt;
&lt;h3 id="2-专门的推理预训练可能只会更偏英文"&gt;2) 专门的推理预训练可能只会“更偏英文”&lt;/h3&gt;
&lt;p&gt;研究发现：加入“专门推理阶段”可能提升 En‑CoT，但对 Target‑CoT 反而不利。说明模型在这种阶段学到的是“英文推理模式”，而不是“语言无关推理模式”。&lt;/p&gt;
&lt;h3 id="3-目标语言高质量推理轨迹稀缺"&gt;3) 目标语言高质量推理轨迹稀缺&lt;/h3&gt;
&lt;p&gt;论文直接指出：&lt;strong&gt;非英文高质量长链数据稀缺&lt;/strong&gt;。这导致模型在目标语言中很难学到“长链推理的正确范式”。&lt;/p&gt;
&lt;h3 id="4-合成数据策略对结果影响巨大"&gt;4) 合成数据策略对结果影响巨大&lt;/h3&gt;
&lt;p&gt;研究比较了两种后训练方式：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;用英文黄金推理轨迹翻译成目标语言进行微调；&lt;/li&gt;
&lt;li&gt;用大模型在目标语言中蒸馏生成推理轨迹再微调。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;结果是：&lt;strong&gt;“翻译黄金轨迹”更有效&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;这意味着：不是“随便造一些目标语言 CoT”就能解决问题，&lt;strong&gt;数据质量和推理结构才是关键&lt;/strong&gt;。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="步骤教学把英文长链迁移回目标语言的-6-步路线"&gt;步骤教学：把“英文长链”迁移回目标语言的 6 步路线&lt;/h2&gt;
&lt;p&gt;以下路线不是“理论架构图”，而是一份可执行的工程路径。你不需要一次做完，但至少要建立“跨语言长链”的系统思维。&lt;/p&gt;
&lt;h3 id="步骤-1先测清楚你到底在哪一段断链"&gt;步骤 1：先测清楚你到底在“哪一段断链”&lt;/h3&gt;
&lt;p&gt;在多语言评估里，别只看准确率。把评估拆成：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;En‑CoT vs Target‑CoT 差距&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;任务长度（短链 vs 长链）的分段差距&lt;/li&gt;
&lt;li&gt;不同语言之间的差距分布&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;只有这样，你才知道问题来自“推理长度”、“语言迁移”，还是“数据质量”。&lt;/p&gt;</description><content>&lt;p&gt;凌晨 1:47，我盯着一段中文数学题的推理轨迹发呆：同一个模型、同一套提示词，英文答案能“写满一页”，中文却像被剪断——三步就结束。你能明显感觉到它在“想”，但它只肯在英语里把完整思路说出来。&lt;/p&gt;
&lt;p&gt;那一刻的直觉是：&lt;strong&gt;不是中文能力弱，而是“长链思维”跨语言迁移出了问题。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这篇文章围绕一篇刚发布的 arXiv 研究（Long Chain-of-Thought Reasoning Across Languages），用“效果展示 → 问题描述 → 步骤教学 → 升华总结”的结构，带你理解：为什么长链思维在英文更强？跨语言推理到底哪一步出了偏差？更重要的是，&lt;strong&gt;我们能做什么，把“英文长链”的能力迁移回中文和更多语言？&lt;/strong&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;注意：本文以论文摘要公开结论为依据，不做超出研究范围的过度推断。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h2 id="效果展示同一模型为何英文能写长中文写不长"&gt;效果展示：同一模型，为何“英文能写长，中文写不长”？&lt;/h2&gt;
&lt;p&gt;论文给出了一个直观现象：在多语言推理任务中，&lt;strong&gt;让模型“用英文思考”（En‑CoT）往往比“用目标语言思考”（Target‑CoT）表现更好&lt;/strong&gt;。这不是个别案例，而是系统性的差异。&lt;/p&gt;
&lt;p&gt;研究把场景切成两个设置：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;En‑CoT&lt;/strong&gt;：输入是目标语言，但思维链用英文生成；&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Target‑CoT&lt;/strong&gt;：输入和思维链都用目标语言生成。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;核心发现可以简单概括为三条：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;扩展模型规模能提升 En‑CoT，但 Target‑CoT 仍然落后。&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;规模越大，英文长链越强；但目标语言长链并没有同步拉升，甚至差距扩大。&lt;/p&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;strong&gt;在需要长、多步推理的任务中，Target‑CoT 的落差更明显。&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;也就是说，任务越“长链”，差距越大。&lt;/p&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;strong&gt;“专门的推理预训练”并不必然帮助目标语言长链，反而可能拖累。&lt;/strong&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;而&lt;strong&gt;广泛的多语言预训练&lt;/strong&gt;能同时提升两种模式。&lt;/p&gt;
&lt;p&gt;这意味着：&lt;strong&gt;长链思维并不是“语言中立”的能力&lt;/strong&gt;。它在英语里被塑形、被加速，但到了目标语言就出现“长链断裂”。&lt;/p&gt;
&lt;p&gt;这就是当下的热点：&lt;strong&gt;我们正在进入“推理能力本地化”的新阶段&lt;/strong&gt;。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="问题描述为什么长链思维跨语言会断链"&gt;问题描述：为什么长链思维跨语言会“断链”？&lt;/h2&gt;
&lt;p&gt;要理解“断链”，需要把推理能力拆成四个环节：&lt;strong&gt;规模、预训练、后训练、推理时策略&lt;/strong&gt;。论文的结论正是从这四个环节逐层拆解。&lt;/p&gt;
&lt;h3 id="1-规模在增强英文长链但没有填补语言鸿沟"&gt;1) 规模在增强“英文长链”，但没有填补“语言鸿沟”&lt;/h3&gt;
&lt;p&gt;模型越大，英文长链越强，这是事实；但如果缺少足够的目标语言推理轨迹，&lt;strong&gt;规模只会放大已有优势，而不是弥合差距&lt;/strong&gt;。&lt;/p&gt;
&lt;h3 id="2-专门的推理预训练可能只会更偏英文"&gt;2) 专门的推理预训练可能只会“更偏英文”&lt;/h3&gt;
&lt;p&gt;研究发现：加入“专门推理阶段”可能提升 En‑CoT，但对 Target‑CoT 反而不利。说明模型在这种阶段学到的是“英文推理模式”，而不是“语言无关推理模式”。&lt;/p&gt;
&lt;h3 id="3-目标语言高质量推理轨迹稀缺"&gt;3) 目标语言高质量推理轨迹稀缺&lt;/h3&gt;
&lt;p&gt;论文直接指出：&lt;strong&gt;非英文高质量长链数据稀缺&lt;/strong&gt;。这导致模型在目标语言中很难学到“长链推理的正确范式”。&lt;/p&gt;
&lt;h3 id="4-合成数据策略对结果影响巨大"&gt;4) 合成数据策略对结果影响巨大&lt;/h3&gt;
&lt;p&gt;研究比较了两种后训练方式：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;用英文黄金推理轨迹翻译成目标语言进行微调；&lt;/li&gt;
&lt;li&gt;用大模型在目标语言中蒸馏生成推理轨迹再微调。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;结果是：&lt;strong&gt;“翻译黄金轨迹”更有效&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;这意味着：不是“随便造一些目标语言 CoT”就能解决问题，&lt;strong&gt;数据质量和推理结构才是关键&lt;/strong&gt;。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="步骤教学把英文长链迁移回目标语言的-6-步路线"&gt;步骤教学：把“英文长链”迁移回目标语言的 6 步路线&lt;/h2&gt;
&lt;p&gt;以下路线不是“理论架构图”，而是一份可执行的工程路径。你不需要一次做完，但至少要建立“跨语言长链”的系统思维。&lt;/p&gt;
&lt;h3 id="步骤-1先测清楚你到底在哪一段断链"&gt;步骤 1：先测清楚你到底在“哪一段断链”&lt;/h3&gt;
&lt;p&gt;在多语言评估里，别只看准确率。把评估拆成：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;En‑CoT vs Target‑CoT 差距&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;任务长度（短链 vs 长链）的分段差距&lt;/li&gt;
&lt;li&gt;不同语言之间的差距分布&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;只有这样，你才知道问题来自“推理长度”、“语言迁移”，还是“数据质量”。&lt;/p&gt;
&lt;h3 id="步骤-2优先补齐高质量目标语言推理轨迹"&gt;步骤 2：优先补齐“高质量目标语言推理轨迹”&lt;/h3&gt;
&lt;p&gt;论文强调高质量数据的稀缺性。因此路线优先级是：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;从英文黄金 CoT 翻译成目标语言&lt;/strong&gt;（优先级最高）&lt;/li&gt;
&lt;li&gt;目标语言人工标注（成本高但质量好）&lt;/li&gt;
&lt;li&gt;目标语言自蒸馏（需严格过滤）&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;核心原则：&lt;strong&gt;宁可少，也要对&lt;/strong&gt;。长链推理对“结构正确性”极其敏感。&lt;/p&gt;
&lt;h3 id="步骤-3用广泛多语言预训练替代单一推理预训练"&gt;步骤 3：用“广泛多语言预训练”替代“单一推理预训练”&lt;/h3&gt;
&lt;p&gt;研究发现，广泛的多语言预训练能同时提升 En‑CoT 和 Target‑CoT。&lt;strong&gt;这意味着你应该把推理能力当作“多语言能力的一部分”来训练，而不是单独加一个“推理模块”&lt;/strong&gt;。&lt;/p&gt;
&lt;h3 id="步骤-4建立语言一致性的推理模板"&gt;步骤 4：建立“语言一致性”的推理模板&lt;/h3&gt;
&lt;p&gt;在推理时策略层面，确保：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;目标语言的推理模板保持结构一致（分步、编号、显式逻辑）&lt;/li&gt;
&lt;li&gt;控制“语言切换”导致的结构漂移&lt;/li&gt;
&lt;li&gt;对长链任务设置最低推理长度门槛（避免过早结束）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这不是“prompt 技巧”，而是让模型在目标语言中建立稳定推理节奏。&lt;/p&gt;
&lt;h3 id="步骤-5用翻译黄金轨迹做后训练主干"&gt;步骤 5：用“翻译黄金轨迹”做后训练主干&lt;/h3&gt;
&lt;p&gt;论文实证显示：&lt;strong&gt;翻译黄金轨迹 &amp;gt; 目标语言蒸馏轨迹&lt;/strong&gt;。因此后训练策略建议：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;先收集高质量英文 CoT&lt;/li&gt;
&lt;li&gt;翻译为目标语言（最好人机结合校对）&lt;/li&gt;
&lt;li&gt;以此为主要微调数据&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这一步是“断链修复”的最关键步骤。&lt;/p&gt;
&lt;h3 id="步骤-6把长链能力作为跨语言核心指标"&gt;步骤 6：把“长链能力”作为跨语言核心指标&lt;/h3&gt;
&lt;p&gt;长期来看，跨语言模型的竞争力会越来越集中在“长链质量”。建议建立以下长期指标：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;多语言长链任务的 P50 / P90 / P99 完成率&lt;/li&gt;
&lt;li&gt;推理长度一致性（目标语言 vs 英文）&lt;/li&gt;
&lt;li&gt;长链任务中间步骤的逻辑一致性评分&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;只有当这些指标稳定提升，“跨语言长链”才算真的建立起来。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="升华总结下一阶段的-ai-竞争是推理能力本地化"&gt;升华总结：下一阶段的 AI 竞争，是“推理能力本地化”&lt;/h2&gt;
&lt;p&gt;过去的竞争是“模型做不做得出来”，现在的竞争是“模型能不能在你的语言里做得出来”。这篇研究传递的核心信号是：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;长链推理能力不是语言中立的&lt;/strong&gt;，它会被训练语料分布塑形；&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;数据质量和训练路径决定了迁移效果&lt;/strong&gt;，规模不是万能钥匙；&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;跨语言能力必须被当作“系统工程”来解决&lt;/strong&gt;。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;当你能让模型在中文、日语、阿拉伯语里都保持“英文级别的长链深度”，这就不仅是一次技术改进，而是“产品可信度”的飞跃。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;AI 热点的本质，正在从“模型更大”转向“推理更本地化”。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这也许是下一波真正决定胜负的门槛。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="参考链接"&gt;参考链接&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;arXiv｜Long Chain-of-Thought Reasoning Across Languages：&lt;a href="https://arxiv.org/abs/2508.14828"&gt;https://arxiv.org/abs/2508.14828&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;arXiv｜Artificial Intelligence（近期论文列表）：&lt;a href="https://arxiv.org/list/cs.AI/recent"&gt;https://arxiv.org/list/cs.AI/recent&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;站点：Poorops：&lt;a href="https://www.poorops.com/"&gt;https://www.poorops.com/&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</content></item></channel></rss>