需主动启用思维链机制:一、启用thinking mode开关,通过api参数、sdk配置或web界面开启,输出含标记的真实推理过程;二、用含“一步步思考”等三要素的提示词强制触发;三、解析api响应中的thinking字段或标签提取中间步骤;四、vllm部署时添加--enable-thinking参数;五、jupyter中用langchain设置return_intermediate_steps=true。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您在使用千问AI解答数学题时,希望查看其内部的推理路径而非仅得最终答案,则需主动启用模型的思维链生成机制。以下是实现该目标的多种方法:
一、启用Thinking Mode开关
Qwen3-0.6B及后续支持思维模式的版本内置可开关的推理引擎,启用后模型会在输出中插入真实同步构建的逻辑链,而非事后补写的解释。
1、在调用API时,在请求参数中显式设置thinking=True或添加{"thinking": true}字段。
2、若使用DashScope SDK,需在messages前传入parameters={"thinking": True}。
3、在Web界面中,查找“开启思维链”、“显示推理过程”或“Step-by-step mode”等开关按钮并启用。
4、启用后,模型将自动在最终答案前生成
二、使用特定提示词强制触发推理链
在不支持显式开关的旧版或轻量部署环境中,可通过结构化提示词引导模型输出分步推导,该方式兼容Qwen1.5-1.8B、Qwen2.5-7B等多数版本。
1、在问题前添加固定指令:“请一步步思考,写出完整推理过程,每步需说明依据,最后给出答案。”
2、对代数题可强化约束:“解方程时,请明确写出移项、合并同类项、系数化为1各步骤,并标注不等号方向变化原因。”
3、对几何题可要求:“请先写出已知条件与隐含定理,再逐条推导角度或边长关系,每步引用对应公理或判定定理名称。”
4、关键提示词必须包含“一步步思考”“写出依据”“标注原因”三要素,缺一则易退化为跳步作答。
三、通过API响应结构提取思维链
当模型启用思维模式后,原始响应JSON中会以独立字段或标记块形式返回推理内容,需解析结构而非仅读取message.content主文本。
1、检查API返回体中是否存在thinking字段,其值即为纯文本格式的完整推理链。
2、若返回含<think></think>标签,则需按XML规则提取标签内全部内容,该部分不含最终答案。
3、使用正则表达式r'<think>(.*?)</think>'精准捕获中间过程,避免误截答案段落。
4、提取出的思维链中,所有涉及公式的步骤均附带适用前提说明,所有符号变换均标注数学法则名称,例如“乘以负数,不等号方向改变(依据:不等式基本性质3)”。
四、本地部署时启用vLLM推理参数
在使用vLLM部署Qwen2.5-7B或Qwen3系列模型时,可通过引擎级参数控制思维链输出行为,适用于高并发教育系统集成场景。
1、启动vLLM服务时,在命令行添加--enable-thinking参数。
2、若使用Python脚本调用LLMEngine,在初始化时传入enable_thinking=True。
3、确认模型权重文件夹中存在thinking_config.json配置文件,且其中"enabled"值为true。
4、此方式下,所有请求默认输出思维链,无需每次在prompt中重复声明,且响应延迟稳定控制在3秒内(A10显卡实测)。
五、Jupyter环境下的LangChain调用法
在教学演示或研究分析场景中,借助LangChain框架可结构化捕获并可视化思维链,适用于Qwen-Math系列专用模型。
1、安装langchain-qwen适配器包,确保版本匹配模型发布时间(如Qwen3需v0.4.2+)。
2、构建QwenMathChain实例时,设置return_intermediate_steps=True。
3、执行chain.invoke({"question": "解不等式 2x + 5 后,响应中<code>intermediate_steps字段即为列表化推理步骤。
4、每步字典含"step_type"(如"algebraic_manipulation")、"evidence"(依据原文)、"conclusion"(本步结果),支持直接映射至初中数学课程标准知识点编码。










