需通过飞书/豆包平台获取api密钥,安装custom llm provider插件,部署doubao-openai-proxy代理服务,配置cursor指向本地代理地址http://localhost:3000/v1并设模型名为doubao-pro,即可调用豆包ai进行代码生成与解释。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在 Cursor 编辑器中直接调用豆包AI(Doubao AI)进行代码编写、补全或解释,则需通过其开放 API 或第三方插件桥接实现。以下是完成豆包AI接入 Cursor 的具体配置步骤:
一、获取豆包AI API 密钥
豆包AI目前未提供官方公开的独立API服务,但可通过字节跳动提供的“飞书开放平台”或“豆包开发者平台”申请测试权限并获取可用凭证。该密钥是后续在 Cursor 中配置模型调用的基础认证凭据。
1、访问 https://www.doubao.com/dev 并使用手机号登录豆包账号。
2、进入「开发者中心」,点击「创建新应用」,填写应用名称(如“Cursor-Code-Assist”)与用途说明。
立即进入“豆包AI人工智官网入口”;
立即学习“豆包AI人工智能在线问答入口”;
3、在应用详情页中找到「API Key」和「Secret Key」字段,点击「显示」并复制保存至安全位置。
4、确认该密钥已启用「code-generation」与「chat-completion」权限。
二、安装支持自定义 LLM 的 Cursor 插件
Cursor 原生不内置豆包AI模型,需借助可配置后端接口的扩展插件实现对接。目前兼容性较好的插件为「Cursor Custom Model」或通过修改内置模型路由指向外部 API 代理服务。
1、打开 Cursor,点击左下角设置图标,选择「Extensions」。
2、在搜索框输入 custom model,安装评分高于4.5且最近更新于30天内的插件(如 “Custom LLM Provider”)。
3、安装完成后重启 Cursor,确保插件状态显示为「Enabled」。
4、在设置中进入「Custom LLM Provider」配置页,将模型类型设为 OpenAI-compatible API。
三、配置豆包AI代理服务(本地或远程)
由于豆包AI接口非标准 OpenAI 格式,需部署一层轻量级转换代理,将 Cursor 发出的 OpenAI-style 请求映射为豆包AI实际接受的 POST 请求结构,并转发响应结果。
1、克隆开源代理项目:https://github.com/byteio/doubao-openai-proxy 到本地目录。
2、在项目根目录执行 npm install && npm start 启动服务,默认监听 http://localhost:3000。
3、编辑 .env 文件,填入上一步获取的 API Key 和 Secret Key。
4、验证代理运行:使用 curl 发送测试请求,确认返回 status 200 及有效 JSON 响应体。
四、在 Cursor 中绑定豆包AI代理地址
完成代理服务部署后,需将 Cursor 的自定义模型请求目标指向该本地服务,从而绕过格式不兼容问题,使豆包AI能被识别为可用后端模型。
1、回到 Cursor 设置中的「Custom LLM Provider」页面。
2、在「API Base URL」栏填写 http://localhost:3000/v1。
3、在「Model Name」栏输入 doubao-pro(此为代理服务预设的模型别名,不可更改)。
4、在「API Key」栏粘贴任意非空字符串(代理服务不校验该字段,但 Cursor 强制要求填写)。
5、点击「Save Settings」并关闭设置面板。
五、启用豆包AI并在编辑器中调用
配置生效后,Cursor 将把所有指定为“自定义模型”的代码操作(如 Cmd+K 快捷指令、右键菜单中的「Ask AI」选项)路由至本地代理,再由代理转发至豆包AI服务端并返回结果。
1、新建或打开一个 .py 文件,在光标处输入函数签名,例如 def calculate_tax(income: float) -> float:。
2、按下 Cmd+K(Mac)或 Ctrl+K(Windows/Linux),输入提示词:“生成完整函数体,包含税率分级逻辑”。
3、等待右下角状态栏显示「Using doubao-pro」,几秒后生成内容将插入光标下方。
4、若出现错误提示,检查代理服务终端日志中是否含 401 Unauthorized 或 502 Bad Gateway 字样。











