本地运行codellama并集成至vs code有四种路径:一、通过text generation web ui提供api,vs code用codellm插件调用;二、用ollama托管模型,配合llama coder插件;三、用transformers原生加载,在python环境中直连;四、通过remote-ssh远程调用服务器上的ollama服务。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地运行CodeLlama模型,并将其集成到VS Code中作为编程助手,则需分别完成模型本地加载与插件级调用两个环节。以下是实现该目标的多种可行路径:
一、通过Text Generation Web UI本地加载CodeLlama并接入VS Code
该方法利用Web UI作为模型服务端,VS Code通过HTTP接口调用其API,适用于已部署好Web UI且需保留图形交互能力的用户。
1、确保text-generation-webui已成功运行,地址为http://127.0.0.1:7680,并已在Models页面加载CodeLlama-7b或更高版本模型。
2、在Web UI设置中启用API服务:进入Settings → API → 勾选“Enable API endpoint”,保存后重启服务。
3、获取API基础地址:http://127.0.0.1:7680/v1,此为后续VS Code插件配置所需端点。
4、在VS Code中安装扩展“REST Client”或“CodeLLM”,后者支持直接配置自定义LLM API。
5、打开VS Code设置(Ctrl+,),搜索“codelmm.baseurl”,将值设为http://127.0.0.1:7680/v1;再设置“codelmm.model”为codellama-7b(需与Web UI中模型文件夹名一致)。
二、通过Ollama本地托管CodeLlama并对接VS Code插件
该路径依赖Ollama轻量服务层,无需Python环境与显卡驱动,适合低配设备或快速验证场景。
1、从ollama.com/download下载并安装对应系统版本的Ollama客户端。
2、启动Ollama服务后,在终端执行命令拉取适配模型:ollama run codellama:7b(首次运行将自动下载约4.5GB模型)。
3、确认Ollama服务监听默认地址:http://127.0.0.1:11434,可通过curl http://127.0.0.1:11434/api/tags验证模型是否就绪。
4、在VS Code中安装“Llama Coder”扩展(由GitCode社区维护)。
5、打开VS Code设置,定位至Extensions → Llama Coder → Ollama Host,填入http://127.0.0.1:11434;Ollama Model Name字段填写codellama:7b。
三、使用Transformers原生加载+VS Code Python插件直连
该方式绕过中间服务,以Python脚本形式在VS Code内置终端中启动模型推理,适合熟悉PyTorch与Hugging Face生态的开发者。
1、创建独立conda环境:conda create -n codellama python=3.10,激活后安装依赖:pip install torch transformers accelerate bitsandbytes。
2、从Hugging Face下载模型权重:huggingface-cli download codellama/CodeLlama-7b-Instruct-hf --local-dir ./codellama-7b-instruct。
3、在VS Code中新建run_codellama.py,写入加载逻辑,关键行包括:model = AutoModelForCausalLM.from_pretrained("./codellama-7b-instruct", device_map="auto")。
4、在VS Code命令面板(Ctrl+Shift+P)中选择“Python: Select Interpreter”,指定为刚创建的codellama环境。
5、右键运行脚本,观察终端输出是否完成模型映射;随后可在Python交互窗口中调用pipeline("text-generation", model=model, tokenizer=tokenizer)进行测试。
四、基于Ollama+VS Code Remote-SSH跨机器调用
当CodeLlama部署于远程Linux服务器(如带A10 GPU的Ubuntu主机)时,可通过VS Code的Remote-SSH扩展实现本地编辑、远程推理。
1、在远程服务器安装Ollama并运行:ollama run codellama:13b,确保防火墙放行11434端口。
2、在远程服务器执行echo $OLLAMA_HOST,若为空则手动设置:export OLLAMA_HOST=0.0.0.0:11434并写入~/.bashrc。
3、本地VS Code安装“Remote-SSH”扩展,配置远程主机连接信息,成功连接后打开远程工作区。
4、在远程工作区中安装“Llama Coder”扩展,设置Ollama Host为http://localhost:11434(注意此处localhost指向远程服务器自身)。
5、重启VS Code窗口,触发插件重载,此时所有代码补全请求将由远程Ollama实例响应。










