Ollama提供五种模型安装方法:一、ollama run自动拉取启动;二、ollama pull预下载;三、从ModelScope/HF导入GGUF模型并用Modelfile创建;四、Web UI图形化操作;五、curl脚本批量安装。
如果您希望在本地快速运行热门大语言模型,但不确定如何从ollama获取并安装它们,则可能是由于模型名称不准确、网络环境限制或命令执行方式不当导致下载失败。以下是多种可靠且经验证的ollama模型安装方法:
一、使用ollama run命令自动拉取并启动模型
该方法适用于首次运行某模型,Ollama会在检测到本地不存在时自动下载并启动,适合快速测试与轻量部署。
1、打开终端(Windows用户使用PowerShell或CMD,macOS/Linux用户使用Terminal)。
2、输入标准运行命令,例如:ollama run qwen3.5:9b。
3、等待控制台显示“pulling manifest”及进度条,模型将自动下载并进入交互式对话界面。
4、若中途中断,可重复执行相同命令,Ollama默认支持断点续传。
二、使用ollama pull命令预下载模型
该方法适用于需提前准备模型文件、避免运行时卡顿,或批量部署多个模型的场景。
1、确认模型名称准确,推荐从Ollama官方模型库(https://ollama.com/library)中复制完整标签名。
2、在终端中执行拉取命令,例如:ollama pull llama3.2:1b。
3、观察输出中出现“downloaded”和“success”字样,表示模型已完整存入本地仓库。
4、后续可随时通过ollama run llama3.2:1b启动,无需再次联网下载。
三、从ModelScope等第三方平台导入GGUF格式模型
该方法适用于Ollama官方库未收录、但已在Hugging Face或ModelScope发布的量化模型,尤其适合低显存设备。
1、前往ModelScope(https://modelscope.cn/)或Hugging Face(https://huggingface.co/),搜索目标模型,筛选标注为GGUF格式的版本。
2、下载对应文件(如Qwen3-8B-UD-Q5_K_XL.gguf),保存至本地指定路径(如E:\models\qwen3-8b.gguf)。
3、在该路径下新建文本文件,重命名为Modelfile,内容如下:
FROM "E:\models\qwen3-8b.gguf"
PARAMETER num_ctx 32768
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>"
4、在Modelfile所在目录打开终端,执行:ollama create qwen3-8b-local -f Modelfile。
5、执行完成后,即可用ollama run qwen3-8b-local调用该模型。
四、通过Ollama Web UI图形化安装模型
该方法面向不熟悉命令行操作的用户,利用Ollama内置Web界面完成模型检索与一键安装。
1、确保Ollama服务正在运行(Windows可检查系统托盘图标,Linux/macOS可执行ollama serve)。
2、浏览器访问:http://127.0.0.1:3000(Ollama Web UI默认地址)。
3、点击“Models”页签,在搜索框中输入关键词(如“qwen”、“llama”、“phi”)。
4、从结果列表中选择目标模型,点击右侧“Pull”按钮,界面将实时显示下载进度。
5、下载完成后,点击“Run”即可直接开启聊天窗口。
五、使用curl脚本批量安装多个常用模型
该方法适用于开发者或运维人员需在新环境中一次性部署多模型的场景,提升重复操作效率。
1、新建一个文本文件,命名为install_models.sh(Linux/macOS)或install_models.bat(Windows)。
2、写入以下命令序列(以Windows为例):
ollama pull qwen3.5:9b
ollama pull llama3.2:3b
ollama pull phi4:latest
3、双击运行该批处理文件,或在终端中执行bash install_models.sh(Linux/macOS)。
4、每条命令独立执行,任一模型下载失败不影响其余命令继续运行。









