0

0

OnlyAI怎么离线使用_OnlyAI本地部署轻量模型教程

雪夜

雪夜

发布时间:2026-03-02 16:38:56

|

690人浏览过

|

来源于php中文网

原创

onlyai可离线运行,需替换为ollama托管模型、部署qwen1.5-0.5b代理层、嵌入all-minilm-l6-v2向量化、冻结前端直连fastapi后端,或启用cpu-only pytorch模式。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

onlyai怎么离线使用_onlyai本地部署轻量模型教程

如果您希望在无网络连接或隐私敏感环境下运行OnlyAI,但发现其默认依赖在线API或云端服务,则可能是由于未完成本地模型加载与服务绑定。以下是实现OnlyAI离线运行的多种可行路径:

一、替换为Ollama托管的轻量级替代模型

Ollama支持将Hugging Face上兼容GGUF格式的轻量模型(如Phi-4-mini-reasoning、all-MiniLM-L6-v2)封装为本地可调用服务,无需联网即可响应OnlyAI前端请求。该方法规避了原生OnlyAI对远程推理端点的硬编码依赖。

1、确认系统已安装Ollama并运行服务:执行ollama --version验证版本不低于0.3.12,且ollama list返回空列表或已有模型。

2、从Hugging Face下载目标模型权重文件(如phi-4-mini-reasoning.Q4_K_M.gguf),保存至本地路径/models/phi-4-mini-reasoning/

3、在该目录下创建Modelfile,内容为:
FROM ./phi-4-mini-reasoning.Q4_K_M.gguf
PARAMETER num_ctx 2048
PARAMETER stop "###"

4、执行ollama create onlyai-offline -f ./Modelfile构建自定义模型。

5、启动服务:ollama run onlyai-offline,此时终端进入交互式本地推理会话。

二、使用Qwen1.5-0.5B构建All-in-One离线代理层

通过部署Qwen1.5-0.5B作为中间代理模型,接收OnlyAI原始输入,经Prompt工程转换后执行情感分析或对话生成,并将结构化结果回传。该方案仅需单个0.5B参数模型,完全脱离GPU与外部API。

1、新建Python虚拟环境:conda create -n onlyai-local python=3.10,激活后安装依赖:pip install torch==2.0.1 transformers==4.30.2 accelerate

2、下载Qwen1.5-0.5B模型权重包(qwen1.5-0.5b),解压至./models/qwen1.5-0.5b目录。

3、编写proxy_server.py,使用transformers.pipeline加载模型,监听本地http://127.0.0.1:8000/onlyai/invoke端点。

4、修改OnlyAI客户端配置,将所有https://api.onlyai.com/v1/请求重定向至http://127.0.0.1:8000/onlyai/invoke

5、运行python proxy_server.py,启动纯CPU离线代理服务。

三、嵌入all-MiniLM-L6-v2实现本地语义向量化

若OnlyAI核心功能依赖文本相似度匹配或检索增强(RAG),可直接集成all-MiniLM-L6-v2作为本地embedding引擎。该模型体积仅22.7MB,支持中英文混合输入,单句编码耗时低于35ms,全程离线运行。

1、执行ollama pull mxbai-embed-large或手动下载GGUF版all-MiniLM-L6-v2.Q6_K.gguf

2、创建Embedding服务脚本embed_service.py,调用sentence-transformers库加载模型,暴露/v1/embeddings接口。

Relayed AI
Relayed AI

一款AI驱动的视频会议工具,旨在帮助团队克服远程工作、繁忙的日程安排和会议疲劳。

下载

3、设置OnlyAI配置文件中的EMBEDDING_PROVIDERlocal,并指定EMBEDDING_ENDPOINT=http://127.0.0.1:8001/v1/embeddings

4、运行python embed_service.py,启动本地向量服务。

5、验证:发送POST请求至http://127.0.0.1:8001/v1/embeddings,携带{"input": "测试文本"},确认返回data[0].embedding为384维浮点数组。

四、冻结OnlyAI Web前端+本地FastAPI后端直连

剥离OnlyAI的云端JavaScript SDK,将其静态资源(HTML/CSS/JS)下载至本地./dist目录,再用FastAPI构建最小后端,直接调用本地模型API,彻底切断外网请求链路。

1、使用curl -k https://onlyai.com/static/app.js -o ./dist/app.js获取前端逻辑,搜索fetch(定位所有API调用点。

2、将所有fetch("https://api.onlyai.com/...替换为fetch("/api/...

3、新建main.py,基于FastAPI定义/api/chat等路由,内部调用transformers.pipeline或Ollama requests.post("http://localhost:11434/api/chat")

4、配置CORS中间件允许http://localhost:3000访问,启用静态文件服务指向./dist

5、执行uvicorn main:app --host 0.0.0.0 --port 3000,浏览器访问http://localhost:3000即启用全离线OnlyAI。

五、启用CPU-only PyTorch + 内存优化模式

当OnlyAI底层调用PyTorch模型但报错“CUDA out of memory”或“no module named torch.cuda”,说明其尝试启用GPU失败。强制切换至CPU推理并开启内存压缩,可保障基础功能离线可用。

1、卸载GPU版本PyTorch:pip uninstall torch torchvision torchaudio

2、安装CPU专用版本:pip install torch==2.0.1+cpu torchvision==0.15.2+cpu torchaudio==2.0.2+cpu -f https://download.pytorch.org/whl/torch_stable.html

3、在OnlyAI启动前设置环境变量:export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:128export TRANSFORMERS_MEMORY_EFFICIENT=true

4、验证CUDA状态:python -c "import torch; print(torch.cuda.is_available())"应输出False

5、启动OnlyAI主程序,观察日志中是否出现Using device: cpuMemory-efficient attention enabled提示。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Golang 测试体系与代码质量保障:工程级可靠性建设
Golang 测试体系与代码质量保障:工程级可靠性建设

Go语言测试体系与代码质量保障聚焦于构建工程级可靠性系统。本专题深入解析Go的测试工具链(如go test)、单元测试、集成测试及端到端测试实践,结合代码覆盖率分析、静态代码扫描(如go vet)和动态分析工具,建立全链路质量监控机制。通过自动化测试框架、持续集成(CI)流水线配置及代码审查规范,实现测试用例管理、缺陷追踪与质量门禁控制,确保代码健壮性与可维护性,为高可靠性工程系统提供质量保障。

46

2026.02.28

Golang 工程化架构设计:可维护与可演进系统构建
Golang 工程化架构设计:可维护与可演进系统构建

Go语言工程化架构设计专注于构建高可维护性、可演进的企业级系统。本专题深入探讨Go项目的目录结构设计、模块划分、依赖管理等核心架构原则,涵盖微服务架构、领域驱动设计(DDD)在Go中的实践应用。通过实战案例解析接口抽象、错误处理、配置管理、日志监控等关键工程化技术,帮助开发者掌握构建稳定、可扩展Go应用的最佳实践方法。

41

2026.02.28

Golang 性能分析与运行时机制:构建高性能程序
Golang 性能分析与运行时机制:构建高性能程序

Go语言以其高效的并发模型和优异的性能表现广泛应用于高并发、高性能场景。其运行时机制包括 Goroutine 调度、内存管理、垃圾回收等方面,深入理解这些机制有助于编写更高效稳定的程序。本专题将系统讲解 Golang 的性能分析工具使用、常见性能瓶颈定位及优化策略,并结合实际案例剖析 Go 程序的运行时行为,帮助开发者掌握构建高性能应用的关键技能。

37

2026.02.28

Golang 并发编程模型与工程实践:从语言特性到系统性能
Golang 并发编程模型与工程实践:从语言特性到系统性能

本专题系统讲解 Golang 并发编程模型,从语言级特性出发,深入理解 goroutine、channel 与调度机制。结合工程实践,分析并发设计模式、性能瓶颈与资源控制策略,帮助将并发能力有效转化为稳定、可扩展的系统性能优势。

21

2026.02.27

Golang 高级特性与最佳实践:提升代码艺术
Golang 高级特性与最佳实践:提升代码艺术

本专题深入剖析 Golang 的高级特性与工程级最佳实践,涵盖并发模型、内存管理、接口设计与错误处理策略。通过真实场景与代码对比,引导从“可运行”走向“高质量”,帮助构建高性能、可扩展、易维护的优雅 Go 代码体系。

18

2026.02.27

Golang 测试与调试专题:确保代码可靠性
Golang 测试与调试专题:确保代码可靠性

本专题聚焦 Golang 的测试与调试体系,系统讲解单元测试、表驱动测试、基准测试与覆盖率分析方法,并深入剖析调试工具与常见问题定位思路。通过实践示例,引导建立可验证、可回归的工程习惯,从而持续提升代码可靠性与可维护性。

3

2026.02.27

漫蛙app官网链接入口
漫蛙app官网链接入口

漫蛙App官网提供多条稳定入口,包括 https://manwa.me、https

245

2026.02.27

deepseek在线提问
deepseek在线提问

本合集汇总了DeepSeek在线提问技巧与免登录使用入口,助你快速上手AI对话、写作、分析等功能。阅读专题下面的文章了解更多详细内容。

21

2026.02.27

AO3官网直接进入
AO3官网直接进入

AO3官网最新入口合集,汇总2026年可用官方及镜像链接,助你快速稳定访问Archive of Our Own平台。阅读专题下面的文章了解更多详细内容。

403

2026.02.27

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号