QClaw需通过四种方式实现图文识别:一、安装ClawHub OCR技能;二、用OpenCV预处理图像;三、切换Kimi-2.5增强模型;四、绑定腾讯云OCR API密钥调用云端服务。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您在使用QClaw时希望AI自动识别图片中的文字内容,但发现指令未触发OCR功能或识别结果为空,则可能是由于OCR相关技能未启用、图像预处理不足或模型未正确调用。以下是实现QClaw图文识别的多种方法:
一、安装并启用ClawHub OCR技能
QClaw本身不内置OCR能力,需通过ClawHub技能商店加载第三方OCR插件,该插件可调用本地或轻量级OCR引擎(如PaddleOCR Lite或Tesseract封装版)完成识别任务。
1、启动QClaw客户端,确保已绑定微信并处于运行状态。
2、在微信中向“龙虾”好友发送指令:请帮我安装 OCR 文字识别技能。
3、等待QClaw返回安装成功提示,过程中会自动下载依赖库及默认OCR模型文件(约80–120MB)。
4、发送测试指令验证,例如:识别这张图片里的所有文字,随后将含文字的截图发送至微信对话框。
二、配合OpenCV预处理提升识别准确率
原始图像若存在倾斜、模糊、低对比度或背景干扰,将显著降低OCR识别率。QClaw支持调用本地OpenCV能力对图像进行前端增强,该步骤必须在OCR识别前执行。
1、在微信中先发送指令:对下一张图做灰度化+高斯模糊+二值化预处理。
2、紧接着发送待识别的原始图片。
3、QClaw会自动调用cv2.cvtColor、cv2.GaussianBlur和cv2.threshold完成三步处理,并生成中间图像缓存。
4、再发送指令:识别上一步处理后的图片文字,系统将基于优化后图像执行OCR。
三、切换高精度OCR专用模型
QClaw默认OCR技能调用的是轻量级模型,适用于实时响应,但对复杂排版、手写体或小字号文本识别效果有限。可通过指令切换为Kimi-2.5 OCR增强模式,该模式集成多模态理解能力,支持版面分析与逻辑还原。
1、确认当前已安装OCR技能且QClaw后台运行中。
2、在微信中发送:切换OCR模型为Kimi-2.5增强版。
3、收到“OCR模型切换成功”回复后,发送图片并附加说明,例如:识别发票图片,提取金额、日期、销售方三项字段。
4、QClaw将调用Kimi-2.5的结构化OCR管道,输出带键值对的JSON格式识别结果,并同步以自然语言摘要形式回传微信。
四、使用腾讯云智能结构化OCR API对接
当本地OCR无法满足高精度票据、合同或医疗报告等专业文档识别需求时,可配置QClaw调用腾讯云OCR服务。此方式需用户自行申请API密钥并完成授权绑定,识别结果由云端返回,精度达98%以上。
1、访问腾讯云控制台,开通“智能结构化OCR”服务,获取SecretId与SecretKey。
2、在微信中向“龙虾”发送:绑定腾讯云OCR凭证,SecretId为xxx,SecretKey为yyy。
3、QClaw将校验密钥有效性,并保存至本地加密存储区。
4、后续发送图片时,加入前缀指令:用腾讯云OCR识别此图,类型为增值税专用发票,系统将直连云端API并返回结构化字段。










