聆音(echocare)是由中国科学院香港创新研究院人工智能与机器人创新中心(cair)研发的超声影像大模型。该模型基于名为echoatlas的大规模数据集进行训练,该数据集包含来自全球五大洲23个临床中心、使用38种不同成像设备采集的450万张超声图像,覆盖人体9大解剖区域和52个器官,是目前国际上规模领先的超声影像数据库之一。echocare采用“结构化对比自监督学习框架”,结合图像掩膜重建与自适应困难图块挖掘等先进技术,显著增强了对超声图像深层语义的理解能力及跨场景泛化性能。在超声图像分割、分类、检测、回归、增强等七类医学任务中,其表现均超越现有最优方法。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

主要功能包括:
- 超声图像分割:实现对超声图像中各类组织与器官的精确划分,帮助医生清晰界定病灶与正常组织边界,提升诊断准确性。
- 病变性质分类:自动识别并区分良恶性病变,如肿瘤类型判别,辅助医生快速评估病情,提高决策效率。
- 器官定位与分割:不仅能准确检测器官位置,还可完成精细分割,为临床诊疗提供详尽的解剖结构信息。
- 图像质量增强:优化原始超声图像的对比度与分辨率,突出细微结构,降低因图像模糊导致的误诊风险。
- 智能报告生成:根据分析结果自动生成标准化诊断报告,减轻医生文书负担,提升报告撰写的一致性与规范性。
技术实现原理如下:
- 海量多源数据支撑:依托涵盖多中心、多民族、多设备来源的EchoAtlas数据集,确保模型具备广泛的适用性和鲁棒性。
- 结构化对比学习机制:引入医学先验知识构建层次化树形标签体系,实现多标签语义关系的结构化建模,增强模型对复杂医学语义的理解。
- 图像掩膜重建策略:通过随机遮蔽部分图像内容并重构,强化模型对局部特征的学习能力,提升其在缺失或噪声干扰下的稳定性。
- 自适应难样本挖掘:动态识别训练过程中难以拟合的图像区块,并加强这些关键区域的学习权重,从而提升整体精度。
- 渐进式训练流程:从简单到复杂逐步增加训练难度,使模型更有效地吸收多层次特征,增强对多样化超声图像的适应能力。
项目相关资源链接:
- 官方网站:https://www.php.cn/link/68cc422a92a25b49f1374a2b4820da29
- Github代码库:https://www.php.cn/link/fee6e6bfe55024e4ae92983d776ecd56
- arXiv论文地址:https://www.php.cn/link/00f42382da08bb47df2585a2590be0a7
应用场景涵盖:
- 医院日常检查:应用于常规超声检查流程,减少对高年资医师的依赖,助力基层医疗能力提升,推动优质资源下沉。
- 疾病筛查与诊断:已在山东大学齐鲁医院妇产科1556例卵巢肿瘤病例及中南大学湘雅医院千余例甲状腺检查中验证效果,性能优于当前SOTA方法。
- 心脏疾病检测:支持主动脉瘤等心脏疾病的回顾性分析,在心血管超声领域展现强大应用潜力。
- 图像智能处理:覆盖超声图像分割、分类、检测、回归、增强等七大核心任务及相关十余项下游应用,全面提升图像解读价值。
- 临床转化与科研合作:基座模型计划开源,未来将开展前瞻性临床研究、急诊场景落地测试,并联合超声设备厂商推进软硬件一体化集成。










