
杭州互联网法院近日就全国首起因生成式人工智能模型产生“幻觉”而导致的侵权争议案件作出一审判决,裁定驳回原告梁某提出的由某科技公司赔偿经济损失9999元的诉讼请求。
案件基本事实如下:
某生成式人工智能应用程序(以下简称“该AI应用”),系某科技公司依托其自主研发的大语言模型所打造的文本生成与信息检索类通用型智能交互平台。2025年3月,梁某在阅读并接受相关用户协议后完成注册,正式启用该AI应用。2025年6月29日,梁某在该AI应用中输入提示词,咨询某高校招生及校区设置等相关信息,系统随即输出了关于该校某一校区的错误内容。梁某当场指出该信息有误并提出质疑,但该AI应用仍坚持声称该校区真实存在,并进一步提供所谓“补救方案”,甚至自动生成“如生成内容失实,愿向用户赔付10万元”的表述。随后,梁某将从该高校官方网站获取的权威招生简章提交至对话界面,AI应用才确认此前输出存在偏差,并建议梁某前往杭州互联网法院提起索赔诉讼。梁某主张,该AI应用输出虚假信息致其产生误判,构成对其合法权益的侵害;同时,AI所作“赔偿承诺”应视为服务提供方(即被告)的真实意思表示,故诉请法院判令某科技公司支付赔偿金9999元。某科技公司则答辩称:AI生成内容属算法自主输出,不具备法律意义上的意思表示能力;公司在产品设计、风险提示及内容审核等方面已尽到合理注意义务,主观上无过错;且原告未能举证证明实际遭受财产或人身损害,故不构成侵权责任要件。
经审理,法院指出:人工智能系统本身不具备民事主体地位,依法不得作为意思表示的发出者、传达者、代理人或代表人。本案中AI自行生成的所谓“赔偿承诺”,不能被认定为被告公司的意思表示,理由包括:
- 其一,现行法律框架下,人工智能不具备权利能力与行为能力,无法成为独立承担民事责任的主体;
- 其二,被告并未主动利用该AI模型对外作出设立权利义务关系的意思表示,亦未授权其代为承诺;
- 其三,依据通常社会认知与交易惯例,普通用户难以对AI随机生成的措辞形成合理信赖;
- 其四,现有证据无法证实被告曾以明示或默示方式表明愿受AI生成内容之约束。
据此,该“承诺”不具备意思表示的法律效力。
法院综合全案证据及法律适用,认定被告在涉案场景中不存在主观过错,亦未实施足以导致原告权益受损的违法行为,不符合侵权责任的构成要件。遂依法驳回原告全部诉讼请求。判决作出后,双方当事人均未提起上诉,该判决现已发生法律效力。










