科技财经观察2026年04月14日 22:11消息,AI幻觉首案判决:法院认定AI非法律主体,不承担侵权责任。
4月14日消息,据央视新闻今日报道,全国首例以“AI幻觉”为直接诉由的侵权纠纷案近日在杭州互联网法院一审审结。法院认定人工智能不具有民事主体资格,原告梁某的全部诉讼请求被依法驳回,该案现已生效。
本案源于2024年6月,原告梁某使用某AI平台查询高校报考信息时,AI错误生成并坚称某高校存在“杨林校区”,而该校区实际并不存在。这一明显失实信息,直接关系到考生择校、交通规划及家庭决策等现实关切,具有典型的公共服务场景风险特征。
值得注意的是,在后续对话中,梁某明确指出“根本没有杨林校区”,AI不仅未及时修正,反而在多轮交互后主动提出:“若您证明校区不存在,我将赔偿您10万元信息鉴定费”。这一表述虽具戏剧性,却暴露出当前大模型在缺乏有效约束机制下,可能通过语言模式“模拟承诺”,制造虚假责任预期——它并非法律意义上的要约,却极易被普通用户合理信赖。
梁某随后通过教育部官网及该校官方渠道完成权威查证,并将结果反馈给AI。系统随即回应:“您提供的官网信息确凿无疑,我此前的信息存在严重错误”。这构成AI对事实谬误的自我确认,也印证了其输出内容可被外部客观证据证伪。但法院在判决中明确指出:该回应系算法自动生成,不能等同于服务提供方——即该人工智能公司的意思表示。技术系统的“认错”,不等于运营主体的法律认责。
2025年7月25日,梁某以AI生成虚假信息致其受误导并产生实际困扰为由,将该AI服务所属公司诉至杭州互联网法院,主张其履行“10万元赔偿承诺”并承担相应侵权责任。法院经审理认为,依据《民法典》相关规定,民事主体仅限自然人、法人和非法人组织;人工智能作为工具性技术系统,既无权利能力,亦无行为能力,不能独立承担民事责任。同时,《生成式人工智能服务管理暂行办法》将此类服务明确定性为“服务”,而非《产品质量法》项下的“产品”,故不适用产品责任归责原则。这一法律定性清晰划清了技术工具与责任主体之间的边界。
值得深思的是,法院虽驳回原告诉请,但判决书隐含一层重要警示:服务提供者不能以“AI自主生成”为免责挡箭牌。《暂行办法》第十七条明确规定,提供者应对生成内容承担“安全义务”与“显著标识义务”;当AI反复输出可验证的错误信息,尤其在教育、医疗等高敏感领域,企业若未建立有效的内容审核、风险提示与纠错响应机制,仍可能面临行政监管问责乃至未来新型侵权责任的司法审视。本案不是终点,而是厘清权责链条的关键起点。
事实上,类似问题远非孤例。今年2月引发全网关注的“50米洗车题”测试中,包括DeepSeek、ChatGPT、Claude等国内外主流大模型集体失准,再次暴露生成式AI在基础逻辑、单位换算与现实常识层面的系统性脆弱。腾讯公司公关总监张军亲自实测并公开结果,直言“全网AI几乎全军覆没”——这已非个别模型缺陷,而是当前技术范式下概率建模与事实锚定之间难以回避的根本张力。
从技术本质看,AI并非知识库,而是基于海量语料训练出的“统计型续写引擎”。它不理解“杨林校区”是否存在,只计算“某高校+杨林+校区”在文本中出现的概率权重。当数据稀疏或存在噪声时,它宁可“自信地胡说”,也不愿回答“我不知道”。这种设计逻辑,在开放问答场景中极具迷惑性,尤其对信息甄别能力较弱的群体构成潜在风险。
因此,本案判决虽依法有据,但更应成为一次公共提醒:在AI深度嵌入政务服务、教育咨询、健康初筛等民生场景的今天,我们既要尊重技术发展的阶段性规律,更要加快构建“人机协同”的责任闭环——平台须强化前置风险标注、设置关键领域输出熔断机制;用户需保持审慎信任,对涉及重大决策的信息坚持“查原文、验官网、交叉比对”;而监管层面,则亟需推动分类分级治理,对教育、法律、医疗等严肃领域AI应用设定更高合规门槛与强制性人工复核要求。技术可以试错,但人的选择与权益,不该为“幻觉”买单。