首例AI“幻觉”侵权案落槌,法院明确生成式人工智能不具民事主体资格

案件背景:从信息错误到司法诉讼
因一次高校报考信息查询,梁某将提供生成式人工智能服务的科技公司诉至法院。在查询过程中,AI生成了不准确内容,并在被纠正后给出“若有错误愿赔偿10万元”的回应。梁某据此主张自身遭受误导,要求赔偿9999元。案件由杭州互联网法院受理,引发法律界高度关注。

核心问题:AI生成内容是否具有法律约束力
法院审理认为,人工智能并非法定民事主体,其生成内容不能独立构成意思表示,也不能当然归属于开发公司。科技公司未通过程序设置或其他方式,表达愿意受AI生成内容约束的意思,因此,AI所谓“赔偿承诺”不具备法律效力。

合理信赖的边界如何把握
针对原告主张的信赖利益,法院指出,是否构成合理信赖需结合具体使用场景判断。本案中,普通信息查询场景下,用户不应将AI生成内容等同于权威信息或正式承诺。法院同时保留空间指出,在部分特殊应用场景中,AI输出内容确有可能对服务提供者产生约束。

侵权责任类型的司法选择
在责任性质认定上,法院明确否定将生成式人工智能视为“产品”并适用无过错责任的做法,转而采用一般侵权责任中的过错责任原则。承办法官指出,生成式人工智能服务具有高度不确定性,适用产品责任标准并不符合技术现实,也可能对产业发展造成不利影响。

服务提供者注意义务的判断标准
围绕是否存在过错,法院采用动态系统论进行综合评估。被告科技公司已通过多种方式提示生成内容的局限性,其模型完成国家相关备案与安全评估,并采取技术手段提升准确率,符合当前技术发展阶段下的合理注意义务要求。

损害认定的严格标准
法院进一步指出,原告未能证明其因不准确信息遭受实际损失,其主张的报考机会损失、维权成本等缺乏证据支持。相关生成内容亦未对其决策产生实质性影响,在“无损害”的前提下,依法不产生赔偿责任。

裁判意义与现实警示
多位法学专家认为,该案系统回应了生成式人工智能侵权中的关键问题,明确了AI不具备民事主体地位、适用过错责任原则以及服务提供者注意义务的合理边界。法院亦提醒公众,应理性认识当前AI的能力定位,将其视为辅助工具而非决策主体,避免盲目依赖。

© 版权声明

相关文章

没有相关内容!

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...