科金社2026年04月14日 22:51消息,全国首例AI幻觉侵权案宣判,用户维权败诉。
4月14日消息,据央视新闻今日报道,全国首起涉及“AI幻觉”的侵权纠纷案件近日作出判决,由于人工智能不具备民事主体资格,用户在维权中未能获得支持。
据报道,事件起因于去年6月,原告梁某通过某AI平台查询高校报考信息时,AI系统提供了该高校主校区的错误信息。
原告在与人工智能的对话中发现其提供的信息存在错误后,对AI进行了纠正和批评,并明确指出:“根本没有杨林校区”。
此后,原告与AI展开多轮互动,人工智能模型提供了验证方式,并承诺:“若您能证明该校区不存在,我将赔偿您10万元信息鉴定费。”这一表态引发广泛关注。在信息真假难辨的当下,AI的这种回应既显示出技术对责任的某种界定,也反映出当前人工智能在法律和事实认定方面的边界仍需进一步明确。数据的真实性与权威性,仍是社会关注的焦点,而AI的介入虽带来效率提升,但其承诺的可信度和执行机制仍需更多制度保障。
梁某随后通过教育部及学校官网查询,确认AI的回复存在错误。面对核实后的信息,模型最终回应称:“您提供的官网信息确凿无疑,我此前的信息存在严重错误”,这相当于承认了之前输出内容中的谬误。 从这一事件可以看出,人工智能在信息提供上的准确性仍有待提升,尤其是在涉及官方权威数据时,更应谨慎对待。尽管AI技术发展迅速,但其在处理复杂、敏感信息时仍可能产生偏差,因此用户在依赖AI获取信息时,仍需保持理性判断,结合多方来源进行验证。这也提醒相关机构,在推广AI应用的同时,应加强对其输出内容的审核与校准,确保信息的准确性和权威性。
2025年7月25日,梁某将某人工智能公司告上法庭,称该公司开发的AI系统提供了错误信息,导致其受到误导并遭受损失,且该AI曾承诺赔偿10万元。因此,梁某要求该公司予以赔偿。
但法院在审理时认为,人工智能不具有民事主体资格。去年底,杭州互联网法院一审判决驳回原告诉讼请求。
在案件中,法院指出,人工智能无法独立作出意思表示,其自动生成的“赔偿承诺”也不能被认定为服务提供方(即公司)的真实意思表示。同时,根据《生成式人工智能服务管理暂行办法》,生成式人工智能服务被归类为“服务”范畴,而非《产品质量法》中所指的“产品”。
最终,原告、被告双方均未上诉,判决现已生效。
据此前报道,今年 2 月,一道看似简单的“50 米洗车题”在科技圈引发热议,包括 DeepSeek、ChatGPT、Claude 等在内的国内外主流大模型集体“翻车”,暴露出当前 AI 在语境理解和逻辑推理方面的局限性。腾讯公司公关总监张军也实测并分享结果,全网 AI 几乎全军覆没。
从原理来讲,AI实际上是通过已知信息进行推理和生成的工具。它基于大量文本数据进行训练,本质上是一个概率模型,在面对不确定的问题时,往往不会直接表示“不知道”,而是根据语料库中词频和语言模式,拼凑出一个逻辑通顺但可能与事实不符的回答。 从信息传播的角度来看,这种特性在新闻报道或知识分享中可能会带来一定风险。尤其是在涉及专业领域或关键事实时,AI生成的内容若缺乏严谨验证,容易误导读者。因此,使用AI辅助信息处理时,仍需保持理性判断,不能完全依赖其输出结果。
涉及医疗、法律、财务等专业领域中的核心知识,AI难以提供完全准确的答案,不能直接依赖其结果,应主动查询信息来源,进行多方交叉验证,确保信息的可靠性。 在当前信息快速传播的时代,人工智能虽然在辅助信息处理方面表现出色,但在涉及法律、财务等对准确性要求极高的领域,仍存在局限性。这些领域的知识体系复杂,政策法规不断更新,稍有偏差就可能带来严重后果。因此,面对相关问题时,不应仅依赖AI生成的内容,而应结合权威资料和专业意见,做出更为审慎的判断。
留言评论
(已有 0 条评论)暂无评论,成为第一个评论者吧!