豆包推出收费服务,若出错谁买单?

图片由豆包生成
青年报·青春上海见习记者 朱彬
近日,在生成式人工智能涉及到的AI幻觉、版权、肖像权侵权问题还未解决之前,生成式人工智能软件豆包推出收费服务的消息又受到广泛关注。有人用豆包搜索黎元洪,出现的却是范伟的照片,这再次引发网友担忧:付费购买的产品不满意怎么办,谁来为错误结果买单。
记者随后使用豆包,尝试生成黎元洪资料,并未出现错误照片情况。但就网友遇到的情况及其提出的相关可能性问题,本报记者分别采访了学界和业界法律人士以及AI界人士:华东政法大学知识产权学院教授阮开欣、浙江五民律师事务所郑泽方律师和上海市大数据社会应用研究会青年专委会主任卢星龙。
青年报:输入黎元洪,为什么会出现范伟照片的情况?这种AI幻觉是如何产生的?
卢星龙:出错逻辑的背后有几种可能性,一种可能是上传一张黎元洪的照片,多模态模型由于对特征的捕捉和匹配失当,将人物识别成了范伟。AI对图像的识别中往往是有缺陷的,容易混淆。
如果是输入文字进行检索,返回的结果出现了错误的人像,可能是抓取信源的失真原因。比如一些网站提到黎元洪,在网页内错误地引用了范伟的照片,而模型并未加以甄别。
青年报:技术手段上,是否可以提高对生成信息内容足够的预见和控制能力,从而避免AI幻觉或结果生成错误?
卢星龙:理论上是可以做到的,可以通过规则审查、大模型审查、模型训练、丰富记忆库方式来尽量避免AI幻觉。譬如借助高敏感词识别、实体识别进行规则审查;借助多模型交叉验证进行大模型审查;借助预训练、训练和后训练,提升底模能力;通过人机互动、上下文输入的人为纠正方式,提升正确率。
能发现AI幻觉是好事。相比之下,最令人担心的是,现在让人类去鉴别一些AI生成图像的真伪,逐渐成为了一种不可能的工作。我们目前只能通过政策手段要求加上生成水印,来进行区分。所以,到底如何应对AI生成内容真假难辨的问题,仍然需要进一步的研究跟进。
青年报:如果付费后,生成结果仍然出现错误,譬如用豆包搜索黎元洪,出来的却是范伟的照片,两位法律人士怎么看待这种不时发生的AI幻觉现象?
郑泽方:目前来说,AI使用互联网上内容进行训练,那么AI幻觉也是生成式AI存在的固有技术局限,但付费模式下平台责任标准显著提升。免费服务中用户对结果容错度较高,而付费后用户与平台形成消费合同关系,平台负有提供准确、可靠服务的合同义务。若出现明显事实错误、内容失真,属于平台履行合同不符合约定,用户可要求更正、退费,若造成实际损失,有权主张赔偿。
平台不能仅以“技术局限”为由完全免责,应持续优化模型、建立快速纠错与赔付机制,保障付费用户权益。同时也建议用户别把AI当“唯一真理”,涉及事实查证的内容务必多源核实。AI擅长归纳,但不擅长判断真伪,AI尚在快速成长和不断完善中,培养自己的信息鉴别能力和高效使用AI能力很重要。
阮开欣:相信伴随AI开发者不断改进其算法及其生成内容的质量,AI生成的这种错误会随着技术的发展会逐步减少。在市场竞争机制下,消费者会因为AI生成内容的质量低下而“用脚投票”,不再继续付费使用,而选择其他更加智能的AI软件。
青年报:AI生成视频、图片是否需要授权?搜索黎元洪结果AI生成范伟照片是合理使用还是存在侵权风险?什么样的情况可以被纳入合理使用?合理使用和侵权行为如何划清?
阮开欣:目前,AI抓取版权内容是否需要获得授权仍处于法律不明确的状态,学界层面还存在讨论。通常来说,AI生产的内容不能与其抓取的版权内容构成实质性近似,否则仍然构成版权侵权。
郑泽方:核心边界在于使用目的、授权情况及对权利人权益的影响。免费阶段用于个人学习、研究的生成内容、公开信息收集可纳入合理使用;收费服务属于商业用途,不再适用宽松的合理使用规则。AI 生成图片、视频、文字内容,使用他人肖像、作品、数据信息,依法必须提前获得权利人明确授权,否则将构成版权、肖像权侵权。即便信息公开,商用也需遵守著作权法、个人信息保护法等规定,不得随意使用获利。
青年报:豆包推出付费服务后,人工智能生成内容将被纳入消费体系,但AI抓取却又是免费,是否合理?
郑泽方:该模式法律与商业伦理层面均存在争议,需严格规范。从商业逻辑看,平台通过他人数据训练模型并收费获利,却未向权利人支付对价,有失公平;从法律层面,数据抓取需遵循合法、正当、必要原则,不得违反平台协议、侵犯版权与个人信息权益。当前全球监管趋势均要求 AI 商用需获得数据授权或给予合理补偿,并公开数据源。收费服务应承担更高合规成本,“免费抓取、商用获利” 的模式不符合公平原则,也难以长期持续。
阮开欣:收费与否不直接影响判定抓取行为是构成合理使用还是侵权。
青年报:之前杭州互联网法院审理了全国首例生成式人工智能“幻觉”侵权纠纷案,原告用一款AI查询高校报考信息,结果有误,大模型还表示,若证明该校区不存在,将赔偿10万元信息鉴定费。原告认为AI生成错误信息对其构成误导,而且承诺赔偿,于是提起诉讼,要求研发公司赔偿9999元,但法院判定,人工智能不具有民事主体资格,在生成式人工智能场景中,AI的承诺不构成平台的意思,驳回其请求。那结果出错之后和在侵权风险之下,谁来负责?责任如何判定?
阮开欣:AI的承诺不能代表AI服务商的承诺。AI使用者应当考虑到AI技术的限制。除非AI服务商作出相应的承诺,通常AI生成内容的错误不能导致服务商承担法律责任。但是,如果AI公司故意采取不合理的算法产生不当的内容,那么其应该承担由此产生的法律责任。
郑泽方:责任主体为AI平台及研发公司,AI本身不承担民事责任。人工智能不具备民事主体资格,其行为后果由运营、管理、获利的法人主体承担。
责任判定分两类:一是合同责任,付费用户可依据服务协议,以平台违约为由要求更正、退费、赔偿损失;二是侵权责任,适用过错责任原则,平台未尽到内容审核、风险防范、结果校验义务,造成用户损害的,应承担侵权赔偿责任。AI自动作出的承诺不代表平台意思表示,但平台明知错误不纠正、误导用户的,仍需承担相应责任。
青年报:法院认定AI公司采用检索增强生成等技术提升可靠性,已尽到合理注意义务,由此认定不存在主观过错,但单纯提升检索技术是否能排除掉其主观过错,今年3·15此前还爆出过AI预料投毒的情况?
阮开欣:基于过错责任原则,AI公司不承担相应的法律责任。但如何确定合理技术措施的义务,还需相关行业细化相关的技术标准。
郑泽方:不能当然排除,仅可作为减责事由。平台采用检索增强生成技术提升结果可靠性,可证明其尽到一定合理注意义务,降低过错程度。但该技术并非绝对免责依据,若平台明知模型存在缺陷、未防范 AI 数据投毒风险、未建立完善的内容审核与纠错机制,仍提供付费服务,依然存在主观过错。尤其在数据投毒事件频发的背景下,平台需建立数据检测、过滤、追溯、纠错全流程机制,未采取必要措施的,不能以技术优化为由免责。
青年报:如何规避AI背后的搜索竞价排名机制?又如何避免魏则西事件的悲剧重新上演?
阮开欣:如果AI公司采取不当的搜索竞价排名机制,那么应当承担《消费者权益保护法》《反不正当竞争法》等相关的法律责任。
郑泽方:AI研发与运营主体应坚守技术中立与信息安全底线,从源头防范风险。第一,坚决防范数据投毒,建立数据来源核验、异常内容监测、恶意信息阻断机制,保障训练数据与检索结果真实可靠。
第二,商业上原则不参与竞价排名,避免以收益为导向扭曲信息排序,保障AI结果的客观性与公信力。
第三,若因成本、营收等因素确需对部分领域开展商业竞价,必须严格限定范围、强化合规管控:医疗、教育、司法、公共安全等高敏感领域全面禁止竞价;所有商业推广内容必须显著、清晰标识,与自然结果严格区分;平台对推广主体资质与信息真实性承担全面审核责任;同时建立算法备案、外部审计与用户投诉快速处理机制,杜绝虚假误导信息,并强化连带责任,因竞价排名、虚假信息造成损害的,平台与广告主承担连带赔偿责任,压实平台主体责任,从制度上防止魏则西式悲剧重演。
青年报·青春上海见习记者 朱彬
编辑:张红叶
来源:青春上海News—24小时青年报
- 相关推荐







