深度合成技术是AI生成算法类技术的统称,从最早的只存在简单模型联合人工干预完成内容编辑和优化的数字媒体作品,到现在以各类大模型为代表的复杂模型已经可以一键式生成优质的深度合成作品,使深度合成技术使用范围迅速扩大,并且内容质量大大提升。人工智能深度合成技术被广泛应用,在促进社会经济发展的同时,带来的问题也不容忽视。深度合成技术易引发著作权纠纷,侵犯人身权益、财产安全,影响网络生态以及危害国家网络信息安全。深度合成技术引发的风险在数智技术背景下被提上议事日程,识别其带来的全新风险,探讨面向未来的善治机制,是人工智能时代文化生产向善的理论与现实命题,更是中国法治现代化必须攻克的难关。
一、人工智能深度合成技术所带来的法律治理难题
(一)法律责任难以界定——以民事侵权为例
2024年6月20日,北京互联网法院一审开庭宣判了首例“AI换脸”软件侵权案件,被告未经原告同意使用原告出镜视频制作“换脸”视频模板,并上传至其运营的App,供用户付费使用。本案审判的争议点在模板虽使用了原告的出镜视频,但视频中的面部特征已用图片替换,这种行为是否构成侵犯肖像权。北京互联网法院经审理认为,被告使用了原告出镜视频,其制作模板视频的行为没有侵犯原告的肖像权,但是侵害了原告的个人信息权益,判令被告向原告赔礼道歉并赔偿损失。根据《中华人民共和国民法典》(以下简称《民法典》)第1019条第1款规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。《民法典》第1018条第2款同时界定了“肖像”的内涵和外延,即“肖像是通过影像、雕塑、绘画等方式在一定载体上所反映的特定自然人可以被识别的外部形象”。本案中,因为模板视频不包含原告面部特征信息,所以难以界定该视频是否侵犯原告的肖像权。法官只能另辟蹊径以侵犯个人信息权益,要求被告承担法律责任。这一案例凸显出传统法律责任认定依据,在面对人工智能深度合成技术带来的新型侵权行为时,存在明显的不适应性。原有的以直观视觉判断肖像权归属、以直接信息采集认定个人信息侵权的标准亟待更新与细化,以适应技术发展带来的复杂局面。
(二)法律解释存在争议——以著作权为例
因为AI深度合成技术高超的创造能力,其创作出的图像、文字等人工智能生成作品在著作权方面存在很大争议。《中华人民共和国著作权法》(以下简称《著作权法》)第2条第1款明确规定:“中国公民、法人或者非法人组织的作品,不论是否发表,依照本法享有著作权。”同时在第3条中明确“作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”。法律规定著作权主体是中国公民、法人或者非法人组织。法人或者非法人组织成为著作权主体,主要是职务作品。可见,《著作权法》保护的是“人”创作的智力成果,“人”包括自然人和法律意义上的“人”(法人或者非法人组织)。那么,深度合成技术依靠人工智能大模型生成的“作品”,是否属于《著作权法》保护的“作品”,就存在争议。
著作权保护中以人的智力成果为保护对象也限制了对人工智能智力成果的保护。对于人工智能深度合成技术所引发的法律问题,目前还不能以现有法律体系解释得到妥当解决,而是要从立法层面加以改变。在中国法治现代化强调法律体系完备性、法律概念精准性的要求下,如何重新审视著作权相关概念,使其能够涵盖人工智能生成作品,成为摆在理论和实务界面前的难题,这关系到创新主体合法权益保护以及文化创意产业的健康发展。
(三)公正司法受到影响——以伪造证据为例
通过深度合成技术伪造的图片、视频,有可能被别有用心之人用于伪造证据影响司法审判的公平正义。根据《最高人民法院关于适用〈中华人民共和国民事诉讼法〉的解释》第108条第1款规定,对负有举证证明责任的当事人提供的证据,人民法院经审查并结合相关事实,确信待证事实的存在具有高度可能性的,应当认定该事实存在。诉讼法中的证据包含证据能力和证明能力。证据能力指证据材料是否具备法律规定的资格,能够被法庭采纳作为认定事实的依据。核查标准包括三个方面:合法性、关联性和真实性。所谓真实性,即证据内容需客观真实,非伪造或篡改。证据的真实性直接解决证据“能否用”的问题。而判断标准是由法官自由心证所得出的,故在人工智能深度合成技术下所捏造的视频、图片等证据必然会影响到法官裁判。如何防范深度合成技术被滥用、如何在司法实践中快速准确地甄别虚假证据,对司法人员的专业素养、技术辅助手段以及证据审查规则都提出了全新的挑战。
随着深度合成技术广泛应用,虽然有众多法规对深度合成技术的网络安全性进行了规范,但目前我国对深度合成技术应用的规制尚处于初级阶段,对数据隐私安全和算法自动化决策等方面的规制尚不全面。现有规制框架合理性、可操作性和适用性都有待完善,尤其是深度合成技术带来新的法律问题界定仍须深入探索研究,构建新的理论体系。
二、人工智能深度合成技术法律治理的对策与建议
(一)立足现实生活从解释论向立法论转变
主张解释论的学者认为,人工智能未对既有《著作权法》造成实质冲击,只是为重新认识和澄清《著作权法》的概念和规则提供契机;而主张立法论的学者觉得既然《著作权法》不能有效解决智能形态二元化产生的问题,就需要立法予以回应。
生成式人工智能不仅能够进行复杂的逻辑推理,还能够生成程序代码,展现出与人类惊人相似的理解和创造能力,通过人工智能深度合成技术将产生海量合成“作品”。可既有的著作权法律规则体系没有将人工智能深度合成技术作为研究对象,探讨行之有效的适用规则,暴露出现有著作权法律体系涵摄力不足的缺陷。北京互联网法院在审理 “文生图” 第一案中对独创性、智力成果、作品属性、类型等进行分析,试图通过司法形成关于人工智能生成图片著作权保护的共识性规则。这不再是简单的规则解释与适用,而是规则建构。新的规则构建不仅有助于解决当前司法实践中面临的诸多难题,为各类纠纷提供明确的法律依据,而且能够为人工智能与文化创意产业的良性互动与协同发展,为人工智能技术的创新与发展创造稳定、可预期的法治环境。
从立法操作层面来看,可在借鉴国际先进经验和成熟做法的基础上,结合我国国情、产业发展现状以及社会文化背景,制定专门针对深度合成技术的法律法规。清晰界定技术研发者、使用者、平台运营者、监管部门等各方主体的法律责任与权利义务边界,使深度合成技术在法治的轨道上健康、有序、稳健发展,为我国人工智能产业的繁荣昌盛以及社会的和谐稳定提供坚实可靠的法律保障。
(二)强化监管效能,搭建全方位立体式监管架构
全面加强跨部门、跨领域的协同监管力量,成立网信、公安、文化、市场监管等多部门组成的联合监管专业队伍,对技术的研发源头和市场使用终端进行全面对接的链式监管,并集结各部门的优势资源形成合力,全方位提高监管的科学性、专业性和有效性。加快推动监管技术研发和应用,切实提高对深度合成技术的精准识别和动态监管能力,能精准识别因深度合成产生的不良信息,在可能造成社会危害前及时掐断并惩治。加大教育普及与宣传引导的工作力度,让人民群众对于深度合成技术有一个更深层次的认识,并提高防范意识,在全社会范围内形成关心、关注、防治深度合成技术造成危害的浓厚氛围,为进一步做好全方位监督打好群众基础。同时,加强监管人员自身专业技术培训,增加对深度合成技术的认知以及监管技术的应用能力,只有了解技术原理、技术场景和技术风险,运用监管技术手段,才能在变化多端的技术应用环境中,精准把脉、量体裁衣、靶向治疗,避免野蛮管理、简单一刀切的草率做法。
(三)推动行业自律,构建多方共治格局
在人工智能深度合成技术的法律治理中,应充分发挥行业自律的作用。行业协会是政府联系企事业单位的纽带,应利用其自身的优势制定行业的规范与自律公约,督促严格遵守国家法律法规,加强对行业自身的自律监管。
企业应当加强社会责任意识,在技术研发、产品设计、市场推广等各环节坚持合规理念,在技术研发过程中要以科学伦理为准则,技术研发的方向不得违反社会公序良俗;在产品设计上,充分考虑用户利益,做到为用户提供安全保障的技术和产品,并在产品中设置合理且有效的安全防护措施,防止用户的隐私被泄露、被滥用;配合政府相关部门及行业协会的监管,接受政府、行业和社会的监督,及时整改发现的问题。
引导全社会力量参与监督,畅通公众举报渠道,设置举报热线、网络举报平台等,鼓励群众举报利用人工智能深度合成技术实施违法违规行为的线索。形成以政府监管、行业自律、企业内控、公众监督的监管大格局,激发社会各界广泛深入参与到社会治理中来,在凝聚多方共治力量的基础上,用全新的方式去发现、解决问题,在更多的方面、更广的范围中提高人工智能深度合成技术应用的有效性与安全性,促进中国法治现代化背景下科技法治建设的良好发展局面,促进人工智能深度合成技术在法治轨道下健康发展,实现健康可持续发展目标。
综上,在我国法治现代化进程中,人工智能深度合成技术为我们带来了新的发展契机,同时也带来了新的治理难题。在鼓励科技创新的同时,应积极面对现实的治理难题,构建起“技术+法律”的协同发展体系,推动中国式现代化在法治轨道上运行。
(作者边良瑀系北京工商大学法学院本科生,本文刊载于《法治时代》杂志2025年第6期)
(责任编辑:王凯伦)