铸成
视角
近年来,生成式人工智能技术的迅猛发展正在重塑各行各业的生态,从文本创作到图像生成,AI大模型展现出惊人的创造力。然而,这一技术浪潮背后潜藏着不容忽视的法律风险——在模型训练过程中大量使用受著作权保护的作品,可能引发侵权纠纷。从《生成式人工智能服务管理暂行办法》的出台到“奥特曼案”系列判决,立法与司法实践已为企业划定了清晰的合规红线。如何在技术创新与著作权保护之间找到平衡?本文将结合最新立法动态与典型案例,为企业揭示风险核心与应对之道。
我国目前针对生成式AI的监管框架以《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》为核心。前者聚焦深度合成技术(如人脸替换、语音克隆),强调对虚假信息的防控;后者则针对生成式AI服务的全流程,明确要求数据来源合法化、知识产权保护义务化。立法逻辑体现“分类监管”思路:对数据输入和模型训练阶段采取相对包容的态度,以鼓励技术创新;而对内容输出阶段则从严把控,防止生成物实质性替代原作品。例如,《暂行办法》第七条明确规定,企业必须使用合法来源的数据,涉及著作权作品时需取得授权或符合合理使用条件。这种“松紧结合”的监管模式,既为技术发展留出空间,也为权利人筑起法律屏障。
司法实践进一步细化了侵权认定的边界。在“广州奥特曼案”中,被告平台因用户输入“奥特曼”提示词即可生成相似形象,被法院认定侵犯著作权的复制权与改编权。值得注意的是,法院虽判决停止侵权并赔偿1万元,但驳回了原告要求删除训练数据的诉请。这一判决传递出明确信号:在AI技术发展初期,司法更倾向于通过技术措施阻断侵权结果,而非直接否定训练行为本身。类似地,“杭州奥特曼案”二审判决将焦点放在平台注意义务的履行上。法院认为,平台虽未直接参与用户生成侵权内容的过程,但因未建立有效的投诉处理机制,构成间接侵权。这两个案例在认定平台侵权责任时都将案件焦点放在了平台是否进到合理注意义务,存在主观过错,具体考察平台是否预见可能引发的侵权后果,是否建立投诉举报机制预防侵权。同时,平台责任的认定与其技术控制能力、商业模式也紧密相关。收费平台因营利属性需承担更高注意义务。
法律合规正在成为AI企业的核心竞争力。未来,企业需构建“技术+法律”双轮驱动的风控体系:技术团队负责开发侵权阻断算法,法务团队则需动态跟踪立法变化、参与行业标准制定。在这场技术革命与法律规则的碰撞中,唯有主动拥抱合规的企业才能行稳致远。从数据清洗到生成物标注,从用户协议设计到应急预案演练,每个环节都需注入法律智慧。对于AI企业而言,合规不仅是避免诉讼的盾牌,更是赢得市场信任的基石。随着司法裁判规则的清晰化,那些在技术创新与法律底线之间找到平衡点的企业,终将在AI浪潮中占据先机。