对于AI仿声技术,既不能全盘否定,也不能放任无序发展,而是要在厘清合法应用与侵权行为边界的基础上,加大监管力度,用刚性执法形成强力震慑与有效约束。
近日,多位知名配音演员相继通过公开渠道发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为(据央视新闻)。不少机构与个人未经授权,抓取公开语音素材训练模型,高度模仿名人、配音演员声音,用于网络短剧、广告配音、影视二次改编等商业场景,引发公众对AI仿声侵权乱象的广泛关注。
关于AI仿声是否侵权,法律已有明确答案。根据民法典第1023条,自然人的声音受人格权保护,且参照适用肖像权保护的有关规定。这意味着,声音作为具有独特辨识度的人格标识,未经权利人同意,任何擅自采集、使用或传播的行为,都可能构成侵权。
2024年,北京互联网法院宣判了全国首例AI生成声音人格权侵权案,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。也就是说,未经授权使用AI合成声音,只要能被一般社会公众或特定领域公众依据音色、语调、发音习惯等声音特征识别为特定自然人,就涉嫌侵犯他人的人格权益。
然而,即便有明确法律规定,也有司法实践案例做支撑,AI仿声侵权乱象仍然频出。究其原因,关键在于侵权成本低、维权成本高。
实践中,侵权方利用公开音频与简易工具就能快速复刻声音,制作简单、传播迅速、获利容易,且侵权主体隐蔽、追责难度大,违法者普遍心存侥幸。反观权利人,则面临诸多维权困境:侵权内容分散、源头难追溯,声纹取证与鉴定专业门槛高、耗时长,侵权信息删而复生,司法赔付数额偏低等,难以形成有效震慑。这种侵权易、维权难的局面,很容易让权利人“知难而退”,这样的不了了之也在某种程度上助长了侵权行为的蔓延。
不过,可以明确的是,AI仿声绝非洪水猛兽。技术本身具有正向价值,关键在于是否获得授权、是否合理使用。客观来说,只要经过权利人明确授权,不用于违法违规目的,不违反公序良俗,AI仿声完全可以在合法合理范围内得到充分应用。
因此,对于AI仿声技术,既不能全盘否定,也不能放任其无序发展,而是要在厘清合法应用与侵权行为边界的基础上,加大监管力度,用刚性执法形成强力震慑与有效约束。一方面,应完善AI深度合成、声音克隆的监管细则,明确技术应用红线,细化AI仿声侵权的认定标准与法律责任,让侵权代价大于违法收益;另一方面,也要压实平台主体责任,强化内容审核、数据来源核查、算法推荐管理等,从传播环节遏制非法仿声内容扩散。
规范AI仿声技术应用,既是为了保护每一名个体的声音权益,也是在引导技术创新良性健康发展。将技术伦理前置,用法律划定边界,以执法强化约束,AI仿声才能在无障碍服务、文艺创作等正向场景中发挥更大价值,而非成为侵权与诈骗的帮凶。








