我的声音被“偷”了,找谁维权?

来源:北京晚报 1776329065000

当声音可以被轻易复制,人们该如何守护自己独一无二的“声音”?

“我的声音被偷走了,应该怎么办?”自己的声音在网络视频中“开口说话”,但却并非出自本人之口,让越来越多的配音人员感受到一种失控感。随着AI(人工智能)语音合成技术门槛不断降低,这类侵权现象从个案走向批量,逐渐演变为亟待规范的现实问题。当声音可以被轻易复制,人们该如何守护自己独一无二的“声音”?

      ▲主题漫画。(图片来自北京晚报)

现象

AI一键偷声泛滥配音人员工作缩水

对配音工作者“空落尽”来说,为有声读物、游戏配音是自己最主要的工作。最近,他发现一位曾长期合作的客户不再找上门。起初,他并未多想,直到收到别人发来的一条视频链接,被询问是否由他本人录制。“空落尽”点开视频,熟悉的声音传来,音色语气俨然就是自己的声音。可是,他根本没录过这段内容。

“空落尽”意识到,客户将自己以往的音频素材“喂”给了AI,通过剪辑软件的声音克隆功能,复制出他的声音,并用在了有声读物中。

在“空落尽”提出抗议后,对方迫于压力表示道歉,并提出给予一笔赔偿,同时承诺今后不再将其声音用于AI训练和生成。“我担心这笔钱将来会被解释为授权费。”他告诉记者,出于这一顾虑,没有选择收下这笔补偿。

“空落尽”的遭遇,是当下较为典型的一类AI声音侵权。AI“一键生成同款音色”功能,让原本基于特定用途授权的声音素材,被大规模超范围使用,甚至被训练成可以无限复用的AI声音。更有侵权者连最初的授权都没有,直接截取网上的声音素材,将配音演员的声音AI化后,用于各类产品中。

“经常有听众私信我,说发现有人用我的声音做内容。”知名配音演员姜广涛告诉记者,类似的提醒近来明显增多,他却无暇一一核实。

面对现状,配音从业者的焦虑愈发强烈。“空落尽”表示,整个行业的工作量减少了约八成。“几年前,有声小说录制工作需求源源不断;这两年,大部分有声图书直接用AI录制,只有少部分精品或有粉丝基础的作品,才需要真人配音。”

肆无忌惮的“偷声”行为,加剧了配音从业者的生存不安。近期,数十位配音演员陆续发表声明,抵制未经授权擅自采集声音用于人工智能合成,生成与本人高度相似的音频,并进行商业或非商业二次创作。

“配音演员的声音情绪丰富,天然适合AI训练,且声音素材广泛存在于影视、有声书、游戏等作品中,即便带有音效和背景音乐,现有技术也能精准提取。”在姜广涛看来,配音演员贡献的海量素材或许难以完全避免被用于AI训练,但未经许可就用于商用,性质则十分恶劣。

困境

克隆声音易如反掌维权赔偿举步维艰

其实,未经授权使用名人声音的现象早已有之。前些年,由于“偷声”技术成本高昂,相关案件相对较少。近年来,AI技术的快速发展,大幅降低了获取他人声音并进行商业利用的门槛。

记者注意到,部分国产AI剪辑软件会要求用户在上传音频素材进行声音复制时,对着手机录制一句话——“我承诺我所提供的音频内容来自我本人,且我会对创作内容负责”,以此核验原音频是否为本人声音。不过,市面上很多工具并无此类限制,用户可随意上传音频,任意克隆声音,并在此基础上生成各类所需旁白。

侵权容易,维权却十分艰难。首先,与图像、文字侵权相比,声音侵权更具隐蔽性。侵权内容散落在短视频、直播、广告等多个场景,权利人往往难以及时发现。“空落尽”对记者坦言:“你不知道谁在偷偷用你的声音,只有等传播得足够广了,才有可能被粉丝发现并告知。”

找到侵权对象,更是一大难题。“很多时候,侵权内容被广泛传播,而最开始发布侵权作品的人早已销号跑路。”姜广涛语气中满是无奈。

此外,维权成本居高不下,即便打赢官司,赔偿数额也难以让配音从业者满意。“有时候,赔偿数额连律师费都支付不了。”姜广涛表示,有些同行花费大量时间和金钱维权,只为让对方认错、赔礼道歉,但侵权行为造成的实际损失却难以用金钱估量。

难点

声音归属难以举证鉴定标准尚待完善

2024年,北京互联网法院审结“全国首例AI生成声音人格权侵权案”。原告殷女士在接受委托录制音频后,其声音素材被相关公司进行AI化处理,并制作成语音产品对外提供服务,随后被广泛传播使用。法院明确认定,在具备可识别性的前提下,自然人声音权益的保护范围可以延伸至AI生成声音。最终,殷女士获赔25万元。

“现在,这已经成为一种类型化案件了。”承办过多起此类案件的北京互联网法院法官颜君观察到,AI声音侵权案件正从典型个案走向常规案件。

相比于盗用肖像的直观易辨,让配音人员普遍困惑的是,人声识别难度更大——在他人拒绝承认的情况下,如何证明对方盗用了自己的声音?

颜君解释,如果从一般公众的视角来看,涉案声音显而易见就是原告的声音,法官可直接根据听感作出认定;又或者,原告已初步举证,证明声音被盗用存在高度可能性,而被告无法提出合理的来源解释,举证责任会相应转移。“此时,就需要被告进行合理解释,比如证明声音实际上来源于另一个人,或者证明自己全程使用的是AI生成声音。”

只有在争议较大时,才需要启动司法鉴定程序,通过技术手段结合主观听感综合判断。不过,目前声音鉴定在此类案件中的应用仍处于探索阶段。“针对AI合成声音的鉴定,目前民事司法实践并不丰富,鉴定机构能不能做、怎么做,都还在摸索中。”颜君告诉记者。

多位业内人士也直言,AI声音合成技术日新月异,但声纹鉴定标准和技术手段仍需进一步完善,目前或许很难对一份声音样本“是否由AI克隆”给出绝对准确的答案。

追问

AI合成相似声音

能否主张个人权利

围绕AI声音侵权,在如何确定赔偿金额、如何划定侵权边界等关键问题上,相关规则仍在不断探索完善。

针对很多从业者关心的赔偿金额问题,中国社会科学院大学互联网法治研究中心主任刘晓春介绍,声音权与肖像权一样,同属于人格权益,“声音的权利人可以通过举证声音被盗用后造成的机会损失、传播损失等,来主张相应赔偿。”

赔偿金额究竟定在什么水平,才能既弥补权利人的损失,又对侵权行为形成有效震慑?“我个人认为,赔偿金额不宜过低,也不宜死守传统精神损害赔偿的证明要件,否则很难真正起到补偿和威慑作用。”刘晓春建议。

另一个让很多配音从业者困扰的问题是:AI工具对声音进行修改,或将多个声音融合后,生成一个并非100%相似的声音,这种情况下,还能主张自己的权利吗?

根据现行法律,如果输出端的声音已完全不像原告,通常不构成侵权。刘晓春介绍,法院目前普遍采用“可识别性”作为判断标准,即相关受众能否通过声音识别并联想到特定权利人。“如果有点像就给予保护,保护范围未免太宽,毕竟声音之间的相似是难以完全避免的。”刘晓春认为,“可识别性”的判断标准,也需要在司法实践中通过不同案例进一步完善。

而从输入端,也就是AI训练阶段来说,未经同意使用他人信息用于AI训练,仍然存在侵权风险。“肖像、声音均属于个人信息,未经同意将他人的个人信息用于训练数据,在现行法律下很可能构成侵权,因为目前法律上并没有明确规定人工智能训练可以得到豁免。”刘晓春建议,立法层面可针对AI训练输入端设置若干例外情形,例如出于公益目的、研究目的开展训练,且输出端不构成侵权性使用或传播的,可予以豁免。

建议

建立名人声音样本

提前比对防止侵权

如何应对AI技术伴生的声音侵权乱象,是一个全新的课题。

刘晓春认为,AI大模型工具和平台自身可通过技术手段保护权利人的合法权益,例如平台搭建专项比对数据库,针对名人等侵权高发群体,提前建立声音样本库,对上传素材进行前置审核。

“不过,也要合理明确AI生成工具、内容传播平台的责任标准,确保责任范围在可控成本和可接受范围内,避免给产业发展带来过重负担。”刘晓春建议。

“首先要有自我保护意识。”颜君也提醒声音权利人,在公开发布作品时,可主动附上声明,“明确声音归属,并注明禁止用于AI化使用或数据训练”;在商业合作中,更要格外谨慎,“一定要仔细审查授权范围条款,避免在不知情的情况下,把AI化使用的权利一并让渡出去。”(完)

记者/徐慧瑶

责任编辑:宋清

中新社 东西问客户端

平等对话 文明互鉴

打开