被AI“偷走”聲音 配音演員集體維權:希望構建合法共存生態

近日,多名配音演員相繼公開發聲,反對未經演員知情同意,擅自採集其聲音素材用於AI訓練、音色合成及商業變現的行爲。

有評論認爲,目前AI仿聲侵權已經形成了一條“素材採集-內容生成-流量變現”的灰色產業鏈。同時,AI仿聲侵權比AI換臉更隱蔽,維權難度更大。配音演員的聲音是如何被“偷走”的、維權難在哪裏、又該如何破局?

從《甜蜜蜜》裏的黎小軍,到《無間道》中的劉建明,配音演員葉清塑造了許多經典的人物形象。就在不久前,短視頻平臺上出現了一集AI生成的短劇,許多觀衆通過彈幕刷屏:主人公的旁白是“葉清老師的聲音”。接受記者採訪時,葉清坦言,AI短劇裏對他的音色還原度極高。

類似的經歷在配音行業中屢見不鮮。配音導演、配音演員李龍濱也經常成爲這種侵權行爲的受害者。

未經授權的AI仿聲對配音演員和整個行業帶來前所未有的衝擊。季冠霖曾爲《甄嬛傳》《瘋狂動物城》等知名影視作品配音,她認爲,在藝術層面上,無序發展的AI仿聲消解着配音演員的表演能力和情感流動。在“魔改”印度版《甄嬛傳》中,季冠霖的聲音被仿,在她本人聽來,雖然聲音很像,但角色不像。

她表示,未經授權的AI仿聲除了降低配音行業應有的藝術水準和價值之外,還會讓配音演員面臨諸多法律風險。

針對未經授權的AI仿聲帶來的行業與個人困境,法律層面是如何界定的?中國政法大學人工智能法研究院院長張凌寒表示,可能侵犯配音演員的聲音人格權,還可能侵犯相關影視劇作品的著作權

然而,多位業內人士及法律專家認爲,在實踐中,如何認定AI仿聲侵權、如何去監管,目前有現實的難題。

首先是取證鏈條弱。葉清認爲,網絡傳播的AI語音多爲碎片化二次加工,難以追溯源頭和固定完整侵權鏈路。

此類維權的另一個難點是“鑑定”難。不同於能看得見、摸得着的肖像權,聲音沒有實體,聽得到、抓不住,容易被剪輯、篡改、變速,對於配音演員來說,切換多種聲線更是工作常態,在此基礎上,AI微調音色、語調等就可以做到高度相似,但非1∶1復刻。

張凌寒表示,訓練數據不透明,被侵權人難以證明數據來源。因此,追責面臨不小的困難。

那麼,該如何探索AI技術與配音行業的合法共存模式?葉清認爲,首先聲音使用方應正視法律問題,通過合規的手段取得授權並恰當使用AI仿聲技術

中國政法大學知識產權中心特約研究員趙佔領認爲,行業自律與平臺規則同樣是構建合規生態的重要一環。目前的司法實踐經驗還不是很充分,需要司法實踐積累經驗、作判斷。在監管政策還未出臺的情況下,網絡平臺、AI軟件平臺可以要求和禁止用戶未經授權使用他人聲音進行AI生成。

多位受訪者還呼籲,未來希望通過加水印等技術手段,爲AI聲音搭建可追溯、可識別的安全框架。

張凌寒表示,在AI聲音中如何嵌入水印,需要統一的、規範的技術標準。在配音行業中,配音演員可以爲自己的聲音和聲紋做一個單獨備案,以便將來更好追責。有了相關的判定,隨着監管制度、標識制度和取證制度的逐步完善,對配音演員聲音的有效保護機制能夠迅速建立起來。

來源:中央廣播電視總檯中國之聲



Scroll to Top