用AI“復活”已故人物,是否涉及侵權?邊界在哪兒?

模仿公衆人物聲音的“AI語音包”在網絡平臺熱銷;自動生成的“數字人”在直播間滔滔不絕;已故人物的音容笑貌被“數字復活”……數字時代,人工智能技術可以模仿、複製甚至“創造”一個人的聲音、形象乃至人格片段,那麼,如何更好守護“獨一無二”的人格權益?

人格權獨立成編,是我國民法典的重要創新。民法典實施5年多來,人格權編爲人格尊嚴的全面保護提供強有力的法律制度支撐,在防止侮辱、誹謗、肖像濫用等方面發揮重要作用。然而,當形象被深度僞造,聲音被智能合成,人格被算法複製,侵犯人格權的行爲從物理世界向數字空間延伸,傳統的權利邊界與侵權認定模式亟待更新,權利保護的力度和方式也需與時俱進,方能築牢數字時代人格權保護的法治屏障。

司法實踐承擔着先行探索的任務。一些司法裁判認定,自然人聲音權益可及於AI生成聲音,利用AI軟件製作他人“數字虛擬人”形象或惡搞、醜化他人肖像均構成肖像權侵權,對包含他人肖像的視頻進行“AI換臉”,構成對他人個人信息權益的侵害。

這些探索傳遞出清晰信號:技術應用只要實質性地構成對人格權的侵害,就應受到法律的規制和懲戒。面對不斷湧現的新技術形態,需要在既有法律框架下,從具體案例中總結提煉裁判規則,不斷明確新型侵權行爲的判斷標準,確保技術創新始終在尊重人格權的軌道上進行。

強化數字時代的人格權保護,應注重多元利益衡量,促進人格權與技術創新的良性互動。例如,對於“數字復活”技術,往往交織着多重訴求:對逝者的尊重、親屬的情感、研究者的探索、商業開發的價值乃至公衆的歷史記憶。法治的意義在於合理區分場景、清晰界定規則。對於直接用於誹謗等惡意侵害人格尊嚴的行爲,必須明確劃定紅線並施以嚴懲。而對於一些出於紀念、特定藝術表達、歷史研究與公共利益等目的的使用,則可以在嚴格遵循知情同意、最小必要、尊重公序良俗等原則下,探索“合理使用”的規範路徑。涉及公衆人物的情形,應重點考量目的是否正當、是否超出必要限度等因素,在人格權保護與公衆知情、輿論監督等社會公共利益間尋求審慎平衡。

強化數字時代的人格權保護,還應多方協同,規範引導技術應用向上向善。法律不僅劃定不容逾越的紅線,還通過明確侵權責任與救濟途徑,爲受害者提供維權依據。平臺應成爲前沿“哨所”,不僅要嚴格落實深度合成內容的顯著標識義務,讓“AI生成”一目瞭然,更應主動建立高效的監測與審覈機制,對高風險內容進行預警與攔截。研發者需將倫理考量融入技術設計與研發全流程,建立內部倫理審查機制,在產品源頭嵌入尊重人格尊嚴的價值準則。對公衆而言,應不斷提升數字權利意識,既要學會辨識技術風險、保護個人權益,也需在參與傳播時堅守底線,避免成爲侵權行爲的“二傳手”。

築牢數字時代人格權保護法治屏障,不僅是對人格尊嚴的堅定捍衛,也是互聯網持續健康發展的題中之義。在法治的軌道上更好地明確邊界、平衡利益、凝聚共識,才能讓技術在尊重人、保護人的前提下向上向善發展,不斷釋放創新活力。

原標題:“AI生成”不可突破人格權邊界(金臺銳評)



Scroll to Top