換臉盜聲亂象頻發,AI侵權怎么治
伴隨人工智能技術的廣泛應用,各類AI換臉、盜聲亂象頻發。日前,針對AI侵權行為,中國廣播電視社會組織聯合會演員委員會發布嚴正聲明,劃清法律底線,明確行業規范,強化權益保護。但是,也有人認為AI內容只要不商用就無傷大雅,如何看待這種觀點?
作為一名普通觀眾,許進財也有點分不清了。“以前還疑惑,為什么老年人刷短視頻看不出明星被AI換臉,現在技術越來越成熟,自己也很難辨別真偽了。”他認為,大家對熟悉的面孔和聲音天然會有信賴感,無論是自娛自樂還是另有所圖,只要是在公開平臺發布的內容,都應該盡快堵住漏洞。
從傳統影視行業向AI影視轉型的制片人金巖告訴記者,當前AI面孔和聲音的使用頻率越來越高,但監管尚不完善。一些青年演員愿意授權自己的形象和聲音用于AI生成內容,這能在一定程度上實現降本增效。他坦言,正如過去文學IP向影視轉化歷經了從野蠻生長到規范發展的過程,AI領域的版權管理同樣需要循序漸進。目前市場對AI換臉、換聲的需求很大,但無序使用的風險不容忽視。
“對配音演員而言,聲音不僅是承載人格標識的載體,也凝聚著多年的專業積累和價值認同。”四川電影電視學院教授、電影《哪吒之魔童降世》主角哪吒的配音演員呂艷婷告訴記者,通過AI未經授權濫用聲音的行為,既是對行業規則的破壞,也涉嫌違法。
“相較AI換臉,AI盜聲的問題更為隱蔽,哪怕是標記‘二創’或‘非商用’也涉嫌侵權。聲音的可識別性可從識別主體和識別難度兩個方面判斷:一般社會公眾或熟識之人能否識別,以及聲音是否保留了自然人的核心特征。具體案件中還需考量場景、知名程度等要素。”北京航空航天大學法學院副教授趙精武表示,基于新聞報道等公共利益目的可合理使用自然人聲音,但需明確界限。即便是純娛樂性質的配音,也不能免除法律責任。一旦AI合成的聲音具有可識別性,就可能構成對聲音人格權的侵犯;如未經授權使用了影視作品中的聲音內容,還可能侵犯著作權。
界定AI侵權,有何規范可依?中國傳媒大學文化產業管理學院法律系主任鄭寧對現行法律框架進行了系統梳理。她表示,《中華人民共和國民法典》第一千零一十九條禁止利用信息技術手段偽造等方式侵害肖像權,第一千零二十三條規定對自然人聲音的保護參照適用肖像權規定。《中華人民共和國個人信息保護法》將人臉、聲紋等生物信息列為敏感個人信息,處理需取得單獨同意。《互聯網信息服務深度合成管理規定》和《生成式人工智能服務管理暫行辦法》《人工智能生成合成內容標識辦法》要求對AI生成內容進行標識,不得侵權。刑事層面,利用AI換臉換聲實施詐騙等行為可能構成詐騙罪、侵犯公民個人信息罪等。
然而,執行層面依舊困難重重。“侵權賬號數量太多,侵權內容在各平臺間流轉,個人的維權成本高、舉證難度大,技術‘黑箱’導致溯源難上加難。”鄭寧說。在實際維權過程中,呂艷婷感受到取證難、鑒定難、追責難這“三道難關”,無論是針對聲音還是形象的侵權,都存在內容傳播數量大、分散渠道廣等問題,作為個人難以全面監測和固定證據,更不知如何追責。針對AI侵權的個體維權成本與侵權收益之間明顯失衡。
如何應對AI侵權亂象?鄭寧建議,在監管部門常態化開展專項整治的同時,可曝光更多典型案例形成震懾。平臺層面應建立跨平臺協查聯動機制,簡化維權流程。推動行業協會出臺合規使用指引,明確“可識別性”判定標準。趙精武認為,網絡平臺應在履行事前審核義務的前提下,與監管部門、權利人、技術方聯手,合力打擊相關網絡黑灰產。“很多人可能不知道自己在使用AI過程中侵權了,普及這方面的知識十分重要。”趙精武說。
金巖認為,需培養全社會的版權與人格權保護意識,行業自我監督之外更需要強力約束機制和技術力量配合。他建議:“AI讓內容生產數量大增,治理方面也應與時俱進,善用AI工具來治理AI亂象。”
呂艷婷認為,應盡快推進完善AI生成內容相關法規,明確聲音AI化的授權標準。“配音演員對錄音內容的授權界限必須清晰,用于AI訓練和商用的規范必須明確。”她期待,在技術治理層面可以建立聲紋登記與比對制度,讓平臺在收到投訴時能有據可依,降低維權者的追責難度。
本報記者 覃皓珺
社會新聞精選:
- 2026年04月20日 16:58:54
- 2026年04月20日 14:16:40
- 2026年04月20日 14:05:55
- 2026年04月20日 14:02:01
- 2026年04月20日 14:00:31
- 2026年04月20日 13:24:13
- 2026年04月20日 11:29:05
- 2026年04月20日 10:13:39
- 2026年04月20日 10:11:49
- 2026年04月20日 00:04:33










































京公網安備 11010202009201號