評論丨AI換臉擬聲治理,重點應加強傳播環節監管

 人参与 | 时间:2025-07-05 07:45:45

3月4日,全國人大代表雷軍的建議上了熱搜頭條,其中討論度最高的是他提出加強“AI換臉擬聲”違法侵權治理的建議。

雷軍表示,“AI換臉擬聲”不當濫用造成了違法侵權行為的重災區,易引發侵犯肖像權、侵犯公民個人信息以及詐騙等犯罪行為,甚至造成難以挽回的大規模形象和聲譽損害,帶來社會治理等風險。AI深度合成技術所需素材獲取便利、技術使用門檻低、侵權主體及其手段隱蔽性強等特點,給治理帶來較大挑戰。

應該說,這個建議回應了社會關切的熱點。現在隨著AI技術的發展,“AI換臉擬聲”主要在兩方麵會產生較大風險,一類是電信詐騙,利用生成的視頻和聲音,假冒他人進行詐騙。另一類,是生成色情內容,並進行傳播,損害公民聲譽。

解決辦法,也正如雷軍所說,加快單行法立法進程,在安全與發展並重的基礎上提升立法位階;其次,強化行業自律共治,壓實平台企業等各方的責任和義務;最後,加大普法宣傳的廣度力度,增強民眾的警惕性和鑒別力。

監管是必要的,但如何監管,卻需要循著專業、理性、科學、寬容的範式去進行。

對於生成式AI的監管,首先要分清楚創作內容和傳播內容的區別。AI根據用戶意圖進行內容的生成,雖然具有智能化的特征,但本質仍然是工具。AI生成的內容,不像網頁那樣麵向大規模受眾,而是僅麵向一個用戶。

當用戶用Word寫文章,或者用Photoshop創作內容的時候,這些軟件並不會限製用戶的創作。但是,如果用戶把這些內容進行傳播的時候,已經有明確的法律法規進行監管。這就意味著,以前法律並不監管創作層麵,或者單個的私人活動層麵,但如果對於AI的監管直接降低到了創作層麵,那麽也會在一定程度上加大AI行業的合規成本。

如果要求AI對他人利用AI自行生成的文本、圖像、聲音承擔作為“內容生產者的責任”,這就相當於把監管不是放在網站層麵,而是放在了Word、輸入法、Photoshop層麵,要求這些公司對最終發布的內容負責。顯然,微軟、金山、搜狗、Adobe等都做不到這一點。

具體到換臉擬聲這一項上,對於某一類的換臉擬聲,AI是無法區別惡意還是善意的,是想著損害他人聲譽,還是隻是自己使用,那麽,就隻能是完全封禁。而且,應該看到的是,隨著以DeepSeek為代表的高性價比人工智能技術路線的出現,私人部署的價格已經降低到200萬元,如果再容忍生成內容的速度慢一些,這個價格還可以進一步降低到50萬元。也就是說,AI算力越來越出現分散化、私人化的趨勢。這就意味著監管是不對稱的,越是大型的AI廠商,受到的監管越大,小型廠商或者私人部署反而受到的監管約束較小,可能會讓一些不法分子利用“AI換臉擬聲”進行的違法活動得到規避。一些電詐分子或想著損害他人聲譽的人,如果使用國外的生成式AI工具,那麽國內如果僅僅對相關工具進行監管,對他們可能不會有太大影響。

用戶可以、也應該對產生的內容負責,那麽,相應的監管就應該放到傳播層麵,在平台上進行中遊式監管,這更合乎邏輯,而不是對生成式人工智能服務者和供應商提出過高的合規義務。

總之,任何技術帶來好處的同時,都必然伴隨內生的、不可剔除的風險。AI技術也是如此。大語言模式、多模態生成式AI,都會同時伴隨一些負麵問題。所以,一方麵需要加強防範和監管,另一方麵也應該考慮如何在精細化地管理內生風險的同時,為新技術創造安全的成長空間。

顶: 4413踩: 85587