雷軍。資料圖
3月4日,全國人大代表雷軍的建議上了熱搜頭條,其中討論度最高的是他提出加強“AI換臉擬聲”違法侵權治理的建議。
雷軍表示,“AI換臉擬聲”不當濫用造成了違法侵權行為的重災區,易引發侵犯肖像權、侵犯公民個人信息以及詐騙等犯罪行為,甚至造成難以挽回的大規模形象和聲譽損害,帶來社會治理等風險。AI深度合成技術所需素材獲取便利、技術使用門檻低、侵權主體及其手段隱蔽性強等特點,給治理帶來較大挑戰。
應該說,這個建議回應了社會關切的熱點。現在隨著AI技術的發展,“AI換臉擬聲”主要在兩方面會產生較大風險,一類是電信詐騙,利用生成的視頻和聲音,假冒他人進行詐騙。另一類,是生成色情內容,并進行傳播,損害公民聲譽。
解決辦法,也正如雷軍所說,加快單行法立法進程,在安全與發展并重的基礎上提升立法位階;其次,強化行業自律共治,壓實平臺企業等各方的責任和義務;最后,加大普法宣傳的廣度力度,增強民眾的警惕性和鑒別力。
監管是必要的,但如何監管,卻需要循著專業、理性、科學、寬容的范式去進行。
對于生成式AI的監管,首先要分清楚創作內容和傳播內容的區別。AI根據用戶意圖進行內容的生成,雖然具有智能化的特征,但本質仍然是工具。AI生成的內容,不像網頁那樣面向大規模受眾,而是僅面向一個用戶。
當用戶用Word寫文章,或者用Photoshop創作內容的時候,這些軟件并不會限制用戶的創作。但是,如果用戶把這些內容進行傳播的時候,已經有明確的法律法規進行監管。這就意味著,以前法律并不監管創作層面,或者單個的私人活動層面,但如果對于AI的監管直接降低到了創作層面,那么也會在一定程度上加大AI行業的合規成本。
如果要求AI對他人利用AI自行生成的文本、圖像、聲音承擔作為“內容生產者的責任”,這就相當于把監管不是放在網站層面,而是放在了Word、輸入法、Photoshop層面,要求這些公司對最終發布的內容負責。顯然,微軟、金山、搜狗、Adobe等都做不到這一點。
具體到換臉擬聲這一項上,對于某一類的換臉擬聲,AI是無法區別惡意還是善意的,是想著損害他人聲譽,還是只是自己使用,那么,就只能是完全封禁。而且,應該看到的是,隨著以DeepSeek為代表的高性價比人工智能技術路線的出現,私人部署的價格已經降低到200萬元,如果再容忍生成內容的速度慢一些,這個價格還可以進一步降低到50萬元。也就是說,AI算力越來越出現分散化、私人化的趨勢。這就意味著監管是不對稱的,越是大型的AI廠商,受到的監管越大,小型廠商或者私人部署反而受到的監管約束較小,可能會讓一些不法分子利用“AI換臉擬聲”進行的違法活動得到規避。一些電詐分子或想著損害他人聲譽的人,如果使用國外的生成式AI工具,那么國內如果僅僅對相關工具進行監管,對他們可能不會有太大影響。
用戶可以、也應該對產生的內容負責,那么,相應的監管就應該放到傳播層面,在平臺上進行中游式監管,這更合乎邏輯,而不是對生成式人工智能服務者和供應商提出過高的合規義務。
總之,任何技術帶來好處的同時,都必然伴隨內生的、不可剔除的風險。AI技術也是如此。大語言模式、多模態生成式AI,都會同時伴隨一些負面問題。所以,一方面需要加強防范和監管,另一方面也應該考慮如何在精細化地管理內生風險的同時,為新技術創造安全的成長空間。