半島聚焦丨AI換臉擬聲被濫用,AI安全難題如何應對?
據央廣網·中央廣播電視總臺報道,全國人大代表雷軍3月4日公開了今年兩會的5條建議,其中“加強‘AI換臉擬聲’違法侵權重災區治理”尤為引人關注,因為他本人就是AI換臉擬聲的“深度受害者”。
去年國慶長假期間,短視頻平臺上曾經出現大量“雷軍AI配音”的惡搞視頻,涉及堵車、調休、游戲等熱門話題。對此,雷軍還專門發視頻,呼吁大家不要再惡搞。
“AI換臉”之擾,雷軍苦之久矣
據人民日報報道,雷軍本人深受“AI換臉擬聲”之苦,2024年國慶期間,網絡上流傳大量未經授權的“雷軍語音包”,內容從吐槽到惡意,數量之多,讓他無從招架。還有利用雷軍的采訪視頻片段,配上AI擬聲,為自己帶貨。甚至還有不法分子利用AI深度合成視頻,進行詐騙,嚴重損害了他的個人形象和聲譽。
雷軍在建議中指出,人工智能(AI)深度合成技術的快速發展,推動了“AI換臉擬聲”在影視、廣告、社交等領域廣泛興起,成為社會喜聞樂見、傳播力強、易成熱點的技術應用。
但同時也看到,“AI換臉擬聲”不當濫用造成了違法侵權行為的重災區,易引發侵犯肖像權、侵犯公民個人信息以及詐騙等犯罪行為,甚至造成難以挽回的大規模形象和聲譽損害,帶來社會治理等風險。AI深度合成技術所需素材獲取便利、技術使用門檻低、侵權主體及其手段隱蔽性強等特點,給治理帶來較大挑戰。
“AI技術本身是積極的,具有廣泛的實用價值。”雷軍在視頻中表示,雖然AI技術為人們帶來了便利和創新,但不應成為惡搞和侵犯他人權益的工具。
他強調,每個人都應該對技術的使用負責,共同營造一個健康、積極的網絡環境。
AI侵權為何屢禁不止
不只是雷軍,許多公眾人物如育兒專家李玫瑾、影視明星劉德華、靳東等都在不同場合呼吁過對“AI換臉擬聲”加強監管。
為何對“AI”侵權的監管這么難?京聯律師事務所律師張路明表示,原因是多方面的。
首先,AI工具開源易得,侵權人容易完成換臉操作,有些侵權主體多通過境外服務器隱藏身份,所以執法追蹤難度大。
其次,現有平臺審核機制難以實時識別深度偽造內容,尤其是語音合成技術逼真度高,普通用戶因“眼見為實”難以辨別,執法難度大。
此外,多方責任界定困難也是“AI換臉”侵權猖獗的原因之一。
張路明律師表示,“AI換臉”侵權涉及平臺、技術開發者、內容傳播者等多方責任,現有法律對平臺責任、技術邊界界定模糊。在司法實踐中,對賠償經濟損失界定較難,對違法者震懾不夠。“在裁判文書網上,可以找到不少關于AI侵權的判決案例,通常判法為道歉及賠償,賠償金大多在千元左右。”
律師表示,AI侵權的判罰存在法律體系滯后,現有法規如《互聯網信息服務深度合成管理規定》效力位階低,內容分散,難以覆蓋新型侵權行為。現行法律主要依賴《民法典》等進行民事追責,缺乏針對AI技術的專項立法。
律師支招:謹防個人生物信息泄露
“AI換臉”防不勝防,現實生活中,我們該怎么辦?張路明律師也支了招。
第一,要提高警惕,做好信息核實。若出現視頻通話涉及轉賬請求,可要求對方做特定動作,如摸臉、眨眼進行驗證身份,觀察畫面是否出現扭曲或異常,也可以掛斷后主動通過其他渠道(如電話、線下見面)核實信息真實性,避免上當。
此外,我們可以學習識別AI合成內容的“破綻”避免受騙,及時識別不自然的語音停頓、面部光影異常等異常情況。當然, 需要留意出現“AI內容標識”的提示時,應當特別警惕。
第二,防止個人生物信息泄露,謹慎授權。我們避免在社交平臺公開高清正臉照、聲紋樣本,謹慎授權APP獲取攝像頭、麥克風權限,防止不法分子取得公民的個人生物信息和相關“授權”。
在實踐中,我們可以啟用多重身份驗證(如視頻+指紋+短信驗證),減少單一生物信息泄露的風險。
觀點:像治理生態一樣治理AI
中國網絡空間安全協會人工智能安全治理專業委員會成立于2023年10月,成員單位近100家,涵蓋國內AI領域頭部產、學、研、用機構,以及AI安全治理的200多位高級別專家。
作為專委會人工智能生態治理工作組組長,韓蒙倡導將人工智能當作一個生態系統來治理,“就像河道治理,為了讓它更健康地發展,疏而不是堵。”對人工智能安全的關注,含義豐富,涉及模型本身(技術環節)、產品(DeepSeek等)、場景(學習、支付等)、產業(醫療、汽車等)。“整個人工智能的生態聯動在一起,需要不同的學界、產業界共同參與治理,確保人工智能按照規則和秩序,健康可持續發展。”(半島新聞客戶端綜合潮新聞、央廣網等)