文|木棉
“列位看官,打今兒起咱們來講一段新故事……”一段定場詩過后,郭德綱熟悉的聲音傳入人們耳中。
最近,不少網友在網上發現,郭德綱“推出”了許多新內容的長篇單口相聲、評書,而且都是有頭有尾的完整故事,引發了廣大相聲迷,尤其是“綱絲”們的關注。不過有許多聽眾好奇,一向說書“挖坑”的老郭怎么換風格了?仔細一看,原來這些作品另有門道——在作品不起眼的地方,寫著“由AI合成”。
網上這些內容大多打著“聽老郭說書”的名頭,除了偶爾讀錯個多音字,那語氣、那腔調,和老郭本人簡直一模一樣,不仔細聽根本發現不了。
隨著AI技術普及,“克隆”特定人物聲音已實現“一鍵式”操作,幾乎零成本、零門檻。于是乎,侵權亂象如同野草般瘋長——奧運冠軍全紅嬋、孫穎莎的聲音出現在直播間,推銷起了土雞蛋;央視名嘴白巖松、知名演員張國立的聲音講起了影視作品、社會熱點,為各類短視頻解說……此前,如靳東、古天樂、張文宏等知名人物都曾遭遇類似困境,也都紛紛發布聲明表示維權,但實際走到法律層面的并不多。這些賬號往往變換迅速,內容刪除、隱藏頻繁,給取證造成巨大困難。
聲音權的本質,是人格尊嚴在聽覺維度的延伸。我國民法典明確規定,對自然人聲音的保護參照肖像權規則,這意味著每個人的聲紋、語調、表達習慣都承載著獨一無二的人格屬性。法律專家指出,當AI合成聲音能讓公眾“一聽就聯想到特定人”,即便未直接使用姓名,也已構成侵權。
更危險的是,當克隆聲音與AI換臉技術結合,詐騙分子足以偽造“親友求助”“領導指令”等場景,讓信任體系面臨前所未有的考驗。比如不久前天津市公安局反詐中心就曾通報,一位獨居老人接到“女兒”緊急求救電話,對方聲稱自己車禍急需手術費,聲音腔調與女兒如出一轍。 老人情急之下匆忙轉賬86萬元,事后才知女兒安然無恙,那逼真聲音正是騙子利用平日偷錄的老人女兒聲音片段克隆而來。
從“一聽便知是偽造”到“真假難辨”,技術飛速升級,監管不能被“落下”太遠。好在,防護網正在收緊。
9月1日起實施的《人工智能生成合成內容標識辦法》,明確要求“生成合成內容添加顯式標識”“提供網絡信息內容傳播服務的服務提供者應當采取技術措施,規范生成合成內容傳播活動”等;中央網信辦“清朗·整治AI技術濫用”專項行動已查處違規賬號1.2萬個,推動平臺建立AI內容檢測系統。
平臺治理要打破“只管流量不管責任”的怪圈,不能再以“技術中立”為由推卸責任,而應建立必要的制度,對明星、公眾人物的聲音使用設置相關審核門檻。監管部門更要加快制定“聲音權確權標準”,明確“未經授權克隆聲音即構成侵權”的剛性條款,提升經濟賠償上限。
技術濫用從來不是“不治之癥”,關鍵在于讓違規者真正感受到切膚之痛。當克隆奧運冠軍聲音的代價不再僅僅是“刪除視頻了事”,那些藏在技術背后的黑手自然會縮回貪婪的爪子。畢竟,再先進的技術,也敵不過“違法必究”四個字的分量。
歡迎投稿
“津報早評”欄目誠摯邀請您踴躍投稿!稿件須基于機構媒體近期報道的新聞,緊扣國內熱點或天津本地話題。我們期待您的獨特見解與精彩觀點,共同探討社會熱點,傳遞時代聲音。
投稿請在郵件主題欄寫明文章標題,并在文末附上作者署名、身份職業、身份證號碼、電話號碼以及銀行賬戶(包括戶名、開戶行支行名稱)等信息,如用筆名,則需要備注真實姓名,以便發表后支付稿酬。稿酬從優。
投稿郵箱:jinbaozaoping@126.com
【未經授權,嚴禁轉載!聯系電話028-86968276】