網(wǎng)上沖浪,親耳聽到的就是真的嗎?未必。網(wǎng)絡(luò)平臺(tái)上,AI聲音隨處可見。“新華視點(diǎn)”記者調(diào)查發(fā)現(xiàn),隨著人工智能技術(shù)和語(yǔ)音大模型應(yīng)用的發(fā)展,AI合成聲音App大量出現(xiàn),最快只需十幾秒便可“克隆”出來(lái)。與此同時(shí),AI聲音濫用現(xiàn)象愈發(fā)突出。(2月13日新華社)
過(guò)去,人們總是篤信自己親眼看到的、親耳聽到的信息。但這些年,“有圖有聲有真相”這一判斷標(biāo)準(zhǔn)一再受到?jīng)_擊,你以為的事實(shí)很可能是由AI生成的。隨手打開一個(gè)短視頻平臺(tái),并以“AI聲音克隆”為關(guān)鍵詞檢索發(fā)現(xiàn),明星翻唱、新聞播報(bào)、吐槽點(diǎn)評(píng)等大量視頻涉及AI聲音,混淆公眾認(rèn)知。“假趙本山”用英文演小品、“假雷軍”辣評(píng)熱點(diǎn)話題、“假?gòu)埼暮?rdquo;深夜直播帶貨……越來(lái)越多人借著AI模擬名人聲音招搖撞騙,逼真程度堪比真人、叫人難以招架。
技術(shù)在狂飆,風(fēng)險(xiǎn)也在加劇。用張文宏的話說(shuō),這些假的AI合成信息,就像漫天飛過(guò)來(lái)的“蝗蟲”一樣害人。今天可以模仿名人逗你一笑,或是借網(wǎng)紅明星之口引流帶貨,明天就有可能用你的聲音“移花接木”,為網(wǎng)絡(luò)詐騙埋雷。這并非危言聳聽。據(jù)新聞報(bào)道,有不法分子通過(guò)“AI換聲”仿冒一位老人的孫子,詐騙老人2萬(wàn)元,類似的詐騙案件在全國(guó)已發(fā)生多起,有的詐騙金額甚至達(dá)到上百萬(wàn)元。此類案件提醒我們,在泛濫的“一鍵變聲”面前,每個(gè)人都可能成為“受害者”。技術(shù)濫用對(duì)普通人造成的安全隱患和威脅,絕對(duì)不容小覷。
以上種種也表明,對(duì)AI聲音進(jìn)行規(guī)范管理,必要且緊迫。近年來(lái),有關(guān)主管部門出臺(tái)《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法(征求意見稿)》等規(guī)定,一定程度上給AI技術(shù)使用畫定了紅線。然而,落腳到現(xiàn)實(shí)操作中,對(duì)于AI聲音應(yīng)用涉及的造謠侵權(quán)、道德倫理等問(wèn)題,如何形成具體細(xì)化的規(guī)則,還有待進(jìn)一步思考。此外,短視頻平臺(tái)對(duì)AI內(nèi)容審核機(jī)制滯后,部分侵權(quán)內(nèi)容在投訴后仍反復(fù)出現(xiàn)。這需要相關(guān)部門繼續(xù)加大對(duì)濫用AI聲音侵權(quán)的打擊力度、形成更完善的常態(tài)化治理機(jī)制,也需要平臺(tái)“用魔法打敗魔法”、不斷升級(jí)更新審核檢測(cè)技術(shù),以應(yīng)對(duì)層出不窮的AI仿聲騙局。(付迎紅)
編輯:郭成