研究人員開展 DeepFake AI 偽造音頻攻防拉鋸戰(zhàn),促進業(yè)界辨?zhèn)渭夹g(shù)提升
(資料圖)
IT之家 7 月 10 日消息,DeepFake 當下是一系列能夠生成特定人物照片、視頻及音頻的 AI 模型總稱,模型生成的各種信息相對可以輕松繞過各種企業(yè)機構(gòu)的識別系統(tǒng),因此也有許多黑產(chǎn)圍繞 DeepFake 而展開,當下如何更精準辨識 DeepFake 生成的內(nèi)容成為難題。
IT之家曾報道,加拿大滑鐵盧大學的兩名研究人員 AndreKassis 與 UrsHengartner 研發(fā)了新型語音 DeepFake 軟件,成功欺騙語音認證系統(tǒng)概率高達 99%,該軟件使用機器學習軟件,只需要 5 分鐘的人聲錄音,就可以模擬出非常逼真的人聲。
用戶通過語音認證注冊之后,會要求用戶重復一個特定的短語或者句子。
系統(tǒng)會根據(jù)用戶的聲音提取聲紋(語音指紋),并將其存儲在服務器。
如果您將來嘗試進行身份驗證,系統(tǒng)將提示您說出不同的短語,并從中提取的特征將與系統(tǒng)中存儲的語音指紋進行比較,以確定是否應授予訪問權(quán)限。
對于這一新型語音 DeepFake 軟件,其他安全研究人員紛紛開始應對,亞馬遜的研究人員嘗試檢查語音樣本,來判斷樣本的真實性。
而 Kassis 與 Hengartner 打造出一個方法來繞過上述亞馬遜的機制,該方法可辨識出合成語音中的標記,并自動移除這些具有 AI 特征的段落,令系統(tǒng)無法區(qū)分。
另一方面,專門開發(fā)語音身份認證安全機制的 Pindrop 則認為這一機制并不穩(wěn)妥,即“雖然攻擊方可以移除生成的語音片段中具有 AI 特征的段落,但防守方可以同時從多角度來判斷音頻文段的真實性,例如檢測 IP 地址、要求提供特定的語音信息等”,因此依然可以檢測出使用 DeepFake 的攻擊者。
但研究人員 Pindrop 同時指出,現(xiàn)有用來對抗 Deekfake 語音的系統(tǒng)有許多缺陷,打造安全系統(tǒng)的唯一方式是像黑客一樣思考。他同時建議那些只仰賴語音進行身份認證的企業(yè),應該部署額外的認證措施,以防止企業(yè)受到詐騙,導致經(jīng)濟損失。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。
標簽: