2017 年底,國外論壇出現(xiàn)的一個(gè)ID 為“deepfakes”的用戶發(fā)布了通過機(jī)器學(xué)習(xí)來更換視頻人臉的人工智能算法,一腳踢開了人工智能換臉大門。不過當(dāng)時(shí)該技術(shù)的使用門檻還比較高,需要編譯代碼等操作。
而一個(gè)月后,有人將他公開的的算法加以改造推出簡易版人工智能換臉工具“FakeApp”,這次,就算是普通用戶,也能夠順利操作。
隨著換臉技術(shù)的升級(jí)及相關(guān)應(yīng)用的開源,換臉用途也從最初的娛樂逐漸演變成犯罪工具,引發(fā)了人們?cè)絹碓蕉鄬?duì)人工智能換臉的擔(dān)憂。
首先是對(duì)于信息的真實(shí)性形成嚴(yán)峻的挑戰(zhàn)。PS 發(fā)明后,有圖不再有真相;而人工智能換臉技術(shù)的出現(xiàn),則讓圖像也開始變得鏡花水月了起來:這對(duì)于本來就假消息滿天飛的互聯(lián)網(wǎng)來說,無疑會(huì)造成進(jìn)一步的信任崩壞。
其次,這會(huì)大大增加侵犯肖像權(quán)的可能,沒人愿意自己的臉龐出現(xiàn)在莫名其妙的視頻當(dāng)中,此前就有在某成人視頻網(wǎng)站上,某女星的臉被“安”在了成人視頻女主角臉上的報(bào)道,這將給女星的名譽(yù)帶來極大的負(fù)面影響。
鑒于這項(xiàng)技術(shù)所帶來的倫理問題和潛在威脅,先進(jìn)的 DeepFake 檢測(cè)技術(shù)將非常重要。
在以前的研究中,DeepFake 視頻檢測(cè)主要專注于在具備強(qiáng)監(jiān)督標(biāo)注的情況下,如何較好地檢測(cè)到 DeepFake 圖像或者人臉。
現(xiàn)在,阿里安全圖靈實(shí)驗(yàn)室和中科院計(jì)算所合作完成的一項(xiàng)研究更加關(guān)注現(xiàn)實(shí)中廣泛存在的問題:部分攻擊(篡改)的視頻,即視頻中只有部分人臉被篡改了。
具體來說,該研究提出了基于多實(shí)例學(xué)習(xí)的 DeepFake 檢測(cè)框架,將人臉和輸入視頻分別當(dāng)作多實(shí)例學(xué)習(xí) (Multiple Instance Learning, MIL) 里的實(shí)例和包進(jìn)行檢測(cè)。
然而,傳統(tǒng)的多實(shí)例學(xué)習(xí)存在梯度消失問題。為此,研究人員提出了 Sharp-MIL (S-MIL),將多個(gè)實(shí)例的聚合由輸出層提前到特征層,一方面使得聚合更加靈活,另一方面也利用偽造檢測(cè)的目標(biāo)函數(shù)直接指導(dǎo)實(shí)例級(jí)深度表征的學(xué)習(xí),從而緩解傳統(tǒng)多實(shí)例學(xué)習(xí)面臨的梯度消失難題。該研究通過理論證明了 S-MIL 可以緩解傳統(tǒng) MIL 存在的梯度消失問題。
研究人員表示,除了部分換臉檢測(cè)任務(wù)之外,該研究成果對(duì)于一般性的視頻多實(shí)例學(xué)習(xí)與標(biāo)注技術(shù)研究也具有重要的啟發(fā)意義,而人工智能換臉技術(shù)及其檢測(cè)技術(shù)也值得我們持續(xù)關(guān)注。