亚洲一区二区视频/嫩嫩的小馒头坹图片/av一区二区电影在线看/九九免费视频

每經(jīng)專訪中國科學技術大學張衛(wèi)明教授:做好科普,讓大眾了解深度偽造技術的存在,預防傳統(tǒng)電詐的手段就能有效預防AI詐騙

發(fā)布時間:2023年6月18日    來源:高維數(shù)據(jù)

以前都說“有圖有真相”“有視頻有真相”……但自AI換臉工具出現(xiàn)后,這就要打一個大大的問號了。


前不久,一男子因AI換臉,10分鐘被騙430萬元。類似這樣的新聞引起了人們對AI換臉技術的警覺。


據(jù)《每日經(jīng)濟新聞》記者了解,市面上已經(jīng)出現(xiàn)了開源的AI換臉軟件支持實時換臉,可以應用于線上直播,甚至視頻通話場景。


中國科學技術大學網(wǎng)絡空間安全學院副院長張衛(wèi)明教授團隊曾參與大名鼎鼎的DeepFaceLab(一種利用深度學習進行視頻換臉的工具)的開發(fā)。資料顯示,2020年,他帶領團隊參加由Facebook、MIT等組織的全球最大的“深度偽造檢測挑戰(zhàn)賽(DFDC)”,獲得亞軍。


近日,張衛(wèi)明教授接受了《每日經(jīng)濟新聞》(下稱“NBD”)的專訪。談及開源換臉技術,他認為相關技術的科普非常重要,可以有效提升民眾的防騙素養(yǎng),“某個先進技術如果只有很少的人知道和使用,大眾缺少認知才更容易被欺騙。”

中國科學技術大學網(wǎng)絡空間安全學院副院長張衛(wèi)明 

(圖片來源:受訪者供圖)

  深度合成內(nèi)容的檢測要從被動轉(zhuǎn)向主動

NBD:您的多個在研項目與深度防偽檢測有關,可以介紹一下相關人工智能安全領域的最新研究進展嗎?


張衛(wèi)明:深度偽造檢測相關研究進程,其實跟人工智能本身的技術進展有很大關聯(lián)。近兩年,以GPT為代表的生成式人工智能迎來大爆發(fā)。現(xiàn)在的深度合成,可以看成是生成式人工智能的一個分支。與諸多技術一樣,生成式人工智能也是一把雙刃劍,它可能被惡意使用。大家目前最擔心的事情之一,是生成式人工智能帶來的大量偽造信息。

以前我們主要做深度偽造檢測,現(xiàn)在我們關心的問題更寬泛一點,包括了各種人工智能生成內(nèi)容的檢測。現(xiàn)在的GPT越來越接近人類,可以被用來寫各種各樣的文案,包括釣魚郵件、虛假新聞等,同時還沖擊到了教育領域,比如現(xiàn)在學生的作業(yè),你無法斷定是不是機器寫的。所以一個很熱門的問題是,怎樣檢測這些文本是機器寫的還是人寫的。


目前,國內(nèi)外有很多團隊在研究深度合成內(nèi)容檢測,但這些檢測方法主要是被動檢測,仍存在局限。如果能在部署模型階段,植入一些標識,去做主動檢測,這個可能更重要。比如,能不能在生成內(nèi)容里嵌入水印,同時不影響內(nèi)容的質(zhì)量?目前關于人工智能生成內(nèi)容水印的研究,已經(jīng)變成了新的熱點。


其實我們國家已經(jīng)針對深度合成應用密集出臺了相關規(guī)定,要求深度合成服務提供者應當對生成內(nèi)容進行顯著標記。


給文本做標識是比較難的,但是這個問題確實很重要。我們注意到,OpenAI等公司也在做自己的水印技術用于機器文本鑒別。類似這樣的研究,正在變成新的熱點。


NBD:一方面,研發(fā)者可以添加水印,另一方面,一些懂技術的人,也可以去掉水印。由此可見,深度偽造與其檢測,就像一個對抗的循環(huán),您怎么看待這一現(xiàn)象呢?


張衛(wèi)明:確實存在這樣的情況,所有的安全都是一攻一防,安全技術都有它的邊界。所有的攻防,包括深度合成以及檢測的攻防,都是在動態(tài)博弈中發(fā)展,并不會說最終PK出一個結(jié)局來。


因為安全這個領域,有一個共識,就是沒有絕對的安全,安全永遠是相對的。你做各種各樣的安全防護,理論上來講,它都有可能被攻擊。一旦有新的攻擊出現(xiàn),那就要求我們?nèi)ハ胄碌难a救措施。安全理念的提升,也是在這種對抗過程中動態(tài)地發(fā)展。


前面提到國家出臺相關規(guī)定明確要求去打顯著標識,其實那個是指可見的水印。可見水印有一個很大的問題,容易被人刻意擦除。相對來說,不可見水印有一定的優(yōu)越性,一個方面是它不可見,別人不知道這里面有水印;另一方面,即使知道有水印,也不知道水印在什么位置。


目前做水印技術,會把信息藏在非常魯棒的特征空間上,來抵抗各種各樣的擦除。當然它是有邊界的,比如說給視頻擦水印的人,他如果不計損失的話,可以把視頻質(zhì)量變得很低,確實可能把水印擦掉。所以這里面其實是一個博弈。


預防AI詐騙關鍵在于知道深度偽造技術的存在

NBD:我們了解到,您的團隊開發(fā)了一種開源的AI換臉工具,旨在科普這種技術,提升大家對深度合成的認知水平。但有人認為,一旦這種深度偽造技術普及之后,民眾可能對通話安全有所擔憂。對此,您怎么看?


張衛(wèi)明:我是這么理解的,大家目前最擔心的,其實是用生成式人工智能(比如深度合成)去實施各種各樣的詐騙。這個確實影響很大,但恰恰是因為這樣,更應該去做這樣的科普、開源,讓老百姓真的體驗到現(xiàn)在的技術發(fā)展到什么程度了。


以前我們說有圖有真相、有視頻有真相。現(xiàn)在要有一個意識,就是有圖可能也不是真相,有實時的視頻,可能也不是真相。對普通百姓來說,關鍵是要知道這種深度偽造技術的存在。因為做防護其實是萬變不離其宗的,不見得需要很高級的技術,防傳統(tǒng)電信詐騙的手段就很有效。比如一個視頻通話里面,對方跟你聊到了金錢的事情,提到了轉(zhuǎn)賬,你可能就要提高警覺了,這可能是一個假視頻,需要多方核實一下。


所以,不知道有這個技術的存在才是可怕的。目前已經(jīng)有一些愛好者制作了很多樣例,你會看到各種社交平臺出現(xiàn)了大量這種技術的創(chuàng)造性應用。大眾看到后就會理解,現(xiàn)在的技術可以做到什么程度。這在某種意義上是教育了更多的人,讓他們有這個認知。我們無法阻止技術的進步,讓民眾了解AI技術的發(fā)展現(xiàn)狀,才能更好地預防其潛在危害。


NBD:您認為生成式人工智能未來最適合的應用場景有哪些?


張衛(wèi)明:未來可能有很多正向的且比較有趣的應用,最典型的是在娛樂領域,比如游戲、影視劇等等。


其實我在課堂上,曾經(jīng)讓一年級本科生去暢想未來這個技術可能會怎么應用。與社會層面更多關注這一技術的風險所不同的是,年輕學生們認為它的正面想象空間更大。


以影視娛樂為例,他們暢想可以去換臉體驗演大片。或者在角色扮演型游戲中,通過實時換臉、VR等技術,能以自己的聲音、自己的臉進入到游戲里去。


還有就是心理治療。如果能用這些技術,重現(xiàn)一個人或一個場景的話,可能對心理治療會很有幫助。再有就是在線教育。通過換臉等技術,讓自己特別喜歡的老師,給自己講各種課,讓自己“聽得進去”更“學得進去”。


還有一個應用是新時代的紅色文化宣傳、科學家精神宣傳。我們最近做了一個嘗試,發(fā)布了數(shù)字人錢學森,逼真度很高。錢老數(shù)字人發(fā)布以后,好評如潮,很多媒體都報道并轉(zhuǎn)載了相關視頻。這也讓我意識到,做科學家精神宣傳、紅色文化傳承,用這種方式可能更適合現(xiàn)在的年輕人,會達到很好的宣傳效果,是一個很好的正向應用。


每經(jīng)記者 宋欽章    每經(jīng)實習記者 張宏    每經(jīng)編輯 廖丹    

封面圖片來源:視覺中國


- END -