“AI換臉”引發信任危機 人工智能如何才能走得更遠

趙竹青

2020年01月14日14:04  來源:人民網-科技頻道
 

由於技術逐漸成熟,普通人被計算機病毒折磨得苦不堪言的日子,似乎已經逐漸遠去。然而,另一場更加隱蔽、殺傷力更大的“病毒危機”,正在向人類悄然逼近。

新興的人工智能技術,為人類增添便利的同時,也帶來了隱患。有犯罪團伙利用AI技術制作虛假視頻騙取錢財,不法分子將女明星的臉換到色情視頻上出售……一條條利用AI技術作惡的黑色產業鏈正在悄然形成,讓不少人蒙受錢財、名譽損失。

換臉技術打開的“潘多拉魔盒”

有“換臉神器”之稱的Deepfake,誕生之初,它只是一項有趣的技術。由於其逼真的效果、開源獲取的便捷,被不少技術人士拿來制作各種好玩的視頻。比如“AI換臉”剛流傳到國內的時候就曾在社交媒體上掀起了一波熱潮,有人將楊冪的臉換到了朱茵飾演的黃蓉身上,視頻中顧盼神飛的全新“蓉兒”獲得了不少網友的喜愛。

但在讓人哈哈一樂的同時,由於個人信息可以被輕易“操縱”,AI換臉被濫用的負面影響也在全面爆發。有人收到朋友發來的“借錢視頻”而慷慨解囊,結果輕易被騙﹔被偽造視頻而處於謠言中心的當事人,眼睜睜看著自己聲譽受損而百口莫辯﹔在涉及到巨額金錢往來時,如果遭遇對方信息資料造假,有可能會傾家蕩產……這些種種“AI造假”信息不僅會給個人帶來不可挽回的損失,還可能引發巨大的社會風險。甚至有人認為,AI換臉視頻足以誤導民意,威力堪比“核武器”,比如美國就曾流出國家領導人被惡搞的視頻,煽動政治暴力、破壞選舉、擾亂外交。

目前,“人人都怕換臉術”的恐慌,已引起國家有關部門的高度關注。今年1月1日起施行的《網絡音視頻信息服務管理規定》中就對此作出規定:AI造假音視頻不得隨意發布,要“按照國家有關規定開展安全評估”,並“以顯著方式予以標識”。

人工智能作為一種新興技術,除會被濫用之外,其技術本身的安全風險也足以引發憂慮。在去年10月舉行的國際安全極客大賽中,參賽人員通過在胸前上放一張打印有“圖像噪音”的紙片,就能夠逃脫智能監控系統的識別,實現“隱身”。

“這並不是無中生有,而是模擬了真實的人工智能攻擊場景。”來自北京瑞萊智慧科技有限公司(簡稱RealAI)的算法科學家蕭子豪如是說道。在去年的國際安全極客大賽中,RealAI與清華聯合戰隊包攬了“CAAD CTF圖像對抗樣本挑戰賽”及“CAAD隱身挑戰賽”兩項冠軍,蕭子豪就是該戰隊成員之一。人工智能有時候會犯一些在人類看來“很傻的錯誤”,是因為目前以深度學習為代表的人工智能存在一大安全盲點——對抗樣本,即在原始圖片上增加肉眼無法察覺的噪聲就可以惡意誤導AI識別算法輸出非預期的結果。

此外,基於深度學習的人工智能本質上相當於一個“黑箱”,是“不可解釋”的。“也就是說,我們輸入一個數據,人工智能會反饋一個結果,但是這個結論是如何得出的,我們完全無法得知,所以甚至有時候人工智能犯錯了,我們也無法解釋背后的原因。”蕭子豪說。

人工智能亟待突破“天花板”

關於人工智能安全性的擔憂,一方面需要依靠法律法規和政府監管來約束,另一方面,需要從源頭加強安全評估,提升鑒別技術等能力,借助技術手段提前布局。

2018年6月,清華大學人工智能研究院揭牌成立,以“一個核心、兩個融合”作為發展戰略,即以人工智能基礎理論和基本方法研究為核心,積極推進大跨度的學科交叉融合,積極推進大范圍的技術與產業、學校與企業融合。

在多年研究的基礎上,中科院院士、清華大學人工智能研究院院長張鈸教授提出了“第三代人工智能”的概念。張鈸院士認為,人工智能技術發展至今,已經經歷了兩代模型。第一代是知識驅動的符號模型,比如專家系統﹔第二代是數據驅動的機器學習模型,如深度學習、概率統計模型,目前正處於前所未有的興盛時期。

“然而這兩代技術都存在天然的局限性。” 張鈸院士說,目前的人工智能雖然發展非常快,但是也隻在圖像識別、語音識別等方面取得了比較明顯的突破。如果遇到數據知識缺乏、非完全信息、不確定性等場景,這兩代人工智能基本上就變得“無計可施”了。

“現在的人工智能系統是非常脆弱的,容易受攻擊或者欺騙。”張鈸院士說,基於深度學習的人工智能系統不僅需要依靠大數據“喂養”,而且不可解釋,存在非常嚴重的缺陷,“這個缺陷是本質的,由其基本理論方法本身引起的。”

也正因此,在一些真正重要的關鍵領域,比如自動駕駛、金融業務決策和醫療診斷等實際應用場景中,人工智能的進一步發展和應用還面臨著很大的問題。

在他看來,以深度學習為代表的第二代人工智能技術正在逐漸觸及“天花板”,亟需發展下一代人工智能技術,也就是安全、可靠、可信的人工智能。尤其,安全性將成為下一階段人工智能發展必須的基礎。一旦忽視人工智能的安全問題,未來將難以持續健康的推動AI技術在更多場景的落地。

“AI安全”市場前景可期

作為“第三代人工智能”概念的提出者,張鈸院士所帶領的清華研究團隊早已布局了相關領域的研究,比如將第一代和第二代人工智能的技術優勢相結合,構建了基於貝葉斯深度學習的第三代人工智能基礎算法,從而打開了通向“真正人工智能”的一扇門。

在技術發展的同時,張鈸院士也倡導將其產業化。張鈸說,作為研究型機構,清華大學AI研究院的本分是要搞好學術研究,“但是AI又與應用結合相當緊密,因此我們的研究一定要產生出算法,研究院要孵化出AI新產業,甚至成為人工智能界的BAT。”RealAI就在此背景下應運而生。

作為清華大學人工智能研究院的核心孵化企業,RealAI由清華大學人工智能研究院院長張鈸院士、清華大學人工智能研究院基礎理論研究中心主任朱軍教授聯席擔任首席科學家。正如其名,RealAI希望不斷突破AI技術邊界,探索“真正”的人工智能,以引領第三代人工智能技術的產業化發展。

針對目前在社交媒體平台上引發“虛假信息洪流”的Deepfake換臉視頻,蕭子豪表示,“除了涉及隱私泄漏、身份危機、名譽風險等個人安全問題,這背后的潛在效應還可能蔓延到大眾的信息獲取和社會信任層面,引導公眾輿論、引發社會信任危機。”對此,RealAI迅速研發出了一款檢測工具,可一鍵實現對偽造視頻進行自動精准識別,識別准確率高達90%以上。

RealAI高級產品經理張旭東告訴記者,該檢測工具基於第三代AI技術,使用無標注數據和無監督的深度生成模型來生成高逼真度、可控的假數據作為數據儲備,然后利用這些高質量數據引導模型自動學習出具有強判別性的識別特征,提升對偽造痕跡的識別能力,進而分辨出造假視頻。據悉,這款產品能夠在虛假內容甄別、線上資料審核以及影像物証真實性檢驗等實際應用場景中發揮作用。

“AI安全其實是個很大的話題,未來將可能發展成與網絡安全同等規模的市場。” RealAI首席執行官田天表示,真正做到保障AI安全始終不是一小部分人的事,需要聯動社會各界力量,從監管機構、AI科技企業到普通公眾共同重視、共同發力才能真正從根本上使其良性發展。

在人工智能發展的過程中,安全問題將會是一個攻防兩端不斷對抗演化的動態過程,“攻擊”和“防御”的雙方博弈將會一直存在。“RealAI未來會繼續踐行安全可控的技術理念,深耕人工智能安全領域,為人工智能行業的健康發展保駕護航。”田天說。

(責編:趙竹青、呂騫)