深偽技術創造假訊息

深偽技術創造假訊息

2home.co  楊惟雯

 

一、何謂深偽技術(Deepfake)?

 

深偽技術(Deepfake)一詞於2017年問世,是深度學習(Deep Learning)與偽造(Fake)混合而成的單字,專指基於人工智慧的人體圖像合成技術的應用。運用此技術可將已有的圖像或影片疊加至目標圖像或影片上,此已成為一種移花接木的工具。

 

深偽技術可偽造面部表情並將其移至目標影片,此技術在2016年出現,且此技術允許近實時地偽造現有2D影片中的面部表情。

 

Deepfake技術自問世以來,就常被用來偽造名人性愛影片和復仇式色情媒體。而帶色情成份的Deepfake作品於2017年間在網際網路上流出,特別是在Reddit上。

 

另Deepfake技術也可以用以製造假新聞及惡意惡作劇。在Youtube、Vimeo等流行的線上影片串流媒體網站上,可以很容易地找到非色情的Deepfake影片。

例如在YouTube上有流傳一個歐巴馬痛斥川普是笨蛋的影片,幕後黑手即是明星 Jordan Peele 模仿歐巴馬,但利用深度學習技術,讓影片的假歐巴馬臉部與肢體栩栩如生。

二、DeepNude的「一鍵脫衣 AI」功能

 

換臉偽造是通過交換兩張圖像的人臉達到偽造身分的目的。
傳統上是採用基於圖學的3D模型重建追蹤技術。較新的研究則是採用深度學習來達到換臉效果,為了解決深度學習的訓練難度和生成品質,又進一步融合了生成對抗網路技術。

 

表情偽造是將其他人臉圖像的表情替換到目標人臉上,從而達到目標人物做指定表情的目的。

此外,換臉偽造和表情偽造還常常結合語音偽造技術。通過文字到語音合成和語音轉換技術來製作虛假語音。

 

2019年 6月27日,DeepNude這款色情造假軟體首次公開上線,其針對女性的「一鍵脫衣 AI」功能已引起軒然大波,因它可以一鍵脫掉女性衣服,製造大量色情圖片。

 

近期,這款色情的軟體再次出現在通訊軟體Telegram中。且該軟體在Telegram 平台已經公開發布了約10多萬張色情圖片,這還不包括私下分享傳播的圖片。更重要的是,這些圖片70%全部來自社群平台的真實女性,甚至包括未成年人。也就是說,很多人日常在 Facebook等社群媒體中分享的自拍照,很可能會被人利用來製造「裸照」。

 

據了解,這款DeepNude軟體爆火的原因為:

DeepNude偽造色情影片已經屢見不鮮,因它操作非常簡單,只需要一張照片,上傳至軟體後,幾秒就可以自動生成裸照,不需要任何技術知識或者專門的硬體支援。加上其對所有人免費使用。不過它也有盈利模式,未付費用戶獲得的裸照後會打上浮水印標籤或僅局部裸露,而用戶支付1.28美元才可以獲得無浮水印圖片,但使用權限僅限7天100張。

 

透過DeepNude的技術支援,可以很容易獲得熟悉的人的裸照,主要又以名人為目標。

需要注意的是,這款造假軟體只針對女性。如果上傳一張男性或者其他任何無生命照片,系統也會自動被替換成女生的身體,並辨識成相應的器官。

 

另從Telegram平台的公開數據來看,許多照片中的女性都是普通上班族、大學生,而且這些照片都是來自 TikTok、Instagram、Facebook 等平台的自拍照。

深度學習先驅吳恩達(Andrew Ng)發推文稱,DeepNude 是「人工智慧最令人噁心的應用之一」。

 

知名作家尼娜‧揚科維奇(Nina Jankowicz)表示,DeepNude 對世界各地的女性都有巨大影響,尤其是在俄羅斯等社會較為保守的國家。如果公開發表令人信服但虛假的裸照,受害者可能會失去工作,或者面臨伴侶暴力。

 

在 Twitter、Reddit 等各大社群媒體平台上,有關「侵犯隱私、性別歧視」等指責聲,一直層出不窮。

 

有一項來自美國的網路安全公司 Sensity調查報告,它專注於所謂的「視覺威脅情報」,尤其是那些深度造假影片的傳播。他們調查發現,截至2019年7月底,Telegram 平台7個主要頻道均在使用 DeepNude軟體。

Sensity首席科學家喬治‧帕特里尼(Giorgio Patrini)指出,目前已經超過 680,000 名女性在不知情的情況下被偽造成了色情圖片,並被上傳到公共平台。Sensity 公司也表示,這些虛假的色情圖像或影片很可能被用做勒索、騷擾的手段。

 

當然,也有部分連續劇如光榮時代、三千鴉殺,因某些因素替換角色,但不進行重拍,乃以深偽技術進行臉部替換。

電影《玩命關頭 7》拍攝期間,主角保羅沃克意外身亡,但為了將剩下戲份拍完,製作組找了保羅沃克的弟弟加入劇組拍攝剩下戲分,並將保羅沃克的臉接在弟弟身上。

 

電影《星際大戰:俠盜一號》有個在《星際大戰》四五六部曲出現的名反派塔金總督也需要出場,但飾演塔金的演員彼得庫欣於 1994 年過世。通常製片公司的傳統方法是另找人飾演過世演員的角色,但為了「連戲」,這次找一個人飾演塔金總督,並將彼得庫欣的臉用動畫技術貼上。之後《星際大戰:天行者崛起》甚至出現年輕版莉亞公主與路克天行者,也都是不同演員出演,再利用電腦動畫技術運算將原版演員的臉接到身上。

 

有個 YouTube上著名 Deepfaker就做出比原版《星際大戰》電影更好的假影片,還被專門製作星戰特效的光魔工業挖角。

 

三、Deepfake技術正在肆虐社會價值

 

不僅是DeepNude正在肆虐社會價值,所有Deepfake軟體也均是如此。

 

Deepfake深度造假軟體背後的核心技術是採用所謂的生成對抗網路 (GAN) 機器學習技術,可根據現有的影像資料庫產生新的影像。GAN 透過生成器與鑑別器之間的相互Battle來製造逼真的虛假圖像、影片或語音。Deepfake 影片嚴重挑戰人眼辨別真偽的能力,讓我們對真假失去正常判斷。

 

具體來說,DeepNude就是基於稱為「pix2pix」的開源「圖像到圖像翻譯」軟體構建的,該軟體於 2018年由加州大學柏克萊分校的 AI 研究人員首次發現。
其核心技術 GAN能夠透過辨識真實圖像,創造自己的偽造品。比如將白天到夜晚的風景照片或從黑白變為全彩色。

 

要製作深度偽造影片,這項技術會分別學習如何對兩張不同的臉進行編碼和解碼。這項技術可以用來把另一張臉疊加在特定人物臉上,就能創造深度偽造影片。這項技術也能針對聲音做出細微變化,進而改變整個影片的核心訊息。

 

網路上越來越常見的Deepfakes內容,其是利用人工智慧中的深度學習技術,變造影片中的動作與聲音,傳遞扭曲不實的內容,常利用名人影片達到快速與廣布的傳播,並可能造成影響輿論、衝擊市場、毀人事業等負面影響。

 

自 2017 年,Deepfake 首次被用於製作色情影片後──神力女超人下海事件,社群上便開始大量充斥著此類影片據統計,在所有 Deepfake 創作影片中,色情影片占據96%。

2017年12月《神力女超人》女主角蓋兒加朵(Gal Gadot) 的臉被移花接木到A片上,逼真度簡直毫無破綻。該段影片是以AI演算法產生,機器大量讀取蓋兒加朵的影像後,複製出一張相似度極高的臉孔,再覆蓋A片女主角臉上。

 

華盛頓大學研究團隊2017年也發表一系列美國前總統歐巴馬的「造假」影片,當時該團隊僅分析17小時的歐巴馬演講影片就達到惟妙惟肖的成果。並以此警告世人深偽技術的可怕。

 

隨著技術的不斷升級,Deepfake 的逼真程度已經達到了肉眼難以分辨的地步,同時它也開始被應用到政治領域。如川普、歐巴馬、馬斯克等名人政客的虛假換臉影片已屢見不鮮。

 

如波士頓大學法學教授 Danielle Citron所說,「Deepfake 已經成為了攻擊女性強有力的武器」。

 

另2020年10月2日,日本警視廳逮捕熊本市大二學生林田拓海、兵庫縣工程師大槻隆信、大分縣野間口功也。3人的共通點是利用AI的「深偽」技術製作「假A片」,將女藝人的臉部合成到AV影像,營造出當事人參與A片演出的假象。

 

而2020年10月開始,台灣也發生擁有幾千名成員的Telegram群組「台灣網紅挖面」,將網路知名人士的臉變換到成人影片的主角臉上,並刻意販售不雅影片以換取牟利之事件,受害者達上百人,絕大多數為女性,其身分涵蓋網紅、藝人、政治人物、主播、甚至素人,包含蔡英文、黃捷、高嘉瑜、鄭家純(雞排妹)、龍龍、白癡公主、奎丁、蕾拉等人皆在其中。2021年10月18日,警方逮補主嫌小玉及共犯莊男。

 

據普林斯頓大學教授 Jacob Shapiro最新研究結果顯示,2013年至2019年期間,社群媒體已累計發起96次政治運動,而其中,93%為原創內容,86%放大了已有內容,74%歪曲客觀事實。而其目的多為詆毀政客、誤導公眾、激化矛盾等。

 

另外,目前已經出現利用 Deepfake技術的CEO詐騙,2019年9月出現 Deepfake技術製作的一段語音來誘騙英國某高階經理將 243,000 美元匯到某個歹徒所開設的帳戶。根據受害企業的保險公司表示,歹徒在電話中假冒的聲音不僅能模仿被冒充者的聲音,還能模仿其說話的語調、斷句及腔調。

 

四、如何關上 Deepfake的潘朵拉魔盒?

 

Deepfake技術現在常被拿來惡搞,用來製作色情、政治宣傳或嘲諷影片!
透過換臉、控制嘴唇、植入假造的音源檔,可製作色情、政治宣傳或嘲諷影片。 在網路上流傳著上萬個用 Deepfake (深偽技術) 製造的造假影片。

 

這項利用人工智慧和機器學習(Machine learning,ML)(AI/ML)合成的媒體資訊(圖片、聲音、影像等),將無辜明星、政客等知名人物的臉孔和聲音合成進成人影片和宣傳訊息內。這種「影片換臉」的技術,不知情的人乍看之下就像以為被惡搞的受害者,真的參與了演出。這類深度偽造 (deepfake)惡搞影片愈來愈多,甚至被用來犯罪。

 

由於工具越來越普及,加上許多開發者會將工具放到網路、臉部資料越來越好取得,因此技術門檻越來越低,許多人只要購買或下載簡單程式工具,就可以自己生成簡單的 Deepfake 影片。雖然現在能找到的大部分工具,並不足以生成以假亂真的影像,但 AI 訓練越來越強大、程式取得越來越容易的現在,這些技術開始影響政治與社會。

 

在目前造假媒體資訊的情況如此嚴重下,人們又該如何辨識deekfake作品?

以下例舉二個方法:

1、依「脈搏特徵變化」不同來檢測

比較有趣的是紐約州賓漢頓大學在英特爾資助下進行研究:利用隱形脈搏找出造假影片。所謂「隱形脈搏」就是指每個人照相時,鏡頭都會記錄每個人的「臉色」,隨著心臟將血液傳送身體各處,臉部膚色也會有細微變化,原理類似測手指血氧機。雖然肉眼看不見,但皮膚拍照或影片時,因脈搏產生的膚色變化還是會被鏡頭記錄,但 Deepfake人臉創建匹配時,通常不會考慮到這層面,會讓臉部與身體「脈搏特徵變化」不同,因此檢測得到不同。

 

此實驗準確率最高可超過 95%,同時一段影片超過 90% 時間都可檢驗到 Deepfake 作假痕跡。透過深度學習其他 Deepfake 工具模式,甚至可有 93.39% 機率辨識出哪個程式生成的 Deepfake 影片。

 

2、依「數位指紋」不同來檢測

 

Deepfake 影片演變成一項很不容易辨識的社交工程(social engineering)詐騙工具,讓受害者更容易上當。社群網站龍頭 Facebook 自然首當其衝受 Deepfake 影響,為了應對 Deepfake軟體帶來的威脅和挑戰,2019年起,Facebook 每年都會舉辦「Deepfake 檢測挑戰賽」(Deepfake Detection Challenge,DFDC),同時也與密西根州立大學合作,找出可逆向工程 Deepfake 的方法:找出 A.I. 生成模型留下的「數位指紋」。這概念與英特爾資助的「隱形脈搏」研究有共通處──利用 A.I. 學習各種 Deepfake 偽造模式,然後訓練 A.I. 辨識肉眼不可見的細節,揪出可能經 Deepfake 偽造的影片。

因每個 Deepfake生成的模型都有獨特參數,是 Deepfake工具偽造影片與人臉時的變量,對生成影像的方式與結果產生影響。密西根大學與 Facebook 團隊以汽車比喻:「有點像根據聲音辨識是哪台汽車開過,即使從未聽過汽車資訊。」

 

儘管目前檢測方式越來越多,準確度也越來越高,但製造虛假影片的趨勢依然沒有得到很好的抑制。因目前最先進技術也很難全面防堵Deepfake技術濫用。

 

究其原因,其一可能是AI製造虛假內容的工具、材料取得越來越方便,如 DeepNude,只需要一張照片,人人都可以上手。

其二可能是,每天都有很多新技術誕生,現在過濾技術卻遠遠跟不上。
Facebook在2021年 Deepfake大賽,以10萬部Facebook自製影片為測試範圍,參賽者利用演算法分析完影片後,獲得 82.56%準確率,但再拿另一組黑盒測試,準確率下降到 65.18%,代表現存世界過濾演算法的發展還跟不上生成偽造影片的演算法。

 

目前使用檢測技術仍追不上Deepfake生成技術的進化,甚至會有種「道高一尺、魔高一丈」之感。當前首要任務是,要能引起社會關注,讓更多人投入Deepfake過濾器改進與改善,才能突破困境。

 

另外,誠如Sensity 公司負責人所說,DeepNude目前還處於法律的灰色地帶。因此,要想關上 Deepfake潘朵拉的魔盒,需要修法懲罰及道德譴責雙管齊下,亦即需要法律約束和人心向善的同步引導。只有人心不造惡,社會才能清明。

發佈回覆給「匿名訪客」的留言

發佈留言必須填寫的電子郵件地址不會公開。

This site is protected by wp-copyrightpro.com