安全動(dòng)態(tài)

Deepfake正被用于盜用社交網(wǎng)絡(luò)自拍照生成不雅照

來源:聚銘網(wǎng)絡(luò)    發(fā)布時(shí)間:2020-10-22    瀏覽次數(shù):
 

信息來源:Cnbeta

還記得“一鍵脫衣AI”DeepNude嗎?去年6月,這款深度造軟件發(fā)布僅幾個(gè)小時(shí)便因訪問請(qǐng)求過大迅速宕機(jī),而其原因是它可以一鍵脫掉女性衣服,制造大量色情圖片。近日,據(jù)調(diào)查發(fā)現(xiàn),這款色情的軟件再次出現(xiàn)在了即時(shí)消息應(yīng)用程序——Telegram中。

截止目前,該軟件在TeleGram平臺(tái)已經(jīng)公開發(fā)布了約104,852張色情圖片,這一數(shù)據(jù)還不包括私下分享傳播的圖片。更重要的是,這些圖片70%全部來自社交網(wǎng)絡(luò)中的真實(shí)女性,甚至包括未成年人。


也就是說,日常在Facebook、微博等社交媒體中分享的自拍照,很可能會(huì)被人用來生成“果照”。

DeepNude盯上了“可能認(rèn)識(shí)的人”

這項(xiàng)調(diào)查來自美國(guó)阿姆斯特丹的網(wǎng)絡(luò)安全公司Sensity,這家公司專注于所謂的“視覺威脅情報(bào)”,尤其是那些深度造假視頻的傳播。他們調(diào)查發(fā)現(xiàn),截至7月底,Telegram平臺(tái)七個(gè)主要頻道均在使用DeepNude軟件。

該軟件吸引了全球103,585名用戶,其中用戶最多的頻道有45,615人。這些用戶大部分聚集在俄羅斯及東歐周邊地區(qū)。

據(jù)了解,這款軟件爆火的原因有三點(diǎn)。一是操作非常簡(jiǎn)單,只需要一張照片,上傳至軟件后,幾秒就可以自動(dòng)生成裸照,不需要任何技術(shù)知識(shí)或者專門的硬件支持。

二是所有人免費(fèi)使用。不過它也有盈利模式,未付費(fèi)用戶獲得的裸照后會(huì)打上水印標(biāo)簽或者只有局部裸露,用戶支付1.28美元才可以獲得無水印圖片,但使用權(quán)限僅限七天100張。

三是可以獲得熟悉的人的裸照。Deepfake偽造色情視頻已經(jīng)屢見不鮮,主要以為名人為目標(biāo)。但根據(jù)一項(xiàng)民意調(diào)查顯示,大多數(shù)用戶對(duì)“現(xiàn)實(shí)生活中認(rèn)識(shí)的女性”更感興趣,占比達(dá)到了63%。

而DeepNude恰好提供了這樣的支持,任何用戶使用任何照片都可以生成裸照。

從TeleGram平臺(tái)的公開數(shù)據(jù)來看,許多照片中的女性都是普通上班族、大學(xué)生,而且這些照片都是來自TikTok、Instagram、Facebook等平臺(tái)的自拍照。

需要注意的是,這款深度造假軟件只針對(duì)女性。如果上傳一張男性或者其他任何無生命照片,系統(tǒng)也會(huì)自動(dòng)被替換成女生的身體,并識(shí)別成相應(yīng)的器官。

Sensity首席科學(xué)家喬治·帕特里尼(Giorgio Patrini)介紹稱,目前已經(jīng)超過680,000名女性在未知情的情況下被偽造成了色情圖片,并上傳到了公共媒體平臺(tái)。

目前,Sensity公司的相關(guān)調(diào)查數(shù)據(jù)已經(jīng)對(duì)外披露,相關(guān)執(zhí)法部門也對(duì)此展開了調(diào)查。而至此,為何允許該色情軟件出現(xiàn)在社交平臺(tái)中,Telegram一直未給出公開答復(fù)。

另外,據(jù)Sensity調(diào)查顯示,除了Telegram之外,另一家俄羅斯社交媒體平臺(tái)VK也發(fā)現(xiàn)了DeepNude,而且它已經(jīng)開始公開為軟件打廣告。

不過,此事件一出后,相關(guān)負(fù)責(zé)人便立刻出面回應(yīng)否認(rèn)了這一說法。同時(shí)他強(qiáng)調(diào),

VK不容忍平臺(tái)上出現(xiàn)此類內(nèi)容或鏈接,同時(shí)也會(huì)阻止分發(fā)它們的社區(qū)。另外,此類社區(qū)或鏈接并未使用VK廣告工具進(jìn)行宣傳,我們也進(jìn)行額外的檢查,并阻止不當(dāng)內(nèi)容的出現(xiàn)。

創(chuàng)建者:我不是偷窺狂,只是出于獵奇心

然而,就是這樣一款色情造假軟件,它的創(chuàng)建初心竟然是出于好奇心和對(duì)技術(shù)的熱忱。

2019年6月27日,DeepNude軟件首次公開上線,隨后不久,系統(tǒng)就因?yàn)橛脩粼L問量過大而宕機(jī)。

但就是這幾個(gè)小時(shí),這款針對(duì)女性的“一鍵脫衣AI”已經(jīng)在國(guó)內(nèi)外引起軒然大波。

有關(guān)“侵犯隱私、性別歧視”等指責(zé)聲在Twitter、Reddit、微博等各大社交媒體平臺(tái)層出不窮。深度學(xué)習(xí)先驅(qū)吳恩達(dá)(Andrew Ng)還發(fā)推稱,DeepNude是“人工智能最令人惡心的應(yīng)用之一”。

而對(duì)于外界的種種指責(zé),它的開發(fā)者阿爾貝托(Alberto)卻公開回應(yīng)稱:

“這個(gè)世界還沒為 DeepNude 做好準(zhǔn)備!”“我不是偷窺狂。我是技術(shù)的愛好者”。

同時(shí)他強(qiáng)調(diào),“我不關(guān)心裸照之類的。有些人自己不想用,就想著讓別人也用不上,這很蠢。對(duì)技術(shù)知識(shí)的封堵和審查,是無法阻止它的擴(kuò)散和傳播?!?

據(jù)了解,Alberto的研發(fā)靈感是來自某雜志上的一個(gè)X射線眼鏡。他對(duì)AI技術(shù)非常感興趣,當(dāng)發(fā)現(xiàn)GAN網(wǎng)絡(luò)能夠把白天照片編變成黑夜照片后,便意識(shí)到同樣利用GAN也可以將一張穿衣服的照片轉(zhuǎn)換成一張不穿衣服的照片。正是出于這樣的好奇,最終研發(fā)出了DeepNude。

具體來說,DeepNud是基于稱為“ pix2pix ”的開源“圖像到圖像翻譯”軟件構(gòu)建的,該軟件于2018年由加州大學(xué)伯克利分校的AI研究人員首次發(fā)現(xiàn)。其核心技術(shù)GAN能夠通過識(shí)別真實(shí)圖像,創(chuàng)造自己的偽造品。比如將白天到夜晚的風(fēng)景照片或從黑白變?yōu)槿噬?

但不管是出于獵奇,還對(duì)技術(shù)研發(fā)的準(zhǔn)確,這款軟件確實(shí)是濫用AI技術(shù)產(chǎn)生了惡劣的影響。如知名作家尼娜·揚(yáng)科維奇(Nina Jankowicz)表示,DeepNude對(duì)世界各地的女性都有巨大影響,尤其是在俄羅斯等社會(huì)較為保守的國(guó)家。如果公開發(fā)表令人信服但虛假的裸照,受害者可能會(huì)失去工作,或者面臨伴侶暴力。

Sensity公司也表示,這些虛假的色情圖像或視頻很可能被用做勒索、騷擾的手段。

Deepfake威脅,正在肆虐

不僅是DeepNude,所有Deepfake軟件均是如此。

如波士頓大學(xué)法學(xué)教授 Danielle Citron 所說,“Deepfake已經(jīng)成為了攻擊女性強(qiáng)有力的武器。"

Deepfake深度造假軟件背后的核心技術(shù)都是生成式對(duì)抗網(wǎng)絡(luò)GAN。GAN通過生成器與鑒別器之間的相互Battle來生成逼真的虛假圖像、視頻或者語音。

自2017年,Deepfake首次被用于制作色情視頻后——神奇女俠下海事件,社交網(wǎng)絡(luò)便開始大量充斥著此類視頻,據(jù)統(tǒng)計(jì),在所有Deepfake創(chuàng)作的視頻中,色情視頻占據(jù)了96%。隨著技術(shù)的不斷升級(jí),Deepfake的逼真程度已經(jīng)達(dá)到了肉眼難以分辨的地步,同時(shí)它也開始被應(yīng)用到政治領(lǐng)域。如Donald Trump、Barack Hussein Obama,  Elon Musk等名人政客的虛假換臉視頻已屢見不鮮。

據(jù)普林斯頓大學(xué)教授Jacob Shapiro最新研究結(jié)果顯示,2013年至2019年期間,社交媒體已累計(jì)發(fā)起96次政治運(yùn)動(dòng),而其中,93%為原創(chuàng)內(nèi)容,86%放大了已有內(nèi)容,74%歪曲了客觀事實(shí)。而其目的多為詆毀政客、誤導(dǎo)公眾、激化矛盾等。

為了應(yīng)對(duì)Deepfake軟件帶來的威脅和挑戰(zhàn),2019 年,F(xiàn)acebook 斥巨資發(fā)起“Deepfake 檢測(cè)挑戰(zhàn)賽”(Deepfake Detection Challenge,DFDC)。今年Deepfake 檢測(cè)的識(shí)別準(zhǔn)確率已經(jīng)達(dá)到了 82.56%。

除此之外,學(xué)術(shù)界以及其他企業(yè)團(tuán)隊(duì)也在研發(fā)Deepfake的檢測(cè)方式。但盡管檢測(cè)方式越來越多,準(zhǔn)確度越來越高,制造虛假視頻的趨勢(shì)依然沒有得到很好的抑制。

究其原因,其一可能是AI生成虛假內(nèi)容越來越方便,如DeepNude,只需要一張照片,人人都可以上手。而其二,如Sensity公司負(fù)責(zé)人所說,DeepNude目前還處于法律的灰色地帶。

因此,要想關(guān)上 Deepfake 潘多拉的魔盒,需要制度的約束和人心向善的引導(dǎo)。


 
 

上一篇:趙立堅(jiān):美國(guó)這個(gè)“黑客帝國(guó)”應(yīng)立即停止賊喊捉賊的把戲

下一篇:2020年10月22日聚銘安全速遞