當(dāng)前位置:區(qū)塊鏈 >區(qū)塊鏈 > 輕松盜走 2500 萬(wàn)美元 我們?cè)撊绾畏婪度斯ぶ悄茉旒傥C(jī)?

輕松盜走 2500 萬(wàn)美元 我們?cè)撊绾畏婪度斯ぶ悄茉旒傥C(jī)?

更新時(shí)間:2024-02-12 17:12:01 | 作者:佚名
近幾個(gè)月來(lái),人工智能接連浮現(xiàn),我們頻繁在新聞標(biāo)題中看到如下字眼:AI泄露了公司代碼,還根本就刪不掉;AI軟件侵犯了用戶的人臉信息隱私;某大模型產(chǎn)品被曝泄露私密對(duì)話……等等。 然而,更為深刻的問(wèn)題或許早在大型模型熱潮爆發(fā)之前就已經(jīng)悄然存在:名為Deepfake的深度造假技術(shù)嶄露頭角,通過(guò)深度學(xué)習(xí)將世界上的任何人無(wú)縫拼接到他們從未真正參與過(guò)的視頻或照片中,導(dǎo)致...

近幾個(gè)月來(lái),人工智能接連浮現(xiàn),我們頻繁在新聞標(biāo)題中看到如下字眼:AI 泄露了公司代碼,還根本就刪不掉;AI 軟件侵犯了用戶的人臉信息隱私;某大模型產(chǎn)品被曝泄露私密對(duì)話……等等。

然而,更為深刻的問(wèn)題或許早在大型模型熱潮爆發(fā)之前就已經(jīng)悄然存在:名為Deepfake 的深度造假技術(shù)嶄露頭角,通過(guò)深度學(xué)習(xí)將世界上的任何人無(wú)縫拼接到他們從未真正參與過(guò)的視頻或照片中,導(dǎo)致了"AI 換臉"這個(gè)詞匯在 2018 年的火爆。

直至 2024 年的今天,Deepfake 的潛在威脅仍未得到有效遏制。

人工智能詐騙已成現(xiàn)實(shí),引人憂慮。

1995 年上映的動(dòng)畫電影《攻殼機(jī)動(dòng)隊(duì)》描繪過(guò)這么一段劇情:名為“傀儡師”的人工智能懂得冒充其他身份,迷惑和控制人類的思想和行為,這種能力使得它在網(wǎng)絡(luò)和虛擬空間中變得無(wú)跡可尋。雖然這種情節(jié)只出現(xiàn)在電影中,但倘若你長(zhǎng)久以來(lái)深受埃隆·馬斯克(Elon Musk)或薩姆·奧爾特曼(Sam Altman)等人的警告影響,難免會(huì)設(shè)想一旦人工智能放任自流,便能演變成對(duì)人類的“天網(wǎng)”式威脅。

《攻殼機(jī)動(dòng)隊(duì)》傀儡師

慶幸的是,這一擔(dān)憂并未得到廣大人工智能開(kāi)發(fā)者們的普遍認(rèn)同。許多學(xué)術(shù)界的人工智能巨頭,如圖靈獎(jiǎng)得主 Joseph Sifakis 就曾在采訪中透露自己對(duì)這種想法的嗤之以鼻。目前,我們尚不具備能在馬路上安全行駛的人工智能,更不必說(shuō)與人類智慧相匹敵了。

但這絕不意味人工智能無(wú)害。

AI 完全有可能成為迄今為止人類所創(chuàng)造出的最具破壞力的工具之一。關(guān)于這一點(diǎn),近期一名不幸遭遇人工智能詐騙的財(cái)務(wù)高管深有體會(huì),其損失高達(dá) 2500 萬(wàn)美元,案發(fā)地不是在大洋彼岸,而是在離我們很近的香港特別行政區(qū)。面對(duì)此類人工智能犯罪,我們是否有應(yīng)對(duì)之策呢?

偷天換日

2 月 5 日消息,據(jù)港媒香港電臺(tái)報(bào)道,某匿名財(cái)務(wù)總監(jiān)接收到一封自稱源自其英國(guó)同僚的郵件,提出一項(xiàng)隱秘交易。這位財(cái)務(wù)總監(jiān)并非輕信之人,初見(jiàn)即疑其為網(wǎng)絡(luò)釣魚行為。

然而,發(fā)件人堅(jiān)持安排一場(chǎng) Zoom 視頻會(huì)議,當(dāng)這位香港財(cái)務(wù)總監(jiān)接入會(huì)議時(shí),他看到并聽(tīng)到了幾位熟識(shí)同事的面容與聲音。疑慮消除后,他們開(kāi)始籌備交易,并按英國(guó)同僚指示,最終分 15 次匯款 2 億港幣(當(dāng)前約 1.84 億元人民幣),轉(zhuǎn)賬至 5 個(gè)本地戶口。

直至另一位員工與總部核實(shí)時(shí)才發(fā)現(xiàn)異常,原來(lái)英國(guó)辦公室未曾發(fā)起過(guò)此項(xiàng)交易,亦未收到任何款項(xiàng)。試想該財(cái)務(wù)總監(jiān)得知被騙后的極度懊悔與愧疚之情。調(diào)查后發(fā)現(xiàn),該次視頻會(huì)議中唯一真實(shí)的參與者正是那位香港財(cái)務(wù)總監(jiān),其余人員皆是由 Deepfake 人工智能技術(shù)模擬的英國(guó)財(cái)務(wù)總監(jiān)及其他同事形象。

僅憑公開(kāi)可獲取的少量數(shù)據(jù)、一套基礎(chǔ)的人工智能程序以及狡猾的騙術(shù),這群騙子就成功騙取了足以購(gòu)置一艘豪華超級(jí)游艇的巨額現(xiàn)金。

此刻或許有人會(huì)對(duì)這個(gè)故事嗤之以鼻,斷言這位財(cái)務(wù)總監(jiān)過(guò)于馬虎,畢竟我們平時(shí)在抖音、b 站上看到的 Deepfake “整活視頻”都易辨真假,很難做到以假亂真。

然而,實(shí)際情況可能并不如此簡(jiǎn)單,最新研究表明,人們實(shí)際上無(wú)法可靠地識(shí)別 Deepfake,這意味著大多數(shù)人在很多場(chǎng)合僅憑直覺(jué)判斷自己看到和聽(tīng)到的東西。更令人不安的是,研究還揭示了人們更容易誤將 Deepfake 視頻當(dāng)作真實(shí)情況而非虛假。換言之,如今的 Deepfake 技術(shù)已十分高明,足以輕易欺騙觀眾。

Deep-learning + Fake

Deepfake 這個(gè)詞是“深度學(xué)習(xí)”(Deep-learning)和“假冒”(Fake)兩個(gè)詞的組合。

因此,Deepfake技術(shù)的核心要素是機(jī)器學(xué)習(xí),這使得以更低的成本快速制作出深度偽造內(nèi)容成為可能。若要制作某人的Deepfake視頻,創(chuàng)作者首先會(huì)利用大量該人的真實(shí)視頻片段對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使其獲得對(duì)該人從多個(gè)角度和不同光照條件下外觀的逼真“理解”。隨后,創(chuàng)作者將訓(xùn)練好的網(wǎng)絡(luò)與計(jì)算機(jī)圖形技術(shù)相結(jié)合,將此人的復(fù)制品疊加到另一人身上。

許多人認(rèn)為,一類稱為生成對(duì)抗網(wǎng)絡(luò)(GANs)的深度學(xué)習(xí)算法將在未來(lái)成為 Deepfake技術(shù)發(fā)展的主要推動(dòng)力。GAN 生成的面部圖像幾乎無(wú)法與真人面孔區(qū)分開(kāi)來(lái)。首次針對(duì) Deepfake領(lǐng)域的調(diào)查報(bào)告專門用一個(gè)章節(jié)討論了 GANs,預(yù)示著它們將使任何人都能制作出精巧的 Deepfake內(nèi)容。

2017 年底,名為“deepfakes”的 Reddit 用戶將許多知名影星甚至政要的面孔用于色情視頻轉(zhuǎn)換生成,并將其發(fā)布到網(wǎng)絡(luò)上。這類造假視頻瞬間傳遍社交網(wǎng)絡(luò),此后大量新的 Deepfake 視頻開(kāi)始出現(xiàn),相應(yīng)的檢測(cè)技術(shù)卻直到幾年后才逐漸出現(xiàn)。

不過(guò),也有正面例子。Deepfake 第一次在銀幕上被觀眾所熟知是因?yàn)橐压恃輪T保羅·沃克在《速度與激情 7》中的“復(fù)活”。2023 年的賀歲電影《流浪地球 2》也用 CG 技術(shù)復(fù)現(xiàn)了廣受大眾喜愛(ài)的“達(dá)叔”吳孟達(dá)。但在以前,需要一整個(gè)工作室的專家們耗費(fèi)一年的時(shí)間才能創(chuàng)造出這些效果。

如今,這個(gè)過(guò)程比以前更快,哪怕是對(duì)技術(shù)一竅不通的普通人,也可以在幾分鐘之內(nèi)創(chuàng)造一個(gè)“AI 換臉”的視頻。

對(duì) Deepfake的擔(dān)憂導(dǎo)致了對(duì)策的激增。早在 2020 年,包括 Meta 和 X 在內(nèi)的社交媒體平臺(tái)禁止在其網(wǎng)絡(luò)中使用類似的 Deepfake 產(chǎn)品。各大計(jì)算機(jī)視覺(jué)和圖形會(huì)議上也邀請(qǐng)著專家上臺(tái)演講防御方法。

既然 Deepfake 犯罪分子已經(jīng)開(kāi)始大規(guī)模地蒙蔽世人,我們又該如何反擊呢?

多重手段,防御 Deepfake 風(fēng)險(xiǎn)

首要策略是對(duì)人工智能進(jìn)行“投毒”。要制造出逼真的 Deepfake,攻擊者需要海量數(shù)據(jù),包括目標(biāo)人物眾多的照片、展示其面部表情變化的大量視頻片段及清晰的語(yǔ)音樣本。大部分 Deepfake 技術(shù)利用個(gè)人或企業(yè)在社交媒體上公開(kāi)分享的資料作為素材。

不過(guò),現(xiàn)在已有諸如 Nightshade 和 PhotoGuard 之類的程序,能夠在不影響人類感知的情況下修改這些文件,從而讓 Deepfake 失效。比如,Nightshade 通過(guò)誤導(dǎo)性處理,使得人工智能誤判照片中的面部區(qū)域,這種錯(cuò)誤識(shí)別恰恰能擾亂構(gòu)建 Deepfake 背后的人工智能學(xué)習(xí)機(jī)制。

其次,對(duì)自身或所在企業(yè)在網(wǎng)上發(fā)布的所有照片和視頻進(jìn)行此類防護(hù)處理,可有效阻止 Deepfake 克隆。然而,這種方法并非萬(wàn)無(wú)一失,它更像是場(chǎng)持久戰(zhàn)。隨著人工智能逐漸提高對(duì)篡改文件的識(shí)別能力,反 Deepfake 程序也需要不斷研發(fā)新的方法以保持其有效性。

想建立起更為堅(jiān)固的防線,我們就需要不再單一依賴易于被攻破的身份驗(yàn)證方式。在本文的案例中,涉事的財(cái)務(wù)總監(jiān)將視頻通話視為確認(rèn)身份的絕對(duì)依據(jù),卻未能采取如撥打總部或英國(guó)分支機(jī)構(gòu)其他人員電話進(jìn)行二次身份驗(yàn)證等額外措施。實(shí)際上,已有部分程序利用私鑰加密技術(shù)來(lái)確保線上身份驗(yàn)證的可靠性。采用多重身份驗(yàn)證步驟,大大降低此類欺詐的可能性,是所有企業(yè)應(yīng)當(dāng)立即著手實(shí)施的措施。

因此,當(dāng)下次你身處視頻會(huì)議之中,或是接到同事、親友的來(lái)電時(shí),請(qǐng)務(wù)必謹(jǐn)記,屏幕對(duì)面可能并非真人。特別是在對(duì)方要求你將 2500 萬(wàn)美元秘密轉(zhuǎn)賬至一組聞所未聞的陌生銀行賬戶時(shí),我們至少可以先給上司打個(gè)電話。

本站提醒:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,本內(nèi)容不作為投資理財(cái)建議。