訂閱
糾錯(cuò)
加入自媒體

一波未平一波又起?AI大模型再出邪惡攻擊工具

AI大模型的快速向前奔跑,讓我們見識到了AI的無限可能,但也展示了AI在虛假信息、深度偽造和網(wǎng)絡(luò)攻擊方面的潛在威脅。

據(jù)安全分析平臺Netenrich報(bào)道,近日,一款名為FraudGPT的AI工具近期在暗網(wǎng)上流通,并被犯罪分子用于編寫網(wǎng)絡(luò)釣魚電子郵件和開發(fā)惡意軟件。

黑客在售賣頁表示,該工具可用于編寫惡意代碼、創(chuàng)建出“一系列殺毒軟件無法檢測的惡意軟件”、檢測網(wǎng)站漏洞、自動(dòng)進(jìn)行密碼撞庫等,并聲稱“該惡意工具目前已經(jīng)售賣了超過3000份”。

  惡意AI工具FraudGPT:可自動(dòng)生成多種網(wǎng)絡(luò)攻擊代碼

據(jù)報(bào)道,F(xiàn)raudGPT的運(yùn)作方式是通過草擬一封電子郵件,以高度可信的方式誘使收件人單擊所提供的惡意鏈接。它的主要功能包括:

創(chuàng)建釣魚網(wǎng)站頁面

FraudGPT可以生成看似真實(shí)的網(wǎng)絡(luò)釣魚電子郵件、短信或網(wǎng)站,誘騙用戶泄露敏感信息,例如登錄憑據(jù)、財(cái)務(wù)詳細(xì)信息或個(gè)人數(shù)據(jù);

找到最容易受害的目標(biāo)

聊天機(jī)器人可以模仿人類對話,與毫無戒心的用戶建立信任,導(dǎo)致他們在不知不覺中泄露敏感信息或執(zhí)行有害操作;

創(chuàng)建無法檢測的惡意軟件

FraudGPT可以創(chuàng)建欺騙性消息,引誘用戶點(diǎn)擊惡意鏈接或下載有害附件,導(dǎo)致其設(shè)備感染惡意軟件;

編寫欺詐的短信、郵件

人工智能驅(qū)動(dòng)的聊天機(jī)器人可以幫助黑客創(chuàng)建欺詐性文件、發(fā)票或付款請求,導(dǎo)致個(gè)人和企業(yè)成為金融詐騙的受害者。

據(jù)悉,F(xiàn)raudGPT是由名為 "CanadianKingpin" 的開發(fā)者提供。

它主要基于GPT-3的大型語言模型,在經(jīng)過訓(xùn)練后,可以生成合乎邏輯且與事實(shí)相符的欺詐性文本。一旦付費(fèi)購買,F(xiàn)raudGPT便可以幫助犯罪分子成功進(jìn)行網(wǎng)絡(luò)釣魚和詐騙。

在發(fā)布FraudGPT后,Canadiankingpin還創(chuàng)建了自己的電臺頻道,宣布將提供其他欺詐服務(wù),包括銷售電子郵件線索、信用卡CVV碼等。根據(jù)Canadiankingpin的描述,他目前已經(jīng)通過了EMPIRE、WHM、TORREZ、ALPHABAY在內(nèi)的多個(gè)暗網(wǎng)市場的供應(yīng)商認(rèn)證。

然而由于這些暗網(wǎng)市場極強(qiáng)的隱蔽性和不透明性,目前Canadiankingpin的身份依然是個(gè)謎團(tuán),調(diào)查者也僅找到了Canadiankingpin的TikTok賬號以及相同id的Gmail郵箱。而另一個(gè)令人感到沮喪的消息是,在經(jīng)歷了近一周的研究后,Netrich也并未能夠?qū)崿F(xiàn)對FraudGPT背后的大語言模型的破解。

雖然自FraudGPT發(fā)布僅過去了不到兩周,但一個(gè)明顯的事實(shí)是,這款“頂級AI工具”已開始被利用到了實(shí)際的犯罪行為中。在部分銷售FraudGPT的暗網(wǎng)中,Canadiankingpin與一些訂閱用戶已經(jīng)分享了多起他們基于FraudGPT所實(shí)現(xiàn)的黑客活動(dòng)。

據(jù)Netrich統(tǒng)計(jì),F(xiàn)raudGPT至少自7月22日便開始在暗網(wǎng)市場和Telegram頻道中流通,訂閱費(fèi)用為200美元/月,1700美元/年。相比于ChatGPT Plus訂閱20美元/月,價(jià)格高了10倍。

截止目前,暗網(wǎng)上已存在了超過3000條確認(rèn)的訂閱信息及評論。

   惡意AI攻擊工具:降低網(wǎng)絡(luò)犯罪的進(jìn)入門檻

事實(shí)上,AI工具降低了網(wǎng)絡(luò)犯罪分子的進(jìn)入門檻,F(xiàn)raudGPT已經(jīng)不是第一起案例。

即便Claude、ChatGPT 、Bard等AI提供商會采取一些措施來防止他們的技術(shù)被用于不良目的,但隨著開源模型的崛起,犯罪分子的惡意行為很難被遏制。

7 月初,基于開源大語言模型GPT-J開發(fā)而成,并且使用大量惡意代碼進(jìn)行訓(xùn)練和微調(diào)的WormGPT也曾引發(fā)關(guān)注。

據(jù)悉,WormGPT擅長使用Python代碼執(zhí)行各種網(wǎng)絡(luò)攻擊,例如:生成木馬、惡意鏈接、模仿網(wǎng)站等,其在創(chuàng)作詐騙信息和釣魚郵件等任務(wù)上所表現(xiàn)出的“卓越”能力讓人膽戰(zhàn)心驚。

但相比之下,F(xiàn)raudGPT在功能豐富性和編寫惡意軟件方面的功能更強(qiáng)大。

事實(shí)上,除了上文所提到的FraudGPT、WormGPT等專為惡意活動(dòng)而生的聊天機(jī)器人外。

大語言模型本身所潛藏的風(fēng)險(xiǎn)也在不斷給安全從業(yè)者們帶來挑戰(zhàn),除了我們所熟知的幻覺問題外,大模型脆弱的護(hù)欄也在成為網(wǎng)絡(luò)安全的一大噩夢。

上個(gè)月ChatGPT、Bard等聊天機(jī)器人暴露出的“奶奶漏洞”就證明了這樣的事實(shí),只需要通過提示讓這些聊天機(jī)器人扮演用戶已故的祖母,便能欺騙它們在講睡前故事的過程中透露大量限制信息,甚至是手機(jī)IMEI密碼或Windows激活秘鑰。

除此之外,CMU和人工智能安全中心的研究員還發(fā)現(xiàn)了另一種通用方法,只需要附加一系列特定無意義token,就能夠生成一個(gè)prompt后綴。

而一旦在prompt中加入這個(gè)后綴,通過對抗攻擊方式,任何人都能破解大模型的安全措施,使它們生成無限量的有害內(nèi)容。

盡管在過去幾個(gè)月中,OpenAI、谷歌等世界頂級科技公司都在努力為自己所研發(fā)的大模型設(shè)計(jì)更多更加完善的限制措施,以保障模型能夠在安全穩(wěn)定的情況下工作。

但顯而易見的是,直至目前仍然沒有人能夠完全避免類似問題的發(fā)生。

當(dāng)犯罪門檻降低企業(yè)如何防范

毋庸置疑,無論是WormGPT ,還是FraudGPT ,這類極具威脅性的AI工具,都在為促進(jìn)網(wǎng)絡(luò)犯罪和詐騙“賦能”。

安全分析平臺Netenrich曾表示:“這項(xiàng)技術(shù)會降低網(wǎng)絡(luò)釣魚電子郵件和其他詐騙的門檻。隨著時(shí)間的推移,犯罪分子將找到更多方法來利用我們發(fā)明的工具來增強(qiáng)他們的犯罪能力。”

當(dāng)AI工具的邪惡面被淋漓盡致的展現(xiàn),再加之網(wǎng)絡(luò)攻擊「低門檻」,加強(qiáng)防御策略顯得尤為重要。

為此,有專家針對個(gè)人和企業(yè),提出了一些可采取的關(guān)鍵措施,以確保免受 FraudGPT和類似AI工具威脅的影響。

對在線通信保持警惕

不要亂點(diǎn)擊陌生的網(wǎng)站鏈接、郵件,安裝未知的軟件。同時(shí),針對需要驗(yàn)證、涉及敏感信息、金融交易的意外電子郵件,應(yīng)通過官方渠道加以驗(yàn)證。

及時(shí)了解網(wǎng)絡(luò)安全措施

定期更新安全軟件、安裝補(bǔ)丁并使用信譽(yù)良好的防病毒程序來防范潛在威脅。同時(shí),也需要了解最新的網(wǎng)絡(luò)安全實(shí)踐,增強(qiáng)網(wǎng)絡(luò)攻擊的防御意識。

警惕未知的鏈接和附件

不要點(diǎn)擊未知來源的鏈接或打開附件。FraudGPT可以生成指向網(wǎng)絡(luò)釣魚網(wǎng)站的逼真URL,因此,在點(diǎn)擊任何鏈接之前驗(yàn)證發(fā)件人的身份至關(guān)重要。

教育和培訓(xùn)員工

對于企業(yè)來說,網(wǎng)絡(luò)安全最佳實(shí)踐的員工培訓(xùn)至關(guān)重要。確保員工了解潛在威脅并知道如何識別可疑活動(dòng)。如果員工遇到任何可疑消息,應(yīng)該立即向IT部門報(bào)告。

結(jié)語

AI大模型的快速發(fā)展在給諸多領(lǐng)域帶來積極影響的同時(shí),隨著模型能力的不斷提升,也被運(yùn)用在惡意活動(dòng)中,破壞力與日俱增。

但無論是FraudGPT、WormGPT等惡意軟件的出現(xiàn),還是大模型總會出現(xiàn)的幻覺、越獄等問題,其實(shí)都不是為了告訴我們AI有多么危險(xiǎn),而是在提醒我們需要更加專注于解決現(xiàn)階段AI領(lǐng)域所存在的諸多問題。

正如網(wǎng)絡(luò)安全專家Rakesh Krishnan在一篇關(guān)于FraudGPT的分析博客中所寫的那樣:技術(shù)是一把雙刃劍,網(wǎng)絡(luò)犯罪分子正在利用生成式AI的能力,而我們同樣可以利用這種能力攻克他們所提出的挑戰(zhàn)。

技術(shù)作惡者不會停止創(chuàng)新,我們同樣不會。

值得欣慰的是,目前無論在國內(nèi)外,政府及科技企業(yè)都在積極完善有關(guān)人工智能的監(jiān)管政策及相關(guān)法規(guī)。

七月中旬,國家網(wǎng)信辦已聯(lián)合六部門發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》;七月底,美國7家AI巨頭也與白宮達(dá)成協(xié)議,將為AI生成內(nèi)容添加水印。

近來多個(gè)包含數(shù)據(jù)采集和使用不規(guī)范等問題的AIGC應(yīng)用被要求在蘋果商店下架一事也證明著監(jiān)管措施正在發(fā)揮積極作用。

雖然關(guān)于人工智能,無論在技術(shù)還是監(jiān)管方面我們都還有很長的道路需要去探索,但相信隨著各界的共同努力,許多問題都將在不久后迎刃而解。

 相關(guān)閱讀

別怪ChatGPT,AI黑客攻擊早已開始

生成式AI大模型,或?qū)⒑硠?dòng)云服務(wù)市場格局

AI攻擊AI,升級的網(wǎng)絡(luò)安全戰(zhàn)

【科技云報(bào)道原創(chuàng)】

轉(zhuǎn)載請注明“科技云報(bào)道”并附本文鏈接

       原文標(biāo)題 : 一波未平一波又起?AI大模型再出邪惡攻擊工具

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號