訂閱
糾錯
加入自媒體

馬斯克、Bengio等千位大佬聯(lián)名喊停更強AI研發(fā),GPT-5得罪了誰?

一項革命性的技術普及時,必有重重阻力。

GPT-4 誕生兩周之際,美國生命未來研究所(Future of Life)向全社會發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,暫停時間至少為6個月。

這封公開信已有1079人簽署。內容寫到,最近AI的迅猛發(fā)展是一場“失控的競賽”,他們沒有辦法理解、預測或可靠地控制自己創(chuàng)造的大模型。人類社會對其可能造成的影響也沒有做好準備。

截至目前,特斯拉 CEO(OpenAI 聯(lián)合創(chuàng)始人)馬斯克、蘋果聯(lián)合創(chuàng)始人 Steve Wozniak、圖靈獎得主 Yoshua Bengio、《人類簡史》作者赫拉利、紐約大學名譽教授 Gary Marcus、UC 伯克利教授 Stuart Russell 等千名科技大佬和 AI 專家已經(jīng)簽署公開信。

公開信內容

馬斯克、Bengio等千位大佬聯(lián)名喊停更強AI研發(fā),GPT-5得罪了誰?

公開信稱,正如廣泛的研究和頂級人工智能實驗室所承認的,人工智能系統(tǒng)對社會和人類構成較大的風險。我們不應該冒著失去對文明控制的風險,將決定委托給未經(jīng)選舉的技術領袖。

盡管最近幾個月人工智能實驗室掀起AI狂潮,但目前沒有人能理解、預測或可靠地控制AI系統(tǒng),也沒有相應水平的規(guī)劃和管理。

當代人工智能系統(tǒng)現(xiàn)在在一般任務上表現(xiàn)與人類相當,我們必須反思——

- 我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?

- 我們應該自動化所有的工作,包括令人滿意的工作嗎?

- 我們是否應該發(fā)展最終可能超越我們并取代我們的非人類思維?

- 我們應該冒險失去對我們文明的控制嗎?

OpenAI 最近關于人工智能的聲明指出:「在開始訓練未來系統(tǒng)之前,進行獨立審查可能很重要,人們應該在合適的時間點限制用于創(chuàng)建新系統(tǒng)的計算增長率!宫F(xiàn)在已經(jīng)到了這個時間點。我們呼吁所有 AI 實驗室立即暫停訓練比 GPT-4 更強大的 AI 系統(tǒng),為期至少 6 個月。

人工智能實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智能設計和開發(fā)的共享安全協(xié)議,由獨立的外部專家進行嚴格的審查和監(jiān)督。這些工作至少應該包括:

- 專門針對人工智能的新的、有能力的監(jiān)管機構;

- 對高能力的人工智能系統(tǒng)和大型計算能力池的監(jiān)督和跟蹤;

- 幫助區(qū)分真實和合成數(shù)據(jù)的溯源、水印系統(tǒng),并跟蹤模型泄露;

- 強大的審計和認證生態(tài)系統(tǒng);

對人工智能造成的傷害的責任認定;

- 對人工智能安全技術研究的強大公共資金;

- 資源豐富的機構,以應對人工智能將造成的巨大經(jīng)濟和政治混亂。

本次聯(lián)名信最后,Let's enjoy a long AI summer, not rush unprepared into a fall(讓我們享受一個漫長的 AI 盛夏,而不是毫無準備的進入深秋),這里是一個雙關,秋天英文 fall 另有墜落之意。這項提議試圖警醒眾人不要對人工智能過度樂觀,讓我們毫無準備的步入墜落的深淵。

公開信鏈接:https://futureoflife.org/open-letter/pause-giant-ai-experiments/

大佬們在擔心什么

發(fā)布公開信的“未來生活研究所”創(chuàng)立于2014年,一直關注“開發(fā)與人類相當?shù)?span id="7fxo1fs" class='hrefStyle'>人工智能技術過程中出現(xiàn)的風險”,霍金、馬斯克都是這家機構的科學顧問;艚鹪谘芯克闪斈,通過公開媒體發(fā)表對于AI技術最終將取代人類的一系列“預言”。

馬斯克在麻省理工學院AeroAstro百年學術研討會上發(fā)表講話將人工智能稱之為“我們面臨的最大威脅”。他說,“隨著人工智能的發(fā)展,我們將召喚出惡魔!比ツ12月,馬斯克也在推特上公開表示,ChatGPT好得嚇人,我們離強大且危險的AI不遠了。上周,“人工智能教父”的 Geoffrey Hinton 受訪時表示,人工智能可能發(fā)展到對人類構成威脅“并非不可想象”的地步。


杰弗里·辛頓接受哥倫比亞廣播公司采訪

3月28日,AI領域專家蓋瑞·馬庫斯發(fā)文稱,人工智能風險≠通用人工智能風險,超級智能可能會也可能不會迫在眉睫,但在短期內,需要擔心“MAI(平庸人工智能)風險”。

馬斯克、Bengio等千位大佬聯(lián)名喊停更強AI研發(fā),GPT-5得罪了誰?

人工智能風險與通用人工智能風險

ChatGPT之父”薩姆·阿爾特曼的話比較耐人尋味。他說,GPT系列為何會出現(xiàn)推理能力,OpenAI的研究者自己搞不明白。他們只知道,在不斷測試中,人們忽然發(fā)現(xiàn)從ChatGPT開始,GPT系列開始出現(xiàn)了推理能力。自主意識和無序競爭會把人類卷死。

歐洲刑警組織27日對采用ChatGPT類工具進行犯罪的可能性進行了討論,“大型語言模型檢測和重現(xiàn)語言模式的能力不僅有助于網(wǎng)絡釣魚和在線欺詐,而且通常還可以用來冒充特定個人或群體的講話風格。這種能力可能會被大規(guī)模濫用,以誤導潛在受害者將他們的信任交給犯罪分子!

馬斯克、Bengio等千位大佬聯(lián)名喊停更強AI研發(fā),GPT-5得罪了誰?

部分簽名者名單
聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點。刊用本站稿件,務經(jīng)書面授權。未經(jīng)授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號