訂閱
糾錯
加入自媒體

AGI漸行漸近,該加速還是要踩剎車?

人類距離第一個AGI的出現(xiàn)已經(jīng)越來越近了!

馬斯克在今年早些時候預(yù)測,AGI可能會在2026年投入使用。DeepMind聯(lián)合創(chuàng)始人、首席AGI科學(xué)家Shane Legg在一次訪談中認為,2028年,人類有50%的概率開發(fā)出第一個AGI。然而百度CEO李彥宏的觀點則更加審慎,他認為AGI還需要10年以上的時間才能出現(xiàn)。

自1956年達特茅斯會議提出“人工智能”這一概念以來,實現(xiàn)人類水平的智能一直是AI領(lǐng)域的圣杯。去年上半年,有主流研究者提出,大語言模型已經(jīng)表現(xiàn)出“通用人工智能的火花”(sparksof AGI)。這似乎表明,AGI已經(jīng)從哲學(xué)猜想變成了將來的未來。然而,關(guān)于AGI的觀點眾說紛紜,大語言模型也常有愚蠢行為出現(xiàn),這些都引發(fā)了對AGI的質(zhì)疑。

在此背景下,我們離實現(xiàn)真正的AGI還有多遠?如何預(yù)防AGI帶來的潛在風(fēng)險?

AGI,未到的黎明

從性能強度和通用性兩個維度,可以將人類和AI的關(guān)系劃分為6個階段:無AI、智能涌現(xiàn)、勝任、專家、大師、超人類。而現(xiàn)在大語言模型的出現(xiàn),正屬于第一個AGI的階段:AGI雛形。

AGI(Artificial General Intelligence),即通用人工智能,其目標(biāo)是實現(xiàn)人類般的通用智能,這意味著AI可以像人類一樣理解任意通用任務(wù),并以人類的智力水平執(zhí)行完成。基本上,除了“自我意識”的生成,AGI就是人類對人工智能的終極夢想了。

AGI是要讓智能體像人一樣,不僅能夠獨立感知環(huán)境、進行思考、作出決策、學(xué)習(xí)新技能、執(zhí)行任務(wù),還能夠與人類或其他智能體進行有效的協(xié)作。同時,智能體能夠理解人類的情感,并且遵循社會倫理和道德規(guī)范。

一個完整的AGI需要具備三個基本特征:第一,必須能完成無限的任務(wù),而不是只能完成人定義的有限幾個任務(wù)。第二,要在場景中自主發(fā)現(xiàn)任務(wù),這是通常所說的要做到“眼里有活兒”。第三,要有自主的價值來驅(qū)動,而不是被動的被數(shù)據(jù)所驅(qū)動。

同時,AGI還需要解決一些關(guān)鍵的技術(shù)問題,比如構(gòu)建智能體的認知架構(gòu),讓智能體由價值驅(qū)動,在現(xiàn)實世界中進行有效的行動,能夠與社會環(huán)境進行互動,使智能體決策過程透明可解釋,以及建立和人類之間的信任關(guān)系等。

以O(shè)penAI的ChatGPT、谷歌Bard、Meta的Llama為代表的大模型,已經(jīng)在通用性上展示出了AGI的潛力。因為大語言模型已經(jīng)能完成范圍相當(dāng)廣的各類任務(wù),而且表現(xiàn)出了像學(xué)習(xí)新技能這樣的“元認知”能力。

相比大模型的“鸚鵡范式”,AGI是以“小數(shù)據(jù),大任務(wù)”為架構(gòu)的“烏鴉范式”,智能體表現(xiàn)為具有自主的智能,能夠自主感知、認知、推理、學(xué)習(xí)和執(zhí)行,不依賴于大數(shù)據(jù),基于無標(biāo)注數(shù)據(jù)進行無監(jiān)督學(xué)習(xí),并且智能系統(tǒng)低功耗。就像烏鴉喝水這一行為,看似簡單,卻屬于自主推理行為,是由價值與因果驅(qū)動的高級智能,也是AI的未來發(fā)展趨勢。

如果單從AI的性能維度上看,“窄AI(Narrow AI)”類型的AI已經(jīng)達到了完全超越人類認知的水平。以AlphaFold、AlphaZero為代表的專業(yè)領(lǐng)域AI,在特定領(lǐng)域已經(jīng)能發(fā)現(xiàn)人類智力無法發(fā)現(xiàn)的新事物了,此類被成為“超人類窄AI”。而在某些領(lǐng)域,AI能達到90%的人類水平,比如文書糾正AIGrammarly,DALL·E 2,Imagen等生圖AI,這被稱為“專家級窄AI”。在特定領(lǐng)域,能達到普通人的平均水平,比如Siri,谷助手這類普通智能助理,其被稱為“普通窄AI”。

所謂“窄AI”,是指那些特別擅長處理單一任務(wù)或者特定范圍內(nèi)工作的系統(tǒng)。在大多數(shù)情況下,它們在特定領(lǐng)域中的表現(xiàn)遠優(yōu)于人類。不過一旦它們遇到的問題超過了適用空間,效果則急轉(zhuǎn)直下。換言之,它們無法將自己掌握的知識從一個領(lǐng)域轉(zhuǎn)移到另一個領(lǐng)域。

盡管窄AI無法全面執(zhí)行需要人類智能的任務(wù),但在特定場景中仍然非常實用,而且已經(jīng)在諸多應(yīng)用之內(nèi)發(fā)揮著自己的作用。谷歌搜索查詢現(xiàn)在可以利用窄AI算法回答問題,窄AI系統(tǒng)會在YouTube及Netflix中推薦用戶可能感興趣的視頻,并在Spotify中按喜好整理出周推音樂列表。

而在窄AI已經(jīng)覆蓋的能力維度上,AGI都還沒有出現(xiàn)對應(yīng)的實例,因為目前還沒有出現(xiàn)真正意義上的AGI,對于AGI的定義,人類也還沒有達到統(tǒng)一的認知。

    誰會是AGI的起點?

從信息時代走向智能時代,“語言”成為那把開啟全新時代的鑰匙。著名的作家兼哲學(xué)家路德維希·維特根斯坦在其《邏輯哲學(xué)論》一書中提到:“我的語言的界限,意味著我的世界的界限。”

對人類而言,承載世界的知識、思考、溝通和文化靠的是語言。語言本身的發(fā)明代表著每多一個詞匯就讓世界多了一個認知維度,詞匯之間建立的邏輯關(guān)系和表達代表了人類對世界完整的建模。這個模型不是在圖像里面,而是通過語言進行承載,所以語言邊界就是世界邊界。AI核心就是把現(xiàn)實世界的現(xiàn)象翻譯成為數(shù)學(xué)模型,通過語言讓機器充分理解現(xiàn)實世界和數(shù)據(jù)的關(guān)系。

如今,人們已經(jīng)走出了原來物理學(xué)靠一個公式解釋世界的方法,更多是靠海量數(shù)據(jù)在不同層次單獨建模,上層建模就是由大量的數(shù)據(jù)驅(qū)動。語言模型如此,生命建模也是如此,2021年最偉大的成就就是DeepMind的AlphaFord系統(tǒng),針對基因到蛋白質(zhì)的三維結(jié)構(gòu)建模,通過這個模型預(yù)測基因被轉(zhuǎn)錄或者表達為蛋白質(zhì)以后擁有的形態(tài),也是全世界轟動的生命領(lǐng)域的突破,靠的也是數(shù)據(jù)和AI的驅(qū)動。

雖然大模型已經(jīng)取得了一些驚人的進展,但如果比較AGI的三個特征,就會發(fā)現(xiàn)大模型還不符合AGI的要求。

首先,大模型在處理任務(wù)方面的能力有限,它們只能處理文本領(lǐng)域的任務(wù),無法與物理和社會環(huán)境進行互動。這意味著像ChatGPT這樣的模型不能真正“理解”語言的含義,因為它們沒有身體來體驗物理空間。

其次,大模型也不是自主的,它們需要人類來具體定義好每一個任務(wù),就像一只“鸚鵡”,只能模仿被訓(xùn)練過的話語。真正自主的智能應(yīng)該類似于“烏鴉智能”,能夠自主完成比現(xiàn)如今AI更加智能的任務(wù),當(dāng)下的AI系統(tǒng)還不具備這種潛能。

第三,雖然ChatGPT已經(jīng)在不同的文本數(shù)據(jù)語料庫上進行了大規(guī)模訓(xùn)練,包括隱含人類價值觀的文本,但它并不具備理解人類價值或與人類價值保持一致的能力,即缺乏所謂的道德指南針。

但這并不妨礙科技巨頭對于大模型的推崇。OpenAI、谷歌在內(nèi)的科技巨頭,都將大模型視為邁向AGI的關(guān)鍵一步。OpenAI CEO Sam Altman就曾多次表示,GPT模型是朝著AGI方向發(fā)展的重要突破。

不過,Meta人工智能首席科學(xué)家楊立昆(Yann LeCun)認為,目前的大模型路線無法通往AGI,且非常危險。

他指出,現(xiàn)有的大模型盡管在自然語言處理、對話交互、文本創(chuàng)作等領(lǐng)域表現(xiàn)出色,但其仍只是一種“統(tǒng)計建模”技術(shù),通過學(xué)習(xí)數(shù)據(jù)中的統(tǒng)計規(guī)律來完成相關(guān)任務(wù),本質(zhì)上并非具備真正的“理解”和“推理”能力。

他認為,“世界模型”更接近真正的智能,而非只學(xué)習(xí)數(shù)據(jù)的統(tǒng)計特征。以人類的學(xué)習(xí)過程為例,孩童在成長過程中,更多是通過觀察、交互和實踐來認知這個世界,而非被單純“注入”知識。而LeCun的“世界模型”路線,則是試圖通過對視頻、音頻等媒體的模擬與補全,讓AI也經(jīng)歷這樣一個自主學(xué)習(xí)的過程。

他也承認,實現(xiàn)“世界模型”并非易事,這一雄心勃勃的目標(biāo)可能需要耗時10年才能實現(xiàn)。

風(fēng)險控制在可控范圍內(nèi)

對于AGI所帶來的風(fēng)險,圖靈是最早提出警告的人之一。他在1951年說道:“一旦機器開始思考,很快就能超越我們。因此,在某個時候,我們應(yīng)該期望機器能夠被掌控。”因為當(dāng)一個比人類更強大的智能體出現(xiàn)時,人類很難維持權(quán)力,特別是當(dāng)這些智能體具有不正確或不完整的目標(biāo)時。

如果還有人認為現(xiàn)在考慮這些風(fēng)險是危言聳聽,那么如何回答這樣一個問題:你如何在比人類更強大的智能體面前永遠保持權(quán)力?此外,在AI領(lǐng)域,還有一些人試圖回避這個問題,否認AGI的可實現(xiàn)性,卻沒有提供任何證據(jù)。

OpenAI CEO Sam Altman在其文章《Planning for AGI and Beyond》里,探討了AGI對社會、技術(shù)和倫理的潛在影響,并強調(diào)了慎重規(guī)劃和負責(zé)任的發(fā)展的必要性。

文章指出,通過增加資源豐富度、推動全球經(jīng)濟增長,以及助力新科學(xué)知識的發(fā)現(xiàn),AGI有潛力極大地提升人類生活質(zhì)量。這不僅是智力的巨大增幅,更是對人類創(chuàng)造力和想象力的極大擴展。

然而,AGI的出現(xiàn)也可能帶來嚴重的濫用風(fēng)險、意外極端事件的可能以及對社會結(jié)構(gòu)的劇烈動蕩。因此,OpenAI提倡在發(fā)展AGI時,AGI開發(fā)者以及全社會都必須找到正確的方法來實現(xiàn)和利用這一技術(shù),確保其與人類核心價值觀保持一致,并公平地分享其帶來的好處。

此外,OpenAI認為,從長遠來看,AGI的出現(xiàn)僅僅是智力發(fā)展的一個節(jié)點,而AI的進步可能會在未來相當(dāng)長一段時間內(nèi)繼續(xù)保持。OpenAI提出了一個安全的AGI發(fā)展愿景,即在較短時間內(nèi)以較慢的速度過渡到AGI,以便社會有時間適應(yīng)和調(diào)整。

盡管未來不可預(yù)知,但OpenAI表達了他們最關(guān)心的幾個原則:希望AGI能最大限度地促進人類在宇宙中的繁榮;希望AGI帶來的好處、訪問權(quán)和治理能夠被廣泛且公平地分享,并成功應(yīng)對巨大風(fēng)險。

為此,OpenAI倡導(dǎo)在短期內(nèi)進行漸進式過渡、繼續(xù)創(chuàng)造越來越符合目標(biāo)的模型,并在長期進行全球范圍的對話,討論如何治理這些系統(tǒng)、如何公平分配它們產(chǎn)生的好處,以及如何公平分享訪問權(quán)。在極高的風(fēng)險和回報下,人類需要團結(jié)起來,讓AGI在未來世界以一種對人類最有益的方式綻放。

對于如何預(yù)防AGI給人類帶來威脅,可以逐步放開AGI的能力空間和價值空間,一開始把它關(guān)在“籠子”里,慢慢打開權(quán)限。對于AGI,可以先其適用場合和行動空間限制在特定區(qū)域內(nèi),隨著人們對機器的信任的增加,確認AGI安全可控后,再逐步給予更大的空間。另外,應(yīng)該進一步促進算法決策過程的透明度。如果能夠清晰了解AGI的認知架構(gòu),從而知道其是如何工作的,就能更好地控制它。

人類對于AGI的探索和思考才剛剛開始,我們還有很長的路要走。AGI的進步不僅代表了技術(shù)創(chuàng)新,更是對未來人機交互方式的重新想象。隨著我們逐步走向AGI未知領(lǐng)域,穩(wěn)健和有序的發(fā)展顯得更加重要,我們必須高度警醒AGI所帶來的問題,并充分重視AGI所創(chuàng)造的機會。兩千多年前,蘇格拉底說“認識你自己”,今天在AGI技術(shù)發(fā)展的倒逼下,人類需要“重新認識你自己”。

       原文標(biāo)題 : AGI漸行漸近,該加速還是要踩剎車?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號