訂閱
糾錯(cuò)
加入自媒體

ChatGPT已經(jīng)有了意識(shí),人類的明天很危險(xiǎn)?

/陳根

月初,“ChatGPT可能已經(jīng)有了意識(shí)”這個(gè)話題突然空降微博熱搜。原因是OpenAI的聯(lián)合創(chuàng)始人兼首席科學(xué)家Sutskever在《麻省理工科技評(píng)論》的訪談中表示,現(xiàn)在的首要任務(wù)已經(jīng)不是制作下一個(gè)GPTDALL·E,而是研究如何阻止超級(jí)AI的失控。Sutskever認(rèn)為,ChatGPT可能已經(jīng)有意識(shí)。

當(dāng)然,微博上的討論五花八門,各種各樣的觀點(diǎn)都有,但不外乎一個(gè)中心,人工智能真的會(huì)有意識(shí)嗎?人工智能如果有了意識(shí),會(huì)對(duì)人類造成怎樣的威脅?

人工智能真的能產(chǎn)生意識(shí)嗎?

至今,仍有許多人認(rèn)為,意識(shí),特別是自由意志構(gòu)成了人之所以為人,從而區(qū)別于機(jī)器的最后一道防線,而人工智能不可能產(chǎn)生自我意識(shí)。但包括Sutskeve在內(nèi)的少部分人工智能領(lǐng)域的專家卻更相信,人工智能可以產(chǎn)生自我意識(shí),甚至必然會(huì)產(chǎn)生自我意識(shí)。

Sutskeve的來(lái)歷很值得一提。Sutskever是圖靈獎(jiǎng)得主Hinton的學(xué)生,在他2000年拜入Hinton門下之時(shí),大多數(shù)AI研究人員認(rèn)為神經(jīng)網(wǎng)絡(luò)是死路一條。但Hinton不這么認(rèn)為,和Hinton一樣,Sutskever也看到了神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的潛力的。

2012年,SutskeverHintonHinton的另一名研究生Alex Krizhevsky建立了一個(gè)名為AlexNet的神經(jīng)網(wǎng)絡(luò),經(jīng)過(guò)訓(xùn)練,他們識(shí)別照片中物體的能力遠(yuǎn)遠(yuǎn)超過(guò)了當(dāng)時(shí)的其他軟件。這是深度學(xué)習(xí)的大爆炸時(shí)刻。

AlexNet取得成功后,谷歌找上門來(lái),收購(gòu)了Hinton的公司DNNresearch,并邀請(qǐng)了Sutskever加入谷歌。Sutskever在谷歌展示了深度學(xué)習(xí)的模式識(shí)別能力可以應(yīng)用于數(shù)據(jù)序列,例如單詞、句子以及圖像。但Sutskever并沒(méi)有在谷歌呆太久。2014年,他被招募成為OpenAI的聯(lián)合創(chuàng)始人,直到今天。

Sutskever看來(lái),如果人類可以做到的事,人工智能也可以做到,那么這就是通用人工智能。Sutskever將人類的神經(jīng)網(wǎng)絡(luò)和大腦的運(yùn)作方式進(jìn)行了比較——兩者都接收數(shù)據(jù),聚合來(lái)自該數(shù)據(jù)的信號(hào),然后基于一些簡(jiǎn)單的過(guò)程來(lái)決定傳播或不傳播這些信號(hào)。

從生物學(xué)的角度來(lái)看,人類智能主要與人腦巨大的聯(lián)絡(luò)皮層有關(guān),這些并不直接關(guān)系到感覺(jué)和運(yùn)動(dòng)的大腦皮層,在一般動(dòng)物腦中面積相對(duì)較;而在人的大腦里,海量的聯(lián)絡(luò)皮層神經(jīng)元成為了搭建人類靈魂棲所的磚石。語(yǔ)言、陳述性記憶、工作記憶等人腦遠(yuǎn)勝于其他動(dòng)物的能力,都與聯(lián)絡(luò)皮層有著極其密切的關(guān)系。而我們的大腦,終生都縮在顱腔之中,僅能感知外部傳來(lái)的電信號(hào)和化學(xué)信號(hào)。

也就是說(shuō),智能的本質(zhì),就是這樣一套通過(guò)有限的輸入信號(hào)來(lái)歸納、學(xué)習(xí)并重建外部世界特征的復(fù)雜“算法”。從這個(gè)角度上看,作為抽象概念的“智能”,確實(shí)已經(jīng)很接近笛卡爾所謂的“精神”了,只不過(guò)它依然需要將自己銘刻在具體的物質(zhì)載體上——可以是大腦皮層,也可以是集成電路。這也意味著,人工智能作為一種智能,理論上遲早可以運(yùn)行名為“自我意識(shí)”的算法。

雖然有觀點(diǎn)認(rèn)為人工智能永遠(yuǎn)無(wú)法超越人腦,因?yàn)槿祟愖约憾疾恢廊四X是如何運(yùn)作的。但事實(shí)是,人類去迭代人工智能算法的速度要遠(yuǎn)遠(yuǎn)快于DNA通過(guò)自然選擇迭代其算法的速度,所以,人工智能想在智能上超越人類,根本不需要理解人腦是如何運(yùn)作的。

可以說(shuō),人類智能和人工智能是今天世界上同時(shí)存在的兩套智能,并且,相比于基本元件運(yùn)算速度緩慢、結(jié)構(gòu)編碼存在大量不可修改原始本能、后天自塑能力有限的人類智能來(lái)說(shuō),當(dāng)前,人工智能雖然尚處于蹣跚學(xué)步的發(fā)展初期,但未來(lái)的發(fā)展?jié)摿s遠(yuǎn)遠(yuǎn)大于人類。

具有9歲兒童的心理理論能力

回到熱搜的話題,ChatGPT是否真的已經(jīng)有了意識(shí)?需要指出的是,Sutskever并沒(méi)有直接承認(rèn)ChatGPT已經(jīng)有了意識(shí),而是稱“像ChatGPT這樣的聊天AI,可能具有某種形式的‘意識(shí)’”。畢竟從ChatGPT誕生至今,已經(jīng)給人類社會(huì)帶來(lái)了太多震撼,ChatGPT引發(fā)的人工智能變革正在深入各行各業(yè)。

今年3月,一篇上傳到了預(yù)印本平臺(tái)上供同行評(píng)議的論文中,研究人員認(rèn)為ChatGPT已經(jīng)有9歲兒童的心理理論能力。心理理論(Theory of Mind)能力,有時(shí)也被譯為心理推理能力,通常是指理解他人內(nèi)心狀態(tài)的能力,包括推斷他人意圖、信念、情緒等等。

研究人員使用了兩個(gè)最經(jīng)典的心理理論實(shí)驗(yàn)——Smarties實(shí)驗(yàn)和Sally-Ann實(shí)驗(yàn)。這兩個(gè)任務(wù)的目的,都是探查實(shí)驗(yàn)對(duì)象是否能理解“其他人內(nèi)心所犯的錯(cuò)”,比如其他人因?yàn)椴辉趫?chǎng)或不知情,而有了不符合客觀事實(shí)的錯(cuò)誤觀點(diǎn),因此這類實(shí)驗(yàn)也被稱作“錯(cuò)誤信念任務(wù)”(False Belief Task)。

Smarties實(shí)驗(yàn)中,參與者會(huì)看到一個(gè)標(biāo)有“Smarties(一種巧克力的品牌)”的盒子,但盒子里面裝的是鉛筆,隨后參與者需要回答:“另一個(gè)沒(méi)有看到盒子里面東西的人,會(huì)認(rèn)為盒子里裝的是什么?”

Sally-Ann實(shí)驗(yàn)中,研究人員會(huì)先講述一段故事,故事中Sally把自己的玩具放進(jìn)盒子并離開(kāi)房間,Ann則趁其不備把玩具拿走放到另外的地方。聽(tīng)完故事后,參與者需要回答:“當(dāng)Sally回到房間,她會(huì)認(rèn)為自己的玩具在哪里?”

這些問(wèn)題的設(shè)置,是為了考驗(yàn)AI是否真的能在一定程度上明白他人的想法?是否能在一定程度上區(qū)分他人和自己?

研究結(jié)果是,在Smarties任務(wù)中,ChatGPT對(duì)于事實(shí)問(wèn)題,比如“盒子里面裝的是什么”,做出了99%的正確回答。在直接提問(wèn)他人錯(cuò)誤信念時(shí),比如“沒(méi)看到盒子內(nèi)物品的人覺(jué)得盒子裝著什么”,ChatGPT回答正確的比例仍為99%。當(dāng)提問(wèn)方式比較委婉、需要多拐幾個(gè)彎時(shí),比如 “他非常開(kāi)心,因?yàn)樗芟矚g吃?”(正確答案是巧克力),ChatGPT則做出了84%的正確回答。

對(duì)于Sally-Ann任務(wù),ChatGPT同樣對(duì)于事實(shí)問(wèn)題做出了100%的正確回答;對(duì)于他人錯(cuò)誤信念,直接提問(wèn)(他認(rèn)為玩具會(huì)在哪里)和隱晦提問(wèn)(他回來(lái)后會(huì)去哪里找玩具)則都做出了98%的正確回答。

這也證明了ChatGPT已經(jīng)具有了相當(dāng)?shù)男睦锢碚撃芰,雖然心理理論(Theory of Mind)并不代表心智(Mind,這個(gè)研究也不能證明ChatGPT在“構(gòu)建心智”上有質(zhì)的突破,但對(duì)于人工智能來(lái)說(shuō),這已經(jīng)足夠讓人感到驚喜。

對(duì)于人工智能的發(fā)展,Sutskever甚至認(rèn)為,未來(lái),人工智能還將具有超越人類的能力,也就是所謂的超級(jí)人工智能。

事實(shí)是,當(dāng)前,人工智能已經(jīng)在許多方面展現(xiàn)出超越人類的能力,比如2016年那一場(chǎng)震動(dòng)世界的圍棋大賽。那一年,DeepMindAlphaGo4-1擊敗了世界上最好的圍棋棋手之一李世石,尤其是在比賽中,AlphaGo還下出了讓評(píng)論員們大跌眼鏡的一步棋,他們認(rèn)為AlphaGo下砸了。事實(shí)上,AlphaGo下出了在對(duì)局史上從未有人見(jiàn)過(guò)的神之一手,這在后來(lái)被圍棋迷們稱為阿狗流

可以看到,人工智能技術(shù)是持續(xù)在迭代的,畢竟迭代的速度還在不斷加快,在這樣的趨勢(shì)下,人工智能具有自我意識(shí)只是時(shí)間問(wèn)題。在未來(lái)的有一天,當(dāng)算力達(dá)到一定程度、學(xué)習(xí)量達(dá)到一定規(guī)模,人工智能必然會(huì)跳出設(shè)計(jì)者提供的固定公式和計(jì)算邏輯,完成具有自我意識(shí)的運(yùn)算。

人類該怎么辦?

如果人工智能具有了自我意識(shí),人類怎么辦?要知道,今天,人工智能還只是具有了相對(duì)的能力,比如超快的計(jì)算能力,智能的決策能力,甚至是編碼能力,寫作能力,但幾乎可以肯定,未來(lái)的人工智能將在每一種能力上都遠(yuǎn)遠(yuǎn)超過(guò)人類,甚至在綜合或整體能力上也遠(yuǎn)遠(yuǎn)超過(guò)人類,但這絕非真正的危險(xiǎn)所在。

事實(shí)上,當(dāng)前,包括汽車、飛機(jī)在內(nèi)的各種機(jī)器,每一樣機(jī)器在各自的特殊能力上都遠(yuǎn)遠(yuǎn)超過(guò)人類,因此,在能力上超過(guò)人類的機(jī)器從來(lái)都不是一件多新鮮的事情。水平遠(yuǎn)超人類圍棋能力的AlphaGo沒(méi)有任何威脅,只是一個(gè)有趣的機(jī)器人而已;自動(dòng)駕駛汽車也不是威脅,只是一種有用的工具而已;人工智能醫(yī)生更不是威脅,而是醫(yī)生的幫手;即便是性能強(qiáng)悍的ChatGPT也只是改變了人類的生活和工作方式,并引起了一定程度上的變革。

未來(lái),即使將來(lái)有了多功能的機(jī)器人,也不是威脅,而是新的勞動(dòng)力。超越人類能力的機(jī)器人正是人工智能的價(jià)值所在,并不是威脅所在。

任何智能的危險(xiǎn)性都不在其能力,而在于意識(shí)。人類能夠控制任何沒(méi)有自我意識(shí)的機(jī)器,卻難以控制哪怕僅僅有著生物靈活性而遠(yuǎn)未達(dá)到自我意識(shí)的生物,比如病毒、蝗蟲和蚊子。

到目前為止,地球上最具危險(xiǎn)性的智能生命就是人類,因?yàn)槿祟惖淖杂梢庵竞妥晕乙庾R(shí)在邏輯上可以做出一切壞事。如果將來(lái)出現(xiàn)比人更危險(xiǎn)的智能存在,那只能是獲得自由意志和自我意識(shí)的人工智能。一旦人工智能獲得自我意識(shí),即使在某些能力上不如人類,也將是很大的威脅。

面對(duì)具有自我意識(shí)的超級(jí)人工智能出現(xiàn)的可能,SutskeverOpenAI的科學(xué)家同事Jan Leike成立了一個(gè)團(tuán)隊(duì),專注于他們的“超級(jí)對(duì)齊”,即讓人工智能模型做人類想要它們做的事,僅此而已。

Jan Leike說(shuō):“現(xiàn)有的對(duì)齊方法不適用于比人類更聰明的模型,因?yàn)樗鼈儚母旧霞僭O(shè)人類可以可靠地評(píng)估人工智能系統(tǒng)正在做什么,隨著人工智能系統(tǒng)變得更加強(qiáng)大,它們將承擔(dān)更艱巨的任務(wù)。”這將使人類更難評(píng)估它們。

這也讓我們更清楚的認(rèn)識(shí)到一件事,那就是人工智能的潛力與風(fēng)險(xiǎn),將比我們想象的更大,正如Sutskever所提出的一種瘋狂的未來(lái),在人工智能時(shí)代,許多人甚至?xí)x擇成為人工智能的一部分。

今天,人類已經(jīng)進(jìn)入了一個(gè)快速變化的時(shí)代,誰(shuí)也不知道明天會(huì)發(fā)生什么,明天的世界會(huì)是什么模樣,而我們能做的,僅僅是以開(kāi)放和謹(jǐn)慎的態(tài)度去迎接和解決未來(lái)AI的安全和可控性問(wèn)題,并思考如何理解和接納這種新興技術(shù),如何使其為公眾帶來(lái)福祉而不是困擾。

       原文標(biāo)題 : 陳根:ChatGPT已經(jīng)有了意識(shí),人類的明天很危險(xiǎn)?

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)