訂閱
糾錯
加入自媒體

AI時代可能遇到的倫理問題,你做好準(zhǔn)備了嗎?

2023-12-05 13:37
新火種
關(guān)注

作者:小巖

編輯:彩云

圖片來源:由無界 AI生成

曾經(jīng)如日中天的互聯(lián)網(wǎng)行業(yè)如今身處“寒冬”之中,還在努力尋找自救的方式。但人們的注意力總是有限的,大家早已不再關(guān)注互聯(lián)網(wǎng)賽道,取而代之的,是芯片制造,人工智能等新興賽道。特別是人工智能,在今年因為ChatGPT的強勢出圈而成為了備受矚目的當(dāng)紅炸子雞。

ChatGPT的出現(xiàn)讓我們意識到,AI技術(shù)已經(jīng)取得了突破性的進展,并且,這種爆炸式的發(fā)展節(jié)奏還在繼續(xù)。在這種情況下,比肩人類智慧的通用人工智能很快就能被培養(yǎng)出來,相關(guān)的倫理問題也將應(yīng)運而生。

AI會對未來的兩性關(guān)系產(chǎn)生怎樣的影響?家庭概念會就此消失嗎?”

如果你對通用人工智能的形象沒有概念,可以去參考電影中出現(xiàn)過的形象,諸如《黑客帝國》中的Matrix,《流浪地球》里的MOSS,《間客》中的“老東西”等,都是通用人工智能的典型形象。

一旦這些形象出現(xiàn)在現(xiàn)實生活中,整個社會都會出現(xiàn)顛覆性的改變,建立一套全新的行為規(guī)范就會成為十分迫切的事情。譬如如何在法律和道德上定義AI,如何看待人類與AI之間的關(guān)系等,都是亟待解決的問題。更重要的是,隨著AI發(fā)展的越來越智能,擁有越來越接近人類的思考方式,它很可能對人類的情感方面產(chǎn)生沖擊。一旦觸及到情感,就意味著AI對人類的影響已經(jīng)到了相當(dāng)深遠的程度。畢竟,愛與家庭,通常被認(rèn)為是傳統(tǒng)社會人文情感的核心領(lǐng)域,是屬于人類獨有的私隱問題。

就在最近,科幻作家韓松提出了一個發(fā)人深省的問題:人工智能和元宇宙的出現(xiàn),是否會對兩性關(guān)系產(chǎn)生影響?家庭概念是否會因此而消失?換句話說,AI有可能觸達到人類的情感嗎?甚至與人類組建成家庭?

在今年早些時候,馬斯克表示將推出“貓女機器人”。光看這個名字,我們就知道,馬斯克是想推出針對男性的“完美伴侶”的形象,從而促進男性消費。據(jù)說這種機器人擁有貓女的性感外表,可以包攬家務(wù),打理主人的生活。

當(dāng)然,馬斯克想要做的內(nèi)容,還是屬于AI設(shè)備的范疇,是沒有人格的商品,而不是與人對等的智慧生命。但如果這些商品突破了圖靈極限,產(chǎn)生自我意識,那就很可能變成在智慧上遠遠超越人類的“新物種”,自然會參與到人類的愛情和家庭中去。

日漫和日本輕小說都有過類似的描寫,他們習(xí)慣于將其設(shè)定為“機器人女友”,而故事結(jié)構(gòu)大都是“宅男+軟妹機器人女友”的設(shè)定。故事橋段大同小異,都是機器人在與人類的相處中逐漸學(xué)習(xí),懂得了人類的情感,最后在與男主的羈絆中完成了“成為人”的進化。

可仔細(xì)分析,我們會發(fā)現(xiàn)這一類的設(shè)定存在明顯的bug。人類去幻想與機器人“相戀”的故事,從本質(zhì)上說,是典型的人類中心主義敘事,是人類的幻想。超級AI之所以稱之為超級AI,是因為它擁有遠超人類的智慧。在默認(rèn)人類智慧極限不變,或很難快速提升的情況下,人類是無法預(yù)判超級AI的行為的。

AI是否會取代人類?針對這個問題,要早做預(yù)防。

人類與AI未來是否有可能產(chǎn)生情感聯(lián)動,這個問題我們無法給出肯定的答復(fù)。但有一點是一定的:對于AI融入我們生活后可能產(chǎn)生的問題,危機和威脅,我們務(wù)必要早做打算。

美國科幻小說黃金時代的代表人物艾薩克·阿西莫夫曾經(jīng)在20世紀(jì)40年代提出了“機器人3定律”。 

什么是“機器人3定律”? 

第一定律是機器人不得傷害人類個體,或者目睹人類個體遭遇危險卻袖手旁觀;第二定律是機器人必須服從人類給予它的命令,除非這一命令與第一定律相矛盾;第三定律是在不違反第一定律和第二定律的前提下,機器人要盡可能地確保自己的生存。

80多年前阿西莫夫提出的“機器人3定律”,大概率是基于自己天馬行空的想象。但如今,AI的表現(xiàn)令人驚訝,早已不再是昔日文學(xué)作品里的幻想了,我們不得不認(rèn)真的思考起“機器人3定律”的可行性了。

對此,人工智能科幻作品《造神年代》的作者嚴(yán)曦發(fā)表了自己的見解,他認(rèn)為“3定律”本身是具有局限性的,因為語言本身是不包含三原則的。他表示,“把對機器人的約束標(biāo)準(zhǔn)放到非常抽象的語言層面,這是人類的想法。因為機器人的語言和邏輯是很底層的,它會通過各種強行的細(xì)節(jié)解釋去繞過這些定律”。

換句話說,“3定律”對AI的約束性完全不夠強。

也正因此,當(dāng)我們談到AI倫理,談到對AI的約束時,要約束的并不是AI本身,而是AI的開發(fā)者。當(dāng)AI處于古早時期時,發(fā)展的并不完善,我們總是把AI聯(lián)想成類人的東西,從人類既定思維去思考AI。彼時的AI無論從形態(tài),語言還是思維方式上,都沒有脫離人的軌道。但今時不同往日,如今的AI十分強大,甚至從底層思維上就與人類大相徑庭,它是無法理解人類的行為模式的?傆幸惶,AI也無法理解“人類倫理”。

人工智能的對齊問題(AI Alignment),一直是AI工作者和AI團隊所關(guān)注的重要議題之一,也是以OpenAI為代表的頭部研究所始終關(guān)注和試圖攻克的難點。

所謂價值對齊,就是讓人工智能系統(tǒng)的行為符合人類的目標(biāo),偏好或倫理原則。通俗點說,就是讓AI在擁有超自然能力,超人類肉體強度,超人類智慧的同時,還可以順從人類的情感模式。畢竟,一旦一個超級強大的AI系統(tǒng)所追求的目標(biāo)和人類的真實意圖和價值取向不一致,就有可能帶來災(zāi)難性的后果。

希望有朝一日,可以給AI加上“緊箍咒”;希望戴上“緊箍咒”的AI,可以真正的造福人類。

 

       原文標(biāo)題 : 新火種AI | AI時代可能遇到的倫理問題,你做好準(zhǔn)備了嗎?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號