訂閱
糾錯
加入自媒體

牛津AI倫理研究所匯集人文實(shí)力,應(yīng)對全球性倫理挑戰(zhàn)

近日,牛津大學(xué)官方發(fā)布一則最新動態(tài),牛津大學(xué)人工智能倫理研究所(Institute for Ethics in AI)委任了由 7 位哲學(xué)家組成的首個學(xué)術(shù)研究團(tuán)隊(duì)。

該團(tuán)隊(duì)將在 10 月份迎來首任所長,來自倫敦國王學(xué)院 Yeoh Tiong Lay Centre for Politics, Philosophy and Law 的主任 John Tasioulas 教授。

圖片來源:牛津大學(xué)官網(wǎng)

隨著人工智能技術(shù)飛速發(fā)展,人臉識別、語音助理、醫(yī)學(xué)診療機(jī)器助手等新型應(yīng)用對人們的生產(chǎn)生活帶來了極大地變革,同時也催生了人工智能的倫理學(xué)和跨人類主義的倫理學(xué)問題。

AI 倫理上升為國家戰(zhàn)略

八月底,SpaceX 、特斯拉等公司的創(chuàng)始人埃隆?馬斯克(Elon Musk),為自己旗下的腦機(jī)接口公司 Neuralink 舉行發(fā)布會,向公眾展示了將 Neuralink 芯片植入小豬顱內(nèi),并實(shí)時讀取豬腦信息。

該消息一出,便引來一些網(wǎng)友的擔(dān)心,從倫理道德的角度來看,這類技術(shù)的發(fā)展會不會給人類帶來意想不到的危機(jī)?

今年上半年,美國五角大樓已正式公布人工智能五大倫理原則,即負(fù)責(zé)、公平、可追蹤、可靠和可控。無論作戰(zhàn)還是非作戰(zhàn)人工智能系統(tǒng),均須遵守上述原則,否則美國防部將不予部署。

8 月 5 日,中國國家標(biāo)準(zhǔn)化管理委員會、中央網(wǎng)信辦、國家發(fā)展改革委、科技部、工業(yè)和信息化部發(fā)布關(guān)于印發(fā)《國家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》的通知。

人工智能標(biāo)準(zhǔn)體系框架圖

《指南》將人工智能標(biāo)準(zhǔn)體系結(jié)構(gòu)分為 “A 基礎(chǔ)共性”、“B 支撐技術(shù)與產(chǎn)品”、“C 基礎(chǔ)軟硬件平臺”、“D 關(guān)鍵通用技術(shù)”、“E 關(guān)鍵領(lǐng)域技術(shù)”、“F 產(chǎn)品與服務(wù)”、“G 行業(yè)應(yīng)用”、“H 安全 / 倫理” 八個部分,其中 “H 安全 / 倫理” 標(biāo)準(zhǔn)貫穿于其他部分,立足于規(guī)范人工智能服務(wù)沖擊傳統(tǒng)道德倫理和法律秩序而產(chǎn)生的要求建立相關(guān)標(biāo)準(zhǔn),為人工智能建立合規(guī)體系。

牛津AI倫理研究所團(tuán)隊(duì)陣容

2019 年 6 月,美國黑石集團(tuán)聯(lián)合創(chuàng)始人、全球主席兼首席執(zhí)行官蘇世民(Stephen A. Schwarzman)向牛津大學(xué)捐贈 1.5 億英鎊,支持牛津大學(xué)成立了 AI 倫理研究所。

該研究所下設(shè)在蘇世民人文中心內(nèi),隸屬于哲學(xué)系,致力于研究解決人工智能帶來的重大倫理挑戰(zhàn),研究范圍涉及從人臉識別到選民分析,從腦機(jī)接口到武器化無人機(jī),以及正在進(jìn)行的關(guān)于人工智能將如何在全球范圍內(nèi)影響就業(yè)的相關(guān)討論。

據(jù)報(bào)道,在牛津大學(xué)發(fā)展史上,蘇世民人文中心將首次匯集牛津大學(xué)的人文學(xué)科研究實(shí)力,以多學(xué)科融合的研究背景,讓人工智能倫理道德領(lǐng)域的研究從中受益。

剛組建的首個學(xué)術(shù)研究團(tuán)隊(duì),最初將由以下 7 位哲學(xué)家組成:

主任:John Tasioulas 教授,他將從倫敦國王學(xué)院加入該團(tuán)隊(duì),擔(dān)任主任一職,他是該學(xué)院政治、哲學(xué)和法律方面的首任主席(inaugural Chair),也是 Yeoh Tiong Lay 政治、哲學(xué)和法律中心(Yeoh Tiong Lay Centre for Politics, Philosophy & Law)的主任。他曾在牛津大學(xué)任教道德與法律哲學(xué) 12 年,曾在芝加哥、哈佛、墨爾本擔(dān)任訪問學(xué)者,并擔(dān)任過世界銀行人權(quán)顧問。

哲學(xué)副教授:Carissa Véliz 博士,曾任牛津大學(xué) Uehiro 實(shí)踐倫理中心和 Wellcome 倫理與人文中心的研究員,并將成為赫特福德學(xué)院的輔導(dǎo)研究員。

哲學(xué)副教授:Milo Phillips-Brown 博士,他將從麻省理工學(xué)院加入該團(tuán)隊(duì),他是倫理學(xué)與技術(shù)領(lǐng)域的杰出學(xué)者,還是 Jain Family Institute 數(shù)字道德與治理的高級研究員,并將成為耶穌學(xué)院的導(dǎo)師研究員。

Carina Prunkl 博士和 Ted Lechterman 博士,這兩位博士將以博士后研究學(xué)者的身份加入團(tuán)隊(duì),他們分別來自牛津大學(xué)人類未來研究所和柏林赫蒂治理學(xué)院。

另外,團(tuán)隊(duì)還有兩名博士生,將在下一學(xué)年加入。

AI 倫理研究已迫在眉睫

任職前,Tasioulas 教授圍繞一些問題,談了他對研究所的愿景。

當(dāng)被問到 “人工智能倫理學(xué)為什么這么重要”,Tasioulas 教授表示:“人工智能將繼續(xù)對人們生活中的許多方面產(chǎn)生變革性的影響,從醫(yī)學(xué)到法律再到我們?nèi)绾螌?shí)現(xiàn)民主,它提出了深刻的倫理問題,其中涉及隱私、歧視以及自動決策在充實(shí)的人類生活中的地位等問題,社會生活中的每一個個體都不可避免地要面對這些問題。我不希望人工智能倫理學(xué)被視為一個狹隘的專業(yè),相反,對于那些認(rèn)真關(guān)注人類面臨重大挑戰(zhàn)的人,AI 倫理學(xué)更應(yīng)該成為他們必須解決的問題。如果人工智能想要推動人類的繁榮發(fā)展和社會的公平正義,AI 倫理學(xué)絕對不是可選項(xiàng)或奢侈品,而是必要的!

“鑒于人工智能將一直存在,所以我們必須提高圍繞人工智能倫理的辯論水平,并反饋給公民和立法者,以促進(jìn)更加廣泛的民主進(jìn)程。人工智能領(lǐng)域的法規(guī)和政策對于民主決策至關(guān)重要,但致力于 AI 倫理問題研究的專家所持的論點(diǎn)和見解,會提高審議過程的質(zhì)量!盩asioulas 教授說。

當(dāng)談到研究所的預(yù)期目標(biāo)時,Tasioulas 教授說:“我的目標(biāo)是讓研究所為人工智能倫理學(xué)的探討帶來最高標(biāo)準(zhǔn)的學(xué)術(shù)嚴(yán)謹(jǐn)性,研究所深深扎根于哲學(xué),同時還將借鑒其他學(xué)科,如文學(xué)、醫(yī)學(xué)、歷史、音樂、法律和計(jì)算機(jī)科學(xué)。這是在這一領(lǐng)域在彌合科學(xué)與人文科學(xué)之間鴻溝的一次激進(jìn)嘗試,而牛津大學(xué)在這方面有著得天獨(dú)厚的優(yōu)勢!

Tasioulas 教授表示,這次 COVID-19 大流行恰恰說明了為什么哲學(xué)必須在民主決策中發(fā)揮關(guān)鍵作用,新冠大流行表明,僅僅 “遵循科學(xué)” 是永遠(yuǎn)不夠的?傄龀鰞r值判斷,比如風(fēng)險在社會中的分配,以及繁榮與健康之間的權(quán)衡。

當(dāng)被問及對于整個 AI 倫理學(xué)領(lǐng)域的研究目標(biāo)的時候,Tasioulas 教授說:“生物倫理學(xué)就是一個很好的例子,它說明了倫理學(xué)在解決社會面臨的重大問題上的作用,但它也是一個警示性的故事。生物倫理學(xué)有真正杰出的人物,他們有很強(qiáng)的哲學(xué)背景,為了推動這門學(xué)科的發(fā)展,他們汲取了更深的道德和政治哲學(xué)方面的專業(yè)知識。但目前,你聽到的很多關(guān)于人工智能倫理學(xué)的內(nèi)容都缺乏這種深度,太多的是公司治理語言的翻版,甚至只是一些聲音和流行語。而一個可持續(xù)的人工智能倫理學(xué)發(fā)展需要立足于更深更廣的東西,這必須包括哲學(xué)和更普遍的人文科學(xué)。牛津大學(xué)的人工智能倫理學(xué)研究所恰恰可以起到這種作用,將知識的嚴(yán)謹(jǐn)性和清晰度引導(dǎo)到公共辯論和決策領(lǐng)域。”

“科學(xué)可以告訴我們行為的后果,但它并不能告訴我們應(yīng)該追求哪些目標(biāo),也不能告訴我們?yōu)榱藢?shí)現(xiàn)這些目標(biāo),什么樣的犧牲是合理的。我們想要讓人工智能成為用技術(shù)解決社會挑戰(zhàn)的一部分,就這件事而言,我們不可避免地也要解決倫理問題。人工智能倫理學(xué)是一種使所涉及的價值判斷變得更加清晰的方法,也是一種支持更嚴(yán)謹(jǐn)、更包容辯論的方式! Tasioulas 教授表示。

應(yīng)對重大的全球性挑戰(zhàn)

研究所指導(dǎo)小組主席 Sir Nigel Shadbolt 教授領(lǐng)導(dǎo)了最初的提議,他表示:“我很高興歡迎這群令人敬畏的學(xué)者加入研究所的教師團(tuán)隊(duì),我們的愿景是建立一個能夠?yàn)槿斯ぶ悄軅惱韺W(xué)奠定基礎(chǔ)的研究所,從而為我們對這項(xiàng)非凡技術(shù)的使用提供幫助。這個偉大的團(tuán)隊(duì)和他們所進(jìn)行的研究,將有助于確保人工智能技術(shù)對于人類的經(jīng)驗(yàn)起到增強(qiáng)的作用,而非削弱。”

牛津大學(xué)副校長 Louise Richardson 教授說:“這是牛津大學(xué)一個重要的里程碑,因?yàn)檫@個優(yōu)秀的領(lǐng)導(dǎo)團(tuán)隊(duì)將加速推進(jìn)我們團(tuán)結(jié)人文學(xué)者和科學(xué)家的工作,以應(yīng)對重大的全球性挑戰(zhàn)。”

牛津大學(xué)人文科學(xué)系主任 Karen O'Brien 教授說:“我們很高興能任命 John Tasioulas 這樣的人才擔(dān)任研究所的首任所長,John 是一位杰出的道德和法律哲學(xué)家,他對研究所和整個人工智能倫理學(xué)領(lǐng)域的發(fā)展愿景給我們留下了深刻印象。他在倫敦國王學(xué)院成功建立了研究中心,在這方面擁有寶貴的經(jīng)驗(yàn)!

“幾乎在一夜之間,人工智能倫理學(xué)研究所已經(jīng)成為人工智能倫理學(xué)領(lǐng)域的領(lǐng)先研究中心。該研究所擁有了一支由 7 位杰出研究人員組成的核心學(xué)術(shù)團(tuán)隊(duì),研究所可以開展新的研究,并舉辦更多的活動,將學(xué)術(shù)專家、技術(shù)人員、政府領(lǐng)導(dǎo)者以及廣大公眾聚集一堂。” Karen 教授表示。

蘇世民在評論這一任命時,補(bǔ)充道:“人工智能有可能成為一股善的力量,但如果不以道德和負(fù)責(zé)任的方式應(yīng)用它,也會帶來巨大的風(fēng)險。牛津大學(xué)在探索這些考慮因素方面具有獨(dú)特的優(yōu)勢,就像它在過去的千年里幫助解決社會上面臨的最緊迫的倫理問題一樣,我很期待看到 John 和研究所即將作出的貢獻(xiàn)!

該研究所還將把人工智能倫理學(xué)應(yīng)用于應(yīng)對 COVID-19 大流行病等挑戰(zhàn)。今年早些時候,該研究所指導(dǎo)小組的 Michael Parker 教授向英國政府提供了關(guān)于聯(lián)系追蹤應(yīng)用程序開發(fā)的倫理學(xué)基礎(chǔ)方面的建議。他還是政府緊急情況科學(xué)咨詢小組(SAGE)的成員,并參與撰寫了有關(guān)技術(shù)如何減緩病毒傳播速度的研究報(bào)告。

Véliz 博士說:“作為研究所,我們的目標(biāo)是進(jìn)行極其嚴(yán)謹(jǐn)?shù)难芯?該研究完全獨(dú)立于大科技(Big Tech)的壓力,并為確保人工智能只以符合最高道德標(biāo)準(zhǔn)的方式構(gòu)建和實(shí)施做出貢獻(xiàn)。”
圖片標(biāo)題

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號