訂閱
糾錯
加入自媒體

歐盟發(fā)布“可信賴AI”道德準則草案,提出兩大要素、數(shù)個不可為

日前,歐盟委員會(EC)任命的人工智能高級專家小組(AI HLEG)發(fā)布了一份內(nèi)容長達37頁的AI開發(fā)和使用道德草案—可信賴AI的道德準則草案(Draft Ethics Guidelines for Trustworthy AI)。其中提出,可信賴AI應該具備兩大要素,以及AI不可為的基本原則。

據(jù)了解,人工智能高級專家小組由歐盟委員會于去年4月任命,組內(nèi)共有52位代表學術(shù)界、工業(yè)界和民間社會的獨立專家。彼時,這一小組的建立也有消息露出,按照當時的說法,他們的任務主要有三個,包括:

一、就委員會如何在“歐洲人工智能聯(lián)盟”中建立廣泛而多樣化的利益相關(guān)者社區(qū)向歐盟委員會提供建議;

二、支持即將實施的歐洲人工智能倡議(2018年4月);

三、在年底前出臺基于歐盟基本權(quán)利的倫理發(fā)展和人工智能使用準則草案,充分考慮公平性、安全性、透明度、未來工作、民主以及更廣泛地影響“基本權(quán)利憲章”的適用等問題。該指導方針將在歐洲委員會獨立咨詢機構(gòu)歐洲科學和新技術(shù)倫理組織(EGE)的發(fā)言中進行廣泛的磋商和建設之后起草。

如今,這一小組已經(jīng)完成了任務。

具體來看,根據(jù)道德草案準則,可信賴AI有兩個組成要素:

一、應該尊重基本權(quán)利,使用法規(guī)、核心原則和價值觀,以確保符合“道德目的”;

二、兼具技術(shù)魯棒性和可靠性,因為即使有良好的意圖,缺乏技術(shù)掌握也會造成無意的傷害。

不過,不怕一萬,就怕萬一。為了應對AI出現(xiàn)問題,還應該準備一個“應急計劃”,比如系統(tǒng)出現(xiàn)問題后,將控制權(quán)交由人類手中一般。

另外,該草案還提出了幾點AI的不可為——AI不應該以任何方式傷害人類;AI不應該限制人的自由;AI應被公平使用,不得歧視或污蔑;AI應透明的運作,即人類需要知道AI正在開發(fā)的目的,以及如何使用它;AI應該只為個人和整個社會的福祉而發(fā)展。

在整體框架上,草案可分為三部分,第一部分闡述了AI必須遵守的基本權(quán)利和價值觀,以確保其能夠符合“道德目的”;第二部分提出了實現(xiàn)可信賴AI的指導方針,同時兼顧道德目的和技術(shù)穩(wěn)健性,并列出了可信賴AI的要求,包括技術(shù)和非技術(shù)方法;第三部分則提供了一個可信賴AI的評估表,涵蓋問責機制、數(shù)據(jù)治理、非歧視、尊重隱私等等。

據(jù)悉,該草案目前還處于意見征集階段,時間截止于本月18日。而在今年3月,該草案將被正式提交到歐盟委員會。

一直以來,隨著AI越來越多的帶來便利性,其背后的道德隱患問題也一直備受關(guān)注,關(guān)于“AI威脅論”的爭論也一直沒有停歇。作為一個國際性聯(lián)盟,歐盟近年來一直都在關(guān)注人工智能,除了推動此次草案的完成,其還于去年發(fā)布了AI行動計劃等等。同時,在企業(yè)方面,作為AI的研究者和商業(yè)化推動者,包括微軟、谷歌等在內(nèi),均針對AI推出了自己的AI準則。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號