訂閱
糾錯
加入自媒體

人工智能技術(shù)開發(fā)人員應(yīng)遵循的7條道德準則

人工智能在過去的幾年中取得了長足的進步。用人工智能技術(shù)創(chuàng)建的解決方案是無法想象的。但是,人工智能系統(tǒng)有可能發(fā)展到可以完全自主地在幾秒鐘內(nèi)做出復(fù)雜決策的地步。這種進步的陰暗面是,AI技術(shù)將獲得完全的自主權(quán),超越人類的決定,并可能對人類造成傷害。

人工智能技術(shù)開發(fā)人員應(yīng)遵循的7條道德準則

如果不檢查這項技術(shù),在人工智能系統(tǒng)變壞的電影中,如《終結(jié)者》、《 Wall-E,2001年:太空漫游》和《復(fù)仇者聯(lián)盟:奧創(chuàng)紀元》等電影中演示的場景可能成為現(xiàn)實。因此,調(diào)節(jié)人工智能技術(shù)的潛在無限能力變得必要。

為此,開發(fā)人員需要滿足一些特定的AI原則,以確保在AI系統(tǒng)的生命周期內(nèi)不會違反道德規(guī)范。這樣可以確保AI系統(tǒng)不會傷害任何個人。這些原則可以幫助降低安全風險,提高用戶之間的信任度,并有助于通過AI解決方案更好地采用和取得成果。

在開發(fā)AI解決方案時,開發(fā)人員需要遵循某些原則,以確保軟件的安全性不會受到損害,并且該軟件將一勞永逸。開發(fā)人員可以關(guān)注的一些原則包括:

       開發(fā)人員需要遵循的道德AI原則

1、以人為本

在概念化AI解決方案時,只有AI系統(tǒng)在整個生命周期中對個人、企業(yè)和整個人類都有利的情況下,開發(fā)人員才應(yīng)該繼續(xù)開發(fā)。開發(fā)AI解決方案,應(yīng)該以主要造福和改善人類生活,而不是達到破壞性的目的。

人工智能系統(tǒng)應(yīng)與人類價值觀保持一致,促進人權(quán),尊重個人意見,提高生活水平,挽救生命,甚至保護環(huán)境。教育和醫(yī)療保健部門是兩個最重要的部門,可以從以人為本的AI技術(shù)中受益。人工智能解決方案可以幫助提高教育質(zhì)量,這將幫助學生找到更好的工作機會,進而幫助改善此類人的生活質(zhì)量。

同樣,在醫(yī)療保健行業(yè)中使用AI技術(shù)可以潛在地挽救生命。但是,人工智能技術(shù)的使用不應(yīng)僅限于這兩個領(lǐng)域,而可以在企業(yè)資源規(guī)劃、石油和天然氣運營、娛樂和環(huán)境保護等其他領(lǐng)域得到利用。

2、風險警覺

創(chuàng)建AI系統(tǒng)時應(yīng)采用基于風險的方法。開發(fā)人員應(yīng)確定與特定AI系統(tǒng)相關(guān)的所有風險。并且,只有在風險很小或不存在的情況下,他們才應(yīng)著手開發(fā)AI系統(tǒng)。

例如,當開發(fā)人員使用面部識別技術(shù)時,他們應(yīng)該評估該技術(shù)可能出錯的所有方面。他們應(yīng)確保面部識別技術(shù)不會傷害任何個人。例如,面部識別技術(shù)并不是萬無一失的,它會導(dǎo)致錯誤的定罪。因此,開發(fā)人員在創(chuàng)建這樣的系統(tǒng)時,應(yīng)確保該技術(shù)具有盡可能少的風險。所以,開發(fā)人員在使用AI技術(shù)時不應(yīng)對風險意識,評估和管理視而不見。

1  2  下一頁>  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號