訂閱
糾錯
加入自媒體

出爾反爾!多家歐洲企業(yè)聯(lián)合反對歐盟AI法案

在ChatGPT剛剛火爆的那段時間,全世界都在嚷嚷著要對AI實行監(jiān)管,不能讓AI隨意發(fā)展,不然最后會毀滅人類!

這時候,歐盟認為需要對AI技術進行必要的監(jiān)督,所以就開始著手制定相關的法案。

可萬萬沒想到的是,就在草案通過沒多久,多家歐洲企業(yè)就聯(lián)合簽署公開信(一言不合就簽公開信),批評歐盟該草案遏制了技術的發(fā)展,反對該法案的實行。

一開始擔心AI技術無限制發(fā)展,危害社會,現(xiàn)在又說法案遏制了技術的發(fā)展。如此左右橫跳,前后矛盾的態(tài)度,一時間也讓人們摸不著頭腦。

AI監(jiān)管草案反而限制了AI發(fā)展?

由于ChatGPT表現(xiàn)出來的智能水平實在驚人,對AI進行監(jiān)管,一度成了整個社會的討論話題。

更有看熱鬧不嫌事大的主,比如馬斯克就聯(lián)合眾多業(yè)界大佬簽署聯(lián)名信,呼吁暫停AI發(fā)展六個月。

雖然事后馬斯克說,沒指望這個呼吁能被接受,也沒想著真的讓AI開發(fā)暫停六個月,只是說出來看看大家的反應。

不光是他,深度學習三巨頭之一、AI教父杰弗里 辛頓(Geoffrey Hinton)從谷歌離職以后,也是到處宣揚AI技術的隱患和擔憂,稱自己“很后悔”。

就連ChatGPT之父、OpenAI的CEO山姆 奧特曼(Sam Altman)在美國國會上也呼吁,加強對AI的管理和監(jiān)督。后來又聯(lián)合了包括杰弗里 辛頓在內(nèi)的眾多大咖,一起呼吁落實AI的管控。

但現(xiàn)在,他們之中出現(xiàn)了一些“叛徒”。6月14日,歐洲議會通過了人工智能法案草案。然而,草案一出爐就遭到了多家歐洲企業(yè)的反對。按他們的意思來說,該草案限制了相關產(chǎn)業(yè)及技術的進步空間。

這些企業(yè)包括德國西門子、法國空中客車、法國育碧、德國銀行等此類知名企業(yè),他們通過簽署公開信向歐盟表達了對人工智能法案草案的擔憂。

這些企業(yè)認為,雖然人工智能有必要進行監(jiān)管,但歐盟所提供的人工智能方案草案過于嚴苛,相關技術審核時間過長,至審核完畢商用落地可能已經(jīng)過時,嚴重限制了產(chǎn)業(yè)發(fā)展。

公開信中聲稱,人工智能法案草案不僅會危及歐洲企業(yè)競爭力,實際上也無法有效解決歐洲所面臨的種種技術挑戰(zhàn)。

該法案草案嚴格監(jiān)管了模型的訓練數(shù)據(jù)來源、相應能力、輸出結果,并要求任何模型在歐盟區(qū)域上市前,都需要向歐盟數(shù)據(jù)庫進行驗證,因此企業(yè)需要付出相當大的成本及責任風險來滿足歐盟要求。

他們在公開信中建議,歐盟只需要提供一系列要求公司遵守的原則,并組建專門的監(jiān)管機構,在相關模型技術發(fā)布后再進行調(diào)查,以靈活適應快速發(fā)展的技術市場。

這則法案真的像他們說的這樣,過于嚴苛嗎?

以“風險”為基準的監(jiān)管法案

前段時間,歐洲議會全體會議以499票贊成、28票反對、93票棄權的壓倒性優(yōu)勢表決通過了《人工智能法案》授權草案。德國《商報》稱,《人工智能法案》預計將在今年年底獲得最終批準,不過距離完全生效可能還需數(shù)年時間。

根據(jù)資料,該草案的核心點在“風險”。說人話就是基于風險來制定監(jiān)管制度,這個AI模型的風險系數(shù)高,那對它的監(jiān)管就會更嚴格,相反就會越寬松。

草案將人工智能風險分為不可接受的風險、高風險、有限的風險和極小的風險四級,其中高風險人工智能的使用必須受到嚴格監(jiān)管,系統(tǒng)提供者和使用者都要遵守數(shù)據(jù)管理、記錄保存、透明度、人為監(jiān)管等規(guī)定,以確保系統(tǒng)穩(wěn)定、準確和安全。

對于違反規(guī)定者,草案設定了最高3000萬歐元(1歐元約合人民幣7.895元)或全球年營業(yè)額6%的罰款。

而那些對人類安全造成不可接受風險的人工智能系統(tǒng),草案一律禁止。這個的評判標準,草案中也有提到。包括了部署潛意識或有目的操縱技術、利用人們?nèi)觞c或用于社會評分的系統(tǒng)。

同時,草案里還擴大了高風險的分類,將對人們健康、安全、基本權利或環(huán)境的危害考慮在內(nèi)。

草案還要求人工智能公司對其算法保持人為控制,提供技術文件,并為“高風險”應用建立風險管理系統(tǒng),還針對ChatGPT等生成式人工智能設立專門監(jiān)管制度。

有一說一,該草案的監(jiān)管力度確實比較大。任何企業(yè)看了,都覺得自己在負重前行。但是草案也并非全都在給企業(yè)施壓,為了減輕草案在遏制AI技術發(fā)展的感覺,他們還引入了“監(jiān)管沙盒”來管控風險和促進創(chuàng)新。

“監(jiān)管沙盒”簡單來說就是,在一定條件內(nèi),企業(yè)可以在真實環(huán)境里測試他們的AI模型。這種制度可以在人工智能系統(tǒng)入市或投入使用前,對人工智能系統(tǒng)進行開發(fā)、測試和驗證降低風險。

對這一草案,業(yè)內(nèi)人士也有不同的意見。有人表示支持,有人認為過度監(jiān)管會給企業(yè)帶來更高的成本和負擔,這些不利于AI創(chuàng)新。

但是草案畢竟是草案,正式的法案還需要后續(xù)進一步完善才能正式施行。這一次的企業(yè)聯(lián)合公開信,也在一定程度上推動了《人工智能法案》往更合理,更科學的方向發(fā)展。

企業(yè)覺得草案嚴苛也罷,或者是不想承擔責任也好。AI監(jiān)管的路,肯定是不會好走的,但不代表不值得走。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點?帽菊靖寮,務經(jīng)書面授權。未經(jīng)授權禁止轉(zhuǎn)載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號