AI親手裁掉人類,誰賦予了它“非人化”的權利?
一美國Facebook的外包員工控訴陳,他們被一種算法裁掉了,在被AI判定沒有正常完成工作后,當場被機器自動發(fā)送的一封郵件解雇。
比AI取代自己工作更令我們慌亂的,是AI已經(jīng)正在親手裁掉我們人類。
那些躲在AI數(shù)據(jù)背后的老板和人力資源都將不再承擔責任,使勞動關系非人化,將人力資源中的“人力”徹底剝離。西班牙勞動法專家曾表示,如果這一趨勢持續(xù)下去,人力資源部門將面臨“非常黑暗的未來”。
帕斯夸爾曾認為,“數(shù)字老板”永遠都會是暴君,因為它把人當作非人來對待。AI到底能否取代人類在具有明確道德含義領域的經(jīng)驗和推理能力?人工智能的權力責任標準又該如何衡量?是誰賦予了AI決定人類去留的權利?
01.被裁員前的“預告片”
阿爾法狗(AlphaGo)吊打職業(yè)圍棋手柯潔,因為它有了類似人腦的種種功能:龐大的數(shù)據(jù)庫,自我學習能力,以及找到更好解決方法的能力。
在與阿爾法狗接連對戰(zhàn)的幾個回合后,阿爾法狗的棋藝再次增長,“現(xiàn)在它越來越接近上帝了”,賽后的柯潔稱。
阿爾法狗的核心系統(tǒng)采用了機器學習與神經(jīng)系統(tǒng)科學結合的學習算法,還通過大量數(shù)據(jù)分析學習了3000多萬步的職業(yè)棋手棋譜,再通過增強學習的方法進行自我博弈,尋找更好的棋路。
從烏鎮(zhèn)互聯(lián)網(wǎng)大會,李彥宏坐無人駕駛開入五環(huán),騰訊高調進軍AI...人工智能正在以指數(shù)級增長滲透進我們的生活乃至整個世界,隨著他們飛速旋轉的“大腦”,未來也將取代人類絕大部分的工作。
澳洲一家教學機構培生教育(Pearson's)的新研究結果顯示,人工智能和自動化正在滲入澳人的日常工作生活。隨著科技進步,越來越多職業(yè)可能被自動化。
谷歌的無人駕駛每8250km才故障一次,職業(yè)司機或將成為被取代的職業(yè)中首當其沖的一種;再次是醫(yī)生,云端大數(shù)據(jù)及數(shù)據(jù)庫甚至更精準的操作可以完全取代他們的工作;服務業(yè)中大量重復性的工作如裁縫、服務員、抄寫員,或是高空危險作業(yè)的消防、反恐都將接受來自AI的洗禮。
尤其是在翻譯領域,今年市場上已經(jīng)開始出現(xiàn)較為成熟的人工智能翻譯機產(chǎn)品,如科大訊飛推出的曉譯和譯唄,清華技術團隊推出的準兒。而在產(chǎn)品測試中,中英翻譯普遍達到了95%以上的準確率,完美解決文科不能解決工程企業(yè)翻譯等需求。
與人類的大腦相比,AI大腦的神經(jīng)元是科學家們賦予的大腦神經(jīng),根據(jù)數(shù)據(jù)顯示,以一秒鐘的時間為單位,人工智能的電子神經(jīng)元激活次數(shù)約為上億次,而人類的大腦神經(jīng)元,則僅有200次,至少是300萬倍的差異。
也就是說,柯潔在思考下一步棋該如何走的時候,AI已經(jīng)思考了接下來近300萬步的可能。
硅谷大佬馬斯克曾多次警告,機器會殺死人類,培養(yǎng)他們的同時激活他們體內的自主意識,目前這個說法并沒有得到科學界的印證,反倒是“AI與人類優(yōu)勢互補”的說法盛行。
面對爆炸性增長的巨量信息,AI確實可以高效率、高記憶力、低出錯率的解決復雜無比的難題;但AI沒有辦法復刻人類的發(fā)散性、創(chuàng)造性智慧,關鍵時候的應變能力、肢體語言能力及情感能力。
對于當前的AI來說,他們唯一能感受到的只有電流和數(shù)字組成的“思考力”,處理簡單可重復的工作是他們的強項,但代替HR裁掉員工,就是另外一種說法了。
02.AI成為人類“暴君”
后疫情時代,科技公司紛紛開源節(jié)流。
Facebook上曾有員工控訴稱,自己被一種算法裁掉了,他們與埃森哲簽訂勞動合同,但是在Meta的辦公區(qū)工作,突然有一天通過視頻會議得知自己必須離職,而公司給出的裁員理由是“隨機”。
此前,Xsolla的工資預算降低了10%,在近一年時間里,Xsolla增長持續(xù)放緩,年增長率一度低至40%以下。
在Xsolla CEO眼里,公司效益不好是因為員工不在公司上班導致懈怠造成的,在使用AI算法后,直接通過郵箱解雇了450名員工中的150位。
隨后首席執(zhí)行官向Aleksandr Agapitov向所有被解雇員工發(fā)去了一封郵件:如果你的“數(shù)字足跡”沒有達到公司的標準,那么你一開始就不適合Xsolla。
亞馬遜也一直在算法裁員的路上。
在亞馬遜兢兢業(yè)業(yè)工作了4年的斯蒂芬·諾曼丁在亞利桑那州鳳凰城送貨時,與往常一樣打開APP查看送貨路線,卻發(fā)現(xiàn)賬號無法登錄。
同時他收到了一封來自亞馬遜的自動郵件:你已經(jīng)被 amazon 終止合作,原因是:由算法給出的個人評分已經(jīng)低于Amazon的規(guī)定分數(shù)。
諾曼丁非常不滿公司對他的決定,他認為AI不能因為無法控制的意外而懲罰他,比如進出小區(qū)不便,路上堵車或客戶不在等情況,他也對自己手頭上的工作有著極高的自豪感,根本無法接受“履職不到位”的最終評價。
這是對司機的算法,對于亞馬遜內部的倉庫人員來說,只要行動不夠快就可能失去工作。亞馬遜會跟蹤每一位工人的生產(chǎn)效率,并相應的形成警告或裁員通知,全程沒有人力資源的半點影子。
這與國內外賣小哥的考核方法相似,平臺通過AI算法計算出最快的路線及最少的時間,沒有完成便會扣錢,甚至解雇。
在接受一次CNBC采訪時,亞馬遜創(chuàng)始人貝佐斯曾表示,一切決策都傾向于交給AI算法,只有戰(zhàn)略決策才是必須交給人類的商業(yè)決策,因為機器“只會考慮相關信息,完全沒有情感干擾”。在他眼里,人工智能可以優(yōu)化大部分的流程,為實現(xiàn)長期的就業(yè)目標提供機會。
除了解雇,亞馬遜的AI系統(tǒng)還負責招聘,但因其用人公平性屢遭質疑致關停,原因是在AI系統(tǒng)的學習過程中認為過去十年中被雇傭的大多是男性,因此在審核申請人時會對“女性”詞條進行降格處理。
在各大企業(yè)用工荒的時候,AI招聘系統(tǒng)也會死腦筋的卻把成千上萬的員工簡歷丟進大海,哈佛大學首席研究員約瑟夫·富勒 (Joseph Fuller) 曾舉例:醫(yī)院掃描注冊護士簡歷時,用AI進行了“計算機編程”技能的篩選,而醫(yī)院僅僅需要的是可以將患者數(shù)據(jù)輸入計算機的人。
此外就連薪酬部分的工作也被AI接替,字節(jié)跳動曾公布過一項專利技術“員工薪資方案生成方法及裝置”,他可以獲得員工薪資方案創(chuàng)建請求、輸出員工薪資方案末班、獲取薪資項目、為目標薪資項目配置參數(shù)、修改參數(shù)、生成方案.....
其實按照這個道理來說,最先被裁的應該是HR。AI 算法成本更低、效率更高、壽命更長,相比之下,在原本崗位上的員工要是不好好修煉自己,只能另謀出路。
但正如諾曼丁不滿亞馬遜的裁員決定般,AI的不靈活性致使了他的失業(yè),AI到底能否決定員工的去留?誰來對AI的“不負責行為”買單?
03.AI=不知者,無罪!
“老板和人力資源部門都不承擔解雇的責任,躲在算法和其他技術創(chuàng)新背后推卸責任,進一步使勞動關系非人化!蔽靼嘌绖趧臃▽<曳ū葖I·內瓦多評價說,尤其針對一些工資與手底下人能力相掛鉤的管理層人士來說。
在內瓦多眼里,將人力資源的工作完全交給AI會讓不少關鍵職位處于危險的不利動蕩中!稒C器人新定律》一書中提出,人工智能永遠不應取代人類在“具有明確道德含義的領域”的經(jīng)驗和推理能力。
也就是說,人類不應授權機器來決定誰會被解雇,因為這樣的決策無法實現(xiàn)自動化,不能脫離“負責任的反思”這一過程。
關于AI到底歸誰管這個問題,我們分成2個部分來看:誰負責,誰擁有。
曾經(jīng)一工廠的機器人誤把一名員工當作其執(zhí)行任務的威脅,并計算得出消除威脅的最有效方法是把其推向附近一臺正在運行的機器,從而立刻殺死他。那么關鍵問題就在于,設計機器的程序員及工廠是否知曉其使用過程會導致這一結果,如果知曉則共同承擔責任,若不知曉,仍要共同承擔,同時銷毀機器罷了。
就比如無人駕駛的汽車在其行駛車道上超速,深圳曾規(guī)定若出了事故,則由車輛所有人、管理人承擔責任,但不對車主進行扣分處理。
目前為止,關于人工智能為何有或沒有法律地位,為何以及如何承擔法律責任,學界一直爭論不休,導致AI法學的研究出現(xiàn)“泡沫化”傾向,人工智能領域的研究院稱:“機器人有道德和法律上的義務,甚至權利嗎?人工智能的行為和決策的自主空間越大,誰對其決策和行為承擔責任這個問題的提出就越緊迫。”
因此到底誰對AI負責的問題,從不同視角出發(fā)有著不同的處理結果,而人類的法律是否適用于AI?只有在了解過程全貌才能找到準確的適用辦法,這對于還在成長期,持續(xù)高速變化的AI來說很難實現(xiàn)。
自2013年和人工智能有關的34萬項專利中,有53%都已被發(fā)表,其中中國一騎絕塵,是發(fā)表成果最多的國家。AI的精神成果到底會不會被人類認可,取決于人類是否認可AI發(fā)明者的身份,以及AI是否具有保護自己知識產(chǎn)權的權利。
也就是說如果我們要認可AI的一切決策及成果,首先我們必須要求AI知道自己在做什么。
在西班牙工會UGT一份名為《勞資關系中的算法關系》文件中稱,如果使用AI算法解雇員工,其標準必須透明 ,算法與人工智能的任何一款產(chǎn)品一樣都會出錯,甚至AI根本不用擔心自己的決定會對“人民的安全或基本權利”產(chǎn)生什么樣的影響。
如果AI在不具有“明確道德含義”的領域做出了侵權或是損害人民的行為,那一定是由算法決策的失誤導致。算法決策所依據(jù)的或系統(tǒng)所訓練的數(shù)據(jù)集一旦受到來自外部干擾或新型介質的出現(xiàn),其幾秒鐘就能完成的演算并非人工智能的設計者利用規(guī)范過程模型就能解決的。
因此,AI的處理結果完全不可控,它的行為不具有可解釋性,人類設計出的人工智能的行為不能完全按照人的意志去發(fā)展,是個黑洞。
盡管在未來的某一天AI會取代我們的工作,也會代替部分人類做出絕對正確的決策,但要記住最后的勝者永遠都是人類,就如柯潔在戰(zhàn)敗后,科學家仍得出“人類是贏家”的結論。
參考:
人工智能不僅會取代你的職位,現(xiàn)在還要親手裁掉你——Vista看天下
人工智能的可解釋性與AI的法律責任問題研究——劉艷紅
用 AI 辭退150人,HR恐要丟掉工作——人力資源匯
人工智能會取代人類嗎?科學家:它們已經(jīng)會“放氣球”——奇點使者
原文標題 : AI親手裁掉人類,誰賦予了它“非人化”的權利?
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
10月31日立即下載>> 【限時免費下載】TE暖通空調系統(tǒng)高效可靠的組件解決方案
-
即日-11.13立即報名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月28日立即報名>>> 2024工程師系列—工業(yè)電子技術在線會議
-
12月19日立即報名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
-
即日-12.26火熱報名中>> OFweek2024中國智造CIO在線峰會
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市