文|光錐智能,作者|周文斌
如果要給4月定一個(gè)主題,“大模型”應(yīng)該當(dāng)仁不讓。
從4月7日阿里突然放出“通義千問”內(nèi)測(cè)開始;8日,華為放出盤古大模型;10日,商湯推出類ChatGPT產(chǎn)品“商量SenseChat”;之后,11日的阿里云峰會(huì),毫末AI DAY,以及之后昆侖萬維號(hào)稱即將發(fā)布的“天工”......大模型如雨后春筍般涌現(xiàn),成為所有活動(dòng)的主題。
另一方面,當(dāng)所有的目光都集中在企業(yè)最新的技術(shù)動(dòng)態(tài)、產(chǎn)品質(zhì)量,以及可能帶來哪些商業(yè)革命的同時(shí),另外一些事情在同樣挑動(dòng)人們的神經(jīng)。
4月10日,有網(wǎng)友通過AI技術(shù)“復(fù)活”了自己的奶奶,在網(wǎng)上引起廣泛討論。有人說,看到圖像的那一刻眼眶就濕潤(rùn)了;也有人說,這有些不尊重逝者;更有人聯(lián)想到如果有不法之徒利用這種技術(shù),幾乎可以隨意將一個(gè)陌生人帶回家當(dāng)電子寵物......
圖源揚(yáng)子晚報(bào)
和通用AI技術(shù)的驚艷發(fā)展一樣,安全倫理也是這場(chǎng)“AI實(shí)驗(yàn)”的重要且關(guān)鍵主題。
事實(shí)上,從春秋戰(zhàn)國(guó)時(shí)期鋼鐵冶煉技術(shù)的突破,到西方18世紀(jì)60年代出現(xiàn)的珍妮機(jī),自古以來,當(dāng)革命性的技術(shù)推動(dòng)社會(huì)跨越式發(fā)展的同時(shí),也會(huì)給社會(huì)的傳統(tǒng)文化、社會(huì)范式帶來沖撞和破壞。
AI大模型同樣也是如此,關(guān)于倫理道德的討論只是其中的一個(gè)方面,這背后所有與人直接相關(guān)的,比如數(shù)據(jù)安全問題、AI的可信度問題、隱私保護(hù)問題等等,都在沖撞著當(dāng)前的數(shù)據(jù)治理格局。
就像20年前,我們打開每一個(gè)網(wǎng)頁都害怕被病毒侵襲、被黑客攻擊一樣,在大模型飛速發(fā)展的今天,安全問題正在被重新抬回桌面。
因此,在享受技術(shù)突破帶來發(fā)展紅利的同時(shí),如何應(yīng)對(duì)這種沖撞,成為當(dāng)代人需要思考的問題。
01 大模型來臨,AI安全迎來新挑戰(zhàn)
大模型帶來的關(guān)于倫理道德、數(shù)據(jù)安全和可信度的討論,可能來的比所有人想象的都更早。
2021年初,韓國(guó)人工智能初創(chuàng)公司Scatter Lab上線了一款基于Facebook Messenger的AI聊天機(jī)器人“李LUDA”,但僅僅不到20天,Scatter Lab就不得不將“李LUDA”下線,并公開道歉。
道歉的原因,是“李LUDA”失控了。
“李LUDA”上線后,很快在韓國(guó)網(wǎng)絡(luò)平臺(tái)上受到歡迎,有75萬名用戶參與了互動(dòng)。但在交流過程中,一些用戶將侮辱“李LUDA”作為炫耀的資本,對(duì)其發(fā)泄自身惡意,并在網(wǎng)上掀起“如何讓LUDA墮落”的低俗討論。
很快,隨著各種負(fù)面信息的介入,“李LUDA”還開始發(fā)表各種歧視性言論,涉及女性、同性戀、殘障人士及不同種族人群。
而在“李LUDA”變得越來越“暗黑”的同時(shí),關(guān)于“李LUDA”的數(shù)據(jù)安全和隱私保護(hù)也在受到詰問。
“李LUDA”是Scatter Lab基于Science of Love數(shù)據(jù)開發(fā)的,Science of Love可以分析韓國(guó)國(guó)民級(jí)聊天應(yīng)用KakaoTalk(類似于微信)的對(duì)話,顯示用戶間的情感水平,這也導(dǎo)致韓國(guó)個(gè)人信息保護(hù)委員會(huì)和互聯(lián)網(wǎng)安全局開始介入調(diào)查。
“李LUDA”的故事只是一個(gè)序曲,在兩年之后的今天,在全球掀起技術(shù)革命的OpenAI也同樣面臨安全和可信的問題。
事實(shí)上,從ChatGPT推出的第一天起,到后來的谷歌Bard,再到國(guó)內(nèi)的文心一言,以及阿里的“通義千問”,幾乎都面臨著AI“一本正經(jīng)的胡說八道”的問題。
仍然以ChatGPT舉例,有網(wǎng)友讓其推薦3家西湖區(qū)的新興咖啡館,ChatGPT正經(jīng)地給出了名字、地址和介紹。但網(wǎng)友查詢后卻發(fā)現(xiàn),壓根沒有這樣三家咖啡店的存在。
同樣的例子還有很多,因?yàn)锳I的回答本質(zhì)上是一個(gè)“概率問題”,即通過前一個(gè)字去猜后一個(gè)字的可能性,然后根據(jù)概率和語義選擇最適合的組成一個(gè)句子。
所以當(dāng)問到AI不曾了解的內(nèi)容時(shí),它仍然會(huì)隨機(jī)生成答案。但這會(huì)給許多沒有分辨能力的人帶來誤解。
在可信問題之外,數(shù)據(jù)安全是AI大模型面臨的一個(gè)重要考題。
3月底,OpenAI發(fā)布一份報(bào)告顯示,由于Redis的開源庫bug導(dǎo)致了ChatGPT發(fā)生故障和數(shù)據(jù)泄露,造成部分用戶可以看見其他用戶的個(gè)人信息和聊天查詢內(nèi)容。
僅僅十天左右,意大利數(shù)據(jù)保護(hù)局Garante以涉嫌違反隱私規(guī)則為由,暫時(shí)禁止了ChatGPT,并對(duì)相關(guān)事項(xiàng)展開調(diào)查。
事實(shí)上,這樣的事情正在許多地方同時(shí)發(fā)生,比如三月中旬,自三星電子允許部分半導(dǎo)體業(yè)務(wù)員工使用ChatGPT開始,短短20天有三起機(jī)密資料外泄事件。
數(shù)據(jù)安全公司Cyberhaven的一份調(diào)查顯示,在員工直接發(fā)給ChatGPT的企業(yè)數(shù)據(jù)中,有11%是敏感數(shù)據(jù)。在某一周內(nèi),10萬名員工給ChatGPT上傳了199份機(jī)密文件、173份客戶數(shù)據(jù)和159次源代碼。
眾所周知,以ChatGPT為代表的AI大模型通過“人類反饋強(qiáng)化學(xué)習(xí)”來不斷進(jìn)化,這也要求類ChatGPT產(chǎn)品需要不停地收集用戶使用數(shù)據(jù)。但這些數(shù)據(jù)回到后臺(tái)之后,并沒有進(jìn)行脫敏處理,也無法被刪除,而是進(jìn)一步被納入到了模型訓(xùn)練的數(shù)據(jù)庫中,并隨時(shí)面臨可能被泄露的風(fēng)險(xiǎn)。
整體上,AI大模型被廣為人知以來,倫理、可信、數(shù)據(jù)安全的問題也逐漸被越來越多人感受到。但這其實(shí)就像一條新建成的自動(dòng)化生產(chǎn)線,生產(chǎn)效率很高,但還有許多地方的衛(wèi)生條件沒有達(dá)到要求。
我們并不應(yīng)該因?yàn)檫@一些局部的瑕疵而否認(rèn)整個(gè)生產(chǎn)線的價(jià)值,但這些潛在的隱患也同樣需要去規(guī)避和完善。
02 AI安全,任重道遠(yuǎn)
事實(shí)上,無論是產(chǎn)業(yè)界還是相關(guān)的監(jiān)管機(jī)構(gòu),其實(shí)都早已意識(shí)到了問題,并且也都在積極尋求改變。
比如OpenAI就在積極提高其預(yù)訓(xùn)練大模型的安全性,在GTP-4發(fā)布時(shí),OpenAI的安全測(cè)試顯示,GPT-4比GPT-3.5的得分要高出40%。
OpenAI開發(fā)了一項(xiàng)新技術(shù),讓AI能夠模擬人類的自我反思。這讓GPT-4在HumanEval編碼測(cè)試中的準(zhǔn)確率從67%上升到88%。在Alfworld測(cè)試中準(zhǔn)確率從73%提高到了97%;在HotPotQA測(cè)試中準(zhǔn)確率從34%提高到54%。
當(dāng)然,Open AI官網(wǎng)仍然在警告用戶,在使用GPT-4輸出的內(nèi)容時(shí)應(yīng)格外小心,特別是在高風(fēng)險(xiǎn)場(chǎng)景下(如醫(yī)學(xué)、化學(xué)等領(lǐng)域)需要人工核查事實(shí)準(zhǔn)確性,或者壓根避免使用AI給出的答案。
除了在模型階段介入新技術(shù)之外,更多公司開始從數(shù)據(jù)階段就將隱私考慮了進(jìn)去,比如數(shù)據(jù)合成和隱私計(jì)算就是兩種有效的解決方案。
其中,合成數(shù)據(jù)是指計(jì)算機(jī)通過模擬技術(shù),或算法自己生成的標(biāo)注信息,能夠在數(shù)學(xué)上或統(tǒng)計(jì)學(xué)上反映原始數(shù)據(jù)的屬性,因此可以作為原始數(shù)據(jù)的替代品來訓(xùn)練、測(cè)試、驗(yàn)證大模型。但由于數(shù)據(jù)是合成的,因此不會(huì)涉及到真實(shí)的用戶隱私和數(shù)據(jù)安全問題。
而隱私計(jì)算則是一種保護(hù)數(shù)據(jù)隱私的計(jì)算方法,它可以在不暴露數(shù)據(jù)內(nèi)容的前提下進(jìn)行數(shù)據(jù)處理、分析、共享等操作,關(guān)鍵就是讓數(shù)據(jù)“可用,但不可見”。
除了在通過研發(fā)新技術(shù)提高AI能力之外,微軟在開放NewBing時(shí)也考慮從其他方式限制AI胡說八道。
現(xiàn)在使用微軟更新的NewBing時(shí),AI不僅會(huì)告訴你答案,還會(huì)像論文標(biāo)注一樣,將得出結(jié)論的數(shù)據(jù)來源進(jìn)行標(biāo)注,方便用戶回溯,確認(rèn)信源是否可靠。
當(dāng)然,在這方面投入努力的也不只是企業(yè),并且也不局限在技術(shù)和產(chǎn)品上。
從2021年開始,為了保障數(shù)據(jù)安全、個(gè)人隱私、道德倫理、以及從跨國(guó)市場(chǎng)規(guī)范、AI平權(quán)等多項(xiàng)目標(biāo)考慮,歐盟就開始推進(jìn)《人工智能法案》,按既定節(jié)奏,該項(xiàng)法案在3月底提交歐盟議會(huì)審議。
在歐盟推進(jìn)立法的同時(shí),聯(lián)合國(guó)教科文組織(UNESCO)總干事奧德蕾·阿祖萊也在3月30日發(fā)表聲明,呼吁各國(guó)盡快實(shí)施該組織通過的《人工智能倫理問題建議書》,為人工智能發(fā)展設(shè)立倫理標(biāo)準(zhǔn)。
中國(guó)在這方面同樣也在推進(jìn)相關(guān)監(jiān)管法案的落地。4月11日,國(guó)家網(wǎng)信辦起草《生成式人工智能服務(wù)管理辦法(征求意見稿)》并向社會(huì)公開征求意見。該《辦法》聚焦隱私安全、技術(shù)濫用、知識(shí)產(chǎn)權(quán)和他人權(quán)益三大問題,為AIGC的發(fā)展建立防護(hù)欄。
除此之外,學(xué)界和企業(yè)界也在積極探索新的方式。比如4月7日,清華大學(xué)與螞蟻集團(tuán)達(dá)成合作,雙方攜手攻堅(jiān)可信AI、安全大模型等下一代安全科技,在可信AI方面聯(lián)合攻克安全對(duì)抗、博弈攻防、噪聲學(xué)習(xí)等核心技術(shù),來提升規(guī);涞刂械腁I模型的可解釋性、魯棒性、公平性及隱私保護(hù)能力;并基于互聯(lián)網(wǎng)異構(gòu)數(shù)據(jù),構(gòu)建面向網(wǎng)絡(luò)安全、數(shù)據(jù)安全、內(nèi)容安全、交易安全等多領(lǐng)域多任務(wù)的安全通用大模型。
除此之外,作為互聯(lián)網(wǎng)時(shí)代的安全企業(yè),周鴻祎在新智者大會(huì)上也提到人工智能的安全挑戰(zhàn)。周鴻祎將其歸納為七點(diǎn):硬件、軟件、通信協(xié)議、算法、數(shù)據(jù)、應(yīng)用和社會(huì)倫理。但周鴻祎也提到:“僅靠一家企業(yè)不能解決所有威脅,需要注重生態(tài)合作。”
整體上,自ChatGPT以來,AGI的大門也才剛剛打開,就如同AI大模型仍在探索一樣,其與傳統(tǒng)產(chǎn)業(yè)、安全、社會(huì)倫理等方面的沖突也才剛剛開始,整個(gè)治理、重建、規(guī)范的過程也都還任重道遠(yuǎn),需要整個(gè)社會(huì)的共同努力。