新規(guī)拉開中國生成式AI“百團大戰(zhàn)”序幕?
ChatGPT在全球范圍掀起的AI熱潮正在引發(fā)越來越多的討論,AI該如何管理?AI該如何發(fā)展?一系列問題都成為人們熱議的焦點。此前,馬斯克等海外名人就在網(wǎng)絡上呼吁OpenAI暫停ChatGPT的模型訓練和迭代,等待企業(yè)與政府討論出一套行之有效的管理方法后再繼續(xù)。
顯然,此舉遭到了OpenAI的反對,不過OpenAI也認可馬斯克的部分說法:“AI確實需要管控”,在一次訪談中,OpenAI的創(chuàng)始人之一更是直言自己有時候會對ChatGPT感到恐懼,AI確實有可能對人類造成威脅。
當我們驚嘆于ChatGPT的強大時,確實不該忘記AI技術發(fā)展所帶來的“可能威脅”。4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了關于《生成式人工智能服務管理辦法(征求意見稿)》的公開征求意見通知,國內(nèi)有關生成式人工智能的第一個管理條例來了。
以下為《生成式人工智能服務管理辦法(征求意見稿)》的原文。
第一條 為促進生成式人工智能健康發(fā)展和規(guī)范應用,根據(jù)《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律、行政法規(guī),制定本辦法。
第二條 研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務的,適用本辦法。本辦法所稱生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術。
第三條 國家支持人工智能算法、框架等基礎技術的自主創(chuàng)新、推廣應用、國際合作,鼓勵優(yōu)先采用安全可信的軟件、工具、計算和數(shù)據(jù)資源。
第四條 提供生成式人工智能產(chǎn)品或服務應當遵守法律法規(guī)的要求,尊重社會公德、公序良俗,符合以下要求:(一)利用生成式人工智能生成的內(nèi)容應當體現(xiàn)社會主義核心價值觀,不得含有顛覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統(tǒng)一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經(jīng)濟秩序和社會秩序的內(nèi)容。(二)在算法設計、訓練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務等過程中,采取措施防止出現(xiàn)種族、民族、信仰、國別、地域、性別、年齡、職業(yè)等歧視。(三)尊重知識產(chǎn)權、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實施不公平競爭。(四)利用生成式人工智能生成的內(nèi)容應當真實準確,采取措施防止生成虛假信息。(五)尊重他人合法利益,防止傷害他人身心健康,損害肖像權、名譽權和個人隱私,侵犯知識產(chǎn)權。禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。
第五條 利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務的組織和個人(以下稱“提供者”),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務。
第六條 利用生成式人工智能產(chǎn)品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務安全評估規(guī)定》向國家網(wǎng)信部門申報安全評估,并按照《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。
第七條 提供者應當對生成式人工智能產(chǎn)品的預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源的合法性負責。用于生成式人工智能產(chǎn)品的預訓練、優(yōu)化訓練數(shù)據(jù),應滿足以下要求:(一)符合《中華人民共和國網(wǎng)絡安全法》等法律法規(guī)的要求;(二)不含有侵犯知識產(chǎn)權的內(nèi)容;(三)數(shù)據(jù)包含個人信息的,應當征得個人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形;(四)能夠保證數(shù)據(jù)的真實性、準確性、客觀性、多樣性;(五)國家網(wǎng)信部門關于生成式人工智能服務的其他監(jiān)管要求。
第八條 生成式人工智能產(chǎn)品研制中采用人工標注時,提供者應當制定符合本辦法要求,清晰、具體、可操作的標注規(guī)則,對標注人員進行必要培訓,抽樣核驗標注內(nèi)容的正確性。
第九條 提供生成式人工智能服務應當按照《中華人民共和國網(wǎng)絡安全法》規(guī)定,要求用戶提供真實身份信息。
第十條 提供者應當明確并公開其服務的適用人群、場合、用途,采取適當措施防范用戶過分依賴或沉迷生成內(nèi)容。
第十一條 提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。法律法規(guī)另有規(guī)定的,從其規(guī)定。
第十二條 提供者不得根據(jù)用戶的種族、國別、性別等進行帶有歧視性的內(nèi)容生成。
第十三條 提供者應當建立用戶投訴接收處理機制,及時處置個人關于更正、刪除、屏蔽其個人信息的請求;發(fā)現(xiàn)、知悉生成的文本、圖片、聲音、視頻等侵害他人肖像權、名譽權、個人隱私、商業(yè)秘密,或者不符合本辦法要求時,應當采取措施,停止生成,防止危害持續(xù)。
第十四條 提供者應當在生命周期內(nèi),提供安全、穩(wěn)健、持續(xù)的服務,保障用戶正常使用。
第十五條 對于運行中發(fā)現(xiàn)、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應在3個月內(nèi)通過模型優(yōu)化訓練等方式防止再次生成。
第十六條 提供者應當按照《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》對生成的圖片、視頻等內(nèi)容進行標識。
第十七條 提供者應當根據(jù)國家網(wǎng)信部門和有關主管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預訓練和優(yōu)化訓練數(shù)據(jù)的來源、規(guī)模、類型、質量等描述,人工標注規(guī)則,人工標注數(shù)據(jù)的規(guī)模和類型,基礎算法和技術體系等。
第十八條 提供者應當指導用戶科學認識和理性使用生成式人工智能生成的內(nèi)容,不利用生成內(nèi)容損害他人形象、名譽以及其他合法權益,不進行商業(yè)炒作、不正當營銷。用戶發(fā)現(xiàn)生成內(nèi)容不符合本辦法要求時,有權向網(wǎng)信部門或者有關主管部門舉報。
第十九條 提供者發(fā)現(xiàn)用戶利用生成式人工智能產(chǎn)品過程中違反法律法規(guī),違背商業(yè)道德、社會公德行為時,包括從事網(wǎng)絡炒作、惡意發(fā)帖跟評、制造垃圾郵件、編寫惡意軟件,實施不正當?shù)纳虡I(yè)營銷等,應當暫停或者終止服務。
第二十條 提供者違反本辦法規(guī)定的,由網(wǎng)信部門和有關主管部門按照《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律、行政法規(guī)的規(guī)定予以處罰。法律、行政法規(guī)沒有規(guī)定的,由網(wǎng)信部門和有關主管部門依據(jù)職責給予警告、通報批評,責令限期改正;拒不改正或者情節(jié)嚴重的,責令暫;蛘呓K止其利用生成式人工智能提供服務,并處一萬元以上十萬元以下罰款。構成違反治安管理行為的,依法給予治安管理處罰;構成犯罪的,依法追究刑事責任。
第二十一條 本辦法自2023年 月 日起實施。
從內(nèi)容來看,目前還只是一個初步的管理條例,對應的處罰及法律依據(jù)來自此前發(fā)布的《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律、行政法規(guī)。
看到管理條例的發(fā)布,不少網(wǎng)友都持肯定態(tài)度,AI的發(fā)展速度之迅猛超出了許多人的預料,并且已經(jīng)開始對社會造成明顯的影響,確實需要對AI的發(fā)展與使用做出管理,避免對社會造成嚴重的危害。
不過也有網(wǎng)友認為,這份“管理辦法”的一些條例,或許會讓中國企業(yè)在AI賽道的競爭力減弱,因為其中的一些要求對于目前的AI模型來說,是很難確保100%符合規(guī)定的,勢必讓企業(yè)在開發(fā)過程中畏手畏腳。
現(xiàn)如今的AI,是否已經(jīng)到了必須管控的地步呢?
“撒謊”的AI
在前段時間,我先后體驗和測試百度的文心一言與阿里巴巴的通義千問,作為國內(nèi)首批開展內(nèi)測的對話式AI大模型,兩者在體驗上雖然不如ChatGPT 4.0,不過也已經(jīng)具備一定的能力,從測試結果來看也是各有千秋。
但是,不管是文心一言還是通義千問,都無法避免在一些回答中“撒謊”,或者換個說法,現(xiàn)階段的AI模型基本上避免不了根據(jù)已有信息生成虛構內(nèi)容的問題,即使是ChatGPT 4.0也是如此。
甚至從測試來看,ChatGPT的虛構信息能力要遠超文心一言等較低等級的AI對話模型,有興趣的朋友可以在知乎、B站等平臺搜索相關內(nèi)容,可以輕松查詢到不少ChatGPT一本正經(jīng)地胡說八道的記錄。
在知乎上,用戶@何學源 就展示了ChatGPT是如何從0開始編造自己的人生經(jīng)歷的,只需要給ChatGPT一定的關鍵詞,AI就會依據(jù)關鍵詞進行信息編造,將一些完全杜撰或是不屬于本人成就的信息拼接到一起,生成一份回答。
圖源:知乎
從提供的ChatGPT對話截圖來看,AI不僅是生成了一系列編造的個人信息,在用戶要求提供相關的引用論文和文章時,AI更是直接生成了一系列不存在的網(wǎng)絡鏈接與論文標題,給用戶@何學源 帶來一些小小的AI震撼。
圖源:知乎
在我的測試中,文心一言也有類似的問題,比如我在詢問它:“吃西瓜為什么不吐葡萄皮”時,文心一言不僅將西瓜與葡萄的關系混淆,甚至將歸屬于葫蘆科的西瓜變成了“葡萄科”的,接下來的內(nèi)容都基于西瓜與葡萄是同一樣水果的邏輯進行解答,以至于錯漏百出。
只是相對于ChatGPT能夠以假亂真的“撒謊”行為來看,具有一定知識儲備的人可以輕松辨認出文心一言回答中的問題。但是,如果未來的文心一言經(jīng)過迭代進步后達到ChatGPT的同等水平,人們又該如何分辨其中的問題?
再進一步,如果有人不懷好意地讓AI故意生成“謠言”,又該如何解決?實際上,互聯(lián)網(wǎng)上已經(jīng)出現(xiàn)了不少利用AI生成的圖片、文字來進行詐騙、造謠的案例,前段時間就有人利用AI生成的模特圖片進行網(wǎng)絡詐騙,甚至還成功騙到了不少人。
圖源:微博
在我看來,對于AI的管控確實應該提上日程,不僅僅是國內(nèi)在緊鑼密鼓地籌備相關法例法規(guī),美國也將在近期召集微軟、谷歌、OpenAI等一系列相關企業(yè),探討對AI的約束與規(guī)定,使其在使用和發(fā)展的過程中不會侵犯用戶的合法權益。
正是出于對AI的“撒謊”能力擔憂,《生成式人工智能服務管理辦法(征求意見稿)》中就明確寫明了“利用生成式人工智能生成的內(nèi)容應當真實準確,采取措施防止生成虛假信息。”,同時也使該條例引起了許多網(wǎng)友的爭議。
但就目前的AI能力來說,想要滿足“真實準確”的難度非常高,前面提到過ChatGPT都無法做到,國內(nèi)的AI則更是如此。嚴格來說,甚至連人類自己其實也無法做到所有的回答、信息都真實準確,我們的記憶會出錯,對知識點、新聞的理解會出錯,而且網(wǎng)絡上本就充斥著大量的虛假信息,以網(wǎng)絡數(shù)據(jù)訓練出來的AI顯然不可避免地受其影響。
有網(wǎng)友甚至直言:“如果哪一天AI能夠完美規(guī)避錯誤答案,生成100%準確且真實的回答,那么人類就該擔心自己了”,言下之意就是這種程度的AI已經(jīng)不再是普通的工具,而是具備獨立思維且擁有強大能力的“超級生命”。
當然,目前的AI離我們設想中的“完美AI”還有著非常遙遠的距離,但是對于AI“謊言”的管控確實該提上日程了。不過,一些網(wǎng)友則認為不應該對AI的回答準確率過早地做出嚴苛規(guī)定,否則以目前的錯誤率來看,國內(nèi)的所有AI模型都可以停止對外運營。
實際上,這些網(wǎng)友的發(fā)言多少有點危言聳聽,對于阿里、百度等企業(yè)來說,處理錯誤答案與內(nèi)容一直都是AI模型迭代中的重要工作,文心一言和通義千問在問答框中都有設置一鍵反饋按鈕,可以輕松對錯誤回答進行標記,幫助完善AI模型。
而且,從條例的細則來看,對企業(yè)的要求是在3個月采取措施修正生成錯誤回答的AI模型,確保同樣的錯誤不會再次發(fā)生,實際上也是給了企業(yè)不少的處理時間。對于阿里和百度來說,如果3個月都無法處理一個明顯的錯誤,那么或許該考慮一下是不是有工程師在“摸魚”了。
入局AI市場的門檻將更高
從條例本身來看,不少要求與規(guī)范其實都是AI企業(yè)已經(jīng)在做的事情,比如對錯誤答案進行優(yōu)化、限制非法內(nèi)容的輸出等。在文心一言和通義千問上,對于違規(guī)或非法的問題基本上都只會得到一個類似的回復:“我是一個人工智能語言模型,無法對xxxx進行評價。我的目的是提供客觀和準確的信息,幫助人們解決問題”。
ChatGPT同樣如此,如果你使用的是通過官網(wǎng)API接口提供的服務及NEWBING,那么在涉及暴力、血腥、色情等方面的提問時,AI都會直接結束當前話題并提示用戶應該更換一個話題。
對于AI的規(guī)制其實一直都存著,公開的AI平臺本就不是法外之地,不少企業(yè)也在探討對AI模型進行修改,使其生成的圖片、視頻、音頻會自動附加可用于快速識別的標記,用以在網(wǎng)絡上對相關的AI生成內(nèi)容進行快速標識。
圖源:網(wǎng)絡
在我看來,對AI行業(yè)最大的影響是切實地提高了入門門檻,隨著ChatGPT的大火,國內(nèi)開始涌現(xiàn)出大量的AI企業(yè)和項目,除了阿里、百度、華為等科技巨頭外,還有不少的小企業(yè)和個人也在宣傳自己的項目,使得國內(nèi)的AI市場變得十分混亂。
此次條例實施后,對于AI企業(yè)的規(guī)模、反饋處理等能力都提出了更高的要求,對于目前的大廠來說,滿足以上要求并不困難,倒不如說已經(jīng)在做了。實際上,更大的難點在于訓練數(shù)據(jù)的獲取,目前的AI模型基本都是通過爬蟲等手段,大量抓取網(wǎng)絡信息進行訓練迭代。
由此引發(fā)了不少網(wǎng)友的指責,認為AI企業(yè)在訓練中使用了未經(jīng)過授權的用戶個人數(shù)據(jù),侵犯了個人隱私,意大利政府此前就公開要求ChatGPT完善數(shù)據(jù)爬取方式,以確保不會擅自使用未經(jīng)授權的數(shù)據(jù)。
此外,三星此前也發(fā)布公告,要求嚴格管控企業(yè)內(nèi)部的ChatGPT使用情況,避免企業(yè)機密外泄,因為ChatGPT將三星部分員工輸入的機密數(shù)據(jù)作為訓練數(shù)據(jù),上傳到了ChatGPT的數(shù)據(jù)庫中,導致其他用戶可以通過問答的方式獲取這些數(shù)據(jù),直接影響到三星的企業(yè)安全。
為了確保公民信息及個人數(shù)據(jù)的安全,未來AI企業(yè)在隱私保護等方面需要花費更多的成本來完善相關的保障系統(tǒng)。而且,對訓練數(shù)據(jù)的嚴格規(guī)范也會直接影響到AI企業(yè)的訓練成本,此前華為就聲稱,開發(fā)和訓練一個AI的成本高達1200萬元美元,而且還不包括后續(xù)的硬件、數(shù)據(jù)投入。
隨著相關管理的規(guī)范化,AI訓練的成本或許會將多數(shù)中小企業(yè)拒之門外,對于個人和中小企業(yè)來說,使用阿里等開放式AI訓練平臺將會是未來的主流。
來源:雷科技
原文標題 : 新規(guī)拉開中國生成式AI“百團大戰(zhàn)”序幕?
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-11.13立即報名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月28日立即報名>>> 2024工程師系列—工業(yè)電子技術在線會議
-
12月19日立即報名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
-
即日-12.26火熱報名中>> OFweek2024中國智造CIO在線峰會
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
-
精彩回顧立即查看>> 【限時免費下載】TE暖通空調(diào)系統(tǒng)高效可靠的組件解決方案
推薦專題
-
5 夾縫中的文遠知行
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市