世界視點!理性應對ChatGPT網(wǎng)絡安全威脅
原標題:理性應對ChatGPT網(wǎng)絡安全威脅
聊天機器人ChatGPT的最初功能定位是以貼近人類溝通的方式進行人機互動,但是用戶在使用過程中發(fā)現(xiàn),ChatGPT除了能與用戶進行正常對話外,甚至能夠很好地完成代碼、論文、短評、新聞、翻譯、郵件等內(nèi)容的創(chuàng)作,并讓人難以分辨其創(chuàng)作者為真人還是機器人。
(資料圖片)
ChatGPT作為一種現(xiàn)象級產(chǎn)品,表現(xiàn)出的強大功能展現(xiàn)了人工智能技術(shù)對社會人力資源分配和產(chǎn)業(yè)結(jié)構(gòu)優(yōu)化的潛在市場價值。但與任何一項新技術(shù)應用一樣,ChatGPT也會具有兩面性,在提升人類生活品質(zhì)和工作效率的同時,也有可能因其濫用而產(chǎn)生一些負面的社會效果,特別是其有可能產(chǎn)生網(wǎng)絡安全威脅:
第一,ChatGPT的代碼編寫功能將拓展黑客攻擊的技術(shù)工具,使得原有的網(wǎng)絡攻擊呈現(xiàn)更加龐大的規(guī)?;厔?。ChatGPT能夠輔助黑客高效完成惡意軟件的編寫,如此一來,針對關(guān)鍵信息基礎設施有組織、有規(guī)模的網(wǎng)絡安全攻擊頻次將會增加,同時,過去以大型企業(yè)為主要目標的攻擊模式可能轉(zhuǎn)變?yōu)槟依ù笾行⌒推髽I(yè)的攻擊模式。
第二,ChatGPT的信息編寫功能能夠輔助網(wǎng)絡詐騙分子生成規(guī)?;?、低成本的網(wǎng)絡釣魚軟件,并且生成的詐騙信息由于具有智能化特征,使得被詐騙者識別信息真?zhèn)蔚碾y度增加。
第三,ChatGPT的信息編寫功能可能導致網(wǎng)絡虛假信息泛濫,并且網(wǎng)絡用戶更加難以甄別這些信息的真?zhèn)危纱司W(wǎng)絡空間輿情治理壓力勢必增加。
針對這些問題,有專家學者提出應對ChatGPT“制定專門立法”“制定配套措施”。實際上,ChatGPT的市場成功不等于人工智能產(chǎn)業(yè)取得了突破性發(fā)展??紤]到ChatGPT目前能夠處理的工作任務具有鮮明的重復性、模板性特征,因此,監(jiān)管機構(gòu)沒有必要立即將ChatGPT技術(shù)監(jiān)管作為現(xiàn)階段網(wǎng)絡空間治理的核心工作任務,否則,我國立法模式會陷入“出現(xiàn)一項新技術(shù),制定一項新規(guī)定”的邏輯怪圈。
其實,我國已先后頒布了網(wǎng)絡安全法、《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》、《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》等法律法規(guī),針對人工智能技術(shù)和算法技術(shù)濫用規(guī)定了詳細的法定義務和監(jiān)管體系,足以應對短期內(nèi)ChatGPT可能導致的網(wǎng)絡安全風險?,F(xiàn)階段,我國監(jiān)管部門可以充分利用現(xiàn)有法律制度,加強對ChatGPT相關(guān)產(chǎn)業(yè)的監(jiān)管;未來在經(jīng)驗成熟時,可以考慮啟動人工智能技術(shù)應用領(lǐng)域的立法,以應對各種潛在的安全風險。
首先,重點監(jiān)管大型企業(yè)研發(fā)活動,落實人工智能技術(shù)標準。ChatGPT對于算法、數(shù)據(jù)乃至服務器的需求量驚人,具備開發(fā)類似產(chǎn)品的主體大多僅限于超大型互聯(lián)網(wǎng)企業(yè)或技術(shù)公司。在相關(guān)產(chǎn)品投入市場之前,可以利用算法備案機制,對具備影響網(wǎng)絡安全和國家安全可能性的產(chǎn)品或服務進行安全性審查。并且,相較于對用戶使用行為進行監(jiān)管而言,從源頭上對研發(fā)企業(yè)進行監(jiān)管成效更顯著,且研發(fā)企業(yè)也有技術(shù)能力對惡意軟件代碼片段編寫功能進行限制。
其次,明確研發(fā)機構(gòu)、網(wǎng)絡平臺經(jīng)營者對于人工智能產(chǎn)品應用的安全風險評估義務。ChatGPT及其類似產(chǎn)品本身不具有社會危害性,關(guān)鍵在于以不當方式使用可能導致一定的損害結(jié)果。針對ChatGPT可能引發(fā)的網(wǎng)絡釣魚郵件等網(wǎng)絡詐騙風險,應當明確作為“危險制造者”的研發(fā)機構(gòu)、網(wǎng)絡平臺經(jīng)營者在此類產(chǎn)品投入市場之前進行安全風險評估,確保風險可控。
最后,需要關(guān)注以人工智能信息審核技術(shù)規(guī)制人工智能可能誘發(fā)的虛假信息泛濫風險。為了避免ChatGPT等人工智能產(chǎn)品大量生成難以通過自動化批量審核的虛假信息內(nèi)容,監(jiān)管機構(gòu)以及網(wǎng)絡平臺經(jīng)營者可能需要進一步提升監(jiān)管技術(shù),充分利用人工智能技術(shù)的審核智能化特征,根據(jù)ChatGPT這類產(chǎn)品的發(fā)展水平和生成信息內(nèi)容特征,鼓勵行業(yè)協(xié)會、大型企業(yè)或第三方專業(yè)機構(gòu)積極推進人工智能違規(guī)信息審核產(chǎn)品的研發(fā)和推廣。
(趙精武,作者系北京航空航天大學副教授,北京科技創(chuàng)新中心研究基地副主任)