環(huán)球關(guān)注:潘多拉魔盒?如何給狂飆的AI安上“剎車”
(資料圖片僅供參考)
原標(biāo)題:潘多拉魔盒?如何給狂飆的AI安上“剎車”
從橫空出世到持續(xù)大火,ChatGPT不僅引發(fā)科技圈狂歡,也備受各國(guó)監(jiān)管部門的關(guān)注。
歐洲議會(huì)近日通過了關(guān)于《AI法案》的談判授權(quán)草案,該項(xiàng)法案光修正案就有一千多項(xiàng)。其中包含了有關(guān)面部識(shí)別、生物識(shí)別監(jiān)控和其他AI應(yīng)用使用的新規(guī)則,并提出嚴(yán)格監(jiān)管ChatGPT等AI工具。無獨(dú)有偶,作為未來監(jiān)管的第一步,美國(guó)商務(wù)部上月已就相關(guān)措施正式公開征求意見,包括新AI模型在發(fā)布前是否應(yīng)經(jīng)過認(rèn)證程序。
說起來,自AI誕生那天起人類就憂慮重重:作為頂尖智慧和技術(shù)的結(jié)晶,AI會(huì)不會(huì)帶來我們無法承受的種種風(fēng)險(xiǎn),甚至走向失控?彼時(shí),機(jī)器人之父圖靈如此告誡:盡管人類可以隨時(shí)拔掉機(jī)器人的充電器,但在這種物種面前,我們?nèi)圆坏貌槐3种t卑。以歷史視角觀之,“機(jī)器人三定律”等似乎緩解了一些憂慮,但隨著相關(guān)技術(shù)的發(fā)展和應(yīng)用的擴(kuò)大,人工智能所面臨的法律與倫理沖突的復(fù)雜性遠(yuǎn)不是幾條簡(jiǎn)單甚至“一廂情愿”的定律所能約束的了。尤其在過去這段時(shí)間里,ChatGPT讓人驚喜不已,但同時(shí)也喚醒并加劇了人類對(duì)其后風(fēng)險(xiǎn)的“原始畏懼”。無論是全球千余名業(yè)界大佬公開簽名呼吁暫停研發(fā)比GPT-4更強(qiáng)大的AI系統(tǒng),還是在業(yè)內(nèi)有“AI教父”之稱的計(jì)算機(jī)科學(xué)家杰弗里·辛頓因?qū)ι墒紸I感到擔(dān)憂而于本月初離職谷歌,無不折射出不少人對(duì)AI的心態(tài)已從“相對(duì)警惕”轉(zhuǎn)變?yōu)椤叭缗R大敵”。
理性來看,“AI末日論”多少有些危言聳聽,但種種現(xiàn)實(shí)擔(dān)憂也絕非杞人憂天。就眼下來看,不斷進(jìn)階的AI正催生著多重風(fēng)險(xiǎn)——由于無法核實(shí)數(shù)據(jù)來源的真實(shí)性,以及缺乏足夠數(shù)據(jù)進(jìn)行深度學(xué)習(xí),生成式AI常會(huì)“一本正經(jīng)”生成和傳播虛假信息;數(shù)據(jù)挖掘像個(gè)“黑箱”,簡(jiǎn)單快捷、“百無禁忌”,為學(xué)術(shù)不端大開方便之門不說,還可能侵犯知識(shí)產(chǎn)權(quán),以及泄露個(gè)人數(shù)據(jù)隱私和商業(yè)秘密……試想,當(dāng)網(wǎng)絡(luò)上充斥著越來越多不知真假的圖片和視頻,當(dāng)AI幾秒鐘就“洗”出一篇像模像樣的稿件,乃至能夠以一鍵換臉、一鍵脫衣等危害公共秩序,我們是否還有信心用好這個(gè)工具?更關(guān)鍵的,人類從來都是在思考中迸發(fā)靈感、在試錯(cuò)中革新向前,可當(dāng)AI提供了前往正確答案的“直通車”,不僅可能“挖空學(xué)習(xí)資源”,更可能反噬創(chuàng)新。
技術(shù)是把雙刃劍,如何把握好技術(shù)創(chuàng)新與防范風(fēng)險(xiǎn)的平衡向來是一道難題。在科技倫理上,這通常被稱為“科林格里奇困境”——技術(shù)尚未出現(xiàn),監(jiān)管者無法提前預(yù)測(cè)其影響并采取行動(dòng);而當(dāng)它已經(jīng)出現(xiàn)時(shí),采取行動(dòng)往往為時(shí)已晚或成本過高。相對(duì)樂觀的是,人類又總能通過不斷適應(yīng)新技術(shù)的發(fā)展而調(diào)整治理手段,一次次從這種困境中走出來。以汽車為例,在大規(guī)模上市前,人們就為其安裝上了剎車,之后也一直在完善汽車的安全性,甚至在汽車發(fā)明100多年后,我們還在為其安全“打補(bǔ)丁”——加裝安全氣囊。以史為鑒,為狂奔的AI安上“剎車”,同樣勢(shì)在必行。
無規(guī)矩不成方圓。這一方面歐美在行動(dòng),中國(guó)也在積極探索。一個(gè)月前,網(wǎng)信辦發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》,從大模型的數(shù)據(jù)來源要可靠、對(duì)AI生成的內(nèi)容應(yīng)履行告知義務(wù)、一旦造成損害相關(guān)責(zé)任方需要承擔(dān)責(zé)任等方面給生成式AI的發(fā)展套上了“籠頭”。誠(chéng)如比爾·蓋茨所言,真正在全球范圍內(nèi)暫停人工智能技術(shù)的開發(fā),已經(jīng)不太現(xiàn)實(shí)。但確保其被健康地使用,防止打開潘多拉魔盒,卻是必要的。換句話說,除了跟上創(chuàng)新步伐、謀求技術(shù)突破,如何構(gòu)建一套趨利避害的AI治理體系,同樣是一條不可忽視的競(jìng)爭(zhēng)賽道。
“利維坦”“烏托邦”這兩個(gè)詞匯,想必大家都很熟悉。有學(xué)者借此,將“賽先生”的兩個(gè)發(fā)展趨向形容為“賽維坦”(對(duì)科技無所抗拒又無能為力)和“賽托邦”(科技最大程度造福社會(huì))。如今重重挑戰(zhàn)在前,我們不必過分悲觀,也不能盲目樂觀,堅(jiān)定馴服“賽維坦”的信心,保持實(shí)現(xiàn)“賽托邦”的理想,在遵從科技倫理、人本主義、法治理念的基礎(chǔ)上,不斷完善人工智能相關(guān)法規(guī),力求價(jià)值引領(lǐng)與技術(shù)“糾錯(cuò)”并行、秩序保障與創(chuàng)新提升協(xié)同、權(quán)益維護(hù)與義務(wù)承擔(dān)對(duì)稱,就能最大程度爭(zhēng)取科技向善。(晁星)
標(biāo)簽: