實時:推動AI負(fù)責(zé)任應(yīng)成為社會自覺
(資料圖)
原標(biāo)題:推動AI負(fù)責(zé)任應(yīng)成為社會自覺
當(dāng)前,AI的運用與監(jiān)管備受社會關(guān)注。近日,國家網(wǎng)信辦就《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)向社會公開征求意見,擬進一步強化相關(guān)主體責(zé)任,內(nèi)容涉及數(shù)據(jù)安全、個人信息保護、算法設(shè)計、內(nèi)容合規(guī)等多個方面。
隨著ChatGPT等通用人工智能的革命性突破,AI技術(shù)已成為數(shù)字經(jīng)濟時代的核心驅(qū)動力、產(chǎn)業(yè)轉(zhuǎn)型升級的重要支撐。AI在智慧城市、智慧醫(yī)療、智能制造、金融科技等領(lǐng)域的應(yīng)用示范,推動社會向更高層次的智能化水平邁進,深刻改變著人們的生產(chǎn)生活方式。
強勁發(fā)展勢頭下,AI不可避免會遭遇“成長煩惱”。尤其是以ChatGPT為代表的生成式人工智能服務(wù),能力不斷升級,治理難度隨之提升。AI生成的內(nèi)容高度“仿真”,但往往真假難辨、虛實結(jié)合。AI有著強大的信息收集能力,但并不能保證數(shù)據(jù)收集的合法性以及海量信息不被泄露。AI自動化的文本生產(chǎn)模式效率極高,但屢屢出現(xiàn)合成他人作品、復(fù)制藝術(shù)家風(fēng)格、抄襲開發(fā)代碼等版權(quán)問題??此瓶陀^中立無情感的AI,有時“理直氣壯”地輸出偏見歧視的內(nèi)容,對社會認(rèn)知和道德倫理產(chǎn)生負(fù)面影響。最近一段時間,利用AI技術(shù)“復(fù)活”已故親人、換臉換聲干預(yù)現(xiàn)實世界、無代碼編程降低黑客門檻等事件頻出,引發(fā)社會爭議。不解決這些問題,就無法在關(guān)鍵領(lǐng)域信任并使用AI。發(fā)展負(fù)責(zé)任且可信的人工智能技術(shù),成為產(chǎn)業(yè)趨勢和社會共識。
讓AI更負(fù)責(zé)任,正是圍繞AI出臺一系列法律法規(guī)的目標(biāo)所在。什么是可接受的、什么是不可接受的,對于人工智能來說,目前標(biāo)準(zhǔn)并不明確。此次把生成式人工智能服務(wù)監(jiān)管提上日程,為AIGC(人工智能生成內(nèi)容)產(chǎn)業(yè)提供了一套明確的法規(guī)框架,不僅有助于規(guī)范產(chǎn)業(yè)健康發(fā)展,也可以提升公眾對AIGC的理解和信任。雖然監(jiān)管往往落后于新技術(shù)發(fā)展,但通過建章立制,強調(diào)風(fēng)險防范、監(jiān)管前置,能夠幫助人們警惕和預(yù)判挑戰(zhàn),更好應(yīng)對技術(shù)發(fā)展帶來的未知性和不確定性。
如何讓AI更負(fù)責(zé)任?技術(shù)是中性的,但技術(shù)研發(fā)的核心是人,不同人會對技術(shù)用途作出不同選擇。因此,強化相關(guān)主體責(zé)任,尤其是強調(diào)生成式人工智能產(chǎn)品提供者的責(zé)任,應(yīng)被放在突出位置?,F(xiàn)實中,一些科技公司盲目追逐商業(yè)利益,任由算法野蠻生長,內(nèi)容無序輸出,道德底線頻頻失守。內(nèi)容應(yīng)當(dāng)真實準(zhǔn)確,采取措施防止生成虛假信息。向公眾提供服務(wù)前,應(yīng)當(dāng)申報安全評估。不利用生成內(nèi)容損害他人形象、名譽以及其他合法權(quán)益……《征求意見稿》明確責(zé)任主體、劃出權(quán)責(zé)范圍,讓科技公司有的放矢、有章可循,倒逼上游產(chǎn)業(yè)鏈優(yōu)化結(jié)構(gòu)、達(dá)成內(nèi)容互信。
為狂飆的AI套上“韁繩”,不是“踩剎車”,而是定方向,助其沿著正確軌道前行?!墩髑笠庖姼濉诽岢?,國家支持人工智能算法、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新、推廣應(yīng)用、國際合作,鼓勵優(yōu)先采用安全可信的軟件、工具、計算和數(shù)據(jù)資源,再次明確對AI產(chǎn)業(yè)的支持態(tài)度。政策層面已在加速建立制度“防護欄”,技術(shù)層面也要加快開發(fā)治理工具,實現(xiàn)技術(shù)應(yīng)用全生命周期的多層次監(jiān)管,比如通過科技手段識別AI生成內(nèi)容,方便內(nèi)容檢測、作品確權(quán)。進一步說,監(jiān)管也要把握好度。約束技術(shù)“暗黑面”的同時,盡可能探索治理新路徑,創(chuàng)造條件引導(dǎo)技術(shù)向善、釋放創(chuàng)新潛力,防止“一管就死、一放就亂”情況在AI領(lǐng)域出現(xiàn)。
未來AI或許會像人類一樣思考,但在此之前,人們應(yīng)該思考的,并不是能不能創(chuàng)新,而應(yīng)是為什么創(chuàng)新、如何更好創(chuàng)新。想清楚這些,才能引導(dǎo)AI作出正確的、合乎法治倫理的決策和行動。每一個新技術(shù)的參與者、使用者、監(jiān)管者,都應(yīng)拉緊道德和法律的韁繩、有所為有所不為,以負(fù)責(zé)任的方式更好服務(wù)社會。從這個角度說,推動AI負(fù)責(zé)任應(yīng)成為社會自覺,(韓小喬)
標(biāo)簽: