實(shí)時(shí):關(guān)于人工智能治理技術(shù),院士專家這樣說
12月10日,由清華大學(xué)主辦、清華大學(xué)人工智能國際治理研究院(I-AIIG)承辦的第三屆人工智能合作與治理國際論壇舉辦。其中,第二場主論壇以“人工智能治理技術(shù)”為主題,與會(huì)專家展開熱烈討論。
主論壇II由清華大學(xué)人工智能國際治理研究院、人工智能研究院、智能產(chǎn)業(yè)研究院共同承辦,重點(diǎn)探討如何通過技術(shù)工具來實(shí)現(xiàn)人工智能可知、可信、可控和可用;如何實(shí)現(xiàn)算法的可解釋、可控制與公平性,將倫理準(zhǔn)則“嵌入”到人工智能產(chǎn)品與系統(tǒng)的研發(fā)設(shè)計(jì);以及如何將產(chǎn)業(yè)監(jiān)管要求轉(zhuǎn)化為技術(shù)解決方案,開發(fā)針對人工智能行業(yè)或應(yīng)用的“治理技術(shù)”與服務(wù)。
哥倫比亞大學(xué)常務(wù)副校長、計(jì)算機(jī)科學(xué)系教授周以真,中國工程院院士、鵬城實(shí)驗(yàn)室主任、清華大學(xué)人工智能國際治理研究院學(xué)術(shù)委員高文,瑞萊智慧(RealAI)公司聯(lián)合創(chuàng)始人及首席執(zhí)行官田天,清華大學(xué)智能產(chǎn)業(yè)研究院國強(qiáng)教授、首席研究員聶再清等專家出席論壇并作主旨發(fā)言,介紹人工智能研究與技術(shù)前沿進(jìn)展,并通過圓桌對話深入探討如何通過技術(shù)創(chuàng)新應(yīng)對和解決人工智能帶來的風(fēng)險(xiǎn)與挑戰(zhàn)。主論壇II由清華大學(xué)人工智能研究院常務(wù)副院長、歐洲科學(xué)院外籍院士孫茂松主持。
(相關(guān)資料圖)
周以真教授以《可信賴的人工智能》為題發(fā)表主旨演講。她介紹了正在推動(dòng)的“值得信賴的人工智能”研究議程,其目的在于把人工智能社區(qū)、網(wǎng)絡(luò)安全社區(qū)和正式方法社區(qū)三個(gè)社區(qū)聚集在一起。她指出,一些人工智能系統(tǒng)可能是脆弱和不公平的,因此需要努力實(shí)現(xiàn)可信賴的人工智能??尚刨囉?jì)算意味可靠性、安全性、可用性,要考慮準(zhǔn)確性、穩(wěn)健性、公平性,通過問責(zé)制、透明度、可解釋性、道德倫理等設(shè)置人工智能執(zhí)行的任務(wù)和環(huán)境。關(guān)于如何能夠?qū)崿F(xiàn)可信賴的人工智能,除了必要的測試、模擬、良好的軟件工程實(shí)踐之外,她提出了一種構(gòu)建可信系統(tǒng)的事后驗(yàn)證方法,即用數(shù)據(jù)模型、代碼程序來滿足我們關(guān)心的正確性屬性、安全性屬性、活性屬性等性質(zhì),并通過列舉研究問題應(yīng)用形式化方法,來嘗試實(shí)現(xiàn)人工智能系統(tǒng)的可信度。她同時(shí)指出,確保人工智能系統(tǒng)可信性還有其它方法,比如構(gòu)造正確的模型,利用有評估模型和模型檢查的統(tǒng)計(jì)方法等。
高文院士以《新一代人工智能發(fā)展的安全問題》為題發(fā)表主旨演講。他認(rèn)為人工智能改變了安全格局,進(jìn)一步擴(kuò)大了威脅,需要從多個(gè)層面進(jìn)行風(fēng)險(xiǎn)管控。在人的層面應(yīng)加強(qiáng)倫理教育;在模型算法層面,期望它可信、可控、可解釋并且被正當(dāng)使用;在數(shù)據(jù)層面,期望數(shù)據(jù)具有充足的系統(tǒng)防護(hù)保證其安全。強(qiáng)人工智能安全風(fēng)險(xiǎn)來源于三個(gè)方面,一是模型的不可解釋性,二是算法和硬件的不可靠性,三是自主意識的不可控性。對于這些,一方面要在設(shè)計(jì)及應(yīng)用階段采取預(yù)防和檢測措施,另一方面要加強(qiáng)國際合作,相互取長補(bǔ)短,還要加強(qiáng)人才培養(yǎng)。對于數(shù)據(jù)安全問題,他認(rèn)為隱私保護(hù)和數(shù)據(jù)有效使用是一對矛盾,需要做到平衡,鵬程實(shí)驗(yàn)室所采用的“防水堡”技術(shù),對于保護(hù)模型訓(xùn)練數(shù)據(jù)安全共享和使用提供了解決思路,該技術(shù)可以做到只分享價(jià)值,不分享數(shù)據(jù),在保證原始數(shù)據(jù)不移動(dòng)的情況下也能夠使數(shù)據(jù)可用。
田天先生以《人工智能安全的實(shí)踐探索》為題發(fā)表主旨演講。他認(rèn)為人工智能正在進(jìn)入一個(gè)從高速增長向高質(zhì)量增長轉(zhuǎn)變的新發(fā)展階段,這對人工智能的安全性和可靠性提出了更多新要求。他列舉了一些已經(jīng)真實(shí)地發(fā)生在我們身邊的人工智能安全問題,比如人臉識別產(chǎn)生的安全隱患和實(shí)際損失,同時(shí)指出,我們并不能因噎廢食地不去使用人工智能,而是應(yīng)當(dāng)進(jìn)一步完善治理,讓人工智能在更安全的前提下發(fā)揮它應(yīng)有的作用。
聶再清教授以《可信AI技術(shù)與應(yīng)用》為題發(fā)表主旨演講,他表示安全可信是人工智能治理的核心訴求,而安全可信的人工智能技術(shù)產(chǎn)品需要具備安全可控、數(shù)據(jù)資產(chǎn)和隱私保護(hù)、可解釋性等條件,并進(jìn)一步結(jié)合智慧醫(yī)療、車路協(xié)同自動(dòng)駕駛等實(shí)踐案例作了詳細(xì)講解。AI安全性方面,他以車路協(xié)同感知為例,講解了自動(dòng)駕駛領(lǐng)域如何通過多傳感器的協(xié)同感知,來提升AI協(xié)同內(nèi)部可靠性,從而提高AI安全性。在數(shù)據(jù)資產(chǎn)和隱私保護(hù)方面,他以多中心醫(yī)療聯(lián)邦協(xié)作科研平臺(tái)為例進(jìn)行講解,并提出通過多中心的聯(lián)合協(xié)作,解決數(shù)據(jù)孤島、數(shù)據(jù)單邊樣本不足、標(biāo)簽嚴(yán)重缺失等挑戰(zhàn),做到數(shù)據(jù)的可用不可見以及面向隱私保護(hù)的機(jī)器學(xué)習(xí),并強(qiáng)調(diào)公平和可解釋的激勵(lì)機(jī)制是多中心聯(lián)邦協(xié)作的基礎(chǔ)??山忉屝苑矫?,他以面向營養(yǎng)健康管理的可解釋個(gè)性化推薦為例進(jìn)行講述,提出需要“引導(dǎo)式”而非“迎合式”信息推薦,提升用戶依從性并充分考慮營養(yǎng)健康因素,避免迎合式的飲食推薦。
圓桌對話環(huán)節(jié),與會(huì)專家圍繞“人工智能治理技術(shù)”問題作進(jìn)一步研討,并回答了線上嘉賓的提問。
圍繞主持人提出的從技術(shù)角度或技術(shù)應(yīng)用角度,怎樣才能實(shí)現(xiàn)人工智能技術(shù)的可用、管用乃至好用這個(gè)問題,高文院士認(rèn)為,現(xiàn)階段很多技術(shù)在發(fā)展過程中,過早說哪個(gè)不能用可能會(huì)抑制技術(shù)本身的發(fā)展。現(xiàn)階段更多是從道德層面做引導(dǎo),盡量把一些可能的風(fēng)險(xiǎn)抑制工具想明白。聶再清教授認(rèn)為,在創(chuàng)新和監(jiān)管之間需要平衡,一方面控制技術(shù)、工具、創(chuàng)新的個(gè)人有責(zé)任保證工具或?qū)?chuàng)新控制在危險(xiǎn)可控范圍內(nèi);另一方面社會(huì)也要集體監(jiān)督,確保某個(gè)出現(xiàn)問題的產(chǎn)品或技術(shù)能夠回滾、撤銷。田天先生指出,技術(shù)可解釋性需要將技術(shù)發(fā)展與應(yīng)用場景深度結(jié)合,在不同領(lǐng)域需要不同的可解釋的能力及不同的可解釋級別,讓技術(shù)在應(yīng)用場景下發(fā)揮最好的作用。
圍繞關(guān)于現(xiàn)階段是否有必要設(shè)計(jì)一部分可操作具體規(guī)則,特別是將倫理準(zhǔn)則嵌入到人工智能產(chǎn)品與系統(tǒng)研發(fā)設(shè)計(jì)中的問題,田天認(rèn)為,在發(fā)展的階段需要鼓勵(lì)為主,各種人工智能難免涉及到一些模糊地帶,一方面不能一棒子打死導(dǎo)致技術(shù)無法進(jìn)步,另一方面也要設(shè)立一些紅線,制定清晰的懲罰規(guī)定確保人工智能不觸犯人類利益的基本保障。在此基礎(chǔ)上,給智能應(yīng)用留有更多空間,鼓勵(lì)重視倫理,提供正向激勵(lì),促進(jìn)合規(guī)發(fā)展。主持人孫茂松教授認(rèn)為,應(yīng)鼓勵(lì)應(yīng)用,鼓勵(lì)創(chuàng)新,在行動(dòng)中及時(shí)發(fā)現(xiàn)問題,及時(shí)改正,及時(shí)總結(jié)經(jīng)驗(yàn),使人工智能技術(shù)在應(yīng)用中更好地完善和發(fā)展。
關(guān)于人類自身偏見和歧視被寫進(jìn)代碼造成AI的偏見與歧視的問題,聶再清教授認(rèn)為AI基于數(shù)據(jù)學(xué)習(xí)獲取知識錯(cuò)誤并不是觀點(diǎn)歧視,而是能力不足。有可能通過引入更多的知識庫或知識圖譜能夠得到提升,不應(yīng)該把這個(gè)問題過分在倫理層面去拔高,更多還是解決訓(xùn)練數(shù)據(jù)問題。對未來數(shù)據(jù)隱私保護(hù)的責(zé)任可否由平臺(tái)和用戶共同承擔(dān)的問題。田天認(rèn)為基于現(xiàn)在新興的隱私計(jì)算、區(qū)塊鏈等技術(shù),用戶自身能夠?qū)?shù)據(jù)具有一定控制權(quán)。個(gè)人對于數(shù)據(jù)的擁有或?qū)?yīng)的權(quán)利會(huì)越來越大,越來越清晰。
2022人工智能合作與治理國際論壇由清華大學(xué)主辦,人工智能國際治理研究院(I-AIIG)承辦。大會(huì)論壇以“人工智能引領(lǐng)韌性治理與未來科技”為主題,是繼2020年“后疫情時(shí)代的人工智能國際合作與治理”、2021年“如何構(gòu)建一個(gè)平衡包容的人工智能治理體系”主題的基礎(chǔ)上,進(jìn)一步推動(dòng)全球各方在人工智能合作與治理方面的對話,旨在更加深入地探討如何構(gòu)建適合人工智能健康發(fā)展的治理體系,推動(dòng)建設(shè)人類命運(yùn)共同體。論壇議程為兩天,設(shè)有三場主論壇、一場特別論壇、七場專題論壇,并舉行首屆北京人文論壇。