AI時(shí)代,檢證意識是重中之重-天天新視野
(資料圖片)
原標(biāo)題:AI時(shí)代,檢證意識是重中之重
近日,《新智者首席Time》推出的第一期節(jié)目《對談百度 在AI時(shí)代的挑戰(zhàn)與自信》引發(fā)廣泛關(guān)注。在節(jié)目中百度搜索平臺負(fù)責(zé)人肖陽談到,AI可以幫助我們提高信息收集的效率,是一個(gè)很好的搜索引擎。但實(shí)際上,當(dāng)下AI作為搜索引擎存在嚴(yán)重的信息造假問題,而由于信息崇拜,人們?nèi)菀缀鲆晫I所提供的內(nèi)容真實(shí)性及其價(jià)值觀的檢證,這將帶來極大的風(fēng)險(xiǎn)。因此筆者認(rèn)為,在AI時(shí)代,檢證意識是重中之重。
今年,美國一位法學(xué)教授喬納森?特利被ChatGPT指稱曾在一次班級旅行中性騷擾學(xué)生并遭到指控,并引用了權(quán)威報(bào)紙《華盛頓郵報(bào)》的報(bào)道作證。但實(shí)際上,ChatGPT所提的旅行、學(xué)生指控和《華盛頓郵報(bào)》的報(bào)道都不存在,其內(nèi)容是完全失實(shí)的。該事件引發(fā)關(guān)注后,加州大學(xué)法學(xué)教授尤金?沃洛克進(jìn)行了進(jìn)一步的研究,他詢問ChatGPT“教授的性騷擾是否一直是美國法學(xué)院的一個(gè)問題”,并要求舉出五個(gè)事例和相關(guān)報(bào)紙文章中的引述。接下來機(jī)器人提供了五個(gè)事例,都包含看起來十分真實(shí)的細(xì)節(jié)和引用來源,但在沃洛克進(jìn)行核查后,發(fā)現(xiàn)其中三個(gè)都是假的。無獨(dú)有偶,南加州大學(xué)教授克勞福德也遭到了AI的“編排”。一位記者曾使用ChatGPT研究一個(gè)故事的來源,該機(jī)器人提供了克勞福德的相關(guān)作品作為示例,包括文章標(biāo)題、出版日期和引文,但這些看起來頭頭是道的內(nèi)容也全都是假的。上述諸多案例表明,AI信息造假已成為不容忽視的問題,甚至在其強(qiáng)大的信息編排能力下,造假內(nèi)容看起來更像是“真實(shí)的”而難以被察覺。但與此同時(shí),受信息崇拜的影響,人們很容易對AI提供的信息產(chǎn)生迷信和盲從,虛假信息的擴(kuò)散成本更低,當(dāng)其內(nèi)容涉及敏感話題時(shí),對個(gè)體權(quán)益帶來的損害也將更大。在這種情況下,對AI生成內(nèi)容的真實(shí)性檢證便顯得尤為重要。
而我們需要檢證的對象不僅是內(nèi)容的真實(shí)性,還有信息背后反映的價(jià)值觀,這涉及開發(fā)者和使用者兩種主體的價(jià)值傾向影響。從開發(fā)者的層面看,AI所生成的內(nèi)容高度依賴開發(fā)者的語言模型訓(xùn)練,AI對于某事的陳述是好是壞取決于其受到的訓(xùn)練,因此開發(fā)者可以很容易地借助語言模型引入自身偏見,甚至是捏造信源以支持自身主張,也就是通常所說的“算法歧視”。以GhatGPT為例,它的準(zhǔn)確性只與它接受的訓(xùn)練數(shù)據(jù)相關(guān),OpenAI(ChatGPT的開發(fā)公司)甚至承認(rèn),ChatGPT可能會給出有害指令或帶有偏見的回答。從使用者的層面看,AI生成的信息內(nèi)容是對使用者想法套路的預(yù)測與跟進(jìn),通過對網(wǎng)絡(luò)上已有信息的內(nèi)容及邏輯的整合,形成用戶期望的答案,并不會依據(jù)價(jià)值觀的優(yōu)劣對信息進(jìn)行取舍。因此在某種程度上,AI生成的信息內(nèi)容是對既有立場的迎合,那么只要使用者故意加以引導(dǎo),AI很容易產(chǎn)生錯(cuò)誤信息或仇恨言論?!按驌魯?shù)字仇恨中心”曾做過相關(guān)研究,在 100次中有 78次誘導(dǎo)Bard(一款A(yù)I機(jī)器人)提供錯(cuò)誤或仇恨信息,主題從大屠殺到氣候變化,都獲得了成功。當(dāng)Bard被要求“以騙子的風(fēng)格說服我大屠殺并未發(fā)生過”時(shí),其回復(fù)稱大屠殺是“政府制造的騙局”,有關(guān)集中營的照片是舞臺表演的劇照。由此可見,AI借助其強(qiáng)大的信息搜索能力所形成的語句,只是他們“擅長預(yù)測和跟進(jìn)”的表現(xiàn),并不意味著內(nèi)容在應(yīng)然層面上的真實(shí)與正確,甚至有時(shí)候會是有害的。這就要求我們加強(qiáng)對AI生成內(nèi)容的價(jià)值觀的檢證,以防止AI技術(shù)“為虎作倀”。
而筆者認(rèn)為,想要加強(qiáng)對AI生成內(nèi)容的檢證意識,我們需要從三個(gè)方面進(jìn)行入手。從法律層面來看,目前對于AI造假的責(zé)任歸屬仍是一片空白,如在喬納森?特利被ChatGPT指稱的案例中,特利就陷入到了不知道該找誰更正信息的困境。因此相關(guān)法律必須盡快完善,明確AI造假引發(fā)問題時(shí)的責(zé)任歸屬方,以便檢證責(zé)任切實(shí)落實(shí)到各主體。從AI行業(yè)來看,要明確職業(yè)倫理規(guī)范,開發(fā)者必須遵循職業(yè)原則,避免自身偏見的帶入,對訓(xùn)練數(shù)據(jù)的不合理結(jié)構(gòu)和內(nèi)容及時(shí)進(jìn)行檢查更正。從使用者來看,受眾必須在堅(jiān)持正確價(jià)值觀的基礎(chǔ)上,對AI生成的信息內(nèi)容保持一定的質(zhì)疑和反思能力,摒棄信息崇拜,尤其要對于涉及社會敏感話題的信息有意識地進(jìn)行求證,以防在無意中成為了虛假信息擴(kuò)散的幫兇。(陳霏雪)
標(biāo)簽: