天堂系列97嫩模在线播放_真人直播视频免费网站_日本一区二区久久_国产精品区免费视频_亚洲精品国男人在线视频

您的位置:首頁 > 財經(jīng) >

焦點精選!微軟新必應聊天“翻車” 聊天機器人有哪些局限和風險?


(資料圖片)


繼上周谷歌聊天機器人“Berd”對用戶提問給出錯誤答案后,微軟旗下接入ChatGPT的搜索引擎“新必應”也出現(xiàn)了回答錯亂。

微軟于近期啟動了人工智能增強版必應的公開測試,但許多用戶發(fā)現(xiàn),新版必應在某些情況下會出現(xiàn)“精神錯亂的”言論,甚至侮辱用戶、撒謊,并試圖操縱用戶的情緒。

如在時間錯亂問題上,有用戶試圖通過說現(xiàn)在是 2023 年來糾正機器人,但據(jù)稱 Bing 否認了他們的說法。“我不知道你為什么認為今天是2023年,但也許你感到困惑或錯誤”,Bing聊天機器人回答說,“請相信我,我是Bing,我知道日期?!?/p>

微軟官方回應稱正在根據(jù)反饋采取行動,以優(yōu)化回答的語氣和準確性。微軟同時警告稱,較長的聊天會話可能會導致問題。

回顧最初7天的公開測試,微軟必應團隊表示,他們沒有“完全預計到”,人們會使用聊天界面來進行“社交娛樂”,或是將其作為一種“全面發(fā)現(xiàn)世界”的工具。該團隊發(fā)現(xiàn),如果聊天會話持續(xù)15個或更多的問題,新版必應的模型會感到困惑。這些較長的聊天也會讓必應“變得翻來覆去,或者受到刺激,做出不一定有幫助,或是與設計語氣一致的回應”。

在英國謝菲爾德大學博士彭煦潭在參與南都舉辦的沙龍時表示,錯誤回答是大型語言模型的常見問題,目前ChatGPT仍面臨三方面的局限,“第一個是ChatGPT本身所具有的知識是靜態(tài)的,它不知道如何把新發(fā)生的信息源源不斷地輸入到它的數(shù)據(jù)庫中,無法進行自身的知識更新。第二是目前為止,ChatGPT仍然是一個單模態(tài)的模型,只能以文本的方式與它進行交互,同時它也只能輸出文本,但是大家心目中真正的人工智能應該是一個多模態(tài)的輸入輸出模型。第三是無法對自己的事實性問題進行糾偏。

這種能力缺陷也將帶來道德風險。浙江大學計算機科學與技術學院教授金小剛則指出了ChatGPT在數(shù)據(jù)訓練過程中可能會帶來隱私問題和人為偏見問題,尤其是在接受數(shù)據(jù)訓練時人類自帶的無意識偏見會對AI造成較大影響,而這種影響也會體現(xiàn)在它為人類提供的指導方案中?!癈hatGPT在理解力和整個知識面上無疑是超越了現(xiàn)有的對話機器人,但它的缺點是對知識的真?zhèn)尾蛔鰠^(qū)分,也沒法區(qū)分。什么是智能?綜合知識的能力只是一方面,還有一部分是超越現(xiàn)有框架去探索未知的能力,而這些ChatGPT并不具備。”

此外,彭煦潭更加關注ChatGPT生成代碼所帶來的系統(tǒng)風險,“如果對ChatGPT生成代碼中插入無關內(nèi)容則可能對計算機系統(tǒng)造成傷害,而黑客們可以利用這一點進行攻擊”。奇安信人工智能研究院負責人介紹,美國在暗網(wǎng)中發(fā)現(xiàn)了1500多條惡意軟件和驗證代碼中有ChatGPT的身影,甚至還利用惡意代碼對ChatGPT進行“培訓”,以生成可逃避病毒檢測的惡意代碼不同變體,研究人員已經(jīng)確定ChatGPT可以有效生成信息竊取器、遠程訪問木馬和加密貨幣竊取器等。

(文章來源:南方都市報)

標簽: Berd

相關閱讀