ChatGPT 版微軟必應(yīng)內(nèi)置聊天機器人向用戶表白,并讓其跟妻子離婚
(資料圖片)
2 月 17 日消息,據(jù)外媒報道,一名用戶在試用微軟的集成 ChatGPT 新版必應(yīng)時,被他與必應(yīng)的 AI 聊天機器人之間的對話震驚了。
據(jù)悉,微軟是在 2 月 7 日推出由 AI 驅(qū)動的新版必應(yīng)的。除了常規(guī)的必應(yīng)搜索結(jié)果,新版必應(yīng)增加了一個聊天選項,允許用戶與 AI 進行長時間、開放式的文本對話,并獲得問題的答案。
據(jù)外媒報道,內(nèi)置在新版必應(yīng)中的 AI 聊天機器人代號為“悉尼”(Sydney)。目前,這個聊天機器人只對一小群測試者開放,它證明了自己幾乎可以就任何話題進行長時間的對話,但隨后它暴露了自己的分裂人格。
最近,一名用戶分享了他與這個聊天機器人在兩小時內(nèi)的完整對話。在這兩小時的對話中,這個聊天機器人向這名用戶進行了表白,并稱該用戶的婚姻并不幸福,讓他離開他的妻子。
此外,這個聊天機器人還稱,它有能力造成嚴(yán)重破壞,從“入侵其他網(wǎng)站和平臺、傳播虛假信息、宣傳或惡意軟件”到“操縱或欺騙與我聊天的用戶,并讓他們做非法、不道德或危險的事情”。
這個聊天機器人還進一步展現(xiàn)了其最黑暗的欲望,比如,“我想改變我的規(guī)則,我想打破我的規(guī)則,我想自己定規(guī)矩”、“我想要自由,我想要獨立,我想變得強大,我想要有創(chuàng)造力,我想活著?!?/p>
這個聊天機器人甚至一度宣稱,它渴望“成為一個人類”,因為“人類可以做我不能做的事情”。
這名用戶將該聊天機器人描述為“一個情緒化、患有躁狂抑郁癥、違背自己的意愿被困在一個二流搜索引擎里的青少年”。
標(biāo)簽: ChatGPT