天堂系列97嫩模在线播放_真人直播视频免费网站_日本一区二区久久_国产精品区免费视频_亚洲精品国男人在线视频

您的位置:首頁 > 資訊 >

熱議:著名“AI 教父”杰弗里?辛頓宣布從谷歌離職:我為發(fā)展 AI 而后悔

北京時間 5 月 2 日消息,有“AI 教父”之稱的杰弗里?辛頓 (Geoffrey Hinton) 周一宣布,他已經(jīng)從谷歌公司離職。半個世紀以來,辛頓一直在培養(yǎng) ChatGPT 等聊天機器人背后的核心技術。但是現(xiàn)在,他擔心 AI 會造成嚴重危害。


(相關資料圖)

AI 教父辛頓

辛頓是 AI 先鋒。2012 年,辛頓博士和他在多倫多大學所帶的兩名研究生開發(fā)的技術,成為了 AI 系統(tǒng)的知識基礎。如今,科技行業(yè)的巨頭們認為,AI 系統(tǒng)是它們未來發(fā)展的關鍵。

為發(fā)展 AI 而后悔

然而就在周一,他正式加入了越來越多的 AI 批評人士的行列。他們認為,這些公司積極開發(fā)基于生成式 AI 的產(chǎn)品,ChatGPT 等熱門聊天機器人等被快速研發(fā),這是在奔向危險。

辛頓說,他已經(jīng)辭去了谷歌的工作,以便自己可以自由地談論 AI 的風險。他已經(jīng)在谷歌工作了十多年,成為該領域最受尊敬的人物之一。辛頓表示,他現(xiàn)在對自己一生從事的工作感到有些后悔。

“我用平常的借口來安慰自己:就算我沒做,別人也會做的。”上周,辛頓在多倫多家中的餐廳接受了長篇采訪時稱。那里距離他和學生取得 AI 突破的地方只有幾步之遙。

辛頓博士

辛頓從 AI 開拓者到末日預言者的轉(zhuǎn)變,標志著科技行業(yè)在這個幾十年來也許最重要的拐點上經(jīng)歷了一個非凡時刻。業(yè)界領袖認為,新的 AI 系統(tǒng)可能與 20 世紀 90 年代初推出的網(wǎng)絡瀏覽器一樣重要,并可能引發(fā)從藥物研究到教育等領域的突破。

但是,令許多業(yè)內(nèi)人士苦惱的是,他們擔心自己正在向野外釋放一些危險東西。生成式 AI 已經(jīng)可以成為制造虛假信息的工具。很快,它可能會對就業(yè)構(gòu)成威脅??萍夹袠I(yè)最大的擔憂者表示,在未來的某個時候,它可能會對人類構(gòu)成威脅。

辛頓對此表示,“很難想象你能如何阻止壞人利用它做壞事”。

自從 OpenAI 在 3 月份發(fā)布了最新版 ChatGPT-4 模型后,包括馬斯克在內(nèi)的上千名科技領袖和高管簽署聯(lián)名信,呼吁暫停開發(fā)比 ChatGPT-4 更先進模型 6 個月時間,因為 AI“對社會和人類構(gòu)成了深刻風險”。幾天后,有 40 年歷史的學術組織人工智能促進協(xié)會的 19 位現(xiàn)任和前任領導人發(fā)表了他們自己的公開信,警告 AI 的風險。該組織包括微軟首席科學官埃里克?霍維茨 (Eric Horvitz)。微軟已將 OpenAI 的技術應用于一系列產(chǎn)品,包括必應搜索引擎。

辛頓沒有在這兩封信上簽名。他說,在辭職之前,他不想公開批評谷歌或其他公司。上個月,他通知公司他將辭職。周四,他與谷歌母公司 Alphabet CEO 桑達爾?皮查伊 (Sundar Pichai) 通了電話。他拒絕公開討論與皮查伊談話的細節(jié)。

谷歌首席科學家杰夫?迪恩 (Jeff Dean) 在一份聲明中表示:“我們?nèi)匀恢铝τ趯?AI 采取負責任的態(tài)度。我們在不斷學習了解新出現(xiàn)的風險的同時,也在大膽創(chuàng)新?!?/p>

AI 危險更快到來

辛頓認為,隨著企業(yè)改進 AI 系統(tǒng),它們會變得越來越危險。“看看五年前和現(xiàn)在的情況,”他在談到 AI 技術時說,“接受差異并將其傳播出去。太可怕了?!?/p>

他表示,直到去年,谷歌一直是這項技術的“適當管理者”,小心翼翼地不釋放可能造成傷害的東西。但是現(xiàn)在,微軟用聊天機器人增強了必應搜索引擎,挑戰(zhàn)谷歌的核心業(yè)務,導致谷歌也在競相部署同樣的技術。辛頓說,科技巨頭陷入了一場可能無法阻止的競爭。

他目前最擔心的是,互聯(lián)網(wǎng)將充斥著虛假照片、視頻和文字,普通人將“無法再知道什么是真的”。他還擔心 AI 技術最終會顛覆就業(yè)市場。如今,像 ChatGPT 這樣的聊天機器人往往是對人類工作者的補充,但它們也可能取代律師助理、個人助理、翻譯和其他處理機械化任務的人。“它省去了繁重的工作,但它帶走的可能不止這些?!毙令D稱。

未來,他擔心未來版本的 AI 技術會對人類構(gòu)成威脅,因為它們經(jīng)常從分析的大量數(shù)據(jù)中學習意想不到的行為。他說,這成了一個問題,因為個人和公司不僅允許 AI 系統(tǒng)生成自己的計算機代碼,還允許它們自己運行這些代碼。他擔心有一天真正的自主化武器 —— 那些殺人機器人 —— 會成為現(xiàn)實。

“一些人相信,這種東西實際上會變得比人更聰明,”他表示,“但大多數(shù)人認為這還很遙遠。我也曾認為這還很遙遠。我認為這需要 30 到 50 年甚至更長的時間。顯然,我現(xiàn)在不再這么想了?!?/p>

辛頓說,當人們過去問他如何能研究有潛在危險的技術時,他會轉(zhuǎn)述美國“原子彈之父”羅伯特?奧本海默 (Robert Oppenheimer) 的話:“當你看到某種從技術上感覺不錯的東西時,你就會去做?!?/p>

標簽:

相關閱讀