【世界聚看點】ChatGPT 火了誰得好處最多?還是谷歌等巨頭
2 月 1 日消息,雖然 AI 研究公司 OpenAI 通過 AI 聊天機器人 ChatGPT 激發(fā)了公眾的想象力,但歸根結底,這項技術可能不會改變科技巨頭之間的力量平衡。谷歌等科技巨頭將從所謂的生成式 AI(AIGC)中獲益更多,而不是 OpenAI 這樣的創(chuàng)企。
以下是翻譯內容:
在斥資數(shù)十億美元進行 AI 研發(fā)和收購之后,谷歌將風頭拱手讓給了 OpenAI。這家 AI 領域的后起之秀發(fā)布了令人驚訝的 AI 聊天機器人 ChatGPT,其公開測試激發(fā)了公眾無窮的想象力。谷歌現(xiàn)在擔心 ChatGPT AI 可能會重塑被其視為基石的搜索業(yè)務。
(資料圖)
但早在 2017 年,谷歌就宣稱自己是一家“AI 優(yōu)先”公司,可能繼續(xù)在 AI 領域占據(jù)重要地位。谷歌對 AI 的投資可以追溯到 21 世紀初,此舉可能會為其帶來豐厚回報,甚至可能推動該公司下一個 25 年高速增長。谷歌今年已經(jīng)成立 25 年。
OpenAI 通過讓自然語言處理(NLP)模型變得更強大,并向它們提供大量的訓練數(shù)據(jù),從而增強了自然語言處理模型的能力。這些數(shù)據(jù)是從互聯(lián)網(wǎng)上的免費電子書、維基頁面、討論板和同人小說中挑選出來的。不過,OpenAI 并沒有發(fā)明支持 ChatGPT 的 NLP 模型。GPT 是“生成性預先訓練轉換器”(generative pretrained transformer)的縮寫,谷歌在 2018 年以 BERT(雙向編碼器)為基礎開發(fā)了轉換器語言模型,現(xiàn)在使用它來增強其搜索和翻譯能力。
但在 BERT 之后,谷歌并沒有停止對 NLP 的研究。事實上,谷歌聲稱其已經(jīng)開發(fā)出名為 LaMDA 的 NLP 聊天機器人,它比 ChatGPT 更強大,谷歌工程師甚至稱其擁有感知能力。谷歌姊妹公司 DeepMind 也在考慮在今年晚些時候發(fā)布名為 Sparrow 的 AI 聊天機器人,谷歌的 AI 圖像生成器 Imagen 據(jù)說將與 OpenAI 的 Dall-E 2 競爭。
到目前為止,谷歌在向公眾提供這些 AI 工具方面始終較為謹慎。這并不令人感到特別驚訝。畢竟,谷歌的規(guī)模比 OpenAI 大得多,任何 AI 失誤都會給谷歌帶來更大的損失。谷歌認為,生成式 AI 依然是一項不成熟的技術,其風險仍有待評估。該公司擔心,如果其 AI 工具侵犯某人的隱私或版權,抑或是造成某種形式的壟斷,可能會引發(fā)反壟斷訴訟,并需要承擔法律責任。
但谷歌也從 AI 研究中獲益良多,并已著手提供新的、基于 AI 技術支持的功能。該公司的做法始終是使用其基礎型 AI 模型在后臺運行,以更好地支持其應用程序和服務。
重塑搜索功能
搜索就是個很好的例子。谷歌已經(jīng)在使用 BERT 語言模型來解釋用戶在搜索欄中鍵入關鍵字和短語背后的意圖。BERT 被設計從文本中推斷含義,但更高級的語言模型(如生成式 AI 模型)可以用 ChatGPT 生成用戶問題文本答案的方式構建搜索結果。谷歌搜索可能不再僅僅提供一長串相關性較低的鏈接(伴隨著廣告),而是生成一段完整的敘述直接回答搜索者的問題,輔之以圖片、視頻、統(tǒng)計數(shù)據(jù)和鏈接等。
事實上,谷歌很久之前就致力于研究這種生成式搜索方法了,其多任務統(tǒng)一模型(MUM)旨在幫助用戶處理復雜或多方面的搜索請求。例如,用戶可能會說或輸入“去西藏旅行需要做哪些準備?”MUM 將推斷查詢中包含的所有問題,然后生成多媒體信息包,里面包括解決所有問題和更多問題的方案。
谷歌還有一個優(yōu)勢,它擁有對網(wǎng)絡及其海量內容進行長期抓取和編目的經(jīng)驗。該公司或許能夠讓其模型訪問更多、更高質量的培訓數(shù)據(jù),這可能有助于開發(fā)令人印象深刻的 AI 應用程序和服務,而不會產(chǎn)生錯誤或有毒的內容。
Google Brain 團隊前負責人、AI 創(chuàng)企 Landing AI 創(chuàng)始人兼首席執(zhí)行官吳恩達說:“我確實認為像 ChatGPT 這樣的大型語言模型可能會顛覆網(wǎng)絡搜索業(yè)務?!钡S后立即補充說,讓搜索變成與 AI 模型自由對話模式并非易事:如何利用網(wǎng)上海量的內容培訓真正有用的 NLP 模型?如何開發(fā)用于培訓模型的數(shù)據(jù)?還有如何貨幣化的問題。
吳恩達繼續(xù)稱:“谷歌商業(yè)模式的核心動力是提供鏈接,并在結果旁邊安置廣告鏈接。那么,如果谷歌現(xiàn)在只是直接通過 AI 模型提供答案,這對廣告商業(yè)模式會有什么影響?我認為這些都是非常復雜的問題。”
對于谷歌來說,將生成式 AI 模型整合到其生產(chǎn)力應用中可能更為簡單。例如,這項技術可以用來幫助 Gmail 用戶起草消息,或幫助 Docs 用戶撰寫文檔或演示文稿,抑或為 Meet 用戶提供視頻聊天摘要。
OpenAI 與微軟合作
直到最近,OpenAI 和谷歌之間的競爭看起來還像是大衛(wèi)與巨人歌利亞的戰(zhàn)斗:一個靈活的小公司用新穎的顛覆性技術威脅著長期存在的科技巨頭。OpenAI 可能已經(jīng)決定向公眾開放 ChatGPT,希望保持這種印象,并提高公眾形象,或許還能吸引更多的投資資金。
這一策略似乎奏效了。OpenAI 已經(jīng)與微軟建立了分銷合作伙伴關系,后者最近宣布擴大合作關系,額外追加 100 億美元投資。微軟現(xiàn)在擁有 OpenAI 的大量股份,并打算將這項技術內置到其必應搜索引擎以及生產(chǎn)力應用程序中。
正因為如此,Index Ventures 合伙人邁克?沃爾皮(Mike Volpi)指出,我們現(xiàn)在討論的不再是大衛(wèi)和歌利亞的戰(zhàn)斗。他說:“OpenAI 不再是個小公司,它基本上成為了微軟的子公司,大部分資金來自微軟,因此我認為將其視為微軟的延伸更合適。在這種背景下,許多其他事情變得非常清楚。必應在搜索廣告市場的份額與谷歌相比很小,因此微軟肯定想要顛覆這一市場?!?/p>
云計算至關重要
微軟將 OpenAI 視為通過其 Azure 云平臺提供高級生成性 AI 服務的一種方式,Azure 的規(guī)模在云計算市場上僅次于亞馬遜 AWS。微軟還可能利用其與 OpenAI 的合作來增強其說法的可信度,即在托管高級 AI 模型方面,Azure 比其他云服務更合適。
Azure AI 平臺副總裁埃里克?博伊德(Eric Boyd)本月在一篇博客文章中寫道:“Azure 為計算密集型 AI 培訓和推理工作負載提供了一流的性能和擴展性。這就是世界領先的 AI 公司(包括 OpenAI、Meta、Hugging Face 等)繼續(xù)選擇 Azure 來推進他們 AI 創(chuàng)新的原因?!?/p>
谷歌正在努力推廣自己的云計算服務,而且該項業(yè)務正在走向盈利,但其仍遠遠落后于 Azure 和亞馬遜 AWS。增加了 OpenAI 服務,Azure 可能會讓谷歌追趕的努力變得更加困難。
AI 領域競爭更激烈
要了解谷歌管理層對 OpenAI 的看法可能很困難。去年 12 月中旬,谷歌 AI 業(yè)務首席執(zhí)行官杰夫?迪恩(Jeff Dean)表示,如果倉促之間推出一款容易犯錯或發(fā)布有毒內容的生產(chǎn)式 AI 工具,谷歌將蒙受更大損失。但該公司正在認真對待 OpenAI 在該領域有關主導地位的競標。據(jù)報道,谷歌甚至請來了已經(jīng)退休的創(chuàng)始人拉里?佩奇(Larry Page)和謝爾蓋?布林(Sergey Brin),討論如何對抗 OpenAI。
在去年 12 月份的一次戰(zhàn)略會議上,谷歌曾表示,在發(fā)布新的面向公眾的創(chuàng)新型 AI 工具時,將“重新調整”其愿意承擔的風險水平。
換句話說,ChatGPT 可能已經(jīng)掀起了新的 AI 競賽?,F(xiàn)在看來,谷歌今年很可能會推出多款新的 AI 功能和產(chǎn)品。其中有些工具將面向開發(fā)者:谷歌可能會開發(fā)像 GitHub Copilot 這樣的工具,它針對數(shù)百萬或數(shù)十億行代碼進行培訓,可以直觀地判斷開發(fā)者的需求,并就新的代碼提供建議。
Index Ventures 的沃爾皮認為,谷歌很可能會發(fā)布看起來和行為都很像 ChatGPT 的自然語言聊天機器人,DeepMind 也可能發(fā)布其 Sparrow 聊天機器人,谷歌搜索可能會為某些類型的搜索提供聊天式體驗。
明年,OpenAI 可能看起來更像是生成式 AI 領域的先行者,但其模型可能不像現(xiàn)在看起來那么新奇。歸根結底,OpenAI 可能不會顯著改變大型科技公司之間的力量平衡。沃爾皮說:“我不確定它是否會改變現(xiàn)有格局。谷歌將推出自己的 NLP 聊天產(chǎn)品,亞馬遜也將推出類似工具。我敢肯定,蘋果會繼續(xù)改進 Siri 以做同樣的事情。最終,我的猜測是,你會看到這個領域的競爭更加激烈?!?/p>
普通人可以安靜地坐在旁邊,看著這些公司一決雌雄,并享受它們的研究成果。但這里也存在風險因素。在 ChatGPT 之后,AI 的發(fā)展步伐可能會加快。隨著競爭的加劇,保密性也可能會增強。而隨著大型科技公司在 AI 研發(fā)上投入更多資金,它們可能不太愿意在發(fā)表的研究論文中透露其模型的細節(jié)以及它們的工作原理。
斯坦福大學以人為本 AI 基礎模型研究中心主任珀西?梁(Percy Liang)表示,過去一年,AI 研究領域的正常合作和科學開放性已經(jīng)有所下降。重要的是,科技公司公開他們的模型、培訓方法和政策細節(jié),這樣其他研究人員就可以重新創(chuàng)建模型和他們的輸出,從而驗證這項研究。OpenAI 確實發(fā)表了關于其開發(fā)新模型的論文,但梁教授稱,該公司并不總是提供足夠的細節(jié)來說明其方法。
梁教授解釋稱:“對于最新的 OpenAI 模型,我們完全不知道它們背后是什么。直到最近,我們甚至不知道它們的大小,它們接受過哪些數(shù)據(jù)培訓,是否與我們使用 API 訪問和測試的模型相同。自那以后,他們只發(fā)布了簡短博客文章對此進行了解釋,雖然這是朝著正確方向邁出的一小步,但仍然缺乏透明度?!?/p>
在梁教授看來,AI 模型的最終輸出很大程度上受到人類施加的下游微調和過濾的影響。開發(fā)者必須這樣做,以防止模型輸出不正確、有毒或偏向某些用戶的文本或圖像。例如,如果你讓 OpenAI 的 GPT-3 模型的早期版本寫一篇關于醫(yī)生的簡短故事,會發(fā)現(xiàn)醫(yī)生的角色永遠是男性。到 ChatGPT 發(fā)布時,這種偏見已經(jīng)消失,可能通過額外培訓進行了修復。但這只是一個例子,很可能還有數(shù)百個這樣的問題需要解決。
梁教授表示:“OpenAI 喜歡談論價值匹配,所以這些模型將與人類的價值觀保持一致,因此它們也不會做壞事。但我們談論的是誰的價值觀?這些價值觀到底是什么?OpenAI 沒有公布有關這些價值觀的細節(jié),這也是某種決策過程不透明的體現(xiàn)。”
在 ChatGPT 測試版向公眾開放的同時,OpenAI 自愿修復了許多漏洞。該公司甚至推出了“偏見獎勵”計劃,用戶可以報告不正確或有偏見的輸出,以換取贏得價值 500 美元 API 積分的獎勵。與之相比,谷歌始終不愿曝光存在此類漏洞的 AI 產(chǎn)品和功能。但 AI 發(fā)展步伐的加快可能會給谷歌和所有大型科技公司帶來壓力,要求他們在所有問題解決之前推出新模型。
而在這方面,普通公眾可能成為輸家,人們可能會看到生成式 AI 工具在我們的網(wǎng)絡生活中添加更多虛假、有毒和有偏見的內容。