天堂系列97嫩模在线播放_真人直播视频免费网站_日本一区二区久久_国产精品区免费视频_亚洲精品国男人在线视频

您的位置:首頁(yè) > 財(cái)經(jīng) >

環(huán)球關(guān)注:黃燕銘對(duì)話聯(lián)想集團(tuán)CTO:ChatGPT大風(fēng)起 人工智能浪潮來(lái)臨

核心要點(diǎn)


(資料圖)

大模型的商業(yè)應(yīng)用場(chǎng)景上,預(yù)計(jì)C端會(huì)快速落地,B端則是爆發(fā)式落地。由于目前大模型的訓(xùn)練數(shù)據(jù)更多是通用數(shù)據(jù),更易面向C端產(chǎn)生個(gè)人應(yīng)用。B端的部分?jǐn)?shù)據(jù)未打通,一旦供給打通,落地將是爆發(fā)性的。閉源有利企業(yè)短期先發(fā)優(yōu)勢(shì),開(kāi)源則“后勁更足”,有利企業(yè)長(zhǎng)期生態(tài)建設(shè)。

把一項(xiàng)新技術(shù)注入產(chǎn)品,去賦能業(yè)務(wù)的時(shí)候,要考慮很多因素。當(dāng)前這個(gè)階段,大模型進(jìn)步非??欤€是有很多問(wèn)題沒(méi)有解決。另外,用戶場(chǎng)景的需求本身也不完全一樣,應(yīng)用程序的運(yùn)行環(huán)境也不一樣。比如知識(shí)更新需要重新訓(xùn)練大模型,費(fèi)時(shí)費(fèi)力,所以它的時(shí)效性有缺陷,無(wú)法做到對(duì)最新消息的知曉,對(duì)信息時(shí)效性要求高的場(chǎng)景并不適合。大模型是千億級(jí)參數(shù)的,需要設(shè)備端和云端實(shí)時(shí)連接,所以對(duì)于網(wǎng)絡(luò)通訊能力較弱、低功耗的設(shè)備不太適用。因此,大模型雖然在很多地方適用,但也有一些場(chǎng)景不適用,作為企業(yè),要去考慮如何調(diào)整,如何去抓住機(jī)會(huì)。

黃燕銘認(rèn)為,人工智能的發(fā)展會(huì)導(dǎo)致證券研究人員數(shù)量可能會(huì)在一定程度上減少,大量研究助理的工作可能被機(jī)器替代。機(jī)器雖然能幫助我們記憶和計(jì)算知識(shí),卻無(wú)法代替人類去感悟智慧。“形而下”的工作可以交給計(jì)算機(jī),但是“形而上”的感悟,目前來(lái)看,人工智能還很難去幫我們完成。

ChatGPT橫空出世,其表現(xiàn)出來(lái)的強(qiáng)大的人工智能能力,讓無(wú)數(shù)人嘆為觀止。它是一個(gè)現(xiàn)象級(jí)的技術(shù)突破和應(yīng)用,是人工智能數(shù)十年發(fā)展歷程中又一個(gè)重大的突破點(diǎn)和轉(zhuǎn)折點(diǎn)。面對(duì)ChatGPT帶來(lái)的新的機(jī)遇和挑戰(zhàn),產(chǎn)業(yè)界和學(xué)術(shù)界應(yīng)緊密攜手,持續(xù)推動(dòng)相關(guān)技術(shù)的發(fā)展和產(chǎn)業(yè)應(yīng)用,讓我們的生活更加美好。

以上是聯(lián)想集團(tuán)首席技術(shù)官、高級(jí)副總裁芮勇博士,以及國(guó)泰君安證券研究所所長(zhǎng)黃燕銘,在《所長(zhǎng)對(duì)話》第一期中分享的觀點(diǎn)。

以下是國(guó)君研究《所長(zhǎng)對(duì)話》第1期的分享實(shí)錄:

01 關(guān)于技術(shù)發(fā)展

黃燕銘:ChatGPT不單單是文本生產(chǎn)的工具,其強(qiáng)大的語(yǔ)言處理和生存能力也增加了很多的用戶體驗(yàn),同時(shí)也為我們降低了生產(chǎn)經(jīng)營(yíng)、交易的成本,同時(shí)也提高了企業(yè)的經(jīng)營(yíng)效率,而這種大規(guī)模的適配器以及迭代的能力也是ChatGPT的特點(diǎn),它在特定的領(lǐng)域、專業(yè)語(yǔ)言以及自動(dòng)化的客戶服務(wù)等各方面都做出了巨大的成就。我們認(rèn)為ChatGPT在未來(lái)有非常廣闊的發(fā)展空間,這種情況下我們對(duì)ChatGPT未來(lái)的發(fā)展前景非??春?,在這里我們今天要特別跟芮博來(lái)聊一聊ChatGPT的基本情況。

投資者普遍認(rèn)為這是一個(gè)劃時(shí)代的技術(shù)進(jìn)步,甚至可能替代掉很多人類的工作崗位,請(qǐng)問(wèn)該如何理解ChatGPT、GPT-4的技術(shù)能力,其自然語(yǔ)言處理能力、多模態(tài)、定制化相較以往AI模型有何突破,會(huì)帶來(lái)怎樣的產(chǎn)業(yè)變化?

芮勇:首先,非常感謝黃所的介紹,也非常高興能夠跟黃所來(lái)一起聊這個(gè)話題。剛才黃所總結(jié)的都已經(jīng)非常精辟了。這個(gè)ChatGPT,我覺(jué)得它是可以說(shuō)是一種現(xiàn)象。最近也有不少人在聊,它是一個(gè)類似于iPhone 的現(xiàn)象,類似于網(wǎng)景的現(xiàn)象。我們都知道,網(wǎng)景是第一個(gè)真正商業(yè)化的瀏覽器,在網(wǎng)景出現(xiàn)之前很多年瀏覽器就已經(jīng)有了,但是沒(méi)有火起來(lái),直到網(wǎng)景出現(xiàn)之后,整個(gè)瀏覽器才火了起來(lái),整個(gè)互聯(lián)網(wǎng)才火了起來(lái)。iPhone其實(shí)也是一樣,智能手機(jī)出現(xiàn)了很久,但是沒(méi)有那么火,到最后真正騰飛起來(lái)、火起來(lái)是iPhone。

那么ChatGPT也是類似,大家稱這是一種現(xiàn)象。AI也是火了有一段時(shí)間,但是沒(méi)有那么火,有起有伏。大模型也出現(xiàn)了挺長(zhǎng)時(shí)間,那么直到最近不久ChatGPT出現(xiàn)了之后,它才帶來(lái)了一個(gè)大的飛躍,所以我們稱為ChatGPT是和網(wǎng)景和iPhone類似的一種現(xiàn)象。

但我更想說(shuō),今年ChatGPT非常的火,是表面上的一個(gè)現(xiàn)象,更重要的ChatGPT后面起到核心作用的大模型。所以我先想跟大家聊一聊大模型,大模型的英文叫Foundation Model.它是一個(gè)基礎(chǔ)模型,好比我們蓋房子時(shí)候打的地基。什么是大模型呢?大模型是用互聯(lián)網(wǎng)級(jí)的、沒(méi)有標(biāo)注的數(shù)據(jù),來(lái)訓(xùn)練千億級(jí)參數(shù)的AI模型,這里面有好幾個(gè)關(guān)鍵字。大模型也是下游很多任務(wù)的基礎(chǔ)。并且很有意思是,它不用做模型參數(shù)的調(diào)整,對(duì)不同的任務(wù),它不用去調(diào)整參數(shù),這個(gè)事就非常的奇特了。

這么多的特點(diǎn),為了便于記憶可以總結(jié)為三個(gè)字,叫做“高大上”(這里沒(méi)有褒義和貶義的意思)?!案摺笔鞘裁匆馑寄兀看竽P偷挠?xùn)練方式很高明。之前的機(jī)器學(xué)習(xí),典型的訓(xùn)練方式是一種全監(jiān)督式的方式。比如說(shuō),我如果要教一下機(jī)器,這是一個(gè)蘋果的圖像,這是一個(gè)橘子的圖像。我告訴它,這些圖像你都看一看,并且我告訴它這是橘子。它就知道,原來(lái)這樣的圖像是橘子。但是讓人工來(lái)標(biāo)注,要花很多的時(shí)間、精力和金錢。那么大模型是用自監(jiān)督的學(xué)習(xí)方式,它不需要去標(biāo)注海量的數(shù)據(jù)。我覺(jué)這是非常重要的,在訓(xùn)練方式上很高明。

第二,很高明的訓(xùn)練方式還表現(xiàn)在它使用一種叫做“基于人類反饋的強(qiáng)化學(xué)習(xí)”,英文叫RLHF,Reinforcement Learning from Human Feedback.有了這個(gè)非常強(qiáng)大的訓(xùn)練方式,它就和人類的價(jià)值觀點(diǎn)越來(lái)越近了。比如說(shuō),從互聯(lián)網(wǎng)它可能看了很多東西,但是它不知道哪是對(duì)哪是錯(cuò)的,哪個(gè)是正義的哪個(gè)是不好的。那么,有了這個(gè)基于人類反饋的強(qiáng)化學(xué)習(xí)之后,它就和人類的價(jià)值觀越來(lái)越近了。

高大上的“大”,是說(shuō)模型規(guī)模很大。我們?nèi)绻€記得,2012、2013年前后深度學(xué)習(xí)開(kāi)始火起來(lái)的時(shí)候,當(dāng)時(shí)很流行的一個(gè)人工神經(jīng)網(wǎng)絡(luò)模型叫VGG,VGG16大概有 1.38 億個(gè)參數(shù)。那今天我們的大模型會(huì)有多大呢?GPT-3 有 1,750 億個(gè)參數(shù),是當(dāng)時(shí)的大概有 1,000 倍那么大。這樣的規(guī)模就使得大模型能夠?qū)W到大量的模式與常識(shí),甚至建立一定的推理能力。

第二個(gè)“大”是指訓(xùn)練的數(shù)據(jù)大。我剛才提到,它是用互聯(lián)網(wǎng)級(jí)別的海量數(shù)據(jù)訓(xùn)練出來(lái),這里面包括互聯(lián)網(wǎng)上的文本、高質(zhì)量的網(wǎng)頁(yè)、維基百科、書籍的語(yǔ)料庫(kù)。它的訓(xùn)練詞元(token)大概是千億級(jí)的。所以是訓(xùn)練方式“高”,模型規(guī)?!按蟆?,訓(xùn)練數(shù)據(jù)“大”。

“上”是什么意思呢?這也是一個(gè)挺神奇的事,是說(shuō)它的邏輯推理、知識(shí)推理、泛化能力突然之間就能更上一層樓。它的英文單詞叫做emergent ability,就是突現(xiàn)的能力、涌現(xiàn)的能力。用一個(gè)更通俗易懂的話來(lái)說(shuō)就是,它突然會(huì)開(kāi)竅。

語(yǔ)言模型隨著規(guī)模的增長(zhǎng),突然對(duì)于訓(xùn)練時(shí)候沒(méi)有見(jiàn)過(guò)的任務(wù)也能夠懂是什么意思能夠勝任,它開(kāi)竅了。那么到多大的規(guī)模,這個(gè)模型才會(huì)開(kāi)竅呢?基本上是在 650 億個(gè)參數(shù),超過(guò)這個(gè)規(guī)模時(shí)它就開(kāi)竅了。

這就是大模型的幾個(gè)特點(diǎn),“高大上”。這幾個(gè)特點(diǎn)就決定了,如剛才黃所提到,它帶來(lái)了很多新的東西。這是我想跟黃所探討的第一個(gè)事。

黃燕銘:芮博剛才講到ChatGPT基于大數(shù)據(jù)大模型650億的參數(shù)以后能開(kāi)竅。我們知道這次ChatGPT的出現(xiàn)離不開(kāi)背后大模型的突破,二級(jí)市場(chǎng)的投資者普遍認(rèn)為大模型相對(duì)于之前的場(chǎng)景化的小模型有本質(zhì)的不同。您認(rèn)為大模型是不是實(shí)現(xiàn)通用人工智能的一種可行的路徑?我們也看到GPT-4發(fā)布也增加了圖片作為輸入的新模式,您覺(jué)得大模型未來(lái)會(huì)往怎樣的方向發(fā)展?

芮勇:黃所問(wèn)的這幾個(gè)問(wèn)題,都很深刻。我試著來(lái)一起來(lái)探討一下。第一個(gè),大模型的出現(xiàn)是不是一個(gè)人工智能范式的一個(gè)轉(zhuǎn)變?這個(gè)事其實(shí)很有意思,我們來(lái)看一下。我們知道GPT大模型的版本有1、2、3、3.5等等,它這一系列的論文題目,就反映了每個(gè)階段的變化。GPT-1,論文名字叫做Improving Language Understanding by Generative Pre-Training,生成式預(yù)訓(xùn)練提升語(yǔ)言理解能力。GPT這三個(gè)字是Generative Pre-trained Transformer 的縮寫,是生成式預(yù)訓(xùn)練的Transformer。

在GPT-1的時(shí)候,它其實(shí)比較大,但是還沒(méi)有達(dá)到我剛才講的那個(gè)閾值,它還是一個(gè)比較小的模型,對(duì)語(yǔ)言有一定的理解。這個(gè)時(shí)候它有上億個(gè)參數(shù),但是離650億個(gè)參數(shù)還有距離。

但到GPT-2的時(shí)候,它論文的題目叫做“語(yǔ)言模型是無(wú)監(jiān)督的多任務(wù)學(xué)習(xí)者”。GPT-2主要是通過(guò)多任務(wù)學(xué)習(xí),獲得了遷移學(xué)習(xí)的能力,零樣本學(xué)習(xí),和執(zhí)行任務(wù)的能力,這個(gè)是一個(gè)非常重大的突破。所以,從GPT-1到2跨越了從小模型到大模型的一個(gè)飛躍。

到GPT-3的時(shí)候,就更有意思了。它講的是“語(yǔ)言模型是一個(gè)小樣本的學(xué)習(xí)者”。這個(gè)時(shí)候它顯示出非常強(qiáng)大的學(xué)習(xí)能力,你只需要把訓(xùn)練好的大模型,給他幾個(gè),比如說(shuō)從中文到英文翻譯的幾個(gè)例子,它自己就理解了,哦,原來(lái)你給我這幾個(gè)例子說(shuō)是讓我做翻譯,它就會(huì)給你去做翻譯了。

到GPT-3.5,也就是我們看到的ChatGPT后面大模型的時(shí)候,它又厲害了,連例子都不用給了,你就直接用自然語(yǔ)言的方式告訴它要做什么任務(wù),它也能夠理解了。

前幾天,GPT-4發(fā)布,它就又上一層樓。它不僅僅是支持文本的交互,它的輸入也可以是圖像,這是和之前一個(gè)比較大的區(qū)別。它的上下文的大小,之前GPT-3.5大概是2K,那么現(xiàn)在GPT-4的達(dá)到32K.所以它的上下文能力更大,特別有利于支持多模態(tài)多輪對(duì)話的場(chǎng)景。

所以剛才黃所的問(wèn)題,大模型的出現(xiàn)是不是一個(gè)AI的范式?從這角度看,確實(shí)是。這是從小模型加上面向特定任務(wù)的微調(diào),轉(zhuǎn)換到了一種大模型加上上下文的學(xué)習(xí),這樣一種新的范式,這確實(shí)是一種新范式的出現(xiàn)。

那么剛才黃所還問(wèn)這個(gè)大模型,是不是通向今后的通用人工智能的一條路?這個(gè)就要看我們是怎么來(lái)定義通用人工智能。如果我們定義一個(gè)狹義的通用人工智能,比如說(shuō)通過(guò)人類的各科考試,那么,這個(gè)GPT-4做的已經(jīng)很不錯(cuò)了。它現(xiàn)在已經(jīng)參加了美國(guó)的各種考試,比如說(shuō)LSAT滿分是180分,它考了163分,打敗了88%的考生。還有一些別的考試,考的也都不錯(cuò)。但是還有幾種考試,比如說(shuō)這個(gè)十年級(jí)的就是大概是高中吧,高中數(shù)學(xué)競(jìng)賽的那個(gè)考試還不夠理想。

我們?nèi)绻x通用人工智能,它的狹義是說(shuō)能夠通過(guò)人類的各科考試,現(xiàn)在GPT-4做還是可以了。

如果定義這個(gè)通用人工智能的意思是說(shuō)和人類的智能要看齊,那它還是有些差距。我覺(jué)得可能主要有幾個(gè)方面,第一個(gè)是閉環(huán)的自主反饋糾錯(cuò)能力。今天我們都知道有自動(dòng)駕駛,也有人類司機(jī)的駕駛。有的時(shí)候我們還是會(huì)比較擔(dān)心,說(shuō)人類司機(jī)是不是比自動(dòng)駕駛發(fā)生錯(cuò)誤的概率還高一點(diǎn)?但是人類是一個(gè)閉環(huán)反饋系統(tǒng),他能夠?qū)崟r(shí)去糾錯(cuò),碰到意外情況的時(shí)候,他能馬上反應(yīng)出來(lái)。但是這種開(kāi)環(huán)的,比如像今天的這個(gè)大模型情況,它沒(méi)有實(shí)時(shí)反饋糾錯(cuò)的能力,碰到意外的、之前徹底沒(méi)看到過(guò)的情況的時(shí)候,它有時(shí)候會(huì)發(fā)生問(wèn)題。所以今天不少人可能寧愿坐我們?nèi)祟愰_(kāi)的出租車,也不愿意去信任自動(dòng)駕駛的能力。

第二,它是跟人類這種深度理解的能力也有比較大的區(qū)別,我就不舉例子了,就是你給它幾個(gè)比較繞的數(shù)學(xué)題的時(shí)候,你能把它繞進(jìn)去。人類其實(shí)是懂了,而它沒(méi)有真正懂。你把它給繞進(jìn)去了,它的答案就是錯(cuò)的。所以這么說(shuō),大模型是不是通向通用人工智能的一條路徑?我們?nèi)绻x是狹義的通用人工智能,我覺(jué)得可能是其中的一條路徑。如果是廣義的通用人工智能,那就要向人類的智能看齊,它可能還有一些距離。

黃燕銘:您講的非常清楚,這要看具體的這個(gè)應(yīng)用場(chǎng)景,我們本來(lái)的這個(gè)應(yīng)用場(chǎng)景覺(jué)得很大,放到一個(gè)更大的范圍里面,它就變得很小,所以我想這個(gè)是一個(gè)層層推進(jìn)的過(guò)程。我們今天覺(jué)認(rèn)為的大模型在將來(lái)可能還是一個(gè)小模型,我們?cè)谖磥?lái)會(huì)有更大的一些模型的出現(xiàn)。

02 關(guān)于商業(yè)應(yīng)用場(chǎng)景

黃燕銘:海外像大摩這些金融機(jī)構(gòu)把ChatGPT技術(shù)應(yīng)用在理財(cái)投資顧問(wèn)的工作領(lǐng)域,我們相信這種應(yīng)用也會(huì)越來(lái)越多、越來(lái)越快,相信在不遠(yuǎn)的將來(lái)ChatGPT技術(shù)也會(huì)在中國(guó)大陸全面開(kāi)花。除了技術(shù),投資者最關(guān)注的莫過(guò)于未來(lái)可能出現(xiàn)的應(yīng)用場(chǎng)景。我們看到微軟已經(jīng)把ChatGPT整合到了辦公軟件、會(huì)議軟件當(dāng)中,直接跟消費(fèi)者收費(fèi);同時(shí),海外也已經(jīng)有很多公司把GPT模型用在了不同的領(lǐng)域,比如面對(duì)企業(yè)的內(nèi)容創(chuàng)作、績(jī)效營(yíng)銷分析等等。不知道您更看好GPT系列未來(lái)在哪些場(chǎng)景中的落地?比如是更看好B端還是C端,開(kāi)源還是閉源?

芮勇:黃所說(shuō)的非常好。一個(gè)技術(shù)到最后,還是要落地的,要有場(chǎng)景的。這個(gè)事兒從企業(yè)上來(lái)看也是完全一樣的,我們?nèi)魏蔚募夹g(shù)都要落到場(chǎng)景去,要產(chǎn)生經(jīng)濟(jì)效益。那么剛才黃所說(shuō),有哪些場(chǎng)景是落地會(huì)比較好?其實(shí),我們?nèi)绻penAI的官網(wǎng)去看一看,他們列出了非常多的場(chǎng)景,有48個(gè)不同的使用場(chǎng)景,大致有7個(gè)類別,包括問(wèn)答、分類、代碼、對(duì)話、生成、翻譯、轉(zhuǎn)換等等。

我們可以簡(jiǎn)化一點(diǎn)看這個(gè)問(wèn)題,就看兩個(gè)大類,一個(gè)是理解,另一個(gè)是生成。大模型其實(shí)非常強(qiáng),它的語(yǔ)言理解能力要比之前準(zhǔn)確很多,所以這是人機(jī)交流的一個(gè)大的里程碑。比如今后我們使用搜索引擎,可以用自然語(yǔ)言進(jìn)行搜索了,而不用去找到底是用這個(gè)關(guān)鍵詞,還是用那個(gè)關(guān)鍵詞,你只要用自然語(yǔ)言就可以了,這是它理解能力的應(yīng)用場(chǎng)景。

第二個(gè)是生成能力的應(yīng)用場(chǎng)景,這里有很多智能化的內(nèi)容生成,比如輔助寫作、代碼編寫等等,這些東西它都可以做了。在節(jié)目開(kāi)始之前,我跟黃所聊的時(shí)候,黃所還問(wèn)說(shuō)證券分析師是不是也有一部分會(huì)被取代?我覺(jué)得今后可能社會(huì)上有一些職業(yè)更容易被取代一些。數(shù)字社會(huì)勞動(dòng)力市場(chǎng)有一個(gè)新的特征,就是很多這種像能寫會(huì)算的專業(yè)知識(shí)技能,逐漸會(huì)被標(biāo)準(zhǔn)化、模塊化、和程序化。

反而是那些沒(méi)有被模塊化的技能可能更難被取代。有兩種技能,我覺(jué)得看起來(lái)比較難被取代。一種是創(chuàng)意,它包括分析能力、創(chuàng)造性思考能力、理解和表達(dá)能力。

第二種是社交智慧,我們?nèi)祟愂且环N社交的動(dòng)物,具有智慧的社交能力,和人際的融合能力、溝通能力和領(lǐng)導(dǎo)力,這些是很難被取代的。

剛才黃所也問(wèn)到,C端B端、開(kāi)源閉源。我個(gè)人認(rèn)為C端可能會(huì)快速落地,然后是B端的爆發(fā)式落地。我為什么這么認(rèn)為呢?因?yàn)槲覀兛唇裉斓倪@種大模型它的通用能力非常的強(qiáng),可以立刻就支持C端,包括像個(gè)人應(yīng)用、內(nèi)容創(chuàng)作、文章、代碼、圖像視頻的生成,等等,所以它可以立刻支持C端,也就可以立刻快速落地。但是這個(gè)B端還需要一段時(shí)間把大模型和B端給連接起來(lái)。一旦能夠打通之后,那么B端的落地增長(zhǎng)會(huì)是爆發(fā)性的。這是我個(gè)人的看法,關(guān)于C端和B端。

那么開(kāi)源和閉源呢?我覺(jué)得閉源現(xiàn)在有一些先發(fā)優(yōu)勢(shì),雖然我們叫OpenAI,但是它現(xiàn)在的這些模型,它并不開(kāi)源,還是閉源,所以它有一定的先發(fā)優(yōu)勢(shì)。我們從一個(gè)比較長(zhǎng)期來(lái)看,開(kāi)源是有利于生態(tài)建設(shè)的,比如說(shuō)我們今天大家都用的Linux,RISK-V,PyTorch,它都是開(kāi)源的。開(kāi)源有后勁,所以我覺(jué)得閉源現(xiàn)在有一定的先發(fā)優(yōu)勢(shì),但是開(kāi)源有利于生態(tài)建設(shè),它的后勁會(huì)比較強(qiáng)。

黃燕銘:芮博剛才講到人類有兩種能力可能是機(jī)器暫時(shí)還替代不了,第一個(gè)是創(chuàng)意,第二個(gè)是社交。我們知道在大模型出現(xiàn)之前,也有很多的場(chǎng)景里邊存在一些基于特定模型的AI應(yīng)用。隨著大模型的興起,您認(rèn)為之前這些AI企業(yè)的發(fā)展是否需要全面轉(zhuǎn)向大模型?在大模型興起的過(guò)程中,這些AI企業(yè)怎么根據(jù)自己的比較優(yōu)勢(shì)做出相應(yīng)的戰(zhàn)略調(diào)整呢?

芮勇:黃所這個(gè)問(wèn)題也是特別的好,我覺(jué)得可能所有做產(chǎn)業(yè)的,做企業(yè)的同仁們都會(huì)問(wèn)這樣一個(gè)問(wèn)題。我是這樣考慮的,把一項(xiàng)技術(shù)注入產(chǎn)品,或者去賦能業(yè)務(wù)的時(shí)候,還是要綜合考慮很多的因素。我們當(dāng)前階段大模型進(jìn)步非常快,但不少問(wèn)題還沒(méi)真正解決。另外用戶場(chǎng)景產(chǎn)生的需求也不是完全一樣,并且它的應(yīng)用程序運(yùn)行環(huán)境也不一樣。

所以我覺(jué)得,大模型會(huì)是非常重要的一支力量,但是可能也不會(huì)是放之四海而皆準(zhǔn),所有人都需要上。如果來(lái)比較細(xì)的來(lái)看,有這么幾個(gè)方面。一個(gè)是比如說(shuō)我們就用這個(gè)ChatGPT的知識(shí)庫(kù)作為一個(gè)例子,它的知識(shí)庫(kù)截止于2021年,那么問(wèn)它2022年或者2023年的事,它基本上是不知道的。對(duì)于需要經(jīng)常性知識(shí)更新的業(yè)務(wù)場(chǎng)景,大模型今天還做的不太好。這個(gè)也比較容易理解,因?yàn)槊坑?xùn)練一次大模型非常耗時(shí),并且強(qiáng)大的算力后面還需要很多人工,還要去人為給它一些強(qiáng)化學(xué)習(xí)的一些反饋。所以它的實(shí)時(shí)性不強(qiáng),對(duì)最新的消息它也不知道。

所以,對(duì)這些場(chǎng)景可能它不是特別適合。第二,它的泛化能力有時(shí)能泛化的挺好,有時(shí)又泛化的不好。對(duì)一些工業(yè)應(yīng)用,真正的應(yīng)用可能還有點(diǎn)不是很安全,因?yàn)檎l(shuí)也不想看這東西時(shí)靈時(shí)不靈。所以我們覺(jué)得還有些場(chǎng)景,它不太能夠用得到。大模型的參數(shù)是在千億級(jí)的,它需要設(shè)備端和云端的實(shí)時(shí)連接,云端去做各種計(jì)算、生成和推理。那么,對(duì)于網(wǎng)絡(luò)通訊能力比較弱,或者是低功耗的設(shè)備,它可能也不太適用。

所以我們說(shuō),大模型有很多地方都非常適用,但是可能也有一些場(chǎng)景,它并不完全適用。剛才黃所也提到企業(yè)怎么去做調(diào)整,怎么去抓住機(jī)會(huì)。我也趁這個(gè)機(jī)會(huì)插播一個(gè)廣告。大模型里面有幾個(gè)非常關(guān)鍵的核心技術(shù),剛才我和黃所聊的時(shí)候我們都聊到了,比如Few-Shot Learning,就是小樣本學(xué)習(xí),還有增強(qiáng)學(xué)習(xí)等等。這些技術(shù),其實(shí)聯(lián)想我的團(tuán)隊(duì)很早之前一直在看這個(gè)事。

我們把它用在一個(gè)比較有意思的地方,用在工廠的智能排產(chǎn)。聯(lián)想有一家非常大的工廠,在合肥,它的占地有42個(gè)標(biāo)準(zhǔn)足球場(chǎng)那么大。全球的每8臺(tái)PC有1臺(tái)就是在那里生產(chǎn)的。它有上百條的產(chǎn)線,它能生產(chǎn)的機(jī)器類型也是上百款,每一天都從全球飛來(lái)成千上萬(wàn)的訂單。這些訂單那到底是應(yīng)該排在哪個(gè)產(chǎn)線的哪個(gè)時(shí)間去生產(chǎn)?這就很有學(xué)問(wèn)了,如果這個(gè)排產(chǎn)排的好,它的成本就會(huì)低很多,它的速度就會(huì)快很多,它的產(chǎn)線利用率就會(huì)突飛猛進(jìn)的增強(qiáng)。如果我們用深度學(xué)習(xí)加上強(qiáng)化學(xué)習(xí)的這種方式去做,就會(huì)得到非常好的效果。所以我們也是在合肥工廠用到了這種強(qiáng)化學(xué)習(xí),使得我們排產(chǎn)水平和排產(chǎn)效率大幅的提高。

那么聯(lián)想現(xiàn)在大的戰(zhàn)略方向是“端邊云網(wǎng)智”,我覺(jué)得這幾個(gè)方向都會(huì)跟大模型發(fā)生關(guān)系。特別是大模型把新的機(jī)會(huì)點(diǎn)、新的需求都提出來(lái)了。在“端”側(cè),無(wú)論是PC、手機(jī)、平板、AR/VR這些設(shè)備它都會(huì)成為大模型某一種輸入的入口。那么“邊云網(wǎng)”這些基礎(chǔ)設(shè)施,如果我們要訓(xùn)練大模型的話,并行計(jì)算、分布式大規(guī)模訓(xùn)練的基礎(chǔ)設(shè)施就非常重要。這塊兒是聯(lián)想基礎(chǔ)設(shè)施業(yè)務(wù)群會(huì)著力去看。

在“智”這方面,我們?cè)诳春芏嗟男袠I(yè)智能化,比如說(shuō)智能制造、智慧交通、智慧教育等等。那么大模型出來(lái)之后,不僅是聯(lián)想了,我相信很多公司也會(huì)說(shuō),這種通用領(lǐng)域的大模型,如何和垂直行業(yè)的知識(shí)相結(jié)合,在垂直行業(yè)做智能化?所以這幾個(gè)方面,我覺(jué)得大模型確實(shí)有很多重要的方向,也帶來(lái)了非常多的機(jī)會(huì)。

黃燕銘:到目前為止,實(shí)際上我們關(guān)于AI的主要應(yīng)用都是在生產(chǎn)管理、企業(yè)經(jīng)營(yíng)方面。當(dāng)然AI其實(shí)也很大的一塊是用在藝術(shù)方面,現(xiàn)在大家都在強(qiáng)調(diào)人工智能作畫。隨著AI作畫和ChatGPT的“出圈”,我們也看到有越來(lái)越多的創(chuàng)業(yè)者把生成式AI作為了自己的創(chuàng)業(yè)方向。但同時(shí),大模型的人才投入和成本都是非常大的,各大巨頭也都已經(jīng)在做。您覺(jué)得如果作為AI創(chuàng)業(yè)者,機(jī)會(huì)在哪里?

芮勇:黃所,這又是一個(gè)特別好的問(wèn)題,我先嘗試著從兩個(gè)角度來(lái)回答一下。我過(guò)一會(huì)兒也特別想聽(tīng)聽(tīng)黃所怎么來(lái)看這個(gè)問(wèn)題。第一個(gè)角度,我覺(jué)得這個(gè)就像黃所剛才講的初創(chuàng)企業(yè),大模型的訓(xùn)練成本非常高昂,可能初創(chuàng)企業(yè)不太適合從零開(kāi)始,與現(xiàn)有的大模型競(jìng)爭(zhēng)。但是這并不代表初創(chuàng)企業(yè)跟大模型就不發(fā)生關(guān)系。我覺(jué)得有很多地方它都可以去發(fā)生關(guān)系的。

比如在大模型基礎(chǔ)之上,進(jìn)行不同行業(yè)的創(chuàng)新。像黃所剛才提到的AIGC,在生成方式,在藝術(shù)方面,這些都是一些非常好的方向,在大型之上去做創(chuàng)新。那么,大模型和這個(gè)之上的創(chuàng)新就有一點(diǎn)像,比如說(shuō)在10-15年以前移動(dòng)互聯(lián)網(wǎng)時(shí)代開(kāi)始蓬勃發(fā)展的時(shí)候,一些公司負(fù)責(zé)開(kāi)發(fā)操作系統(tǒng)的平臺(tái),另外一些公司在這個(gè)操作系統(tǒng)之上去做它的開(kāi)發(fā)套件API,還有一些公司在這個(gè)之上去開(kāi)發(fā)應(yīng)用。

我覺(jué)得今天可能也是一樣,有做大模型的大型企業(yè),有做專業(yè)知識(shí)的專業(yè)企業(yè),還有一些初創(chuàng)公司的小型企業(yè),我覺(jué)得大家可以形成一個(gè)生態(tài),從不同的角度來(lái)進(jìn)行創(chuàng)新和推進(jìn)。

第二個(gè)角度,我覺(jué)得有一些企業(yè)可以去把垂直行業(yè)和大模型做一些適配,尤其是在數(shù)據(jù)端的適配,因?yàn)橛幸恍┐怪毙袠I(yè)它可能不想把私有數(shù)據(jù)共享給大模型公司,大模型公司又沒(méi)有辦法去訓(xùn)練它的數(shù)據(jù)。這個(gè)時(shí)候就不是一個(gè)最優(yōu)的答案。那么,有沒(méi)有一些企業(yè)可以去做一些很新穎的方式,使得私有企業(yè)比較安全地把私有數(shù)據(jù)共享給模型公司,這個(gè)時(shí)候就可以吸引更多的數(shù)據(jù)訓(xùn)練出更好的模型,再吸引更多的用戶,這樣整個(gè)的數(shù)據(jù)飛輪就能夠轉(zhuǎn)起來(lái)了。我覺(jué)得確實(shí)有很多方向,這些初創(chuàng)企業(yè)都是可以做的。我也想和黃所討論一下,在這方面黃所怎么看?

黃燕銘:其實(shí)站在我的角度來(lái)說(shuō),我也思考了很多問(wèn)題,我自己做證券研究29年,我認(rèn)為證券研究的原料是信息,證券研究的成果依然是信息。信息研究、信息管理的整個(gè)過(guò)程貫穿了證券研究的管理的整個(gè)過(guò)程。但是在這個(gè)過(guò)程當(dāng)中,我們有些東西是可以用計(jì)算機(jī)記錄下來(lái),用計(jì)算機(jī)來(lái)進(jìn)行計(jì)算,用計(jì)算機(jī)來(lái)進(jìn)行記憶,但是有些東西計(jì)算機(jī)做不到。

我一直在思考一個(gè)問(wèn)題,1946年馮諾依曼在設(shè)計(jì)計(jì)算機(jī)結(jié)構(gòu)的時(shí)候,他把計(jì)算機(jī)的主要功能設(shè)定為記憶和計(jì)算,但是他少了一塊東西,跟人類相比,那就是心智,人類的智慧。為什么他沒(méi)有設(shè)計(jì)智慧?知識(shí)是記錄在紙上的,知識(shí)可以用機(jī)器來(lái)記錄和表達(dá),但智慧是人需要感悟和認(rèn)知的,所以知識(shí)在書本,在電腦。智慧在人的內(nèi)心,在大腦。所以是兩個(gè)不同的東西。因此,計(jì)算機(jī)能夠幫助我們?nèi)ビ洃浿R(shí),幫助我們?nèi)ビ?jì)算知識(shí)。但是計(jì)算機(jī)不能幫助我們?nèi)祟惾ジ形蛐轮腔邸?/p>

所以我自己認(rèn)為人工智能再怎么發(fā)展,可能有一條鴻溝,沒(méi)有辦法突破,就是“轉(zhuǎn)識(shí)成智”,怎么把知識(shí)變成智慧,變成智慧是需要相當(dāng)長(zhǎng)的時(shí)間學(xué)習(xí)鍛煉,然后不斷的去感悟的過(guò)程,而且不同的人對(duì)智慧的感悟可能是不一樣的。

我相信,ChatGPT以及類似的這些人工智能的發(fā)展會(huì)給我們各行各業(yè)在未來(lái)帶來(lái)很大的變化。這種變化主要還是在記憶和計(jì)算兩大環(huán)節(jié)給我們提供幫助,畢竟我們?cè)谌祟惖娜粘4竽X的活動(dòng)當(dāng)中,計(jì)算和記憶占了大量時(shí)間,而參悟智慧占的時(shí)間并不多。雖然它是最重要的,但是我們相對(duì)來(lái)講占的時(shí)間不多。

如芮博所言,人工智能沒(méi)有辦法幫我們完成的工作,第一個(gè)是社交,第二個(gè)是創(chuàng)造性的工作。那從我的角度來(lái)說(shuō),哪些東西電腦能夠完成?哪些東西電腦不能完成?我的理解是形而下的工作可以交給計(jì)算機(jī),但是形而上的感悟,目前來(lái)看,人工智能還很難去幫我們完成。

什么叫“形而下”?有具體的數(shù)據(jù)、具體的語(yǔ)言、具體的計(jì)算公式,能夠按照一種方式,放進(jìn)去這些條件出來(lái)的結(jié)果就是這個(gè)。這些工作在我們證券研究里面其實(shí)有很多,比如說(shuō)我們?nèi)粘W鲎C券研究,我們要收集信息,要收集上市公司年報(bào)的信息,要收集公告信息,收集各個(gè)媒體發(fā)布的信息等等,通過(guò)把這些信息收集過(guò)來(lái),加工整理成我們一系列的研究產(chǎn)品,包括信息匯編類的報(bào)告、年報(bào)點(diǎn)評(píng)類的報(bào)告、行業(yè)點(diǎn)評(píng)類的報(bào)告。這些通過(guò)簡(jiǎn)單的人工收集信息,然后簡(jiǎn)單加工,就可以形成的這一類日常點(diǎn)評(píng)性的報(bào)告,我相信用人工智能都可以完成。

而這類工作其實(shí)在我們?nèi)粘.?dāng)中耗費(fèi)了巨多的時(shí)間和人力,所以說(shuō)我相信人工智能的發(fā)展會(huì)導(dǎo)致證券研究人員數(shù)量可能會(huì)在一定程度上減少,大量研究助理需要干的活被機(jī)器替代,很多研究助理晚上可以減少熬夜,讓機(jī)器幫助完成一部分的工作。

不過(guò),是不是證券的研究中所有的東西都可以讓電腦來(lái)替代呢?我就說(shuō)一個(gè)問(wèn)題,2014年本人的那篇文章,《股票價(jià)格不是樹(shù)上的花》,這篇文章能讓機(jī)器寫出來(lái)嗎?我相信也不能。這就好比以前大家在探討有沒(méi)有可能讓機(jī)器寫出優(yōu)美的散文和唐詩(shī)、機(jī)器能不能參悟人類的智慧達(dá)到更高的一個(gè)境界。我相信智慧還是需要人類自己去完成。

所以我們也在討論一個(gè)很簡(jiǎn)單的問(wèn)題,機(jī)器能不能寫出讓人類滿意的研究報(bào)告?我的答案是機(jī)器可以寫出讓機(jī)器滿意的報(bào)告,但是機(jī)器很難寫出完美到讓人類最滿意的研究報(bào)告,但它能夠幫助我們解決記憶和計(jì)算。

芮勇:黃所講的非常精彩,我特別認(rèn)同這樣的一些看法,關(guān)于機(jī)器和人之間的關(guān)系,“形而下”和“形而上”之間的關(guān)系。我從事信息行業(yè),計(jì)算機(jī)是信息科學(xué)的一個(gè)分支。從信息科學(xué)來(lái)看,數(shù)據(jù)是一些最原始的東西,數(shù)據(jù)升華以后才是信息,信息升華以后才是知識(shí),知識(shí)再升華以后才是智慧。它有好幾個(gè)不同的等級(jí),所以我特別同意剛才黃所講的,確實(shí)人類和機(jī)器還是有很多不一樣的地方。黃所另外講的一個(gè)觀點(diǎn)是人和機(jī)器的之間的關(guān)系,我也非常認(rèn)同。

我從2015、2016年開(kāi)始就跟大家說(shuō)AI到底是哪兩個(gè)字,它不一定代表Artificial Intelligence,我們今天所說(shuō)的人工智能,我覺(jué)得它更代表的是Augmented Intelligence,是一個(gè)增強(qiáng)以后的人類智能。其實(shí)人和機(jī)器的關(guān)系不是人和機(jī)器PK,而是人加上機(jī)器,機(jī)器是一種輔助的工具使得我們?nèi)祟惛訌?qiáng)大。

機(jī)器應(yīng)該為人類服務(wù),而不是人類為機(jī)器服務(wù)。那么剛才黃所提到的一個(gè)是計(jì)算、一個(gè)是記憶,這兩個(gè)讓機(jī)器去做吧。這兩個(gè)機(jī)器本來(lái)做的都很好,它算的比我們算的快,記得也比我們記得多。但是很多它不會(huì)的東西是在我們?nèi)祟惖哪X子里,那剛好機(jī)器干機(jī)器強(qiáng)的事,人類干人類強(qiáng)的事,所以結(jié)合在一起,應(yīng)該是一個(gè)更加強(qiáng)大的人,就是我認(rèn)為是一個(gè)增強(qiáng)的人類,所以認(rèn)同黃所剛才講的這幾點(diǎn)。

03 關(guān)于AI技術(shù)倫理

黃燕銘:我們也注意到,不管是ChatGPT還是最近發(fā)布的GPT-4,在回答一些問(wèn)題時(shí)也生成了一些對(duì)部分人群不友好的回答。您覺(jué)得隨著人工智能的發(fā)展,未來(lái)我們可能會(huì)面臨哪些技術(shù)倫理方面的問(wèn)題?

芮勇:黃所問(wèn)了一些非常高深的問(wèn)題,這也是上升到哲學(xué)高度了。這個(gè)事我是這樣看,倫理這個(gè)事確實(shí)很重要,如果看我們古代的一些先賢,他們對(duì)這些事情的看法。比如說(shuō)從《道德經(jīng)》的角度來(lái)看,《道德經(jīng)》里有一句話,“天之道,利而不害”。這就是說(shuō),自然規(guī)律是利萬(wàn)物。我們的先賢在幾千年以前的這些理念、觀點(diǎn),對(duì)今天的AI發(fā)展仍然有指導(dǎo)意義。

在人工智能技術(shù)走向產(chǎn)品的時(shí)候,一定也會(huì)碰到道德和倫理的問(wèn)題。之前的某款聊天機(jī)器人就可能會(huì)講一些不太準(zhǔn)確、不太合適的話,上線不到24小時(shí)就被迫關(guān)閉了。那今天的ChatGPT在這方面已經(jīng)做了很大的改進(jìn),它的情商還是比較高的,很少會(huì)有侮辱性語(yǔ)言和偏激行為,因?yàn)樗挠?xùn)練方式已經(jīng)和7、8年前相比有很大飛躍了。但即使是這樣,我們?nèi)匀恍枰纯丛趺茨茏屗幼袷匚覀內(nèi)祟惖膫惱怼?/p>

我們來(lái)回顧一下大模型的訓(xùn)練過(guò)程,它其實(shí)用了互聯(lián)網(wǎng)級(jí)別的海量數(shù)據(jù)來(lái)訓(xùn)練。這就是像一個(gè)孩子,他學(xué)習(xí)了很多基本的文化知識(shí),但是他沒(méi)有建立價(jià)值觀,他不知道什么叫對(duì),什么叫錯(cuò),什么叫正確的,什么叫不正確的。對(duì)于這一點(diǎn),我們要教這個(gè)孩子什么是對(duì)的,什么是錯(cuò)的。

在ChatGPT里有一個(gè)算法,我們剛才也提到了,就是基于人類反饋的強(qiáng)化學(xué)習(xí)。這個(gè)就是為了去教這個(gè)大模型人類的價(jià)值觀是什么,人類認(rèn)為什么是對(duì)的、什么是錯(cuò)的,使得大模型向人類的價(jià)值觀來(lái)靠攏。所以,這是一個(gè)挺重要的問(wèn)題。所以我們看到的在人工智能的發(fā)展過(guò)程當(dāng)中,給我們帶來(lái)了很多生活的便利、生產(chǎn)效能的提高,但是這些倫理和道德問(wèn)題,我們也要花大力氣去想,這些人工智能產(chǎn)品的落地時(shí)需要遵循的一些原則,才能使之健康有序的發(fā)展。

現(xiàn)在業(yè)界比較公認(rèn)的幾個(gè)人工智能基本原則,包括公平、可靠、保密、包容、透明、負(fù)責(zé),等等。我們?cè)倩貋?lái)看這幾個(gè)字,很多理念也是我們中華民族這幾千年來(lái)文化的根基。所以基于這樣的一些理念,我們能夠讓人工智能以一種合乎倫理的方式進(jìn)行使用,也可以設(shè)計(jì)出讓人更加信賴的人工智能、更加體現(xiàn)道德原則的解決方案。

黃燕銘:還想跟芮博交流最后一個(gè)問(wèn)題,改革開(kāi)放40多年,中國(guó)的科學(xué)技術(shù)突飛猛進(jìn),中國(guó)的金融行業(yè)也是日新月異,您作為一個(gè)走遍世界的技術(shù)領(lǐng)軍人物,站在您的角度,對(duì)中國(guó)的人工智能,特別是對(duì)GPT的發(fā)展前景如何看待,能否做個(gè)展望?

芮勇:對(duì),我覺(jué)得我們的前景非常的好!首先,整個(gè)科技領(lǐng)域,人工智能領(lǐng)域,無(wú)論是從基礎(chǔ)算法,還是從我們的數(shù)據(jù),都非常豐富,非常先進(jìn)。其次,中華民族有一個(gè)比較重要的美德,我們非常的勤奮。那么在強(qiáng)大算法的基礎(chǔ)之上,加上這種勤奮的美德,我們?cè)敢夂献鞯倪@種美德,我覺(jué)得我們無(wú)論是人工智能,還是更廣闊的整個(gè)科技領(lǐng)域的發(fā)展,都會(huì)變得越來(lái)越好!好,謝謝黃所!

黃燕銘:謝謝芮博!我相信人工智能的未來(lái)發(fā)展,前景非常廣闊,現(xiàn)在才剛剛開(kāi)始,未來(lái)還有很多新的技術(shù)發(fā)展、新的應(yīng)用值得我們期待!我們大家可以期待一個(gè)更加美好的未來(lái)!我們今天的節(jié)目就到這里謝謝大家!

(文章來(lái)源:國(guó)泰君安)

標(biāo)簽:

相關(guān)閱讀