中外青年熱議生成式AI的局限|青年科技π 每日消息
近日,國家網(wǎng)信辦發(fā)布了《生成式人工智能(AI)服務管理辦法(征求意見稿)》,針對面向中國境內公眾提供服務的生成式人工智能產品,包括其研發(fā)及服務,向社會公開征求管理意見。
生成式AI正是當前以ChatGPT等智能聊天機器人為代表的技術。自去年11月ChatGPT發(fā)布以來,其展示的與人類高度相似的對話能力引發(fā)全球關注。然而,在人們樂此不疲地實驗和討論ChatGPT的強大功能,并由此感嘆其是否可能取代人類勞動時,人們是否思考過AI生成內容的可靠性?
亦真亦假的“AI幻覺”
(資料圖片)
美國OpenAI公司發(fā)布ChatGPT時聲明,由于所使用的訓練數(shù)據(jù)及訓練方法的原因,ChatGPT有時會寫出聽起來很有道理但不正確或毫無意義的回答。
對此,南京大學AI學院越南籍副教授阮錦繡提到了“AI幻覺”的概念:“目前最突出的問題之一,是我們很難控制ChatGPT的輸出,它不能被完全信任。AI提供的答案可能聽起來很正確,很流暢,但實際上是不正確的。”
AI幻覺指的是AI的一種自信反應。當模型有“幻覺”(輸出欺騙性數(shù)據(jù)的傾向)時,其使用的訓練數(shù)據(jù)并不能證明輸出的合理性。AI幻覺的一個危險之處在于,模型的輸出看起來是正確的,而本質上是錯誤的。
“長此以往,這種微妙的錯誤信息可能會導致很多社會影響,比如改變對是非的看法。”阮錦繡表示。
AI應用前景非常廣闊
盡管今天的AI存在諸多問題,但在應用領域,其仍具備巨大的發(fā)展?jié)摿Α?/p>
天津大學生物工程教授劉秀云表示,該校早在2018年就已經開設了我國第一個智能醫(yī)學專業(yè)。5年之后,中國開設智能醫(yī)學專業(yè)的院校數(shù)量已經達到幾十個。“我相信新專業(yè)的設立會推動AI技術的發(fā)展……在過去的幾十年里,AI在醫(yī)藥領域獲得了廣泛的應用。有些人正在使用虛擬現(xiàn)實和增強現(xiàn)實技術來改善醫(yī)生和病人之間的溝通。AI也可用于藥物研發(fā),由此節(jié)省大量的資金成本。”
北京科技大學智能科學與技術學院巴基斯坦籍教師阿力夫表示,AI已融入生活的方方面面,如人臉識別、智能家居或語音助手等。AI是未來,因為現(xiàn)在這個專業(yè)以及這項技術是每個人都想了解的,每個人都想使用這項技術。
談及AI在教育領域的應用,阮錦繡表示,人工智能可當成寫作助手來使用,“我們或許沒有辦法完全禁用ChatGPT,因為學生總會找到一些方法去訪問它。我們可以此設計一些測試,讓學生與ChatGPT就某些話題進行辯論。學生必須找出ChatGPT提供答案的錯誤之處。在這樣的練習過程中,他們可培養(yǎng)批判性思維,質疑機器的回答是對還是錯,學生們由此可意識到,不是所有看到的信息都值得相信。”
當前的AI難以取代人類
“人類對這個世界擁有大量的常識性知識,包括物體的物理屬性、社會規(guī)范和文化背景知識,這對推理和決策至關重要,開發(fā)能夠積累并使用常識性知識的AI仍是一個重大挑戰(zhàn)。”阿力夫說,目前的AI系統(tǒng)可能是不透明的,了解它們如何作出特定決定,或如何診斷它們在推理過程中的錯誤十分困難。
浙江大學計算機輔助設計和計算機圖像專業(yè)博士生李志男對此表達了類似觀點,“我不相信ChatGPT是一場技術上的革命,或是自然語言處理領域的技術革命……很多技術和算法在此之前就已被發(fā)明和應用了,如各類語言模型、神經機器翻譯和命名實體識別等。”
“ChatGPT的創(chuàng)新之處在于其大規(guī)模和效率。它采用了大規(guī)模的預訓練語言模型并結合多類型技術和算法來達到比之前更好的效果。”李志男說,他希望未來的人工智能有推理的能力,“我不知道它是否能達到這個水平,但這是一個令人興奮的研究領域,它有可能徹底改變我們生活。”
劉秀云則指出,在醫(yī)藥領域,使用AI取代人類的工作會引發(fā)一系列的倫理問題:比如,在醫(yī)藥領域,如果出現(xiàn)了事故,誰應該承擔責任?是AI還是醫(yī)生?另外,也存在數(shù)據(jù)安全問題,如何確保AI保存并安全地使用數(shù)據(jù)?人們如何使用AI技術提高醫(yī)療和診斷的準確性?這些都是AI在醫(yī)療領域的應用中所面臨的問題。
AI可能在很多領域比人類都強,但它永遠不可能擁有像人類一樣的文明。阿力夫表示,人類的情感系統(tǒng)有一些獨特的東西,如想象力、同理心、善良、勇氣和團隊精神,這些比人類的知識和技能以及科學技術更加重要,這些是AI無法企及的。
標簽: