以下文章來源于讓科學負責任 ,作者澎湃科技
編者按:據(jù)新華社近日報道,美國人工智能研究實驗室OpenAI的大型預訓練人工智能語言模型ChatGPT在推出約兩個月后,已達到1億月活躍用戶,成為歷史上增長最快的消費者應用程序。ChatGPT大熱背后亦彰顯了人機協(xié)同創(chuàng)新的潛力。啟明創(chuàng)投投資企業(yè)銜遠科技將大規(guī)模預訓練模型與人機協(xié)同式交互智能應用于產業(yè),利用多模態(tài)的表征和推理技術幫助企業(yè)快速定位以消費者為中心的高潛機會賽道和產品創(chuàng)新機會點。
日前,銜遠科技創(chuàng)始人、清華大學惠妍講席教授、清華大學電子工程系長聘教授周伯文在接受澎湃科技采訪時指出,ChatGPT的核心進展是AI與人的協(xié)同和交互學習能力提升,并進一步分析在生產力場景下這種交互范式的重要意義。啟明創(chuàng)投微信公眾號經(jīng)授權轉載。
銜遠科技創(chuàng)始人、清華大學惠妍講席教授、清華大學電子工程系長聘教授周伯文
聊天機器人ChatGPT最近很熱鬧。脫離ChatGPT的聊天對話框,背后的本質是人機交互范式和底層AI能力的改變。從過去的圍棋人工智能程序AlphaGo,到如今的聊天機器人ChatGPT,人工智能的發(fā)展趨勢是聚焦提升AI系統(tǒng)的協(xié)同與交互智能能力。
周伯文對澎湃科技表示,ChatGPT的核心能力是通過協(xié)同交互完成任務。實際上,ChatGPT產品的對話框只是一個表象,本質是實時融合人的能力的協(xié)同交互智能,極大促進人機共創(chuàng)。在生產力場景下,這種交互范式可以改變行業(yè)。
周伯文擁有豐富的前沿研究經(jīng)歷與業(yè)界經(jīng)驗,他曾任IBM Research人工智能基礎研究院院長、IBM Watson Group首席科學家、IBM杰出工程師、京東集團高級副總裁、集團技術委員會主席、云與AI總裁,2022年從工業(yè)界回到學術圈。其研究領域包括語音和自然語言處理、多模態(tài)與知識表征、理解、生成、推理、人機對話、可信賴AI等。他提出的自注意力融合多頭機制的自然語言表征機理后來成為Transformer架構的核心思想之一,他還提出了AIGC領域的兩個自然語言生成模型架構與算法。
01/
ChatGPT提供了“系統(tǒng)1”和
“系統(tǒng)2”聯(lián)合共創(chuàng)的可能
2002年諾貝爾經(jīng)濟學獎得主丹尼爾·卡尼曼的一本暢銷書《思考,快與慢》(Thinking Fast And Slow)提出了人的思考方式有兩類:“系統(tǒng)1”和“系統(tǒng)2”。“系統(tǒng)1”的特點是基于直覺和經(jīng)驗判斷,快速、不需要大量計算,“系統(tǒng)2”的特點是有語言、算法、計算、邏輯。
以人腦活動為例,國際象棋大師下車輪棋是“系統(tǒng)1”形式,他們并非仔細計算走哪步,而是憑借幾萬小時的訓練和記憶力,從棋盤格局通過模式識別判斷落子位置,這是通過直覺和記憶的低認知負擔的決策?!跋到y(tǒng)2”的典型案例就是高考數(shù)學,哪怕是圖靈獎得主或菲爾茲獎得主也不可能瞄一眼題目就能把考卷做出滿分,而是必須認真讀題、計算、推理認證、得出結果,這需要調動知識、計算、邏輯與檢驗,是一個高認知負荷的腦力推導的過程。
從人工智能發(fā)展的進程來看,最初,人們認為AI更適合做“系統(tǒng)1”的工作,比如人臉識別、質檢就是基于“系統(tǒng)1”的模式識別,“前段時間深度學習熱下的產業(yè)落地很多人聚焦在這個方向,但很快就證明這個方向的價值天花板不高?!敝懿谋硎?,從過去的AlphaGo,到如今的ChatGPT,AI在技術發(fā)展下會越來越擅長“系統(tǒng)2”任務,并且能力增長的速度會超過我們原來的預期。不得不承認,人類單獨做“系統(tǒng)2”的工作,從長遠來看,學習的效率、深度、廣度都不如AI,而需要去充分發(fā)揮AI的潛力。
AI的更多高價值場景在于“系統(tǒng)2”。因此,在以人為中心、人類更多承擔“系統(tǒng)1”任務并負責最終決策、AI系統(tǒng)更多承擔“系統(tǒng)2”任務的繁瑣推導背景下,人和AI如何更好地協(xié)同和交互?“系統(tǒng)1”和“系統(tǒng)2”如何合作?如何持續(xù)提升AI系統(tǒng)的協(xié)同與交互智能能力?周伯文表示,讓AI通過交互學習更好理解人的意圖與判斷、大量獲取相關信息與數(shù)據(jù)并做復雜推理,為人呈現(xiàn)推理過程與決策選項,通過這些協(xié)同交互幫助人更擅長做決策、做更好的決策,這是未來人工智能發(fā)展的重要方向。
人可以借助AI更快發(fā)現(xiàn)新知識,洞察深度和廣度,并完成任務。新知識的發(fā)現(xiàn)幫助人類設計出更好的AI,比如對腦科學的發(fā)現(xiàn),計算優(yōu)化的發(fā)現(xiàn)。人類發(fā)現(xiàn)更好的人工智能,更好的人工智能發(fā)現(xiàn)更多新知識,如此形成回路,一個創(chuàng)造新知識的飛輪就出現(xiàn)了。
《自然》1月的封面文章提到,過去幾十年來,全世界論文和專利數(shù)量大幅增加,但突破性創(chuàng)新越來越少。周伯文認為,原因之一在于,學科經(jīng)過多年高速發(fā)展后形成了信息繭房。信息繭房內部,信息過載。每個人需要學習很多知識才能理解一個很小的子領域,沒有突破性進展也就意味著學習新知識的同時也必須學習舊知識,學習成本越來越高。繭房與繭房之間,信息壁壘過高。由于信息過載與壁壘高企,純粹靠科學家本人跨領域交叉難度越來越高,因此導致突破性進展也越來越少。
ChatGPT提供了一種“系統(tǒng)1”和“系統(tǒng)2”聯(lián)合共創(chuàng)的可能,人與AI通過協(xié)同交互完成任務。在這個邏輯下,就像人類和ChatGPT的交互一樣,如果將“系統(tǒng)1”和“系統(tǒng)2”結合起來,就能更高效打破信息繭房,在繭房內,人類能更快速學習、洞察,不同學科之間可以更好創(chuàng)造交叉知識。
實際上,ChatGPT產品只是一個表象,脫離ChatGPT的聊天對話框,這是人機交互范式和底層AI能力的改變,在生產力場景下,這種交互范式可以改變行業(yè)。
周伯文表示,ChatGPT的核心進展是AI與人的協(xié)同和交互學習能力提升,而不僅僅是模型變大。這對產品創(chuàng)新、人機協(xié)同創(chuàng)新、知識發(fā)現(xiàn)意義尤其巨大。基于這樣的預見,他在2021年底創(chuàng)立了銜遠科技,利用多模態(tài)的表征和推理技術幫助企業(yè)快速定位以消費者為中心的高潛機會賽道和產品創(chuàng)新機會點。
02/
交互是學習手段
人的反饋價值遠超模型參數(shù)
一直以來,對話式AI存在三大局限,包括AI系統(tǒng)缺乏常識,缺乏對世界的認知模型和對演繹機理的理解;對話式AI缺乏實時的推理歸納和學習能力;此外,對話式AI缺乏駕馭對話的能力。ChatGPT出現(xiàn)后,這三大局限仍然存在,比如ChatGPT缺乏對話策略能力,不會主動尋求信息、反問人類。
但ChatGPT帶來了兩個新進展。第一,交互是一種學習手段而不僅僅是應用。過去,人工智能客服只是機械式回答問題,聽不懂人的意圖反饋,它的目的是完成任務而非學習?!癈hatGPT能在很長的對話里,把上下文問到的問題、表達、糾正變成一種學習輸入,幫助它更好地回答問題、意識到自己的錯誤、修正自己的答案?!?strong>這恰好證明了周伯文提出的協(xié)同與交互的重要性,人的反饋幫助ChatGPT在大模型中迅速定位知識,甚至反其道而行,選擇一個概率更低的回答。
第二,在大模型訓練中,當模型參數(shù)達到一定規(guī)模,人的反饋價值遠遠超過模型參數(shù)和計算量的價值。ChatGPT出現(xiàn)前,業(yè)界普遍認為,模型參數(shù)規(guī)模和計算量非常重要。不斷喂數(shù)據(jù),增加模型參數(shù)和迭代次數(shù),模型效果就越好。但更多的數(shù)據(jù)意味著更多的計算量和能源消耗。ChatGPT的出現(xiàn)證明,人的反饋同樣可以迅速提升模型的能力。
OpenAI在發(fā)布ChatGPT之前,對比過1750億參數(shù)的GPT-3模型和13億參數(shù)的InstructGPT模型。如果要求AI為一個6歲的小孩解釋登月,以GPT-3的基礎模型能力可以有各種角度回答這個問題,包括基于物理原理的萬有引力,基于歷史背景的美蘇冷戰(zhàn)促進登月,基于天文學角度的地月關系,也可以基于人類的關于月亮的神話傳說與樸素愿望?!罢业竭@些信息并不難,難的是GPT-3不知道哪個答案更適合。常規(guī)模式是按照出現(xiàn)概率排序。”但InstructGPT在這個基礎上讓用戶對四類答案進行選擇、打分,給出排序后,這些反饋可用于微調GPT-3模型,將GPT-3與人類的意圖和評價體系進行對齊,進而改變模型參數(shù)和推理結果。
“在這些與人的交互協(xié)同后,如果再要求ChatGPT為6歲孩子寫童話,它就會自己學會以once upon a time(很久以前)來開頭,因為它認識到6歲的小孩有獨特的需求。這也是大家開始開玩笑說ChatGPT有情商的原因?!敝懿谋硎?,它通過人的反饋調整模型內部隱式知識對應的參數(shù),同時將人的思考與價值判斷嵌入到系統(tǒng),這也印證了交互是一種學習手段而不僅僅是應用。
1956年夏天,美國達特茅斯學院舉行了歷史上第一次人工智能研討會,這被認為是人工智能誕生的標志。此后,人工智能的發(fā)展經(jīng)歷了“三起三落”。到如今,人工智能逐漸開始往“大一統(tǒng)”方向發(fā)展,周伯文表示,越來越多的任務會運用大規(guī)模預訓練生成式模型,足夠多的數(shù)據(jù)可以訓練一個足夠強的通用模型。但當前對知識的定位、編輯、可信度,以及對知識的矛盾處理和檢測仍然不足,當越來越多的知識匯入大模型,大模型如何與知識更好融合是一個重點研究方向。
在“系統(tǒng)1”和“系統(tǒng)2”背景下,AI如何更好適應人類并持續(xù)學習是另一個研究重點。以ChatGPT為例,人類的反饋讓ChatGPT只在推理時糾正當下的對話,但這些糾正沒有融合到大模型中。“云端里的大模型是固定的。邊緣端有百萬終端搜集信息,這些小模型不斷跟人迭代交互,學到了新知識,這些新知識如何有效傳到云端,改變云端大模型,目前還是研究空白?!?/strong>
換句話說,就是要用小模型與人交互學習,進而將知識傳遞給云端大模型進行迭代。這種“協(xié)同交互智能”帶來的一個好處是低成本迭代,“不需要每訓練一次就花500萬美元?!?/span>
來源 | 澎湃科技
作者 | 張靜