李國杰,中國科學院計算技術研究所研究員、首席科學家,中國工程院院士,第三世界科學院院士。研究方向為計算機體系結構、并行算法、人工智能、計算機網絡、信息技術發展戰略等。曾任國家智能計算機研究開發中心主任、中國科學院計算技術研究所所長、中國計算機學會理事長、國家信息化專家咨詢委員會信息技術與新興產業專委會副主任。
記者:近期,ChatGPT、DeepSeek等生成式AI爆發式發展,有觀點認為,這意味著人類已接近實現通用人工智能,您怎么看待?
李國杰:通用人工智能(AGI)指AI在多個領域具備人類同等智能水平解決復雜問題的能力,這一概念尚未形成廣泛共識。許多學者認為智能是在知識和資源相對不足的情況下,一個系統的適應能力,并能夠應對設計者預料之外的情況,才叫“通用”。因此,學術界更關注智能系統的持續學習、自我改進能力以及與外部世界基于常識和經驗互動的能力,而不僅僅是其語言處理能力。簡單宣稱“接近實現AGI”缺乏實際意義,關鍵在于如何定義AGI。
近幾年,生成式人工智能發展迅猛,我們正在迎來人工智能第三次浪潮的高峰期。斯坦福大學《2024年人工智能指數報告》明確指出,機器學習大模型在圖像分類、視覺推理及英語理解等方面的表現已超過人類。聊天機器人和其他智能軟件正在改變我們的工作和生活。AI驅動的科學研究作為科研第五范式,也展現出驚人潛力。比如DeepMind的AlphaFold3已成功預測地球上已知的超兩億種蛋白質的三維結構,有望顛覆當前的藥物研發模式,其發明者獲得了2024年諾貝爾化學獎。人們相信,智能技術的指數性發展一定會加速通用人工智能的到來,但自適應性、持續學習及與外界互動等問題仍需克服。
人工智能是對人類智能某方面的再現和超越,其通用性是相對的,需基于特定條件或范圍。大模型追求的AGI只是眾多通用目標的一種。我們要認識人工智能的局限性,不能盲目追求天下通吃的人工智能,重點還是要根據實際需求,將相對通用的人工智能技術落地到各行業,讓一定范圍內的人工智能技術見到實效。
實現通用智能是一個漸進過程,不會因某項技術的發明就突然到來。盡管當前AI的通用性比前兩波有顯著提高,但距離真正的通用智能還有較大差距。在某些應用中通過圖靈測試只是階段性成果,發展既通用自主又安全放心的人工智能仍是巨大挑戰。
記者:您認為推動這輪AI突破的核心要素是什么?
李國杰:這是整個信息技術發展和成熟的結果。神經網絡模型早在1943年就已提出,但在算力和數據充分豐富的今天,才真正釋放威力。一是集成電路和超級計算機帶動并行計算技術走向成熟,使得算力提升了萬億倍,為人工智能的突破提供了足夠的計算能力;二是互聯網催生數據量爆炸式增長,使得人類已知的全部可數字化的知識都可以被機器學習吸收;三是人工智能前60年的科研紅利發揮了作用,符號主義人工智能為數字化基礎設施的形成作出了不可磨滅的貢獻。可以說,人工智能的復興不僅是神經元模型和深度學習等智能算法的勝利,也是計算技術的勝利、互聯網的勝利、摩爾定律的勝利。
與前兩波人工智能不同的是,統計推理在第三波人工智能中發揮了核心作用。基于大數據和神經網絡模型的統計推理是生成式人工智能的核心技術,在機器學習和強化學習模型的訓練和優化過程中發揮了關鍵作用。馮·諾伊曼最早認識到神經元模型不同于圖靈機模型,他指出:“信息理論包括兩大塊:嚴格的信息論和概率的信息論。以概率統計為基礎的信息理論大概對于現代計算機設計更加重要。”從目前大模型取得的成功來看,馮·諾伊曼的預言已經變成現實,計算模型的改變是隱藏在輝煌成果后面的本質原因。
記者:有人將AI突破完全歸功于大模型,您是否認同?機器學習大模型的本質是什么?目前學界有哪些主要觀點?
李國杰:大模型是人工智能近七十年發展的最高成就,也是實現通用人工智能的可能方向。這一波人工智能的成功離不開大模型,也離不開大數據和大算力。因此,將重大突破全歸功于大模型是片面的。到達山頂的路不止一條。人工智能其本身擁有多元化的目標和多條技術路線。大語言模型是其中的重要進展,但未來還將出現更高效、節能和安全的新技術。
與傳統的符號主義人工智能相比,基于神經網絡和機器學習的大模型確實有顛覆性的意義。基于大模型的智能系統已經不是簡單的人造工具,而是與人類認知水平接近的智能體。不管大模型會不會發展成為硅基生命,我們對大模型引發的機器智能的巨大潛力和風險要有清醒的認識。
機器學習大模型的本質是什么?至今沒有答案。數學家將大模型看成高維函數的擬合器。物理學家將人工神經網絡看成尋找系統最低能量的生成模型,早期的神經網絡模型被稱為“玻爾茲曼機”。復雜性科學家認為大模型是一個可以出現涌現行為的復雜系統,主張從了解復雜系統的規律打開缺口分析大模型。
現代信息學奠基人之一的李明和OpenAI前首席科學家伊利亞·蘇茨克維等都認為,AI大模型的本質是信息壓縮。輸入大模型進行訓練的數據量是PB級別,而得出的大模型的參數只有TB級甚至GB級,壓縮了上千倍。壓縮可認為是人性的一種本質特征,生物進化過程的“適者生存”也可解讀為“最壓者生存”。信息壓縮為理解大模型的本質提供了新的視角,柯爾莫哥洛夫復雜性有望為機器學習提供新的理論基礎。
AI界都在努力尋找描述世界和預測未來的模型,盡管各團隊構建的模型在不同數據和結構上以不同目標進行訓練,但他們正趨向于在其表示空間中形成一個現實世界的共享統計模型。麻省理工學院的研究顯示,大模型內部出現了類似人類大腦“腦葉”結構和“語義晶體”。這一發現為大模型的基礎研究提供了新的線索。
大模型目前還是一個“黑盒”,其涌現能力像20世紀初物理學上空的“兩朵烏云”般難以解釋,這正是劃時代理論突破的前兆。學界正致力于揭開其神秘面紗,使之變為“白盒”,至少變成“灰盒”。同時盡量努力把人類向善的價值觀賦予智能機器,實現以人為本的人機協作。
記者:近期,國內DeepSeek推出了性能優越且成本效益高的新模型,引起全球轟動。這類探索是否代表中國AI從應用創新向基礎創新跨越?您如何評價這類“小而精”模型與通用大模型的差異化價值?
李國杰:DeepSeek的推出成為世界人工智能發展史上的一個標志性事件,不僅創下了全球用戶增長速度的新紀錄,還引發了市場對相關硬件需求預期的調整。例如,英偉達的股價短期內有所波動,反映了市場對新興技術可能帶來的行業變革的敏感性。這也表明中國科技公司在全球最關注的核心技術領域,正通過持續創新重塑世界既有格局。
DeepSeek為在受限資源下探索通用人工智能開辟了新的路徑。傳統大模型通常從廣泛的通用能力出發,逐漸向特定應用場景優化。相比之下,DeepSeek采取了一種不同的策略,通過專注于特定任務或領域,逐步擴展其通用能力。這種方法有助于推動人工智能技術生態的發展,并促進通用人工智能的社會共享。“小而精”模型將AI的應用重點從面向企業轉向面向消費者,從廣泛覆蓋轉變為深度優化,讓更多的中小企業參與,可能會創造更大的市場空間。這種“垂直深潛”策略與通用大模型的“橫向擴展”互為補充,共同構建智能時代的創新生態。
長期以來,中國AI企業側重于應用和商業模式創新,追求快速盈利,較少涉足核心技術的原創性突破。與西方發達國家相比,我們真正的差距不在于資金或硬件的短缺,而在于缺乏原創技術和發明,以及在增強信心和有效組織高水平人才進行創新方面的能力不足。隨著經濟的發展和技術的積累,中國企業逐漸增強了原創研發能力。DeepSeek帶了一個好頭,他們把探索通用人工智能的實現之路作為奮斗目標,并吸引了一批充滿創新熱情和好奇心的年輕博士加入。這些90后的中國青年展現出與西方同行平等對話的信心和“敢為天下先”的勇氣,成為中國科技自主創新能力發展的希望。
記者:大模型的“規模法則”是否已接近極限?是否仍是AI發展的金科玉律?
李國杰:在AI領域,“規模法則”(ScalingLaws)被一些人認為是公理,俗稱為“大力出奇跡”,OpenAI等企業和美國AI投資界把它當制勝法寶。但是,“規模法則”不是像牛頓定律一樣經過無數次驗證的科學定律,而是OpenAI等公司近幾年研制大模型的經驗歸納。從科學研究的角度看,屬于一種對技術發展趨勢的猜想。從投資的角度看,屬于對某種技術路線的押注。把一種信仰或猜想當成科學公理,不是科學的態度。
強化學習之父理查德·薩頓曾力挺“規模法則”,在其博文《苦澀的教訓》中總結AI的發展史:“研究人員曾一次又一次試圖通過精巧的工程設計來提升性能,但最終都敗給了簡單粗暴的‘加大算力’方案。”但是他這兩年對“規模法則”進行了深刻反思,認為雖然“規模法則”在提升模型性能方面確實有效,但它并不是解決所有問題的萬能鑰匙。AI系統不僅需要具備強大的計算能力,還需要具備持續學習、適應環境、理解復雜情境等能力,這些能力往往難以通過簡單地增加算力來實現。
GPT-5遲遲不能問世,可能表明規模擴張的效果已經減弱。圖靈獎得主楊立昆和伊利亞·蘇茨克維等人直言,“規模法則”已觸及天花板。DeepSeek的出現,更逼迫AI界嚴肅地思考這一技術發展路線問題:是繼續燒錢豪賭,還是另辟蹊徑,在算法優化上下更多功夫。DeepSeek的成功似乎預示著“小力也可出奇跡”,或者說“算法和模型架構優化也可以出奇跡”。隨著時間的推移,AI擴展方法也在發生變化:最初是模型規模,后來是數據集大小和數據質量,現在是推理時間和合成數據。
但現在就說“規模法則”已經走到盡頭,也沒有根據。與人腦的神經連接復雜性相比,現在的人工神經網絡至少還有上百倍的差距。繼續擴大神經網絡的規模和增加訓練的數據量,是否還能取得與投入相稱的回報,還要看今后的實際效果。
記者:算力、數據、算法被視為AI三大支柱。中國在算力基建(如“東數西算”)上投入巨大,但高端芯片、高質量數據集等仍受制約。如何構建自主可控的AI基礎設施生態?
李國杰:發展人工智能需要充足的算力和高質量數據,必須構建自主可控的AI基礎設施生態來保障資源供給。美國的AI基礎設施是基于英偉達的GPU建立起來的。我國的人工智能加速芯片,如華為的昇騰、海光的DCU和寒武紀的芯片與GPU芯片的硬件性能差距并不是很大。英偉達的核心優勢在于CUDA軟件生態及NVLink和InfiniBand高速互聯,其中CUDA生態最難攻克。DeepSeek雖沖擊了CUDA生態,但沒有完全繞過CUDA,CUDA的生態壁壘仍然存在。從長遠來講,我們需要開發一套比CUDA更優秀的自主可控的AI軟件工具系統。像取代Wintel和ARM+Android系統一樣,就是要重構軟件生態系統,這是一項十分困難的任務,需要周密的規劃和長期努力。國家應該下決心組織全國的開發力量,充分調動上下游企業的積極性,完成這件關于國家發展和安全的大事。
信創工程對推廣國產化芯片和軟件有重大的推動作用,但產業生態的形成主要靠市場牽引。國家要通過政策引導,鼓勵在PC、手機和物端設備上推廣AI應用,擴大“國產大模型+國產GPU”應用空間,增強國產GPU、CPU和軟件的市場份額。高度重視芯片設計和大模型的開源戰略,爭取我國在全球AI開源系統中起到主導作用。
GPU芯片可能會在市場上延續相當長的時間。從長遠來看,GPU并非終極方案,針對一類AI應用的專用芯片也可能成為主流,AI加速芯片將來可能進入多芯片競爭的XPU時代。Groq的LPU推理性能已達GPU的10倍,其單芯片能實現每秒250萬億次整數運算,延遲低于1微秒。算力是AI基礎設施的重要組成部分,我們既要攻關ZFlops級的超算,也要探索類腦計算、光子計算等新范式。為了降低能耗,模擬計算、類腦計算、碳基計算等非傳統計算肯定是重要的研究方向。
記者:數據被稱作新時代的“石油”,但高質量數據的獲取越來越難,AI發展會面臨數據枯竭嗎?未來應如何應對這一挑戰?
李國杰:確實存在隱憂。現階段人工智能的主流是數據智能,從某種意義上講,沒有數據就沒有智能,數據已成為AI技術進步的關鍵。有專家預計,2026年現存高質量語言數據將耗盡,合成數據將成為關鍵突破口。因此,行業正從“大數據”轉向“好數據”。未來的AI應用需要大量稀缺且難以獲取的長尾數據,如自動駕駛中的極端天氣與路況數據、具身智能訓練所需要的復雜場景數據等。對于許多實際應用來說,擁有50個精心設計的樣本足以讓神經網絡學習所需知識,例如缺陷檢查系統。
在醫療、工業控制、金融等垂直領域,優質數據更依賴于人工標注,往往需要高素質的專業人員。因此,數據標注不完全是勞動密集產業,其大有發展前途。為此,我國應把握數據標注產業升級的機遇,發展AI輔助標注技術,建立和完善行業數據標準,推動數據標注向技術密集型轉變。DeepSeek等企業的實踐證明,優化數據質量比單純增加數量更有效。
記者:可解釋性與自主性是AI發展的兩大目標,但二者似乎存在矛盾。您如何看待這一問題?
李國杰:人們希望AI系統具備自主性以適應復雜環境,但完全自主可能導致失控,因此可控性至關重要,但可控的人工智能一定是可解釋的。因此,實現既自主又可控的AI,需要新的治理哲學。
要解決兩者之間的矛盾,必須對自主和可控設立一定的界限,不能追求絕對的自主和絕對的可控。一是允許“邊做邊看”的適度黑箱,不必強求絕對的可解釋性。二是對不允許做的自主AI技術明確立法限制,可參照核武器和基因編輯技術的管控。自主性和可控性如同汽車的油門與剎車,只有建立動態平衡機制,才能實現“有限自主、可靠可控”的智能系統。
記者:最后,您對AI基礎研究有何展望?
李國杰:人工智能的基礎理論源于半個多世紀前的科學成就。近年來的發展主要得益于工程技術的突破,而非基礎理論的重大突破和新方向的開辟。在現有的研究方向上添磚加瓦、修修補補,可能只會有漸進式的發展,需要解放思想、另辟蹊徑,走前人沒有走過的新路。獨創性的長周期的基礎研究往往是熱情和好奇心驅動的研究,只有改變完全靠論文和“人才帽子”驅動的科研文化,基礎研究才會走上良性發展的道路。
被譽為AI教父的杰弗里·辛頓,從提出反向傳播算法到探索“凡人計算”,為人工智能的基礎研究樹立了榜樣。“凡人計算”是一種新型計算范式,顛覆了硬件與軟件分離的傳統計算模式,采用與人腦一樣的存算一體模擬計算方式,從而顯著降低能耗并提高效率。這類研究短期內效果不明顯,但有望帶來重大突破。
