Transformer架構的內在局限性逐漸顯現,什么樣的架構能夠帶來根本性創新?追求能夠帶來科學范式轉變的“革命性工具”,現在的語言模型夠用嗎?模型任務與真實世界的效用存在脫節,如何打破評測體系“高分低能”?創新算力嚴重不足對顛覆性想法的產生與發展形成潛在挑戰,如何避免研究走向同質化困境?上海人工智能實驗室主任、首席科學家,清華大學惠妍講席教授周伯文,日前在首屆明珠湖會議上總結人工智能未來3-5年的發展趨勢,以及人工智能未來十大關鍵技術節點。
他將人工智能的趨勢總結為“三化”:
一是智能技術體系化。人工智能是先發展應用、后補充理論的典型學科,現在需要更體系化地追究智能的本質,完善體系。
二是智能形態多元化。人工智能一定要產生不同的形態,和實體經濟、社會發展、人民生活緊密結合,隨著人工智能技術的迭代,智能形態必然多元化。究其核心原因,其一是場景豐富度的要求,其二是技術不完備,人工智能未來四五年中還會處于技術待完備階段,這時候需要妥協,在應用中考慮新的形態,要思考人工智能產業的形態呈現出的是過程還是終局、是手段還是目的。
三是智能能力高階化。行業往前發展的核心動力是智能能力必須不斷高階化演進。今天的人工智能已經令人驚嘆,但這僅僅是開始。高階化離不開技術體系化,離不開要素的突破,離不開對形態的理解。否則,基于中階過程探討人工智能的高階化,就有可能走上錯誤的道路。
針對人工智能未來關鍵技術節點的判斷,周伯文總結提出十個問題。
如何平衡智能發展的質量與效率?當前評估模型往往關注總體智能,即參數規模、訓練數據量和排行榜排名,而忽略了單位智能,這一指標涵蓋數據成本、計算成本和存儲成本,類似于經濟學中的人均GDP概念。在模型評估中,若能實現單位智能最大化,那么總體智能將會顯著提升。DeepSeek模型的工程創新使模型更為簡潔,這種簡潔本身就是智能的高級表現。
如何平衡“數據合成”和“算法訓練”兩大任務的算力分配? 深度強化學習不僅是學習手段,同時也是一條能夠產出高價值數據的高效路徑。在運行過程中,它一方面會消耗一定的算力資源,另一方面卻能生成具備高精度、高密度特性的復雜推理數據。這些合成數據可以反哺預訓練環節,從而顯著提升模型性能。因此,在理想狀態下可以追求效率飛輪:通過Deep RL消耗的算力與其產生的高質量數據所節省的訓練成本達成平衡。當這個臨界點到來,AI或將能以極低成本自我提升,實現“自己訓練自己”。
軟件向硬件適配,還是硬件向軟件兼容?軟硬協同的路徑國內外存在差異,國際廠商如英偉達選擇“軟件兼容硬件”,通過深耕CUDA生態,使其軟件能夠高度適配自家硬件;而國內目前更多是“硬件兼容軟件”,例如芯片廠商調整算子以適配軟件需求。但硬件研發周期通常比軟件長得多,這就導致“硬件兼容軟件”路徑在邏輯上遭遇挑戰。學術界應探索更高效的軟硬協同創新路徑,既要實現軟硬件在性能上的優化,也要緊密貼合產業實際需求。
針對應用、迭代和顛覆性的技術,算力應如何配置?從算力運用的維度來看,可分為三類:一是應用算力,此類算力聚焦已明確的場景應用,通過加大算力投入,全力推動科研成果實現產業落地,將理論轉化為實際生產力,促進產業的發展與升級。二是迭代算力,此類算力助力研究工作持續推進與模型迭代優化,例如依據Scaling Law投入算力開展模型訓練等相關工作。三是創新算力,其核心作用在于對非主流想法進行驗證,積極探索更多尚未被充分發掘的新技術,拓展多樣化的新解決方案。當前,應用算力和迭代算力相對充足,而創新算力嚴重不足,這對于顛覆性想法的產生與發展形成潛在挑戰。要想避免研究走向同質化困境,實現創新算力供給至關重要。這種供給應當鼓勵差異化思考,并為非主流技術路線提供支持。
Agent是目的還是過程?如何構建真正自主進化的智能體?從Agent發展情況看,它依賴于基礎模型,同時還需要通過與環境和用戶的互動不斷學習和自我改進。當前大多數自我改進系統都陷入了“僵化學習”的困境 。人類智能的一個核心特征便是其永無止境的學習能力——不斷吸收新知識、適應環境變化,并對過往經驗進行深刻總結、遷移與升華。智能體系統是否也有可能具備類似的真正持續學習的能力,甚至在此基礎上實現某種形式的“自主進化”?
超級大腦與本體的關系是什么?如何突破“莫拉維克悖論”,實現類人的具身進化和環境自適應?在具身智能的研究范疇里,如何精準定義“大腦”與“本體”之間的關系已成為核心且亟待攻克的關鍵問題。人類作為“智能體”,在本體能力維度,諸如力量、速度等方面相較于眾多動物存在明顯劣勢。但人類憑借獨特的工具創造能力、環境交互與學習能力,成功突破自身生理局限,達成諸多超越想象的成就。因此,未來的具身智能研究應當深入探究大腦與本體間的最優關系,并據此制定資源投入的最佳策略。既避免“超級大腦-弱本體”的陷阱,也避免“高級本體-簡單決策”的陷阱,從而推動具身智能技術取得實質性、突破性進展。
如何從Make AI Safe到Make Safe AI?人工智能正以前所未有的速度發展,當前面臨的核心挑戰是,如何從被動的“彌補AI安全漏洞”(Make AI Safe)轉向主動的“構建本質安全的AI”(Make Safe AI)?近期,形式化AI取得較多進展,華裔數學家陶哲軒的“Lean+AI=數學證明智能化”概念,以及創業公司Ndea的程序合成(program synthesis)技術,都體現了通過數學嚴謹性確保系統行為可驗證。形式化AI有巨大潛力,但也存在一定問題:會否由于限制太強,使系統靈活度下降,從而出現為了完成任務而“繞過安全檢查”,最終導致病變?自動形式化、形式化驗證是確保AI 100%安全的路徑嗎?還有哪些可行的技術方案,比如Causal AI(因果人工智能)、Explainable AI(可解釋人工智能)等?真正的AI安全需要的不是完美的規范,而是具備自我修正能力的動態安全機制。
從靜態到動態? 訓練、評測、解決問題一體化?面向AGI的評測應如何建設?“AI上半場”聚焦開發新的訓練方法和模型架構,但模型任務與真實世界的“效用”存在脫節,暴露出當下評測體系“高分低能”問題。因此“AI下半場”將聚焦現實世界的任務定義與評估體系重構。新評測體系要從能力導向(構建評測問題)到任務導向 (獨立/輔助人類解決現實世界中的高價值問題)遷移,評測和解決問題可能會變成一體化,即在訓練中評測、在評測中訓練,在“干中學”在“學中干”。
如何從“工具的革命”到“革命的工具”?AI for Science要真正發揮革命性作用,必須理解科學研究的本質:研究者、研究工具、研究對象三者的交互關系。目前的AI for Science主要關注研究工具層面的單點效率提升(“工具的革命”),而我們需要追求的是能夠帶來科學范式轉變的“革命性工具”,并實現科研各環節全鏈條水平提升。下一代For Science的AI,如何從“工具的革命”變成“革命的工具”應該是我們這一代人的使命。如果要成為“革命的工具”,現在的語言模型是否夠用?若沒有多模態的智能涌現,或許很難實現革命性的AI for Science工具。當前的多模態模型仍然建立在預測下一個token的基礎上,缺乏對圖表、分子模型、公式和實驗觀察的深度理解能力。打造能夠推動科學突破的AI系統,需要在多模態統一表征方面取得突破。
針對Transformer的不足,什么架構能夠帶來根本性創新?Transformer架構自2017年問世以來,引領了AI領域的一場革命。從GPT系列到Claude,從DALL-E到Gemini,幾乎所有令人印象深刻的大型語言模型和多模態模型都建立在這一架構之上。但隨著我們對AI能力的期望不斷提高,Transformer的一些內在局限性逐漸顯現,包括計算效率不高、上下文理解有限、推理能力存在瓶頸、難以模擬動態系統等。正如愛因斯坦所言:“我們不能用制造問題時的思維方式來解決問題”。可能需要全新的架構思路突破這些局限。展望未來,除了Transformer自身架構的持續迭代,未來多元架構如何共存、互補和協作?針對決策智能、世界智能、生物智能等領域需要探索可能引領下一代的AI架構。
(標題:上海人工智能實驗室主任周伯文詳述人工智能未來十大關鍵技術節點)
本文鏈接:上海人工智能實驗室周伯文詳述人工智能十大關鍵技術節點http://m.sq15.cn/show-11-22303-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 用量子視角穿越黑洞,奇點顛覆哪些認知