一場更具思辨性的人工智能大會論壇設置數學之問、科學之問、模型之問
站在發展十字路口,求解“AI三問”

本屆人工智能大會的論壇有點不一樣。為了讓大會論壇更具思辨性,本屆大會特意設置了“AI三問”系列論壇,將學界與業界的專家聚集起來,一同探討AI在數學、科學、模型領域最關鍵的行業問題。
大會開幕兩日來,系列論壇上嘉賓們的觀點層出不窮,問題形形色色,但共通點在於大家都談到了AI技術快速發展,正在為自身行業帶來范式性的變革。當AI浪潮不斷奔涌,關鍵學科正站在發展的十字路口。
數學之問
當前,人工智能與數學的邊界逐漸模糊。一方面,大模型參數突破萬億,傳統基於經驗的調參方法陷入瓶頸,模型的泛化能力、安全性、能耗控制等核心問題,亟待數學理論的系統性支撐﹔另一方面,AI對數學的反哺效應越發顯著,DeepMind開發的AI系統AlphaGeometry,在証明歐幾裡得平面幾何定理方面超越國際數學奧林匹克競賽參賽者平均水平,改寫數學研究范式。
數學與人工智能的關系是什麼?到底是Math for AI還是AI for Math?這種雙向需求的碰撞,讓“數學之問”成為“AI三問”的起點——在“人工智能的數學邊界與基礎重構”論壇現場,科學家們試圖求解。
有學者站在Math for AI一方。菲爾茲數學科學研究院可持續發展中心主席路易斯·塞科認為,人工智能的誕生基於積累幾千年的數學智慧,其未來的進步也將依賴於數學未來的發展。中國科學院院士徐宗本也認為,發展人工智能必須從基礎研究、原始創新抓起,這才是正確之路。
而另一方,AI現場自証實力——著名數學家、首位華人菲爾茲獎獲得者丘成桐現場出題,上海人工智能實驗室、商湯科技、階躍星辰、MiniMax四個基礎大模型現場解題並展示推理過程。
上海人工智能實驗室拿到的是2025國際數學奧林匹克競賽的一道幾何題﹔階躍星辰拿到的是不等式極值求解題﹔MiniMax拿到的是概率遞歸題,需要給N對襪子配對﹔商湯科技拿到的是平面幾何題。
這場數學競賽結果是,上海人工智能實驗室的Intern-IMO成功破解題目,獲官方認可﹔商湯“日日新”整個解答邏輯清晰,層層遞進,展現多路徑推理能力﹔階躍星辰在不等式証明中,調用工具自主修正錯誤,最終完成驗証﹔而MiniMax的M1不僅解出原題,還正確地回答了“條件減弱后,結論是否成立”。
Math for AI還是AI for Math?並沒有絕對的答案。但是今年大會釋放出一個強烈信號:人工智能的發展,必須夯實數學基礎理論、發展原始創新。“數學界非常重視數學與AI模型的協同,目前國內已形成三、四支核心研究力量。這是個好現象,上海開了一個很好的頭。”徐宗本說。
科學之問
在27日的一場思辨會上,一位年輕研究員提問:“現在大家都很肯定科學基礎大模型,但大模型需要涵蓋不同的學科,如何兼容各學科的廣度和深度呢?”
這個年輕人的疑惑,也是近年來困擾科學界的一個關鍵問題。大模型爆火后,科學界就一直在關注,能否開發用於科研的科學基礎大模型。但在本屆人工智能大會上,記者了解到,由於跨學科難度大,對不同學科數據要求不一樣,科學基礎大模型的開發應用面臨諸多挑戰。
當場不少科學家嘗試回答年輕人的問題。“我們現在的科學基礎大模型,就像三十年前的電腦操作系統,能做的事很有限,能加載的應用程序也很有限。我們需要先把這個底座打好,再反復迭代,之后才能支持各個專業學科進行更深層次的拓展和創新。”中國科學院自動化研究所副所長曾大軍說。
盡管科學基礎大模型目前還處於“打地基”階段,但科學界對於學科融合的大方向是十分堅定的。在場幾乎所有科學家都認同,AI將推動科學界學科融合,並引發科研范式的變革,“我們人有局限性,每天隻有24小時還要睡覺和休息,但人工智能可以克服這些,只要有算力支撐,再加上算法優化,機器一定能做到跨學科知識的融合。”
有人拿多模態大模型舉例,最開始,文字大模型和圖像大模型是並行的,現在慢慢融合,所以基礎科學大模型也可能如此,開始時各學科各自獨立,最后會融合到一起。
如何加速推進跨學科的基礎科學大模型建構?答案可能是“開放”。中國工程院院士、之江實驗室主任王堅表示:“AI重構的科研范式是開放的科學范式,不僅僅是賦能科學家,甚至是人人都可能成為科學家,我們傳統認識中的科學,也正在發生變化。”
他舉例說明,就在兩個月前,一位美國高中生利用NASA公開在網上的NEOWISE望遠鏡的觀測數據,通過人工智能技術發現了150萬個新天體,並且作為唯一作者,在天文學頂級期刊上發表了研究成果。而他發明的算法,被其他團隊用來進行天體研究,同樣也產出了不錯的成果。王堅說:“開放科學范式的構建,在今天顯得前所未有的重要。”
模型之問
大模型產業同樣在經歷范式變革。在過去這大半年的時間裡,主流的大模型訓練模式,從原來的由OpenAI所開創的,以預訓練為主、監督學習為輔的范式,逐漸轉移到了注重提升推理能力的強化學習范式。
這一變化與人類對大模型性能要求的提高有關。隨著近年來大模型的應用不斷深入,人們發現,一些大模型在特定數據集上准確率達到99%,卻會在現實場景中頻繁翻車。業界開始反思,模型的泛化能力不足,是否因為架構設計本身出了問題。
也就是在這個時候,DeepSeek橫空出世,讓人們見識到強化學習的優勢。傳統預訓練模式,通過海量文本數據的學習,讓大模型掌握語法、語義以及常識性知識,從而能夠在多種任務上做出回應。強化學習模式,是通過讓大模型不斷試錯,在與環境的交互中逐漸改進性能。這種方法彌補了數據不足帶來的限制,還能讓模型在復雜任務中表現得更加智能。
“強化學習最了不起的地方在於,大模型能夠自行推理,這就能顯著提升大模型的性能。”階躍星辰首席科學家張祥雨說。
但強化學習模式也有其弊端。商湯科技聯合創始人、首席科學家林達華表示,使用強化學習訓練模式的大模型幻覺現象會更加明顯,思考過程較為冗長。
業界認為,強化學習並不是“終點”,范式的變革仍將繼續。上海人工智能實驗室青年領軍科學家、書生大模型負責人陳愷認為,只能接受確定性的、數學代碼式的反饋,是強化學習當前面臨的瓶頸問題,未來強化學習還需解決“如何接受自然場景非確定性答案”。
(來源:解放日報 記者 吳丹璐 俱鶴飛)
分享讓更多人看到
- 評論
- 關注