南京老板造算力芯片,帶出2800億巨頭
撰文丨何己派 鄢子為 編輯丨鄢子為
中國版英偉達,披露上市后首份業(yè)績快報。
2月27日,摩爾線程公告,2025年營收增至15億元,漲了2倍多,虧損同比收窄約37%,仍在跑步趕路。
60歲的南京人張建中,擔任董事長兼CEO,為摩爾線程的靈魂人物,曾供職英偉達15年,是幫黃仁勛開拓中國市場的得力干將。
他于2020年創(chuàng)業(yè),經營6年,帶出一家芯片巨頭,目前市值超2800億元。
張建帶領自建的頂尖GPU團隊,加緊攻克難題。
旗艦級產品MTT S5000,已規(guī)模量產,他還手握三張新王牌,今年要打。
主力武器
這份成績單的最大亮點,在于張建中團隊傾力打造的“當家花旦”,MTT S5000。
這是摩爾線程旗艦級產品,于2024年推出。
基于自研的“平湖”架構打造,其是專為大模型訓練、推理及高性能計算而設計的全功能GPU智算卡,已實現(xiàn)規(guī)模量產,為硬件出貨主力。
2月中旬,摩爾線程首次披露MTT S5000的硬件性能參數(shù)。
簡單總結下:其單卡AI稠密算力最高可達1000 TFLOPS,配備80GB顯存,支持從FP8到FP64的全精度計算。
業(yè)內人士稱,MTT S5000實測性能,對標英偉達H100,在多模態(tài)大模型微調任務中,部分性能甚至超越H100。
值得一提的是,MTT S5000是國內最早一批,原生支持FP8精度訓練的GPU。
在大模型參數(shù)持續(xù)擴張的趨勢下,支持FP8計算精度,已成為訓練與推理前沿模型的核心精度標準。
當然,芯片好不好用,最終得看工程化落地表現(xiàn)。
摩爾線程稱,基于MTT S5000構建的“夸娥”萬卡智算集群,能高效支持萬億參數(shù)的大模型訓練,“計算效率達到同等規(guī)模國外同代系GPU集群!
2025年12月,張建中在演講中提到,過去,大部分大模型開發(fā)者不敢用國內的卡訓練,怕訓練的結果不好。
他信心十足地說,“如果此前在Hopper上進行訓練,如今改用S5000,大語言模型訓練效果只會更好,不會更差!
《21CBR》記者注意到,2月以來,摩爾連發(fā)多則消息,官宣MTT S5000與國產新模型完成適配,合作廠牌包括智譜、MiniMax、阿里旗下千問等。
緊鑼密鼓地推進度,在于S5000掛鉤的AI智算,是業(yè)績增長引擎。
2025年1-6月,AI智算類業(yè)務,貢獻超九成營收,為收入主力,也是最大利潤來源。
招股書顯示,該板塊的產品均價,相對較高。比如智算集群,拿的全是大單、大客戶,去年上半年張建中團隊賣了5套,平均單價達到1.1億元。
在新產品補位前,MTT S5000還得幫張建中再沖鋒一陣子。
三張新牌
張建中用速度換機會,狂追英偉達腳步。
成立以來,摩爾線程的GPU架構,每年迭代一次,速度雷打不動,年年推芯片新品,以應對市場變化。
兩個多月前,在首屆MUSA開發(fā)者大會上,張建中登臺,一口氣講了2個半小時,把自家“武器庫”的新品,全面展示了一遍。
最受關注的,是三張牌:
代號“花港”的新一代GPU架構,基于該架構的兩顆芯片——“華山”“廬山”。它們代表了摩爾硬件能力的進化水平。
“花港”采用新一代指令集,算力密度提升50%,能效提升10倍,直擊智算中心的能耗痛點,支持十萬卡以上規(guī)模智算集群。
兩款芯片里,“華山”專注AI訓推一體與超大規(guī)模智能計算,旨在成為下一代“AI工廠”的堅實底座;“廬山”專攻高性能圖形渲染,幾何處理性能提升16倍,AI計算性能提升64倍。
結合以往節(jié)奏來看,這三款產品或在2026年面市。
與其他國產GPU企業(yè)不同,張建中為摩爾選擇的定位,是做“全功能GPU”。
全功能GPU追求的是“一芯多能”,單一GPU芯片集成AI計算加速、圖形渲染、物理仿真和科學計算等多種能力,同時支持不同計算精度。
這條路線,能滿足更廣泛的應用需求,在元宇宙、世界模型、具身智能等未來AI的發(fā)展趨勢下,競爭優(yōu)勢顯著,相應地,研發(fā)難度更大。
支撐全功能GPU的技術根基,是張建中帶隊潛心自研的MUSA統(tǒng)一架構。
MUSA融合GPU硬件和軟件功能,涵蓋統(tǒng)一的芯片架構、指令集、編程模型、軟件運行庫及驅動程序框架等要素,已升級至5.0版本,步入成熟階段。
其不作為單獨產品對外銷售,為摩爾一代又一代GPU的“定海神針”。
搭建生態(tài)
國產算力要真正做起來,光造芯片不夠,必須補上生態(tài)這塊短板。就像修高速公路,鋪好路面只是開始,有人用、有車跑,才能繁榮。
張建中打造的MUSA架構,就是想給算力公路定制路標、統(tǒng)一交規(guī),讓開發(fā)者帶著大模型,順暢跑起來。
MUSA具備兩個優(yōu)勢,兼容性強、工具多。
其自帶“萬能接口”,能輕松對接GLM-5、MiniMax M2.5、Kimi K2.5等主流大模型;兼容英偉達主導的主流GPU生態(tài),開發(fā)者無需重新寫代碼、改造產品。
摩爾線程還備好“現(xiàn)成工具”,如原生FP8加速、SGLang-MUSA引擎調優(yōu)等,開發(fā)者可以直接拿來用,省時省力,降低遷移、部署的難度。
舉個例子,2月11日,智譜GLM-5剛發(fā)布,摩爾線程就宣布,在MTT S5000的支持下,完成“Day-0適配”。
下一步,張建中打算從底層做起,把國產算力生態(tài)建起來。
他在演講中指出,要培養(yǎng)人才,以摩爾學院為平臺,構建產教融合的開發(fā)者成長體系,建設MUSA生態(tài)樞紐。
據(jù)介紹,該學院近20萬名開發(fā)者,通過“國產計算生態(tài)與AI教育共建行動”,將前沿技術與產業(yè)實踐,帶入全國200多所高校。
張建中同時發(fā)布MUSA開發(fā)者計劃,旨在為AI學習者,提供算力支持與技術賦能。
“我們將迭代完善MUSA架構生態(tài),加速推進MTT S5000規(guī);慨a與國產大模型生態(tài)快速適配!蹦柧程表示。
招股書提到,管理層預計最早于2027年,實現(xiàn)合并報表盈利。2025年凈虧超10億的摩爾,有窟窿要填。
越過盈利關口、建設算力生態(tài),留給張建中的難題,不止一道。
本網站所刊載信息,不代表中新經緯觀點。 刊用本網站稿件,務經書面授權。
未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
[京B2-20230170] [京ICP備17012796號-1]
[互聯(lián)網新聞信息服務許可證10120220005] [互聯(lián)網宗教信息服務許可證:京(2022)0000107]
違法和不良信息舉報電話:18513525309 報料郵箱(可文字、音視頻):zhongxinjingwei@chinanews.com.cn
Copyright ©2017-2026 jwview.com. All Rights Reserved
北京中新經聞信息科技有限公司