2025-11-21 22:13:18
AI 產業算力需求大,但資源利用率低、浪費嚴重。11月21日,華為在論壇發布 AI 容器技術Flex:ai,它通過算力切分,將單卡精準切分為多份,提升資源利用率30%,延續“以軟件補硬件”路徑。該技術對標英偉達收購的 Run:ai,且無生態限制。其能力已在瑞金醫院多模態病理大模型中得到驗證,還將在發布后開源。
每經記者|王晶 每經編輯|文多
AI(人工智能)產業高速發展正催生海量算力需求,但全球算力資源利用率偏低的問題日益凸顯,“算力資源浪費”成為產業發展的關鍵桎梏。其具體表現為,小模型任務獨占整卡導致資源閑置,大模型任務單機算力不足難以支撐,大量缺乏GPU(圖形處理器)/NPU(神經網絡處理器)的通用服務器甚至處于算力“休眠”狀態,供需錯配造成資源浪費。
11月21日,在2025AI容器應用落地與發展論壇上,華為公司副總裁、數據存儲產品線總裁周躍峰發布了AI容器技術——Flex:ai。據悉,Flex:ai通過算力切分技術,將單張GPU/NPU算力卡切分為多份虛擬算力單元,切分粒度精準至10%。此技術實現了單卡同時承載多個AI工作負載,在無法充分利用整卡算力的AI工作負載場景下,算力資源平均利用率可提升30%。
在面臨先進制程受限、單顆AI芯片性能與國外存在差距的現實下,Flex:ai延續了華為“以軟件補硬件”的發展路徑。
值得一提的是,華為這項新技術還將對標英偉達2024年底收購的以色列公司Run:ai。Run:ai的核心產品是基于“Kubernetes”(開源容器編排平臺)構建的軟件平臺。其可通過動態調度、池化和分片等手段優化GPU資源使用。例如,自動駕駛公司Wayve就借助Run:ai將GPU集群效率從不足25%提升到80%以上。華為的Flex:ai同樣聚焦于通過軟件創新實現對英偉達、昇騰等其他第三方算力的統一管理與調度,屏蔽底層硬件差異,為AI應用提供更高效穩定的資源支撐。
此外,相比Run:ai主要服務于英偉達GPU生態,Flex:ai并沒有生態限制,英偉達的GPU和華為昇騰NPU等算力卡都可以使用。
Flex:ai的能力已在真實產業場景中得到驗證。瑞金醫院與華為聯合打造的多模態病理大模型“RuiPath”,被用于識別病理切片病灶區域,覆蓋19個常見癌種。該模型基于103萬張病理切片數據訓練而成,但僅用16張昇騰910B算力卡便可完成大規模訓練。這背后離不開Flex:ai的技術支撐,其通過算力資源切分、智能任務調度等技術,將XPU(CPU、GPU、DPU等芯片的統稱)資源可用度從40%提升至70%,破解了有限算力下的大規模訓練難題。
IT研究與咨詢公司“Gartner”的分析師表示,目前AI負載大多都已容器化部署和運行。據預測,到2027年,75%以上的AI工作負載將采用容器技術進行部署和運行。
華為方面稱,Flex:ai將在發布后同步開源在魔擎社區中,并與華為此前開源的多款AI工具共同組成完整的ModelEngine(華為推出的AI訓推全流程工具鏈)開源生態。
封面圖片來源:圖片來源:視覺中國-VCG211478193393
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP