每日經濟新聞
要聞

每經網首頁 > 要聞 > 正文

推理成本高制約大模型規模化應用?大廠們的大模型價格“卷起來了”

每日經濟新聞 2024-05-21 16:59:08

◎劉偉光認為,不管是開源模型還是商業化模型,公共云+API將成為企業使用大模型的主流方式,主要有三點原因。

每經記者|葉曉丹    每經編輯|梁梟    

今日(5月21日),阿里云方面宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。

而近期火山引擎官網更新了豆包大模型的定價詳情,全面展示豆包通用模型不同版本、不同規格的價格信息。火山引擎方面表示,豆包大模型為客戶提供了靈活、經濟的付費模式,“后付費”即可滿足絕大多數企業客戶的業務需求,助力企業以極低成本使用大模型、加速大模型的應用落地。

2024年是大模型應用落地各行業的關鍵之年。業界普遍認為,隨著大模型性能逐漸提升,AI應用創新正進入密集探索期,但推理成本過高依然是制約大模型規模化應用的關鍵因素。降低大模型推理價格成了大廠們的競爭焦點,低成本應用大模型的價格戰在大廠之間悄然升溫。

推理成本高制約大模型規模化應用

2024年2月底,英偉達發布了2024財年第四季度財報,業績再次超出預期。據英偉達電話會議披露,公司全年數據中心里已經有40%的收入來自推理業務,超出大部分人的預期。

訓練AI模型的芯片需求一舉推升英偉達成為“芯片新王”,而AI推理芯片則成為下一個芯片企業競爭的核心領域。業界普遍認為,隨著大模型性能逐漸提升,AI應用創新正進入密集探索期,但推理成本過高依然是制約大模型規模化應用的關鍵因素。

據新浪科技報道,5月21日,創新工場董事長兼首席執行官李開復表示,在一定程度上,整個行業每年大幅降低推理成本,這是可以期待的,而且是必然也應該發生的。

大模型廠商價格戰升溫

近一個月,國內云廠商掀起了新一輪大模型降價潮。

5月11日,智譜AI大模型開放平臺上線了新的價格體系,新注冊用戶獲得額度從500萬tokens提升至2500萬tokens,并且個人版GLM-3Turbo模型產品的調用價格從5元/百萬tokens降低至1元/百萬tokens。

5月15日,火山引擎宣布,豆包Pro 32k模型定價是0.0008元/千tokens,這個價格比行業降低了99.3%。此外,豆包Pro 128k模型定價是0.005元/千tokens。

5月21日,阿里云宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。

5月21日,阿里云智能集團資深副總裁、公共云事業部總裁劉偉光表示:“作為中國第一大云計算公司,阿里云這次大幅降低大模型推理價格,就是希望加速AI應用的爆發。我們預計未來大模型API的調用量會有成千上萬倍的增長。”

劉偉光認為,不管是開源模型還是商業化模型,公共云+API將成為企業使用大模型的主流方式,主要有三點原因:一是公共云的技術紅利和規模效應,帶來成本和性能優勢;二是云上更方便進行多模型調用,并提供企業級的數據安全保障;三是云廠商天然的開放性,能為開發者提供最豐富的模型和工具鏈。

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

今日(5月21日),阿里云方面宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。 而近期火山引擎官網更新了豆包大模型的定價詳情,全面展示豆包通用模型不同版本、不同規格的價格信息。火山引擎方面表示,豆包大模型為客戶提供了靈活、經濟的付費模式,“后付費”即可滿足絕大多數企業客戶的業務需求,助力企業以極低成本使用大模型、加速大模型的應用落地。 2024年是大模型應用落地各行業的關鍵之年。業界普遍認為,隨著大模型性能逐漸提升,AI應用創新正進入密集探索期,但推理成本過高依然是制約大模型規模化應用的關鍵因素。降低大模型推理價格成了大廠們的競爭焦點,低成本應用大模型的價格戰在大廠之間悄然升溫。 推理成本高制約大模型規模化應用 2024年2月底,英偉達發布了2024財年第四季度財報,業績再次超出預期。據英偉達電話會議披露,公司全年數據中心里已經有40%的收入來自推理業務,超出大部分人的預期。 訓練AI模型的芯片需求一舉推升英偉達成為“芯片新王”,而AI推理芯片則成為下一個芯片企業競爭的核心領域。業界普遍認為,隨著大模型性能逐漸提升,AI應用創新正進入密集探索期,但推理成本過高依然是制約大模型規模化應用的關鍵因素。 據新浪科技報道,5月21日,創新工場董事長兼首席執行官李開復表示,在一定程度上,整個行業每年大幅降低推理成本,這是可以期待的,而且是必然也應該發生的。 大模型廠商價格戰升溫 近一個月,國內云廠商掀起了新一輪大模型降價潮。 5月11日,智譜AI大模型開放平臺上線了新的價格體系,新注冊用戶獲得額度從500萬tokens提升至2500萬tokens,并且個人版GLM-3Turbo模型產品的調用價格從5元/百萬tokens降低至1元/百萬tokens。 5月15日,火山引擎宣布,豆包Pro 32k模型定價是0.0008元/千tokens,這個價格比行業降低了99.3%。此外,豆包Pro 128k模型定價是0.005元/千tokens。 5月21日,阿里云宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。 5月21日,阿里云智能集團資深副總裁、公共云事業部總裁劉偉光表示:“作為中國第一大云計算公司,阿里云這次大幅降低大模型推理價格,就是希望加速AI應用的爆發。我們預計未來大模型API的調用量會有成千上萬倍的增長。” 劉偉光認為,不管是開源模型還是商業化模型,公共云+API將成為企業使用大模型的主流方式,主要有三點原因:一是公共云的技術紅利和規模效應,帶來成本和性能優勢;二是云上更方便進行多模型調用,并提供企業級的數據安全保障;三是云廠商天然的開放性,能為開發者提供最豐富的模型和工具鏈。
大模型

歡迎關注每日經濟新聞APP

每經經濟新聞官方APP

0

0

国产午夜精品理伦片,亚洲手机在线人成网站播放,欧美一级一级a做性视频,亚洲国产色精品三区二区一区
一本热久久sm色国产 | 亚洲日韩国产欧美综合一区 | 亚洲高清在线精品尤物三区 | 最新国产精品精品视频 | 亚洲国内自拍资源总站 | 亚洲日韩在线中文字幕一区 |