
大模型降價的風,終于吹到了大廠。
2024年5月15日,字節跳動正式發布豆包大模型,并披露豆包主力模型在企業市場(ToB)的定價為0.0008元/千Tokens(指文本切割后的最小語義單位),即以0.8厘的價格可以處理1500多個漢字,較行業平均價格便宜99.3%。由此推算,此前行業平均價格為0.114元/千Tokens。
這個“較行業平均價格便宜99.3%”的宣傳口號,刺激到了BAT(百度、阿里巴巴、騰訊)。
5月21日,阿里巴巴、百度先后官宣降價,百度文心大模型兩大主力模型全面免費,阿里通義大模型全面降價;5月22日,騰訊跟進降價。
科技大廠,打起價格戰,跟街邊商販一個風格。
大模型降價,這是AI進入普惠時代的關鍵一步。
2022年末,Chat-GPT爆火出圈以來,國內百模大戰如火如荼,互聯網大廠通過云服務落地的大模型,被無數的B端用戶使用。而Chat-GPT4、文心一言、通義千問、Kimi等基于大模型能力的問答應用,讓更多C端用戶切實感知到大模型的“魅力”。
如今,大模型廠商之間的競爭,從比硬件、卷參數、爭用戶,進入了價格的較量。
大模型降價為何會如此受關注?
打個比方,大模型的數據調用,類似于智能手機使用的流量。大模型調用API降價,類似于智能機發端時期,電信服務商集體降低流量價格。過去10年,流量價格的下降,間接催生了智能終端應用(APP)的大繁榮。

過去一年,大模型爆發、AI數據調用量井噴、英偉達GPU芯片價格暴漲等年度熱詞,都指向一個共同的指標,就是大模型API接口調用算力,非常貴。
例如,在大模型一次輸入10萬漢字的文本,大概需要調用大模型7萬Tokens,按行業大模型lite平均0.0008元/千Tokens的價格估算,一次輸入10萬字的成本是0.056元,月之暗面的Kimi此前宣稱已經可以支持200萬字無損上下文,那意味著,單個用戶單次成本都超過1元。大模型成本之高,可見一斑。
今年5月以來,多個大模型推出低價產品或降價。
5月6日,幻方量化宣布,旗下深度求索(DeepSeek)正式開源第二代MoE模型DeepSeek-V2,API定價為:輸入1元/百萬Tokens、輸出2元/百萬Tokens,價格為GPT-4-Turbo的近1%。
5月11日,智譜AI宣布,其個人版GLM-3Turbo模型產品調用價格從5元/百萬Tokens降低至1元/百萬Tokens,價格打了兩折。
5月13日,OpenAI推出GPT4o,它在英語文本和代碼上與GPT-4Turbo性能相當,向全部用戶免費,API調用速度比GPT-4快兩倍,但價格減半。
這波降價風潮,引起了字節跳動、阿里、百度、騰訊的快速跟進。
B端用戶通過API接口調用大模型的算力,大模型降價,可以粗略理解為算力降價。調用大模型的成本降低,有利于更多的下游用戶直接采用大模型去定向開發個性化的應用。這樣,最大可能避免企業在大模型底層硬件、軟件層面的重復建設,推動整個行業向下游應用端發力。
百度創始人李彥宏就曾公開表示,不斷地重復開發基礎大模型,是對社會資源的極大浪費。他指出,只有當模型的參數規模足夠大,訓練數據量足夠多,并且能夠不斷投入,持續迭代,才能夠產生“智能涌現”。而沒有“智能涌現”能力的專用大模型,價值非常有限。
“智能涌現”即大模型觸類旁通的能力,也就是大模型能夠自主學會那些沒有被教過的東西,簡單說,就是“不教也會”,這是大模型進化的內在邏輯。大模型要具備“智能涌現”的能力,前提就是足夠海量的數據輸入和訓練。
無論是比拼硬件、軟件、參數、活躍用戶數,還是降價,大模型廠商最終爭奪的都是數據體量。數據投喂規模越大,大模型“智能涌現”的能力越強,這與算法進化的基本邏輯一致。
因此,大模型供應商阿里、百度、騰訊、字節跳動等,要想和電信服務商一樣,成為AI時代“基礎設施”供應商,就需要基于自身優勢,提供從底層GPU、服務器,到中層軟件應用,再到整體解決方案,甚至大模型定制等不同梯次的服務,覆蓋不同的客戶需求。
目前,BAT的大模型均通過智能云落地,我們可以從各家云服務業務營收增速,大模型迭代速度、參數量、調用量,來管窺大模型業務的發展情況。
作為國內智能云的帶頭大哥,可以走出國門與谷歌云、微軟云扳手腕的阿里云,走的是開放、開源的路線。
“讓云成為水和電一樣的公共服務”是阿里云的定位,基于云服務落地的大模型,也是公共服務之一。2023年底,阿里巴巴集團CEO吳泳銘為阿里云確定了“AI驅動,公共云優先”戰略。
通過與大部分頭部大模型公司合作,與自研的通義大模型共同成長,阿里云業務快速增長。2023年度,阿里云在亞太地區IaaS(基礎設施即服務)市場的份額達到22.2%,排名第一,同比提升0.8個百分點(附圖)。
近年,阿里云與通義大模型接連通過降價、開源等組合拳,來爭奪用戶。
大模型訓練和迭代成本昂貴,絕大多數的AI開發者和中小企業都難以負擔這一成本。2023年8月,阿里通義大模型開源。截至2024年5月9號,其開源模型下載量已超過700萬次,阿里通義同時宣布,為不同場景、不同需求的用戶,推出參數規模橫跨5億到1100億的8款大語言模型。
小尺寸模型如0.5B(Billion,10億參數)、1.8B、4B、7B、14B,可在手機、PC等端側設備部署;大尺寸模型如72B、110B,能支持企業級和科研級的應用;中等尺寸如32B,試圖在性能、效率和內存占用之間找到最具性價比的平衡點。
其中,1100億參數開源模型Qwen1.5-110B,已在MMLU、TheoremQA、GPQA等基準測評中超越了臉書(Meta)的Llama-3-70B模型,在HuggingFace推出的開源大模型排行榜OpenLLMLeaderboard上,沖上了榜首。
此外,通義還開源了視覺理解模型Qwen-VL、音頻理解模型Qwen-Audio、代碼模型CodeQwen1.5-7B、混合專家模型Qwen1.5-MoE。
大模型開源后,通義千問又使出了降價大招,部分大模型數據調用價格降幅達97%。降價后,1元錢可以調用200萬Tokens,即0.0005元/千Tokens,比豆包大模型的價格更低(表1)。

而此前,2月29日,阿里云宣布史上最大力度降價,100多款產品、500多個產品規格均價降低20%,最高降價55%。
4月,阿里云再次宣布,面對全球13個地域,500多個產品規格,全線下調產品價格,平均下降23%,最高下降59%。
云服務和大模型調用成本雙雙下降,有力推動了大模型企業客戶的增長。最新數據顯示,通義大模型通過阿里云服務企業客戶超過9萬,通過釘釘服務企業客戶超過220萬。小愛同學、小米汽車、微博、眾安保險、完美世界游戲等已接入通義大模型。
有了客戶增量,盡管產品大幅降價,阿里云也已實現穩定盈利。2024年一季度,阿里云錄得營收255.95億元,同比增長3%,其中AI相關收入實現三位數的增長,經調整的EBITA利潤14.32億元,同比增長45%。
阿里云不再是阿里集團的負擔,其已進入穩定盈利周期。
邁向生成式AI的第二年,百度正在推進用文心大模型重構百度ToC和ToB業務。
2024年一季度,百度在文心大模型旗艦版的3.5和4.0版本基礎上,推出3款輕量級模型和兩款特定場景模型,并上線AI智能體開發工具AgentBuilder、AI應用開發工具AppBuilder和模型定制工具ModelBuilder三大開發工具,在云上形成“模型家族+開發工具”的組合。
目前,ModelBuilder已服務近10萬家客戶。

百度發文稱,模型家族及上述工具的推出,為開發者和企業降低了開發門檻、提高開發和訓練效率,并帶來比開源模型更高的性價比。這是百度公開針對大模型“開源”的對比。
李彥宏公開表示,“模型推理是最重要的長期機會之一”,這將成為云業務的關鍵驅動力。
截至2024年4月,文心大模型API日調用量已達2億次,去年12月時,該數據為5000萬次,以此看,其實現了4個月4倍的增長。中國三星、榮耀、OPPO、vivo、小米等手機廠商均接入文心大模型API。
得益于大模型業務的增長,2024年一季度,百度智能云實現營收達47億元,同比增長12%,并持續實現盈利(Non-GAAP)。其中,生成式AI貢獻的收入比例達6.9%,占比逐步擴大。
百度將調用量最大的兩大主流大模型免費,可能最直接的影響是,日均收入減少200萬元,但同時,也可能會帶來更多的用戶接入,衍生更多的收費定制服務(表2)。

大模型落地產業,難在“應用”關。
5月17日,騰訊云生成式AI產業應用峰會上,騰訊云發布了大模型研發、應用產品的系列進展,直指將大模型應用降至“零門檻”。
騰訊混元大模型發布多個版本模型,如萬億參數的混元-pro、千億參數混元-standard、百億參數混元-lite等,通過騰訊云對外全量開放,滿足企業客戶、開發者在不同場景下的模型需求。
其中,混元-standard最新上線了支持256k超長上下文窗口的長文模型,具備單次處理超過38萬字符的超長文本能力,能夠應對金融、醫療、教育、出行等專業人士的數據處理需求。
同時,騰訊云還發布大模型知識引擎、圖像創作引擎、視頻創作引擎三大PaaS(平臺即服務)工具,通過PaaS服務,簡化數據接入、模型精調、應用開發流程,方便用戶接入特定的生產場景。
這些低門檻或零門檻的開發工具,讓大模型更好使用。騰訊混元大模型已在諸如微信讀書、騰訊會議、騰訊廣告等600多個內部業務和場景中落地使用,騰訊旗下協作SaaS(軟件即服務)產品也已全面接入混元大模型。
更為重要的是,騰訊將其移動互聯網時代“生態共建”的經驗,平移到了AI時代,推出生成式AI生態計劃,聯合千家解決方案供應商、培育千家服務商和萬家代理商,共同推動生成式AI技術深入產業全鏈條。
大模型新品發布僅5天后,騰訊將“當家產品”全面降價,可謂誠意滿滿。最基礎的混元-lite免費;混元-standard打五折;具備超長文本處理能力的混元-standard-256K,輸入價格直降近九成,輸出價格打五折。
而如果是對騰訊大模型深度“依賴”的API分發(騰訊全域)模型,即全面依賴混元模型進行的業務,騰訊給予全量免費支持的福利大包(表3)。

值得一提的是,大模型“硬件”免費后,大模型廠商需要靠“軟件和服務”來賺錢,倒逼大模型向更具競爭力的應用方向發力。
這樣的變化,會催生出什么樣的應用繁榮?這些AI應用又會如何改變我們的生活?大模型供應商們收入結構會發生什么樣的變化?這些未知和問題,或會在大廠們半年報中顯露端倪,值得期待。