文|科技新知 樟稻
編輯|伊頁
就在英偉達再次拿出爆表業績,市值馬上超越蘋果之時,大洋彼岸的另一端,國內的科技大廠卻不談AGI的夢想,卷起了大模型的價格。
這場戰役開始得很早。5月11日,智譜AI大模型宣布個人GLM-3Turbo模型產品的調用價格,從0.005元/千tokens降低至0.001元/千tokens,直降80%。5月15日,字節宣布豆包通用模型pro-32k版、pro-128k版在企業市場的推理輸入價格僅為0.0008元/千tokens、0.005元/千tokens,較行業降幅達99.3%以及95.8%。
隨后,這場價格戰開啟了加速模式。阿里云通義千問,百度文心Speed和文心Lite,騰訊混元Lite, 科大訊飛紛紛宣布降價或者免費。
從第一性原理出發,快速且共識性的降價原因指向了對客戶的爭搶。
據某業內人士表述,這場價格戰的象征意義遠大于實際意義。各個大模型廠商現在的客戶需求還不夠強,通過降價換市場的背后其實是有價無市。“萬一客戶需求真起來了,許多國產大模型是無法提供足夠推理能力的。”
這個推論的邏輯非常簡單。從硬件配置來看,目前國產大模型推理算力處于較為尷尬的轉換期,大廠的推理卡以A10為主。但眾所周知A10已經停產,下一代L20推力卡各家其實儲備有限,這中間出現了算力供應的空缺。而國產算力的發展尚需時日,讓這一轉換階段充滿了不確定性。
與此同時,如果大模型的價格降低后吸引了大量客戶,但沒有足夠的算力去支撐,就會陷入尷尬的境地。舉例來說在智能駕駛領域,如果因為算力不足導致模型推理速度慢,就可能無法及時對路況做出準確判斷和反應,帶來安全隱患。或者在大規模數據分析場景中,若算力跟不上,處理數據的效率就會大打折扣,影響業務的正常開展。
更加底層的邏輯還在于大廠之間,關于算力的黑箱。最直接的例子是字節。字節旗下的豆包大模型,某種程度上來說,是這一次價格戰的始作俑者。但字節的B端用戶很少,據業內人士估計,字節企業和開發者調用其API遠不如調用通義千問、文心一言,甚至不如大模型五虎中的一些。所以從某種程度來說,字節這個價格戰還是擺個姿態,更多的是后來者的趕超姿勢。
但據行業分析人士表露,字節的背后還有一個不小的問題。即目前字節跳動大量租用了阿里云的算力,它本身的算力從表面來看是不足的。如果價格戰真的打起來了,直接影響了阿里的核心利益,導致阿里不再租用算力給字節,那么字節又該如何應對?
其實,類似的關系也非常之多。這也是為什么百度智能云事業群總裁沈抖在財報電話會上曾指出,面對其他廠商的價格戰,同樣重要的是評估不同模型在不同工作負載下的當前性能比,而不是僅僅關注一些表面價格。
從表面來看,大模型廠商的降價更像是一場熱鬧的營銷,目的在于先把市場炒熱,通過擴大用戶基礎和市場份額來實現對于其他業務的補償。這種象征意義也有實際的作用。5月8日,在傅盛和朱嘯虎的對談中,前一年還在網上吵得不可開交的兩個人,在線下卻達成了一致,“后來我們溝通過,我們實際上觀點很一致的,在 AI這塊我個人對AI應用明年爆發是非常樂觀的。”
多重矛盾之下,大模型價格戰表象下藏著廠商的焦慮。正如現在政策頻出的房地產市場,是否有大量的真實買家,可能才是未來競爭的關鍵。