6.18卷價格的風吹到了大模型圈。
5月15日,火山引擎率先亮劍,宣布豆包主力模型在企業市場定價為0.0008元/千 tokens,較行業便宜99.3%。其精準狙擊同行的做法,直接掀起了一場大模型廠商低價肉搏戰。
阿里、百度、科大訊飛、騰訊紛紛站出來應戰。
5月21日,阿里云官宣通義千問主力模型Qwen-Long輸入價格降至0.0005元/千 tokens,直降97%;僅隔了幾個小時,百度智能云祭出必殺技,宣布文心大模型兩大主力模型ERNIE Speed、ERNIE Lite全面免費。
自百度之后,大模型徹底與免費掛上了鉤。
5月22日,科大訊飛宣布訊飛星火Lite API*免費開放。下午,騰訊云公布全新大模型升級方案,主力模型之一的混元-lite模型調整為全面免費。
僅僅一周,大模型從“厘”時代跨入了“免費”時代。
表面是降價,背后的根本驅動力來自于技術。在經歷過一年多的技術追趕后,國內大模型廠商在算力、推理、算法等多個層面都實現了突破,從而實現了技術方面的降本。再加之大廠云計算所帶來的規模化優勢,才共同引發了降價潮。
從另一方面也側面印證了,大模型從發布會demo進入了可用的新階段。火山引擎總裁譚待談到豆包大模型發布和降價時間點時提到了一個標準:“模型能力準備好了”。當下,各大模型廠商能夠大范圍開放使用的前提就是,模型能力通過測試,并且能夠穩定供給。
細究之下,大模型廠商的低價、免費,更像是引誘老鼠出洞的奶酪。
這種免費帶有諸多限制,阿里、百度降價幅度最高的產品都是其偏輕量化的模型版本,僅適用于使用頻次不高、推理量不太大、任務處理量不太復雜的中小企業、開發者短期使用。
在這種情況下,低價、免費這些“互聯網”手段淪為了大模型廠商的獲客策略,一邊獲得更多的數據來優化模型效果,一邊試圖通過嘗鮮來向更高階的付費版本轉化。
買得精不如賣得精,大模型廠商集體降價的背后仍有一系列問題值得探討。
01 用互聯網免費大法賣AI大模型
從使用者的角度考慮,大模型降價潛在的受益對象可能有兩類:開發者和企業。
雖然行業內大規模降價是*次,但早在去年,各大廠就通過贏黑客松比賽送token的方式,來吸引AI創業者和團隊的參與。
當時,就有黑客松常客告訴光子星球,“參加比賽就是薅羊毛,token不拿白不拿”。
薅羊毛確實可以降低創業成本。把價格打下來,對開發者特別是獨立開發者而言是友好的。這可能意味著開發者可以多跑幾圈測試,多獲得幾輪反饋數據,從而縮短產品上線的周期,進一步提升創業成功的可能性。
但前提是得滿足開發者和企業的需求。光子星球了解到,降價的消息傳出后,在開發者和企業當中呈現出了兩極化的聲音。
一方對國內大模型降價比較贊同,認為開發者和企業可以繼續薅羊毛,畢竟現在市場上套殼應用產品的案例不在少數;另一方則覺得,大模型廠商的降價缺乏誠意,大幅降價的都是小規模模型,雖然對外聲稱水平可以對標GPT-4,但實際上連GPT-3.5都不如,模型水平不達標,根本無法在實際的生產環境中運行。
大模型的嘗鮮也是大差不差,打著降價、免費的噱頭,把開發者和企業吸引過來使用,才剛上手,就被開始卡調用速度、推理速度、任務處理量等關鍵指標。
而且,光子星球進一步發現,大模型廠商的降價策略并未對商業化造成實質性影響。呈現的結果就是,大模型廠商價格降了,錢也沒少賺。
某大廠內部人士告訴光子星球,大模型目前主要的商業化方式是拿to B訂單。類似于SaaS和云的合作模式,存在case by case和合作提成兩種方式。
其中,case by case是更為主流的合作方式,即大模型廠商的現有客戶會因為本來就在使用某一廠商的云和SaaS產品,順帶著開始嘗試該廠商的大模型。相應地,大模型廠商為了留住客戶,也會在自家SaaS和云產品上增加AI的功能。
這樣一來可能造成如下情況:大模型變成了SaaS產品或者項目合作的增值要素。大模型本身不付費,但為了對沖成本,大模型廠商得反過來提高SaaS和項目合作的價格。羊毛最終出在羊身上,價格的一升一降,大廠非但沒虧反而照賺不誤。
02 大模型降價了,然后呢?
或許國內大模型價格戰的影響在于,從現在起,大模型正式與“免費”劃上了等號。
這將成為一次分水嶺,過去兩年,一眾創業者和團隊試圖建立的“上線即收費”的AI原生產品邏輯再次受到挑戰。兜兜轉轉,互聯網的商業邏輯再次主導了大模型的發展。
無論國內外,行業中一直都存在著模型混用的狀態。本質上在于各家大模型各有所長,比如ChatGPT擅理,Claude擅文,正是基于不同模型的特性,用戶在不同的使用場景就會調取相應地模型。
類似的情況也發生在中國,我們了解到,金山辦公在研發WPS AI功能的過程中,就輪流嘗試了MiniMax、智譜AI、文心一言、商湯日日新、通義千問等大模型能力,通過了解各家大模型的優勢來搭建自己的平臺。
去年,國內一家做數據治理的公司曾告訴光子星球,他們也會在前期大量地跑模型,測試不同模型的能力,在不同任務中擇優調取大模型的能力。這樣既進行了成本測試,也能避免對單一產品過度依賴。
到現在為止,大模型產品時常被人詬病用戶黏性不高。相比于訂閱收費,按API調取收費的方式本就難以留客。
企業側的case by case收費模式亦是如此,企業使用某一家廠商的大模型周期,取決于訂單周期。客戶跟著訂單走,今天用字節,明天也可以用阿里。
降價的本質是要加速大模型落地。大模型不能只停留在寫詩作畫,還得“下基層”。降價的背后是通過觸達千行百業和獲取更大樣本容量的合作案例,從中提取共性特征,形成合理、高效的大模型行業標準。
當大模型廠商再次拉回到了同一起跑線上,在各家模型能力水平相近,價格不相上下的情況下,他們所要面臨的共同課題變成了如何留住客戶。
而站在大模型客戶的角度,他們更希望通過對沖,減少對單一模型的依賴。在這樣的心理驅動之下,未來的大模型模式可以參考SaaS和云產品的采購方式,一家公司內部可以購買多家大模型公司產品,不同的產品線和業務部門也可能使用不同家的大模型。
03 贏了價格,就贏了一切嗎?
回顧歷史,大模型一路從百模、參數、長文本打到了現在的價格。過去的經驗告訴我們,價格不可能是*的決定因素。
即使不談企業和開發者拿到手的東西對不對版,大模型廠商給出的價格在市場上也不是很有競爭力。
比國內大模型更具性價比的是開源大模型。一位國內負責電商代運營業務的工作人員告訴光子星球,截至目前為止,自己業務部門購買過ChatGPT、Midjourney等AI相關的付費產品,現在底層使用的是開源且可商用的Llama 3。
一些公司和開發者更傾向部署開源模型的原因在于,一方面國外Llama等開源模型的能力一直在追趕最強版本ChatGPT的水平,一些通用場景能力在業務中足夠用。另一方面,從頭部署和精調模型,對后期業務調整也更靈活。
此外,光子星球發現,在閉源的大模型原廠和開源社區中間,還衍生出了中間商角色。一個令人費解的現象正在大模型行業蔓延:大模型分銷商賣的API價格比原廠價格還便宜。
以國外Deepbricks平臺為例,最新上架的GPT-4o模型,OpenAI官方輸入價格為5美元/1M tokens,而Deepbricks自身的售價只要2美元/1M tokens。如果這些中間商真的能做到實時更新模型能力,還能做到低價,以后可能會吸引一批開發者和企業使用。
Lepton AI 創始人、阿里巴巴原副總裁賈揚清認為,企業在使用AI的時候,并不是成本驅動。不是因為API貴才沒人用,而是因為企業首先得搞清楚怎么用來產生業務價值,否則的話,再便宜也是浪費。
若單純的價格不具有吸引力,客戶使用哪家大模型將取決于什么?
一位中間件的創業者向光子星球表示:“最主要看模型效果,如果模型效果太差再便宜也不能使用。”
還有海外的AI創業者直接跟光子星球說,國外用ChatGPT,因為能力強;國內用文心一言,因為能滿足合規需求。
于是,價格僅僅是企業選擇大模型其中一個因素。
同樣在云計算和SaaS時代,往往能夠留住客戶的不是低價,而是更深層次的綁定關系或者利益關系。例如,當企業采用了火山引擎的豆包模型,是否就能在抖音投流享受到優惠權;接入通義千問,其產品是否就能與阿里生態打通,獲得更多資源支持?
企業用戶選擇大模型的同時,也在權衡廠商的各自優勢。大模型能力的高低成為了其次,更重要的是選擇這家廠商能給其業務帶來多少增長,在該廠商的產業鏈之下能獲得多大的收益。
到最后還是要拿結果說話,正如賈揚清所言,“也許不是*的贏得商戰,而是能落地的贏得利潤。”
免責聲明:該文章系本站轉載,旨在為讀者提供更多信息資訊。所涉內容不構成投資、消費建議,僅供讀者參考。
2023-06-24
2023-06-24
2023-06-20
2023-06-20
2023-06-20