火山引擎譚待:大模型的超低定價(jià),來(lái)自對(duì)技術(shù)的信心

“降價(jià)的基本邏輯是,我們有信心用技術(shù)手段降低成本,市場(chǎng)也需要更低價(jià)的大模型?!?/p>

5月15日,字節(jié)跳動(dòng)豆包大模型在火山引擎原動(dòng)力大會(huì)上正式發(fā)布?;鹕揭婵偛米T待在接受媒體采訪時(shí),談到了大模型的定價(jià)策略。

豆包大模型的超低價(jià)格引發(fā)行業(yè)震動(dòng)。據(jù)悉,豆包主力模型的推理輸入價(jià)格只有0.0008元/千Tokens,比行業(yè)便宜99.3%。對(duì)此,譚待坦言,“降價(jià)是用技術(shù)優(yōu)化成本來(lái)實(shí)現(xiàn)的。如果只是補(bǔ)貼,用虧損換收入是不可持續(xù)的,火山引擎不會(huì)走這條路。”

據(jù)介紹,大模型推理成本的優(yōu)化,技術(shù)上有很多手段。首先是模型本身,模型結(jié)構(gòu)、訓(xùn)練方法都可以持續(xù)改進(jìn),包括業(yè)界很關(guān)注的MoE(混合專家模型),就是優(yōu)化推理成本很好的解決方案。

其次是工程上的優(yōu)化。大模型的調(diào)用量越大,優(yōu)化推理成本的空間也越大。以前的模型都是單機(jī)推理,大模型用的是分布式推理。所以如果能把各種各樣的底層算力用得更好,推理成本就會(huì)大大降低。

譚待進(jìn)一步解釋說(shuō),豆包大模型平均每天處理1200億Tokens文本、生成3000萬(wàn)張圖片,這里有不同的負(fù)載,可以把不同任務(wù)混合在一起,互相錯(cuò)峰,通過(guò)智能調(diào)度把它們的利用率都跑得很高,就能極大地提升資源利用率,實(shí)現(xiàn)整體成本的優(yōu)化。

另外以字節(jié)內(nèi)部業(yè)務(wù)為例,飛書的主要流量高峰在工作時(shí)間,抖音在下班后休閑時(shí)間的流量更高,這些不同業(yè)務(wù)的大模型推理,也能根據(jù)業(yè)務(wù)特點(diǎn)錯(cuò)峰使用,就可以降低成本。

對(duì)于“大模型開始價(jià)格戰(zhàn)”的說(shuō)法,譚待認(rèn)為,大模型市場(chǎng)仍在發(fā)展初期,遠(yuǎn)遠(yuǎn)沒(méi)到激烈競(jìng)爭(zhēng)的階段。“池塘有多大,魚就有多大,現(xiàn)在整個(gè)池塘還在培養(yǎng)的過(guò)程?!?/p>

“一個(gè)人現(xiàn)在創(chuàng)業(yè),如果要花1萬(wàn)塊錢調(diào)用大模型,可能會(huì)覺(jué)得有點(diǎn)貴。我們把價(jià)格降到1%都不到,100塊錢就能用起來(lái),他的想法也就更容易嘗試。”譚待表示,企業(yè)的AI轉(zhuǎn)型充滿不確定性,試錯(cuò)成本要盡量低,才能更快更多地實(shí)現(xiàn)大模型的應(yīng)用落地,從而讓整個(gè)行業(yè)受益。

2024-05-16
火山引擎譚待:大模型的超低定價(jià),來(lái)自對(duì)技術(shù)的信心
“降價(jià)的基本邏輯是,我們有信心用技術(shù)手段降低成本,市場(chǎng)也需要更低價(jià)的大模型。”5月15日,字節(jié)跳動(dòng)豆包大模型在火山引擎原動(dòng)力大會(huì)上正式發(fā)布?;鹕揭婵偛米T待在接受媒體采訪時(shí),談到了大模型的定價(jià)策略。豆包大模型的超低價(jià)格引發(fā)行業(yè)震動(dòng)。據(jù)悉,豆

長(zhǎng)按掃碼 閱讀全文