豆包視覺(jué)理解模型正式發(fā)布,比行業(yè)價(jià)格便宜85%

繼大語(yǔ)言模型價(jià)格以厘計(jì)算之后,視覺(jué)理解模型也宣告進(jìn)入“厘時(shí)代”。

在12月18日舉辦的火山引擎 Force 大會(huì)上,字節(jié)跳動(dòng)正式發(fā)布豆包視覺(jué)理解模型,為企業(yè)提供極具性價(jià)比的多模態(tài)大模型能力。豆包視覺(jué)理解模型千tokens輸入價(jià)格僅為3厘,一元錢就可處理284張720P的圖片,比行業(yè)價(jià)格便宜85%,以更低成本推動(dòng)AI技術(shù)普惠和應(yīng)用發(fā)展。

豆包大模型全面升級(jí)

研究顯示,人類接受的信息超過(guò)80%來(lái)自視覺(jué)。視覺(jué)理解將極大地拓展大模型的能力邊界,同時(shí)也會(huì)降低人們與大模型交互的門檻,為大模型解鎖更豐富的應(yīng)用場(chǎng)景。

據(jù)火山引擎總裁譚待介紹,豆包視覺(jué)理解模型不僅能精準(zhǔn)識(shí)別視覺(jué)內(nèi)容,還具備出色的理解和推理能力,可根據(jù)圖像信息進(jìn)行復(fù)雜的邏輯計(jì)算,完成分析圖表、處理代碼、解答學(xué)科問(wèn)題等任務(wù)。此外,該模型有著細(xì)膩的視覺(jué)描述和創(chuàng)作能力。

圖:火山引擎總裁譚待

此前,豆包視覺(jué)理解模型已經(jīng)接入豆包App和PC端產(chǎn)品。豆包戰(zhàn)略研究負(fù)責(zé)人周昊表示:“豆包一直在努力,讓用戶的輸入更快更方便”。為此,豆包產(chǎn)品非常注重多模態(tài)的輸入和打磨,包括語(yǔ)音、視覺(jué)等能力,這些模型都已通過(guò)火山引擎開(kāi)放給企業(yè)客戶。

會(huì)上,豆包3D生成模型也首次亮相。該模型與火山引擎數(shù)字孿生平臺(tái)veOmniverse結(jié)合使用,可以高效完成智能訓(xùn)練、數(shù)據(jù)合成和數(shù)字資產(chǎn)制作,成為一套支持 AIGC 創(chuàng)作的物理世界仿真模擬器。

豆包大模型多款產(chǎn)品也迎來(lái)重要更新:豆包通用模型pro已全面對(duì)齊GPT-4o,使用價(jià)格僅為后者的1/8;音樂(lè)模型從生成60秒的簡(jiǎn)單結(jié)構(gòu),升級(jí)到生成3分鐘的完整作品;文生圖模型2.1版本,更是在業(yè)界首次實(shí)現(xiàn)精準(zhǔn)生成漢字和一句話P圖的產(chǎn)品化能力,該模型已接入即夢(mèng)AI和豆包App。

即夢(mèng)Dreamina張楠認(rèn)為,生成式AI技術(shù)可以把每個(gè)人腦子里的奇思妙想快速視覺(jué)化,“像做夢(mèng)一樣”。即夢(mèng)希望成為“想象力世界”的相機(jī),記錄每個(gè)人的奇思妙想,幫助每個(gè)有想法的人輕松表達(dá)、自由創(chuàng)作。

圖:即夢(mèng)Dreamina 張楠

大會(huì)正式宣告,2025年春季將推出具備更長(zhǎng)視頻生成能力的豆包視頻生成模型1.5版,豆包端到端實(shí)時(shí)語(yǔ)音模型也將很快上線,從而解鎖多角色演繹、方言轉(zhuǎn)換等新能力。譚待表示,豆包大模型雖然發(fā)布較晚,但一直在快速迭代進(jìn)化,目前已成為國(guó)內(nèi)最全面、技術(shù)最領(lǐng)先的大模型之一。

大模型應(yīng)用加速落地

數(shù)據(jù)顯示,截至12月中旬,豆包通用模型的日均tokens使用量已超過(guò)4萬(wàn)億,較七個(gè)月前首次發(fā)布時(shí)增長(zhǎng)了33倍。大模型應(yīng)用正在向各行各業(yè)加速滲透。

據(jù)悉,豆包大模型已經(jīng)與八成主流汽車品牌合作,并接入到多家手機(jī)、PC等智能終端,覆蓋終端設(shè)備約3億臺(tái),來(lái)自智能終端的豆包大模型調(diào)用量在半年時(shí)間內(nèi)增長(zhǎng)100倍。

與企業(yè)生產(chǎn)力相關(guān)的場(chǎng)景,豆包大模型也獲得了眾多企業(yè)客戶青睞:最近3個(gè)月,豆包大模型在信息處理場(chǎng)景的調(diào)用量增長(zhǎng)了39倍,客服與銷售場(chǎng)景增長(zhǎng)16倍,硬件終端場(chǎng)景增長(zhǎng)13倍,AI工具場(chǎng)景增長(zhǎng)9倍,學(xué)習(xí)教育等場(chǎng)景也有大幅增長(zhǎng)。

譚待認(rèn)為,豆包大模型市場(chǎng)份額的爆發(fā),得益于火山引擎“更強(qiáng)模型、更低成本、更易落地”的發(fā)展理念,讓AI成為每一家企業(yè)都能用得起、用得好的普惠科技。

在公布豆包視覺(jué)理解模型超低定價(jià)的同時(shí),火山引擎升級(jí)了火山方舟、扣子和 HiAgent 三款平臺(tái)產(chǎn)品,幫助企業(yè)構(gòu)建好自身的 AI 能力中心,高效開(kāi)發(fā) AI 應(yīng)用。其中,火山方舟發(fā)布了大模型記憶方案,并推出 prefix cache 和 session cache API,降低延遲和成本?;鹕椒街圻€帶來(lái)全域 AI 搜索,具備場(chǎng)景化搜索推薦一體化、企業(yè)私域信息整合等服務(wù)。

云原生是過(guò)去十年最重要的計(jì)算范式,大模型時(shí)代則推動(dòng)著云計(jì)算的變革?;鹕揭嬲J(rèn)為,下一個(gè)十年,計(jì)算范式應(yīng)該從云原生進(jìn)入到AI云原生的新時(shí)代。

基于AI云原生的理念,火山引擎推出了新一代計(jì)算、網(wǎng)絡(luò)、存儲(chǔ)和和安全產(chǎn)品。在計(jì)算層面,火山引擎GPU實(shí)例,通過(guò)vRDMA網(wǎng)絡(luò),支持大規(guī)模并行計(jì)算和P/D分離推理架構(gòu),顯著提升訓(xùn)練和推理效率,降低成本;存儲(chǔ)上,新推出的EIC彈性極速緩存,能夠?qū)崿F(xiàn)GPU直連,使大模型推理時(shí)延降低至1/50、成本降低20%;在安全層面,火山將推出PCC私密云服務(wù),構(gòu)建大模型的可信應(yīng)用體系?;赑CC,企業(yè)能夠?qū)崿F(xiàn)用戶數(shù)據(jù)在云上推理的端到端加密,而且性能很好,推理時(shí)延比明文模式的差異在5%以內(nèi)。

譚待說(shuō):“今年是大模型高速發(fā)展的一年。當(dāng)你看到一列高速行駛的列車,最重要的事就是確保自己要登上這趟列車。通過(guò)AI云原生和豆包大模型家族,火山引擎希望幫助企業(yè)做好AI創(chuàng)新,駛向更美好的未來(lái)?!?/p>

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀點(diǎn),與極客網(wǎng)無(wú)關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2024-12-18
豆包視覺(jué)理解模型正式發(fā)布,比行業(yè)價(jià)格便宜85%
豆包視覺(jué)理解模型正式發(fā)布,比行業(yè)價(jià)格便宜85%

長(zhǎng)按掃碼 閱讀全文