6月28日消息,今日,字節(jié)跳動火山翻譯團隊宣布推出LightSeq訓練加速引擎,并向全球開發(fā)者開源。
Transformer是自然語言處理、計算機視覺等AI技術領域最常用的基礎模型,被廣泛應用在機器翻譯、文本生成、文本摘要、圖像處理、時間序列預測等任務中。訓練和推理則是AI技術的兩個主要過程,相當于學習知識和解決問題。
據悉,LightSeq訓練加速引擎能夠支持Transformer的完整加速,從詞嵌入層、編碼層、解碼層,到最后的損失函數層,業(yè)內首次實現(xiàn)了全流程支持。而且LightSeq的訓練速度極快,相比主流的序列生成庫,LightSeq最快只需要三分之一的時間就能完成訓練。
根據公開報道,字節(jié)跳動現(xiàn)在已經開源了機器學習平臺Klever、聯(lián)邦學習平臺Fedlearner、高性能分布式訓練框架BytePS等重磅項目。
- 特斯拉市值一夜蒸發(fā)超6400億元,美股科技“七巨頭”陷入調整區(qū)間
- 阿里巴巴于上海新設智信普惠科技公司,布局多領域技術服務
- 馬化騰短暫登頂中國富豪榜,騰訊科技與股價雙輪驅動成關鍵
- 本地生活賽道:2025年紅海變“血?!?,平臺競逐白熱化
- 義烏哪吒小商品熱賣:緊跟《哪吒2》熱潮,一天賣幾百套
- 美恢復接收中國包裹,貿易政策突變引發(fā)物流界震蕩
- DeepSeek或再掀波瀾,可能對美股市場造成新一輪打擊
- 谷歌股價暴跌:收入增長放緩,人工智能支出引投資者擔憂
- 華為去年銷售收入超8600億元:ICT基礎設施穩(wěn)健,新業(yè)務快速發(fā)展
- 特斯拉CEO馬斯克身家暴漲,穩(wěn)居全球首富寶座
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。