尊敬的用戶:
本周迎來容聯(lián)AI Call產品又一次更新,本次更新重點豐富自學習平臺的功能,旨在讓運營更智能,提高運營整體工作效率,實現(xiàn)【數(shù)據(jù)自動打標】,自動將原始數(shù)據(jù)進行數(shù)據(jù)清洗、數(shù)據(jù)標注、數(shù)據(jù)分類,有效縮短了數(shù)據(jù)標注工期。同時,打破傳統(tǒng)測試集數(shù)據(jù)手動拆分方式,實現(xiàn)【測試集數(shù)據(jù)自動提取】,數(shù)據(jù)提取更科學,評測結果更真實。
如下為V5.1.1本次更新內容:
升級說明
1、打通線上「數(shù)據(jù)集」一體化流程
數(shù)據(jù)集上傳、模型訓練、模型評測、模型發(fā)布和解綁,都可以在自學習平臺完成,打通線上數(shù)據(jù)集管理、模型訓練、模型評測、模型發(fā)布一體化流程。
2、數(shù)據(jù)自動打標功能
針對海量數(shù)據(jù),通過人工對數(shù)據(jù)進行標注,無法保證高效的完成數(shù)據(jù)清洗標注以及數(shù)據(jù)分類。本次自學習平臺新增數(shù)據(jù)自動打標動能,僅需上傳原始數(shù)據(jù)集文件,系統(tǒng)按照配置策略,自動將原始數(shù)據(jù)進行數(shù)據(jù)清洗、數(shù)據(jù)標注、數(shù)據(jù)分類,人工僅需完成簡單的復檢,即可將數(shù)據(jù)用于模型訓練,有效縮短了數(shù)據(jù)標注工期。
3、模型訓練更靈活
本次在模型訓練任務上增加了任務排隊機制,支持取消訓練,在面對大量模型訓練任務時,可以更好的承載超大并發(fā)量的模型訓練任務,從而提升模型訓練的效率。
4、測試集數(shù)據(jù)自動提取
過去的測試集數(shù)據(jù)是在訓練集數(shù)據(jù)中通過手動的方式進行拆分,耗時耗力,如果數(shù)據(jù)拆分不均勻,還可能導致最終模型效果不佳、評測結果存在偏差。本次迭代打破傳統(tǒng)方式,僅需在模型訓練時,選擇所需訓練集文件,系統(tǒng)自動按照訓練集標簽數(shù)量提取一定比率的測試集數(shù)據(jù)出來,數(shù)據(jù)提取更科學,評測結果更真實。
5、支持意圖、多意圖、情感、句式識別模型評測
在模型評測方面,本次新增單意圖、多意圖、情感、句式識別的模型評測結果輸出,同時我們還對模型評測的指標計算方式進行調優(yōu)處理,使模型結果數(shù)據(jù)評測更加精準有效。
6、內置通用模型數(shù)據(jù),全平臺可使用
結合容聯(lián)在數(shù)據(jù)上的沉淀積累,容聯(lián)將百萬級數(shù)據(jù)通過清洗整理,并訓練成行業(yè)場景的通用模型,盡可能實現(xiàn)開箱即用,減低冷啟環(huán)節(jié)的耗時。本次更新容聯(lián)將這些模型開放出來,可供全平臺的租戶使用。
7、數(shù)據(jù)安全升級
本次數(shù)據(jù)安全升級主要從兩個方面進行了全新升級,一方面對數(shù)據(jù)本身的安全加密,采用符合絕大部分客戶要求的密碼算法對數(shù)據(jù)進行主動保護,另一方面對數(shù)據(jù)防護的安全,采用信息存儲手段對數(shù)據(jù)進行主動防護。所有訓練平臺數(shù)據(jù)統(tǒng)一放入NAS目錄進行存儲。
(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )