11月4日,第二屆開放原子開源基金會OpenHarmony技術大會在北京圓滿舉辦。在下午舉辦的OS原生智能分論壇中,華為昇思MindSpore總架構師金雪鋒擔任出品人,華為AI大模型應用開發(fā)平臺架構師王磊擔任主持人,與來自華為、中軟國際有限公司、深圳市若芯科技有限公司等企業(yè)界技術領袖和來自清華大學、上海交通大學等學術界專家學者分享了各自領域在OpenHarmony生態(tài)中結合AI大模型相關技術如何進行技術創(chuàng)新、突破技術難題,并共同探討了未來AI大模型與終端操作系統(tǒng)相結合的技術發(fā)展趨勢,為共建OpenHarmony繁榮生態(tài)貢獻力量。
出品人:華為昇思MindSpore總架構師金雪鋒
主持人:華為AI大模型應用開發(fā)平臺架構師王磊
首先,來自清華大學的助理研究員李元春就《大模型驅動的終端智能代理》課題進行了報告分享,介紹了一種大模型驅動的智能個人代理系統(tǒng)的設計與實現(xiàn),分享了如何通過對移動應用的自動分析和大模型知識嵌入,將應用內部的領域知識與大模型的常識知識有機結合,實現(xiàn)更準確高效的任務自動化。李元春指出,智能個人代理一直是終端系統(tǒng)研究人員和開發(fā)者關注的關鍵技術之一,然而由于用戶意圖理解、任務規(guī)劃、工具使用等能力的不足,目前智能個人代理的智能程度和可擴展性仍有較大缺陷。大語言模型的出現(xiàn)則解決了這些難點,李元春表示:“以大語言模型為代表的大模型的出現(xiàn)為該領域的發(fā)展帶來了嶄新的機遇,有望通過強大的語義理解和常識推理能力大大提升智能個人代理支持功能的廣度和深度。”
清華大學助理研究員李元春主題分享
中軟國際有限公司智能物聯(lián)網軍團產品研發(fā)管理部總經理、OpenHarmony項目群技術指導委員會委員張兆生基于自身在大模型及端邊協(xié)同領域的深厚洞察,帶來了題為《視覺大模型在OpenHarmony的端邊云側應用》的報告。他指出,智能化時代,隨著大模型和算力底層技術的不斷完善,大模型部署在邊緣側與終端側成為必然趨勢。他高度肯定了OpenHarmony擔當數字底座的價值與意義,“OpenHarmony作為萬物互聯(lián)時代的技術底座,可以廣泛應用于多種算力場景,滿足了多聯(lián)接、高實時和海量異構數據的業(yè)務需求,起到了向下發(fā)揮硬件算力,向上使能海量應用的作用。”在張兆生看來,以OpenHarmony為根基融合邊端大模型能力,構建端邊協(xié)同業(yè)務場景,可以為行業(yè)提供更有競爭力的創(chuàng)新解決方案,加速拓展生態(tài)。
中軟國際有限公司智能物聯(lián)網軍團產品研發(fā)管理部總經理、OpenHarmony項目群技術指導委員會委員張兆生主題分享
華為小藝架構師周劍輝基于華為小藝在終端產品的智能化服務技術思考,帶來了《基于意圖框架的端側原生智能大模型生態(tài)建設探索》主題報告。這篇報告中提到,意圖框架是系統(tǒng)級的意圖標準體系,通過多維系統(tǒng)感知、大模型等能力構建全局意圖范式,實現(xiàn)對用戶顯性與潛在意圖的理解,并及時、準確地將用戶需求傳遞給生態(tài)伙伴,匹配合時宜的服務,為用戶提供多模態(tài)、個性化的進階場景體驗。
華為小藝架構師周劍輝主題分享
上海交通大學計算機科學與工程系副教授鄭文立聚焦于機器學習方法,帶來《端邊云協(xié)同推理中的深度神經網絡動態(tài)分割》的報告。在端邊云環(huán)境下,為了匹配網絡負載與服務器負載的動態(tài)變化,鄭文立教授提出了基于機器學習的DNN分割優(yōu)化算法,并將其實現(xiàn)在昇思MindSpore上,使之能在執(zhí)行多種常見的CNN、RNN時自動調整它們跨端、邊/云兩側的分布,從而保持最低的推理延遲。同時,他還指出,“資源限制是邊緣計算面臨的主要挑戰(zhàn),設法突破資源限制才能最大化邊緣優(yōu)勢,使智能真正走進每個人的生活。”
上海交通大學計算機科學與工程系副教授鄭文立主題分享
來自華為諾亞方舟實驗室的研究員侯璐則在現(xiàn)場分享了《大語言模型的壓縮加速和高效部署》,這一報告從架構設計、成本、吞吐、時延、長序列等方面介紹大語言模型在推理階段面臨的內存、訪存和計算的挑戰(zhàn),以及模型和KVcache量化壓縮、融合大算子和投機式推理在大語言模型高效推理帶來的收益。
華為諾亞方舟實驗室研究員侯璐主題分享
深圳市若芯科技有限公司CTO周芃帶來了《無處不在的智能:端側類腦大模型的應用與解決方案》的演講,面向參會者介紹了面對大語言模型的算力開銷問題,以及如何采用類人腦處理信息的方式對Transformer架構進行改進。通過使用第三代神經網絡SNN搭建神經網絡,將網絡中的數據使用脈沖序列進行存儲和傳輸,在不影響網絡智能程度的同時,極大地降低了推理開銷。周芃表示,“使用該項技術訓練的大模型,不僅做到同參數級別能耗、延時、算力要求最優(yōu),也成功具備了在消費級設備本地部署運行的能力。
深圳市若芯科技有限公司CTO周芃主題分享
華為昇思MindSpore架構師李政結合MindSpore框架技術探索及實踐經驗,分享了《MindSpore端側大模型部署助力OS智能化》的報告,講解如何解決AI大模型的部署與應用挑戰(zhàn)。李政提到,“生成式AI大模型正悄然改變人們工作和生活,AI大模型與智能終端相結合勢必引發(fā)新的體驗。然而受終端設備算力和存儲制約,AI大模型端側部署面臨諸多挑戰(zhàn)”。他在報告中介紹了MindSpore在大模型端側部署及推理加速已展開的探索和相關技術思路。作為云端邊全場景訓推一體開源AI框架,MindSpore深度參與HarmonyOSAI智能業(yè)務場景的性能優(yōu)化,大量落地華為手機、平板、手表、筆記本、智慧屏、智能車等終端產品。
華為昇思MindSpore架構師李政主題分享
在OS原生智能分論壇的最后環(huán)節(jié),由論壇主持人華為AI大模型應用開發(fā)平臺架構師王磊,出品人華為昇思MindSpore總架構師金雪鋒及演講嘉賓進行了主題為“端側大模型及應用的技術前沿挑戰(zhàn)及解決方案思路”的圓桌討論,進一步深入探討了OS原生智能下的AI應用架構和框架、模型訓推框架、模型架構及算法方面的技術構想和思路。
“端側大模型及應用的技術前沿挑戰(zhàn)及解決方案思路”圓桌討論
至此,第二屆OpenHarmony技術大會OS原生智能分論壇圓滿落幕。各位技術專家與業(yè)界大咖的分享,展示了OpenHarmony在原生智能領域的技術潛力與應用實踐,也展望了AI大模型與操作終端深度結合后,必將帶來大模型擴展能力邊界、終端設備更加智能的“雙贏”前景。而隨著越來越多原生智能領域的技術專家和行業(yè)精英加入OpenHarmony社區(qū),也必將推動OpenHarmony生態(tài)枝繁葉茂。期待更多伙伴加入OpenHarmony技術和生態(tài)共建中,攜手以“技術筑生態(tài),智聯(lián)贏未來”。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )