如果讓你列舉出當前最重要的信息技術,你的腦海中可能馬上會浮現出幾個最火熱的名詞。但毫無疑問,這其中,人工智能(Artificial Intelligence,簡稱 AI)必然能占據一席之地。
自從 60 多年前,麥卡錫、明斯基等科學家在美國達特茅斯學院首次提出“人工智能”這一概念,它經歷了幾十年的起起伏伏的發(fā)展。在最近十年來,人工智能終于走向了結出豐碩果實的時代。隨著互聯網 IT 基礎設施的大跨步升級,從計算、存儲和傳輸能力,到計算機技術迅速滲透到世界的每一個角落,大數據、云計算、互聯網、物聯網等信息技術都迎來了迅猛發(fā)展。
感知數據和圖形處理等計算平臺的演化推動了以深度神經網絡為代表的人工智能技術的飛速發(fā)展,大幅跨越了科學與應用之間的“技術鴻溝”,而諸如計算機視覺、語音識別、自然語言處理、人機對弈、無人駕駛等人工智能技術也實現了從“不能用、不好用”到“可以用”的技術突破,迎來爆發(fā)式增長的新高潮。
在開源浪潮已經席卷全球的今天,得益于開源技術和開源協作模式的發(fā)展,AI 技術的進步也得到了極大的推動。AI 的進入門檻變得空前的低,這要感謝開源軟件。以 2015 年谷歌開源 TensorFlow 機器學習庫為開端,現在 AI(尤其是深度學習)的開源框架已經形成百花齊放的局面,其中有 Facebook 的 PyTorch、微軟的 Cognitive Toolkit 以及 Apache MXNet 等等。
開源AI 框架形成了雙贏的局面:一方面人人都能用上 AI;反過來,貢獻者社區(qū)也為加速谷歌等公司的 AI 研究提供了幫助。
作為推動開源發(fā)展的重要基石的 Linux 基金會(LF),也于此前在旗下成立了面向 AI/大數據方面的深度學習基金會,LF Deep Learning Foundation,孵化并支持了許多項目,如 Acumos AI、Angel ML 等。
5月22日, Linux 基金會正式宣布,旗下的深度學習基金會更名為 LF AI 基金會(LF AI Foundation),包括人工智能(AI)、機器學習、深度學習等等。LF 表示,“我們正處在人工智能重大技術變革的邊緣,這正是任何技術演進中開源軟件和社區(qū)發(fā)揮作用的關鍵所在。人們對我們工作的興趣和貢獻正在加速,名字的改變也反映了這一點。”
LFAI 基金會將正式擴大其范圍,以支持人工智能、機器學習和深度學習技術的日益增長的生態(tài)系統(tǒng)。在過去的六個月里,我們景觀(l.lfai.foundation)中涵蓋的整個生態(tài)系統(tǒng)已經從80個項目增長到170多個項目,來自世界各地80多個不同組織的3.5億行代碼。這種協作開源開發(fā)的水平和速度類似于 Linux、區(qū)塊鏈、云和容器的早期發(fā)展。適當的基礎設施和范圍已經準備就緒。
LFAI 旨在支持開源 AI、ML 和 DL,并創(chuàng)建可持續(xù)發(fā)展的開源 AI 生態(tài)系統(tǒng),使用開源技術輕松創(chuàng)建 AI 產品和服務?,F在旗下已經有華為、AT & T、騰訊、中興、愛立信、諾基亞、百度、紅帽、滴滴等公司加入,并且已有包括 Acumos AI、Angel ML、Elastic Deep Learning、Horovod、Pyro 等項目正處在發(fā)展和孵化中。
更多有關 LF AI 的詳情請參閱基金會官方網站:https://lfai.foundation/。
這其中,值得注意的是騰訊于 2018 年 8 月貢獻的項目:Angel AI,目前該項目正處于孵化階段。Angel 項目是一個基于參數服務器的高性能分布式機器學習平臺,運行于 YARN 和 Apache Spark 之上。它針對大數據的性能進行了優(yōu)化,并在處理更高維度的模型方面具有優(yōu)勢。它支持具有數十億個參數的大型復雜模型,可以將復雜模型的參數劃分為多個參數服務器節(jié)點,并使用高效的模型更新接口和函數以及用于同步的靈活一致性模型實現各種機器學習算法。
該系統(tǒng)設計用于高效的迭代計算,因此機器學習算法可以從中受益。Angel 中的算法是開箱即用的,因此分析師和數據科學家可以在不編寫任何一行代碼的情況下提交計算作業(yè)。
分論壇主題介紹
人工智能/機器學習/深度學習
在今年的 Open Source Summit 大會上,26日全天,將是 AI 從業(yè)者和愛好者們的知識盛宴,將迎接來自世界各地的頂級 AI 專家的知識分享。以下是議程簡介:
來自華為的 Jessica Kim 將帶來關于聯合電信人工智能市場的主題演講:推進分散的同質機器學習人工智能市場(例如 AT & T Acumos)和眾多異質市場聯合起來,從而擴展機器學習人工智能生態(tài)系統(tǒng)。此外,華為最近宣布的 SoftCOM AI 市場將減少聯合學習功能遇到的數據集以及數據隱私問題。
Animesh Singh - IBM STSM和項目總監(jiān)
來自 IBM 的 Animesh Singh 將分享基于 Kubernetes 構建事件驅動型機器學習管道:作為一個領域,AIOps 逐漸成為當下的緊急需求。隨著各種機器學習功能進入不同的開源項目,各種管道開始構建.擁有透明的 AI 管道,并在發(fā)生數據漂移、偏差檢測、模型精度損失等任何事件時通知用戶正在成為關鍵問題。此外,還需要從原始數據構建數據科學家代碼、編排代碼和實現管道自動化等功能。在本演講中,Animesh 將利用構件、事件、服務和管道等 Kubernetes 組件展示如何構建端到端 AI 管道,該管道可用于檢測所有事件、發(fā)布通知和采取行動、構建和運行數據科學家代碼、執(zhí)行 A/B 測試、進行摸黑啟動及編排整個工作流,包括模型訓練、驗證、服務和運營,主要集中于利用 Kubernetes 的事件和管道 CRD 證明此操作可以自動化。
此外,Animesh Singh 將帶來的另外一個演講機器學習部署的開放標準:機器學習通常被視為簡單地基于數據訓練模型。但是,將模型部署到生產系統(tǒng)的“最后一公里”經常被忽略,這是現實中機器學習系統(tǒng)最重要的方面之一。盡管如此,包含端到端機器學習管道部署的開放和標準解決方案目前還沒有被廣泛接受。在本演講中,Animesh將和大家探討利用開源標準化格式進行機器學習部署的現狀。本演講將介紹各種可用選項,包括 PMML、PFA 和 ONNX,以及這些選項如何與最受歡迎且廣泛使用的機器學習庫(包括 scikit-learn、Spark ML、TensorFlow、Keras 和 PyTorch)保持一致
來自谷歌的 Wencheng Lu 和 Limin Wang 將帶來利用 Istio 管理多租戶機器學習工作負載:隨著基于 Kubernetes 部署的機器學習工作負載迅速增長,越來越需要提供多租戶渠道,以管理機器學習工作負載,促進不同的數據科學家基于 Kubernetes 收集數據、訓練和服務模型。歡迎大家來了解如何將 Istio 集成至 Kubeflow 等多租戶機器學習管道,以通過足夠的身份、訪問和 API 管理針對為不同用戶部署的工作負載提供隔離和保護。
Marcel Hild – Rad Hat首席軟件工程師
來自紅帽的 Marcel Hild 將帶來AIOps:利用 Prometheus 和 Istio 進行異常檢測:隨著 IT 運營變得更靈活、更復雜,提高運營效率和情報能力的需求也在不斷增長。利用Prometheus 監(jiān)控應用程序和 Kubernetes 集群已經相當普遍,但企業(yè)確定相關指標和閾值卻越來越難。在本演講中,Marcel 將展示用于長期收集和存儲 Prometheus 采集的指標的工具。然后他會分析大量這些指標,以獲取趨勢和周期性信息,并預測給定指標的預期值。最后,他會將預測指標集成回監(jiān)控和警示堆棧的 Prometheus,以啟用動態(tài)閾值化和異常檢測。所有操作僅用開源工具完成,可利用 Istio 中的可用工具充分運行演示。
Trevor Grant – IBM 開源人工智能/物聯網布道者
Holden Karau – Google開發(fā)者布道師
來自 IBM 的Trevor Grant和來自谷歌的 Holden Karau 將帶來Kubeflow 介紹(包含 Special Guests Tensorflow 和 Apache Spark):數據科學、機器學習和人工智能在過去五年中人氣暴漲,但是,有一個問題依然揮之不去,即“如何將模型投入生產?”工程師們通常的任務是構建用于預測的一次性系統(tǒng),而且必須在快速發(fā)展的后端服務空間內維護這些系統(tǒng),而后端服務空間已經從單機發(fā)展到了自定義集群、“無服務器機器”、 Docker、Kubernetes。在本演講中,他們將為大家介紹 KubeFlow,這個開源項目便于用戶將模型從筆記本電腦轉移到 ML Rig、訓練集群甚至部署環(huán)境,還將討論“什么是 KubeFlow”、“為什么可擴展性對訓練和模型部署如此重要”等話題。
來自優(yōu)步的 Reza Shiftehfar 將帶來用于高級分析的下一代大數據平臺 - 通過統(tǒng)一存儲和服務實時訪問數百 PB 數據:必須實時存儲和服務數百 PB 數據時,構建可靠的大數據平臺將充滿挑戰(zhàn)。他們將在本演講中介紹一些架構解決方案,用于擴展大數據平臺,以便在分鐘級別延遲內獲取、存儲和服務數百 PB 數據,同時高效利用硬件并滿足安全需求。并將深入探討如何重新設計獲取平臺已每天獲取超過 10 萬億事件、如何擴展存儲平臺、以及如何重新設計處理平臺已每天高效服務數百萬次查詢和作業(yè)。他們將提供當前大數據領域的幕后情況,包括現有開源技術,以及必須在優(yōu)步構建的平臺和用于填補空缺、超越極限的開源軟件,如 Hudi 和 Marmaray。
來自 The Institute for Ethical AI & Machine Learning 的 Alejandro Saucedo 將帶來2019年 AI 和機器學習運營狀況:在本演講中,Alejandro 將分享關于他在職業(yè)生涯中通過構建和部署機器學習系統(tǒng)學到的知識和見解,以及開源“絕佳數據運營/機器學習運營”列表中的一些可用技術。Alejandro 主要會介紹 2019 年的可用開源工具和框架,幫助大家擴展 DataOps 和 MLOps 基礎架構。本演講將介紹可用的支持技術,具體包括再現性、監(jiān)控、合規(guī)及數據編排和計算方面。要介紹的主要技術包括 PMML、數據版本控制 (DVC)、ModelDB、Pachyderm 和 Seldon。
Arun Gupta – AWS首席開源技術專家
來自 AWS 的 Arun Gupta將 Kubernetes 用于機器學習框架:Kubernetes 可以提供隔離、自動擴展、負載平衡、靈活性和 GPU 支持。這些功能對運行計算和數據密集型、且難以實現并行處理的 ML 模型至關重要。Kubernetes 部署描述符的聲明性語法使集中于非運營業(yè)務的工程師可以輕松基于 Kubernetes 訓練 ML 模型。在本演講中,Arun將解釋 Kubernetes 為什么及怎樣非常適合單節(jié)點和多節(jié)點分布式訓練、將 ML 模型部署到生產系統(tǒng)中以及設置可視化工具,比如用于監(jiān)控的 TensorBoard。具體而言,Arun將展示如何基于 Kubernetes 集群設置各種開源機器學習框架,如 TensorFlow、Apache MXNet 和 Pytorch。與會者將了解到基于 Kubernetes 建立 ML 框架的分布式訓練、消息傳送和推理階段,并獲得包含完整運行樣本的 GitHub repo。
那么,Open Source Summit 的人工智能/機器學習/深度學習論壇中這些精彩演講都被安排在什么時間呢?
內容更新請參閱 https://kccncosschn19chi.sched.com 選擇:OSS – 人工智能/機器學習/深度學習。
由于反應熱烈,門票即將售罄,請大家抓住機會,在6月6日前購票就能享受標準票價優(yōu)惠:
標準注冊:2000人民幣(晚注冊2400,即時可省400!)
貴賓注冊:5000人民幣(晚注冊6000,即時可省1000!)
個人或學術注冊:500人民幣(需要發(fā)送電子郵件至events@cncf.io申請批準。晚注冊600,即時可省100!)
2019年 6月24日~26日,請大家抓住機會,我們在上海世博中心不見不散!
- 蜜度索驥:以跨模態(tài)檢索技術助力“企宣”向上生長
- 為什么年輕人不愛換手機了
- 柔宇科技未履行金額近億元被曝已6個月發(fā)不出工資
- 柔宇科技被曝已6個月發(fā)不出工資 公司回應欠薪有補償方案
- 第六座“綠動未來”環(huán)保公益圖書館落地貴州山區(qū)小學
- 窺見“新紀元”,2021元宇宙產業(yè)發(fā)展高峰論壇“廣州啟幕”
- 以人為本,景悅科技解讀智慧城市發(fā)展新理念
- 紐迪瑞科技/NDT賦能黑鯊4 Pro游戲手機打造全新一代屏幕壓感
- 清潔家電新老玩家市場定位清晰,攜手共進,核心技術決定未來
- 新思科技與芯耀輝在IP產品領域達成戰(zhàn)略合作伙伴關系
- 芯耀輝加速全球化部署,任命原Intel高管出任全球總裁
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。