第三代人工智能基礎(chǔ)設(shè)施背后,是一次技術(shù)應(yīng)用的常識普及運動

原標題:第三代人工智能基礎(chǔ)設(shè)施背后,是一次技術(shù)應(yīng)用的常識普及運動

買了新電腦和手機,你會提前安裝好殺毒或安全軟件,還是等被黑客攻破了才悔之晚矣?

處理傳染病疫情,是從源頭釋放藥物和疫苗,還是坐等醫(yī)院的患者超過治療和處理能力?

面對危機輿情,是快速遏制傳播,還是拖到負面信息的數(shù)量遠遠超過企業(yè)公關(guān)能力?

建造一座核電站,是否有必要提前考量其安全性并嚴格部署安全措施?

答案,是顯而易見的。

公共設(shè)施投入運營之前一定會做足消防、驗收等功課;殺毒軟件和定期更新漏洞成為桌面系統(tǒng)的常備工具;汽車、手機等新款產(chǎn)品在設(shè)計之初,就會將安全放在首要考量因素之一……這就是主動式安全管理之于社會生產(chǎn)的意義。

而面對人工智能,總有科技企業(yè)和大V們不斷強調(diào)AI的神奇之處,卻有意無意間忽略了一些技術(shù)落地不可或缺的前提,其中就包括——安全。

事實上,對于AI安全性的顧慮,是今天各行業(yè)落地AI時所遇到的頭號焦慮與難題之一。

12月9日舉辦的“2020第三代人工智能產(chǎn)業(yè)論壇”上,清華系A(chǔ)I公司瑞萊智慧RealAI發(fā)布了一系列AI基礎(chǔ)設(shè)施,就將更安全、可靠、可信及可拓展的第三代人工智能作為核心,來推動企業(yè)智能化升級。與以往基于深度學習的數(shù)智化解決方案相比,有哪些不同?要回答這個問題,需要先來看看今天橫亙在企業(yè)與AI應(yīng)用落地之間的困境。

找回被遺落的安全常識

伴隨著“新基建”的哨音,AI在產(chǎn)業(yè)端高歌猛進,與此同時,一些安全問題也涌現(xiàn)出來,暴露出安全管理意識的缺失。

AI,意味著更大的計算成本、更快的數(shù)據(jù)交互、更高的改造風險,一旦出現(xiàn)算法問題或數(shù)據(jù)泄露,或是遭遇黑客攻擊,該怎么辦?此前業(yè)界并沒有過多的探討,卻是AI進入產(chǎn)業(yè)的前提與業(yè)務(wù)創(chuàng)新發(fā)展的命脈所在。

AI需要怎樣的安全?正如開篇所提到的,過去幾十年來,主動式安全管理已經(jīng)深入到了社會生產(chǎn)生活的方方面面。

學者埃里克·郝納根(Erik Hollnagel)在《Safety-I and Safety-II: The Past and Future of Safety Management安全管理的過去和未來》一書中這樣解釋:

過去,只要一個事物很少或根本沒有出現(xiàn)錯誤,就被認為是安全的(即“安全-I”模式)。伴隨著數(shù)字時代的到來,這種方式并不能有效地減少安全問題造成的損失,一次來自黑客的攻擊威脅,如果反應(yīng)不足就可能讓個人或企業(yè)萬劫不復。

所以21世紀初期,發(fā)展出了另一種安全管理模式——安全II,認為安全的本質(zhì)是確保盡可能多的事情是正確的、能夠達到預期結(jié)果,并且一直保持這一狀態(tài)。因此必須積極主動,在事故可能發(fā)生之前就采取一定行動,在負面結(jié)果還沒來得及發(fā)展和蔓延之前就采取干預措施。

此前廣泛引起討論的人臉識別涉及到的隱私安全、數(shù)據(jù)風險等問題,就在提醒我們,AI需要補全“安全II”的能力。具體來說,就是預測、準備、響應(yīng)和監(jiān)控風險的能力。

您的“AI安全問題大禮包”,請查收

如果按照安全II模式的主動管理邏輯來審視AI產(chǎn)業(yè)化,會發(fā)現(xiàn)等待預先解決的安全風險,真的有點多。

1.決策不可靠的算法模型。深度學習模型的黑箱性和不可解釋性,至今依然是難以規(guī)避的問題。企業(yè)在將深度神經(jīng)網(wǎng)絡(luò)進行訓練時,可能出現(xiàn)模型不準、預測結(jié)果不可預知的情況。

而不可靠的算法模型一旦應(yīng)用于高價值的關(guān)鍵敏感場景,比如金融決策、醫(yī)療診斷、精密工業(yè)制造等等,可能引發(fā)生命財產(chǎn)損失。

2.防不勝防的新型攻擊手段。安全是一場技術(shù)攻防戰(zhàn),當下許多黑灰產(chǎn)也開始利用更前沿的技術(shù)發(fā)起攻擊,讓傳統(tǒng)安全防護模式力有不逮。

比如利用“對抗樣本”技術(shù)打造一張假臉來欺騙移動支付的人臉識別模型,用以假換真的音頻進行財務(wù)詐騙,制作虛假的換臉視頻等等,針對這類新型安全風險,主流廠商的模式依然是傳統(tǒng)的“安全-I”思路,等到發(fā)現(xiàn)問題再進行響應(yīng)和修復,但AI潛在安全問題很多時候是滯后或隱蔽的,比如在訓練源頭的原始數(shù)據(jù)集進行污染與投毒,在問題暴露時可能已經(jīng)釀成了危機。

3.日益嚴峻的數(shù)據(jù)危機。提升AI能力需要最大限度的挖掘數(shù)據(jù)價值,但是在金融、醫(yī)療、公共安全等場景的AI應(yīng)用中,所要用到的數(shù)據(jù)往往涉及個人隱私信息,簡單明文數(shù)據(jù)傳輸和利用很可能導致隱私泄露。

另一方面,在特定商業(yè)場景中,有價值的數(shù)據(jù)往往分散在不同的機構(gòu)與用戶手中,形成大大小小的數(shù)據(jù)孤島,應(yīng)用過程中數(shù)據(jù)的用途和用量不受控,存在被濫用和復制的問題,同時數(shù)據(jù)應(yīng)用產(chǎn)生的收益不清晰,數(shù)據(jù)權(quán)屬也難以界定。

4.充滿盲點的應(yīng)用漏洞。雖然現(xiàn)在很多業(yè)務(wù)場景都在使用AI能力,但應(yīng)用效果卻并不及預期,諸如算法偏見導致人臉識別對白人和黑人區(qū)別對待、AI信貸風控模型對特定地區(qū)出現(xiàn)“歧視”、智能客服AI學會了臟話突然開始罵用戶……雖然這些應(yīng)用漏洞并不會導致業(yè)務(wù)直接崩壞,但卻讓業(yè)務(wù)效果大打折扣,與此同時也帶來負面社會影響。

說了這么多,大家可能會覺得AI好像不怎么靠譜的樣子,其實今天AI的方案成熟度和產(chǎn)業(yè)落地性已經(jīng)很高了,所帶來的生產(chǎn)力價值也是遠超想象。

只是,從腳踏實地的角度出發(fā),與其寄希望于一個零事故、零風險的理想化口號,更可行的方式是,把每個算法、每個系統(tǒng)、每次項目都實施好,從源頭上打造務(wù)實可靠的AI,這也是今天大多數(shù)傳統(tǒng)行業(yè)在應(yīng)用AI時普遍缺乏的意識,以為花錢買回來的是無往而不利的增長神器,拆開才發(fā)現(xiàn)是一張安全漏洞密布的漁網(wǎng)。

隨著AI進一步深入產(chǎn)業(yè),必須早日在技術(shù)價值與現(xiàn)實落地之間找到一個安全可控的平衡點。

防患于未然,關(guān)鍵時刻還得靠學霸

正如愛因斯坦所說,提出問題往往比解決問題更重要,因為解決問題也許僅是一個技能,而提出新的問題、新的可能性,從新的角度去看舊的問題,需要有創(chuàng)造性的想象力,而且標志著科學的真正進步。

這也是為什么,RealAI會引起我們的注意。

我們知道,人工智能的基礎(chǔ)模型、研究方法、基礎(chǔ)理論和各種模型的設(shè)計等等,底層創(chuàng)新一般都是由學術(shù)界率先垂范,比如2017年,圖靈獎得主Geoffrey Hinton就看到了傳統(tǒng)深度卷積神經(jīng)網(wǎng)絡(luò)的問題,提出了膠囊網(wǎng)絡(luò)等新的深度學習方法,以期推動AI迭代。

在中國,清華人工智能研究院等頂級學術(shù)機構(gòu)也在不斷嘗試搭建更可靠的AI和智能實現(xiàn)方式。而RealAI瑞萊智慧作為清華人工智能研究院的產(chǎn)學研技術(shù)公司,自然也能率先意識到高度依賴數(shù)據(jù)驅(qū)動的傳統(tǒng)機器學習時代存在的諸多安全隱患,針對上文提出的種種問題,RealAI的“學霸們”重構(gòu)底層技術(shù)框架,推出全新范式,從技術(shù)側(cè)給出解決方法,比如:

將深度學習和貝葉斯方法的優(yōu)勢有機結(jié)合,將數(shù)據(jù)和預測結(jié)果中天然存在的不確定性納入考慮,提升AI模型的泛化能力,從而實現(xiàn)可靠可解釋的AI;

保證在建模過程中,從關(guān)鍵特征和決策相關(guān)依據(jù)等不同維度給出解釋,增進人們對AI結(jié)果的理解;

通過對抗的方式發(fā)現(xiàn)AI算法存在漏洞的機理,并通過對抗防御技術(shù)指導魯棒AI算法和系統(tǒng)研發(fā);

將領(lǐng)域知識引入到AI建模中,實現(xiàn)知識與數(shù)據(jù)的共同驅(qū)動;

通過與密碼學和分布式系統(tǒng)結(jié)合的方式,實現(xiàn)在明文數(shù)據(jù)不出庫的情況下,解決AI場景下的數(shù)據(jù)流通問題。

也許你已經(jīng)發(fā)現(xiàn)了,集合了這些新技術(shù)能力的AI,已經(jīng)不是我們所熟悉的那個“阿爾法狗時代”的深度機器學習了,而是第三代人工智能。

清華大學人工智能研究院院長、中國科學院院士張鈸教授是這樣闡釋的,第三代 AI 的思路是把第一代的知識驅(qū)動和第二代的數(shù)據(jù)驅(qū)動結(jié)合起來,通過利用知識、數(shù)據(jù)、算法和算力等 4 個要素, 建立新的可解釋和魯棒的AI,具備安全、可靠、可信和可擴展的特點。

沿著這一技術(shù)發(fā)展的底層思維邏輯演進,會發(fā)現(xiàn)在第三代人工智能基座上搭建AI應(yīng)用,也就自然而然地實現(xiàn)了“安全II”——主動式安全管理,讓AI的潛在風險能夠從源頭就被預測、準備、響應(yīng)和監(jiān)控。

解決AI安全隱憂任重道遠,第三代AI無疑是中國學術(shù)界所給出的領(lǐng)先方向和解法。

沒有新基礎(chǔ)設(shè)施,就沒有“頂天立地”的第三代AI

AI很好,但如何才能被企業(yè)用起來?第三代AI要“頂天立地”,既需要高屋建瓴的學術(shù)創(chuàng)新,也需要“接地氣”地對接產(chǎn)業(yè)。想要融入真實的產(chǎn)業(yè)需求,自然離不開平臺基礎(chǔ)設(shè)施作為樞紐,成功完成技術(shù)價值到商業(yè)價值的轉(zhuǎn)換。

打個比方,企業(yè)只是想做一個美味的蛋糕,不需要從種小麥開始,找到一個提供面粉、黃油、模具的平臺采集到這種現(xiàn)成材料,是更省事省力有保障的選擇。

所以我們很欣喜能夠在AI助力數(shù)智化轉(zhuǎn)型的初始階段,就出現(xiàn)了RealAI這樣基于第三代人工智能技術(shù)的技術(shù)企業(yè)。

在“2020第三代人工智能產(chǎn)業(yè)論壇”上,RealAI發(fā)布了兩款最新AI產(chǎn)品——隱私保護機器學習平臺RealSecure和人工智能安全平臺RealSafe2.0 版本。

結(jié)合去年就推出的可解釋機器學習建模平臺RealBox,以及深度偽造檢測工具DeepReal,形成了一套從數(shù)據(jù)、算法、應(yīng)用全鏈條對AI進行安全賦能升級的基礎(chǔ)設(shè)施平臺。

數(shù)據(jù)層面,最新發(fā)布的RealSecure隱私保護機器學習平臺,通過其自研的“隱私保護AI編譯器”,能夠自動將普通機器學習算法程序轉(zhuǎn)換為分布式、隱私安全程序。

這意味著,當銀行、政府、醫(yī)院等敏感場景想要實現(xiàn)數(shù)據(jù)流通又擔心隱私泄露等問題時,可以采用自動化隱私保護學習的方式,一鍵完成分布式隱私保護學習算法的建模,讓多個數(shù)據(jù)擁有方可以在無需透露敏感數(shù)據(jù)的前提下,來訓練更高性能的AI模型,打消企業(yè)和個人用戶的安全顧慮。

算法層面,升級后的RealSafe2.0版本,可以針對目標識別等算法進行安全攻防,并增加后門漏洞檢測等功能。就像殺毒軟件一樣,對應(yīng)用的AI算法進行全面“體檢”,讓AI安全性的標準化檢測和增強成為可能。

高可解釋性的機器學習建模平臺RealBox,則借助貝葉斯概率機器學習,讓原本“黑箱”的模型訓練變得透明化、白盒化,各維度數(shù)據(jù)在決策過程中所占的比重等等都可以被解釋,這樣的算法做出的決策,自然更具有可信度。

應(yīng)用層面,RealAI基于千萬級訓練數(shù)據(jù)打造了多特征融合和多任務(wù)學習、具備防御對抗樣本攻擊能力的偽造識別算法,推出DeepReal深度偽造檢測工具和一體機。

面對各種偽造App數(shù)據(jù)集和添加噪音來實施攻擊的行為,DeepReal可以對偽造內(nèi)容和真實內(nèi)容之間表征差異性進行有效辨識,在多個主流深度偽造App數(shù)據(jù)集和各類學術(shù)數(shù)據(jù)集上的檢測準確率超過99%。

這些能力在AI應(yīng)用的各個環(huán)節(jié)貫穿,也讓第三代人工智能有了面向產(chǎn)業(yè)的價值釋放端口。RealAI CEO田天介紹道,人工智能要成為新時代的水和電,普及到產(chǎn)業(yè)的各個角落,需要完備的基礎(chǔ)設(shè)施建設(shè)。但不同于以往的數(shù)據(jù)平臺、算力平臺為AI提供基礎(chǔ)運算條件,RealAI 打造的原生基礎(chǔ)設(shè)施從增強AI自身底層能力出發(fā),圍繞“算法可靠”、“數(shù)據(jù)安全”、“應(yīng)用可控”三大能力,推動產(chǎn)業(yè)智能化走向安全可信的全新階段。

跨越鴻溝:“吃螃蟹”需要哪些動力?

對于產(chǎn)業(yè)端來說,最怕的不是投入,而是未知,這也是為什么在每一次轉(zhuǎn)型浪潮時,常常會有企業(yè)望而卻步。

每個行業(yè)與企業(yè)都有著自身的獨特性與具體需求,通用性AI往往難以施展拳腳;加上各自的技術(shù)基礎(chǔ)與認知階段不同,會出現(xiàn)有的企業(yè)急切想要構(gòu)建全面的數(shù)智化系統(tǒng),有的甚至連AI能做什么不能做什么都不知道。

如何讓企業(yè)愿意成為“第一個吃螃蟹的人”,AI技術(shù)公司需要做的不僅僅是大聲吆喝,更需要躬身潛行,做好平臺服務(wù)。

面對這一道難題,RealAI的“學霸們”做了三件事:

第一,打造自主可控的創(chuàng)新技術(shù)和底層框架,讓各行各業(yè)可以放心將數(shù)據(jù)、模型跑在上面。

最典型的,是此次發(fā)布的RealSecure所搭載的“隱私保護AI編譯器”。傳統(tǒng)聯(lián)邦學習往往都需要各個數(shù)據(jù)擁有方重新組建一個隱私保護學習團隊,或者堆人力將原來的機器學習代碼一點點改寫成隱私保護學習代碼,費時費力不說,還難以保證性能和適配性。

RealAI沒有沿著老思路“縫縫補補”,而是直接用底層編譯的方式,將聯(lián)邦學習算法結(jié)構(gòu)成算子,通過算子的靈活組合來適配多種多樣的機器學習算法公式,就像“活字印刷術(shù)”中的“字?!币粯?,可以被標準化、靈活取用。

另外在訓練過程中,首創(chuàng)以底層數(shù)據(jù)流圖的方式,讓數(shù)據(jù)的擁有方、參與執(zhí)行方,以及通信是否需要加密,所有流程可視化展現(xiàn),讓整個計算過程變得安全透明。

第二,鍛造成熟的垂直行業(yè)解決方案,為AI產(chǎn)業(yè)化“打樣”。

對于一些行業(yè)普遍存在的通用性問題,聯(lián)合頭部企業(yè)打磨出相應(yīng)的解決方案,能夠給更多觀望者有所參考和啟發(fā)。

比如,在金融領(lǐng)域的信貸場景中,RealAI發(fā)現(xiàn)“數(shù)據(jù)有偏”是一個非常突出的問題,傳統(tǒng)建模過程中用到的數(shù)據(jù)都是經(jīng)過層層篩選、最終跑過整個借貸業(yè)務(wù)流程的“好”樣本,但沒有貸后表現(xiàn)數(shù)據(jù)的客群中就沒有優(yōu)質(zhì)客戶了嗎?怎樣挖掘并服務(wù)好這群“數(shù)據(jù)隱形人”,RealAI以自研半監(jiān)督回撈模型,判斷之前被拒絕的客戶究竟是否為優(yōu)質(zhì)資產(chǎn),從中挖掘出10%與通過客群一樣的優(yōu)質(zhì)客戶,助力某銀行在無成本的前提下回撈拒絕客戶,實現(xiàn)了20%的資產(chǎn)規(guī)模增長。

工業(yè)領(lǐng)域的核心痛點則是算法可靠性。以智能檢測為例,重大設(shè)備的健康程度會直接影響企業(yè)生產(chǎn)效率和資產(chǎn)壽命,以往只能通過有經(jīng)驗的維修人員來定期檢查、維護,效率低下,加上新生代檢修工人培養(yǎng)越來越困難,這時就需要高可靠性的AI來幫忙。

RealAI幫助工業(yè)企業(yè)打造的PHM設(shè)備健康診斷與預測性維護解決方案,就通過序列分析算法分析設(shè)備的監(jiān)測數(shù)據(jù),進行故障的實時診斷和預測,幫助規(guī)劃運維活動,避免停機和降低維修損失。在大壩安全智能監(jiān)測場景中,提升50%的預測準確率。在光伏制造、油氣管道監(jiān)測等場景中同樣可以發(fā)光發(fā)熱。

另外在公共安全領(lǐng)域,人臉識別技術(shù)被廣泛應(yīng)用于刷臉支付等身份認證場景,背后與個人財產(chǎn)安全綁定,但識別模型本身卻存在被攻破的風險。RealAI與某大型支付企業(yè)合作,利用AI對抗攻擊算法全面發(fā)掘和修復人臉比對模型漏洞,提供防御方案,實現(xiàn)更加安全的刷臉支付。

類似的行業(yè)垂直解決方案還有很多,這些都是RealAI基于自身AI基礎(chǔ)能力,結(jié)合對于行業(yè)業(yè)務(wù)的理解,對產(chǎn)業(yè)智能化升級方向的洞察,所打造出的落地產(chǎn)品和解決方案,在不斷消弭技術(shù)到應(yīng)用之間的鴻溝。

第三,“開箱即用”的一站式基礎(chǔ)保障。

通過此次發(fā)布的AI基礎(chǔ)設(shè)施平臺,我們發(fā)現(xiàn),RealAI把相關(guān)技術(shù)力都封裝成了對應(yīng)的工具和框架,企業(yè)碰到AI應(yīng)用難題時,可以快速完成部署。

比如RealSafe平臺通過封裝多種自研的黑盒攻擊、白盒攻擊算法,以及業(yè)內(nèi)首創(chuàng)的黑盒測評能力等等,通過界面化的操作,幫助用戶即便不具備專業(yè)的算法知識和編程開發(fā)經(jīng)驗,也能輕易上手從根源上檢測跟防御潛在漏洞。

包括DeepReal平臺,通過軟硬件結(jié)合與適配,讓算法性能最大化,不需要企業(yè)再費勁進行調(diào)配。

今天,圍繞新基建展開的數(shù)智化升級,已經(jīng)公認會給中國帶來長期的經(jīng)濟紅利。其中,AI技術(shù)的普及速度與安全可靠,無疑是影響全局的關(guān)鍵變量。二者如同“DNA雙螺旋”一樣交織發(fā)展,才能夠打開人工智能產(chǎn)業(yè)“第二增長曲線”。

如果說智能化是一架高速飛馳向產(chǎn)業(yè)界的飛機,那么第三代AI技術(shù)及其基礎(chǔ)設(shè)施,就是這架飛機的安全裝置。

冒險,并非在任何時候都是一種美德。埃里克·郝納根就認為,企業(yè)在安全管理上應(yīng)該更注重成功,而不是想當然地忽視風險,積極主動地引導各個業(yè)務(wù)環(huán)節(jié)向順利的方向發(fā)展,不要等待事故發(fā)生后“亡羊補牢”。

這或許也應(yīng)該成為產(chǎn)業(yè)應(yīng)用AI時的一種常識,而RealAI正在為我們補上這堂“常識課”。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2020-12-15
第三代人工智能基礎(chǔ)設(shè)施背后,是一次技術(shù)應(yīng)用的常識普及運動
比如利用“對抗樣本”技術(shù)打造一張假臉來欺騙移動支付的人臉識別模型,用以假換真的音頻進行財務(wù)詐騙,制作虛假的換臉視頻等等,針對這類新型安全風險,主流廠商的模式依然是傳統(tǒng)的“安全-I”思路,等到發(fā)現(xiàn)問題再

長按掃碼 閱讀全文