前端成像或?qū)㈤_啟“視覺2.0時代”

目前國內(nèi)AI視覺,幾乎都把焦點集中在對圖像的后端處理上。雖然算法足夠優(yōu)秀,但產(chǎn)品落地卻困難重重,原因是忽略了前端成像的重要作用。

“計算機(jī)視覺的前端成像技術(shù),背后是至少100億數(shù)量級的龐大需求!”

在日前剛結(jié)束的2018 AWE現(xiàn)場,身為眼擎科技CEO的朱繼志,滿懷激動的下了這么一個結(jié)論。

計算機(jī)視覺下一個技術(shù)拐點?前端成像或?qū)㈤_啟“視覺2.0時代”

朱繼志說話的語氣非常篤定,因為他們的eyemore X42芯片上市不到兩個月,就已一路高歌,初露崢嶸。而業(yè)內(nèi)對eyemore X42的看法是:這款全球第一款完全自主研發(fā)并正式對外發(fā)布的AI視覺成像芯片將“引領(lǐng)AI機(jī)器進(jìn)入視覺2.0時代”。

既然這款芯片目前在國內(nèi)甚至全球同領(lǐng)域內(nèi)屬于獨一份,好奇之下,我們不禁就和他多聊了幾句。

2018將是AI落地第一年,視覺市場規(guī)模潛力巨大

近幾年,人工智能的火熱是毋庸置疑的,上到國家兩次將其寫入政府工作報告,下到雨后春筍般出現(xiàn)的各種AI公司,所有這些都在昭示著一個嶄新的人工智能時代即將到來。

同樣的,在眾多的AI技術(shù)和應(yīng)用中,計算機(jī)視覺是最大的切入點和最具潛力的領(lǐng)域。畢竟,在我們獲取的全部信息中,視覺信息的比例達(dá)到了80%以上,因此,這將是一個前景無限的市場方向。

計算機(jī)視覺下一個技術(shù)拐點?前端成像或?qū)㈤_啟“視覺2.0時代”

計算機(jī)視覺的應(yīng)用領(lǐng)域幾乎涵蓋了我們所知的所有行業(yè),自動駕駛、金融風(fēng)控/交易、安防、新零售、智能手機(jī)、機(jī)器人......

國內(nèi)計算機(jī)視覺領(lǐng)域,商湯和曠世算是兩只最大的獨角獸,而他們于去年上演的融資競賽更是吸引了無數(shù)業(yè)內(nèi)人士的目光:先是2017年7月,商湯科技B輪融資4.1億美元,接著道10月31日,曠視科技Face++又宣布獲得4.6億美元C輪融資,隨后商湯即傳出接受阿里15億元投資的消息......

不用多說什么,僅從這一連串創(chuàng)紀(jì)錄的融資金額中,我們就可以感受到計算機(jī)視覺在AI界的熱度。

據(jù)相關(guān)研究報告預(yù)計,2018年全球計算機(jī)視覺市場規(guī)模將達(dá)到50億美元左右,而到2020年,中國計算機(jī)視覺市場規(guī)模將增長至725億元,未來前景極為廣闊。

“2016年是AI的概念年,2017年是demo年,2018年是落地第一年?!敝炖^志認(rèn)為,在未來的三年內(nèi),AI會很快的實現(xiàn)更為廣泛的落地應(yīng)用 。

“盡管現(xiàn)在整個產(chǎn)業(yè)很多技術(shù)都還有一些問題,但是其整體架構(gòu)已經(jīng)出來了?!敝炖^志說。

深耕前端成像領(lǐng)域,視覺2.0將為產(chǎn)業(yè)生態(tài)帶來質(zhì)變

眾所周知的是,目前國內(nèi)AI視覺領(lǐng)域的科技企業(yè),幾乎都在使用傳統(tǒng)攝像頭,都把焦點集中在對圖像的后端處理上。這就導(dǎo)致了一個尷尬的現(xiàn)象:絕大多數(shù)的AI公司算法足夠優(yōu)秀,但前端成像技術(shù)不過硬,導(dǎo)致實際落地時機(jī)器的“眼睛”不能適應(yīng)外界光線變化,識別效果差的尷尬局面。

計算機(jī)視覺下一個技術(shù)拐點?前端成像或?qū)㈤_啟“視覺2.0時代”

以自動駕駛汽車為例,在諸如車輛經(jīng)過隧道、對面駛來的車開大燈、夜間紅綠燈被道路景觀燈遮擋/干擾、夜色漆黑伸手不見五指等等異常情況下,往往會由于識別不準(zhǔn)而發(fā)生行車事故;

同樣,安防領(lǐng)域也會因為紅外黑白畫面和逆光的人臉發(fā)黑而無法識別、工業(yè)檢測中會有因為高光和反光導(dǎo)致無法檢測的情形等等。

“在復(fù)雜的光線環(huán)境下,AI機(jī)器獲取的圖像信噪比會受到極大影響,這是導(dǎo)致市場上AI視覺產(chǎn)品難以落地的最大原因?!敝炖^志認(rèn)為,要徹底解決這一難題,關(guān)鍵在于做好AI視覺產(chǎn)品的前端成像。

要克服AI機(jī)器在復(fù)雜光線下的圖像識別,就要首先解決圖像的獲取和前端處理。目前,業(yè)內(nèi)主流的解決方案有3種。

第一種就是我們所熟知的激光雷達(dá),在光線不好的情況下,通過主動發(fā)射激光并利用光線反射來獲取物體的圖像和三維信息。激光雷達(dá)的優(yōu)點非常明顯,它可以獲得極高的角度、距離和速度分辨率,同時也具有良好的抗干擾能力。

不過,受限于巨大的體積和昂貴的價格(各類32線、42線、64線等型號產(chǎn)品,價格動輒數(shù)萬數(shù)十萬甚至上百萬,雖然在持續(xù)降低,但依然不親民),它正在被邊緣化。正如馬斯克所說的,“激光雷達(dá)就像一根拐杖”。這個比喻很恰當(dāng),視覺能力不行的時候,需要依靠激光雷達(dá)這樣的拐杖,但拿著拐杖卻是永遠(yuǎn)跑不快的。

計算機(jī)視覺下一個技術(shù)拐點?前端成像或?qū)㈤_啟“視覺2.0時代”

剩下的兩種方案則都是在相機(jī)和成像處理的基礎(chǔ)上加以改進(jìn)。首先是陣列計算相機(jī)技術(shù),原理有點類似于蜻蜓、蒼蠅等多目昆蟲的復(fù)眼,通過數(shù)個、數(shù)十個甚至上百個相機(jī)組成的陣列,拍攝出擁有億級以上像素的動態(tài)圖像,為AI機(jī)器提供視覺支持。

目前,這一技術(shù)尚在研發(fā)階段,受限于體積和供應(yīng)鏈的制約,其產(chǎn)品也還處在落地的早期階段。

第三種方案,即是眼擎科技所做的,AI視覺前端成像引擎芯片eyemore X42。

據(jù)朱繼志介紹說,眼擎所做的這種方式,像人的眼睛一樣,核心是把人的眼睛視力弄好——解決AI機(jī)器在各種光線下自動適應(yīng)光線的能力。

“我們堅信,以后AI機(jī)器的眼睛應(yīng)該和我們?nèi)祟愐粯?,以后它們的視力一定不會比人眼差,甚至比人眼?qiáng)。這就是我們創(chuàng)業(yè)的初衷,我們要從根本上解決AI的視力問題?!?/p>

眼擎eyemore X42芯片,視覺2.0時代的AI機(jī)器成像引擎

關(guān)于AI視覺,馬斯克曾經(jīng)提出過“全天候被動光學(xué)圖像識別”的概念,就是要解決復(fù)雜光線,包括弱光、逆光、反光下的精準(zhǔn)識別,這也是AI機(jī)器要解決的剛需問題。眼擎科技把這種自動適應(yīng)光線的視覺,稱之為“視覺2.0”。

計算機(jī)視覺下一個技術(shù)拐點?前端成像或?qū)㈤_啟“視覺2.0時代”

2018年1月19日下午,在2018極客公園創(chuàng)新大會上,國內(nèi)AI視覺成像芯片科技公司眼擎科技正式對外發(fā)布“eyemore X42”芯片。據(jù)悉,eyemore X42是全球第一款完全自主研發(fā)并正式對外發(fā)布的AI視覺成像芯片。

數(shù)據(jù)顯示,eyemore X42成像引擎芯片,擁有比傳統(tǒng)ISP高20倍的計算能力,采用了20多種新的成像算法,集成了超過500種不同場景下的復(fù)雜光線數(shù)據(jù)。

eyemore X42芯片有三個特點:首先它是一顆獨立成像芯片。目前各種相機(jī)、智能手機(jī)、攝像頭里都有成像功能,但都是被集成在主芯片里面的,只能叫集成成像。而eyemore X42整顆芯片只專注于一件事情,那就是成像。這有點像Intel的CPU帶了集成顯卡功能,但我們知道,只有像NVIdia的專用GPU才一定是未來的主流。

第二個特點,eyemore X42拋棄了傳統(tǒng)的ISP成像架構(gòu),采用了全新的成像引擎架構(gòu),來解決復(fù)雜光線下的成像難題。而傳統(tǒng)的ISP,從架構(gòu)上來講,無論如何也無法完美解決復(fù)雜光線的問題。

計算機(jī)視覺下一個技術(shù)拐點?前端成像或?qū)㈤_啟“視覺2.0時代”

第三個特點是,eyemore X42提供了豐富的API接口,讓做后端圖像識別的算法工程師,可以很方便的控制成像的過程。

eyemore X42的性能有多強(qiáng)大?也許其發(fā)布會當(dāng)天現(xiàn)場演示的“微光/暗光環(huán)境下實現(xiàn)精準(zhǔn)識別”的實驗,就能很好的說明問題。

“如果你問所謂的微光會微到什么程度?這個很簡單,我們有一個基本的標(biāo)準(zhǔn),就是和人眼比,我們就是要超越人眼”,朱繼志說到。

人眼的視網(wǎng)膜里有大約1.25億個視桿細(xì)胞和視錐細(xì)胞,它們扮演感光器的角色。其中,視桿細(xì)胞感知光線的明暗,而視錐細(xì)胞負(fù)責(zé)感知顏色。到光線的明暗達(dá)到一定程度(過亮或過暗)的時候,視錐細(xì)胞就停止工作,轉(zhuǎn)而切換到視桿細(xì)胞,因此這時人眼就只能感受到黑白的灰度,暫時失去了感知顏色的能力。

計算機(jī)視覺下一個技術(shù)拐點?前端成像或?qū)㈤_啟“視覺2.0時代”

“我們現(xiàn)在做的事情是比人眼18個DB的八倍,在那種情況下。所以,在人眼看不清顏色、只能看清輪廓的情況下,我們能夠精準(zhǔn)的還原顏色。”

人對世界顏色的感知能力是有限的,雖然理論上說人的眼睛可以分辨出出高達(dá)1200萬種顏色,但實際上遠(yuǎn)遠(yuǎn)低于這個數(shù)字。但機(jī)器能不能分辨出一百萬種、一千萬種甚至更多種顏色呢?這完全有可能。

我們很難想象的到,一個機(jī)器超越人眼之后可以做些什么。高維視覺和低維視覺相比,具有無可比擬的優(yōu)越性。

比如看到一朵花,我們看到的只是白色的,但機(jī)器看到的是五顏六色的,因為可能有100種白。這就是機(jī)器進(jìn)步的核心能力,能夠看到更多的信息,所以能夠給出更精準(zhǔn)的反饋。

AI實體化之下,5年內(nèi)視覺芯片將有100億數(shù)量級需求

隨著AI技術(shù)的進(jìn)一步發(fā)展和應(yīng)用的持續(xù)擴(kuò)大,各種由AI芯片驅(qū)動的機(jī)器/設(shè)備持續(xù)出現(xiàn),使得AI已經(jīng)越來越呈現(xiàn)出實體化的趨勢。

“得益于人工智能的廣泛應(yīng)用,目前已經(jīng)形成了一個很大的技術(shù)生態(tài)。在這個龐大的生態(tài)海洋里,AI機(jī)器這個新的物種已經(jīng)開始進(jìn)化出來,這些AI機(jī)器將會迅速進(jìn)入我們的現(xiàn)實世界。”朱繼志說。

AI機(jī)器區(qū)別于一般機(jī)器的最大特點是,它不是一個普通的工具,它自己有大腦。我們可以把自動駕駛、機(jī)器人、包括工藝檢測設(shè)備、智能的安防攝像頭/門禁/鎖具等等,都看做一個AI的機(jī)器。

另一方面,從信息時代發(fā)展到如今的AI時代,競爭核心已經(jīng)從加工制造工藝/硬件設(shè)備性能的競爭,升級為算力和算法的比拼。由此,作為算法和算力承載的芯片,就成了當(dāng)今時代最大的競爭焦點。

而AI機(jī)器需要數(shù)量更多的、性能更強(qiáng)大的芯片,即各種AI芯片。

“AI機(jī)器這個新物種,就是被各種芯片所驅(qū)動的。在比拼算法和算力的時代,一個AI機(jī)器所需要的芯片的數(shù)量,也就是芯片的密度,會呈現(xiàn)數(shù)量級的增長?!?/p>

以目前突然躥紅的比特幣為例,其挖礦的設(shè)備——礦機(jī),就是芯片的需求大戶。在一個普通的礦機(jī)里,就會有幾十到數(shù)百顆處理器芯片,而這個在以前是不可能想象的。

除此之外,基于萬物互聯(lián)場景下的自動駕駛汽車,它的視覺系統(tǒng)、路徑規(guī)劃系統(tǒng)、車內(nèi)溫度調(diào)節(jié)、對外通訊通信等等,每一個獨立的處理單元都至少需要一顆芯片;同樣的還有各種機(jī)器人、各種無人機(jī)、安防監(jiān)控、無人超市......

計算機(jī)視覺下一個技術(shù)拐點?前端成像或?qū)㈤_啟“視覺2.0時代”

朱繼志認(rèn)為,以后一臺AI機(jī)器對各種各樣的芯片的需求,會有成百上千個。在視覺2.0的內(nèi)因驅(qū)動下,各類AI芯片的大規(guī)模應(yīng)用時代已然來臨,AI機(jī)器這個新物種,將為AI芯片開辟一個龐大的新增市場。

AI機(jī)器對視覺器官的需求量同樣是巨大的,由此AI視覺芯片的供應(yīng)量也將隨之激增。

在汽車領(lǐng)域,一臺自動駕駛的汽車,將會安裝10個視覺攝像頭;在安防領(lǐng)域,所有的監(jiān)控攝像頭,都面臨著人臉識別的升級;在工業(yè)設(shè)備領(lǐng)域,通過視覺的方式進(jìn)行產(chǎn)品的檢測,將會成為每一條產(chǎn)線的標(biāo)配,以后每一條產(chǎn)線上都將配置超過10個智能攝像頭;在無人零售,如Amazon go正在把關(guān)注的重點從商品的標(biāo)簽遷移到每個顧客的消費習(xí)慣,它的每家無人零售店都配置了超過100個以上的攝像頭。

據(jù)不完全預(yù)測,未來5年內(nèi),各種各樣的AI機(jī)器將會帶來100億數(shù)量級的視覺設(shè)備需求,而視覺芯片的需求量將高于這個數(shù)字。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-03-22
前端成像或?qū)㈤_啟“視覺2.0時代”
目前國內(nèi)AI視覺,幾乎都把焦點集中在對圖像的后端處理上。雖然算法足夠優(yōu)秀,但產(chǎn)品落地卻困難重重,原因是忽略了前端成像的重要作用。

長按掃碼 閱讀全文