湯曉鷗,商湯科技創(chuàng)始人,中國科學院深圳先進技術研究院副院長、集成所多媒體中心主任、香港中文大學教授、工程學院副院長,麻省理工學院博士,其發(fā)明的人臉識別技術(Gaussian Face/Deep ID)成為世界上第一個超過人眼識別能力的計算機算法。
湯曉鷗,商湯科技創(chuàng)始人,中國科學院深圳先進技術研究院副院長、集成所多媒體中心主任、香港中文大學教授、工程學院副院長,麻省理工學院博士,其發(fā)明的人臉識別技術(Gaussian Face/Deep ID)成為世界上第一個超過人眼識別能力的計算機算法。 大家中午好!非常榮幸能夠與這么多業(yè)界精英同臺演講。 三年前,我常常跟投資人、跟一些企業(yè)家講人工智能、講深度學習,但那個時候大家還不理解,也都不太關心。后來,谷歌推出了阿爾法狗,人工智能就火了。除了受阿爾法狗事件的影響之外,也得益于美國五大人工智能巨頭形成的聯(lián)盟。中國在雙創(chuàng)活動中也選擇了兩家人工智能的領軍企業(yè),一家是百度,另外一家是商湯,這是兩家中國智能的代表。所以,張維總提到了高估值的商湯,我認為并不高,應該是低估值的商湯。 但是,現(xiàn)在大家都在講人工智能,給我的感覺是,人工智能在中國有點過熱了,所以我今天想為大家潑潑冷水。 一、人工智能的作用是有限的 人工智能是什么呢?應該說,它跟A股很像。如果說上海是中國的A股市場所在地,那么三年前,人工智能相當于A股市場的三千點以下,沒有人買。而今年,這個指數(shù)飆到了六千點。在這種情況下,大家是買還是不買呢? 有的時候,我們會把一些事看得太過神奇。這與彭劍鋒教授所講到互聯(lián)網(wǎng)的發(fā)展是同樣的道理,人工智能也不過是一個輔助性的工具,并不是事情的全部。這個工具本身并不能產(chǎn)生獨立的價值,而一定是在跟各個行業(yè)相結合以后,為各個行業(yè)生產(chǎn)效率的提升來服務的。我認為,飯要自己親自吃,廁所也要自己親自上,鍛煉身體也一定要親自去。我們不能過于依賴人工智能,不能把什么事都交給它,它的作用畢竟還是很有限的。 十年前,我的實驗室做出了人臉識別系統(tǒng),里面涉及到一些圖像處理、特效處理、自動分割以及交互等內容,也越來越好玩。 圖像處理源于2008年的北京霧霾。當時正在召開奧運會,因為霧霾的原因,新聞圖片發(fā)出去會令人感到尷尬。所以,我們定制了一些功能,用了一些算法,可以把圖像里的霧去掉。我們這次會議的地點在三亞,在這樣的碧海藍天之間,這個技術是用不到的。但今天的題目是迷霧航行,雖然我們不再需要去除新聞圖片中的霧霾了,但就目前大家對人工智能的認識來看,我覺得還是把認識的“霧”去掉,然后航向才能明確。 那么,在人工智能方面怎么去霧,怎樣才能真正踏踏實實地做點事呢? 我們知道,霧的濃度和距離是成比的。所以在新聞圖片中,我們先是把三維算出來,然后把霧去掉,并且還能把背景模糊化。最后,一張非常糟糕的照片被我們做出了單反的效果。這一技術所形成的文章得到了2009年的最佳論文獎,我還是蠻驕傲的。但是,這一技術的產(chǎn)生,是在2011年以前,有我們十幾年的積累做基礎,也是在深度學習這個算法產(chǎn)生之前的事。我想說的是,和所謂的人工智能一樣,這些技術都不是一夜之間發(fā)生的,而是一個長期艱苦積累的過程。并且是我們所積累的幾百項工作中比較出色的部分。 二、人工智能與深度學習 1、人工智能“簡史”
目前,人工智能目前發(fā)展到了什么程度呢?根據(jù)我二十年來做的工作,我總結一下人工智能發(fā)展的簡單歷程。 在國際范圍內,人工智能最早誕生于1956年。從那以后,人工智能的發(fā)展勢頭不斷起起落落,也曾喧囂,但最終都歸于平靜,并沒有真正發(fā)掘出對人類社會生活有益的功能。但是在2011年,誕生于2006年的“深度學習”的算法產(chǎn)生了效用。從那時開始,人工智能開始具體應用于很多的單向領域或者說具體的行業(yè),并且開始超越了人的水平。 對于人工智能的發(fā)展,幾個主要的“玩家”起到了決定性的推動作用。在軟件方面,谷歌和Facebook進行了大量的投入,很多創(chuàng)新都是從這兩家公司產(chǎn)生的。為什么是它們?因為它們有大量的數(shù)據(jù)要處理,它們有剛性的需求。同時,它們也有大量的資金投入。谷歌去年一年在人工智能領域的研發(fā)投入是120億美金。阿爾法狗幾次挑戰(zhàn)李世石,還有相應的宣傳,都是大量投入的結果,并不是簡單的炒作就能夠達成的。同時,F(xiàn)acebook也在這一領域做出了大量的投入。 在硬件方面,包括深度學習的算法、計算平臺幾乎都是在Spotify的GPU上做起來的,它們相當于取代了當年vpail的組合。
2、深度學習引擎
如果說人工智能是一條紅線,那么,深度學習在某種意義上來說就是這個紅線的引擎,而大數(shù)據(jù)就是它的原料。目前,人工智能的大部分技術,都是由深度學習算法來支撐的。 深度學習發(fā)展出來的時間很短。在2011年,它跟微軟進行了合作,在語音識別技術上取得了重大突破。當時,微軟首先推出的是應用方面的驅動。在那以后,因為有了多年大數(shù)據(jù)的積累,又組織了更多在語音識別方面有相當實力的人,所以就有了更加重大的突破,相當于在一年之內做了十年的事。
3、在垂直領域落地
我們從原來人腦設計參數(shù)的人工智能轉變?yōu)橛纱髷?shù)據(jù)驅動的人工智能,實際上是在某些領域取得的技術突破,主要是在某個特定的領域超過了人。比如說,最早用深度學習做出來的語音識別系統(tǒng)大獲成功。在人臉識別、圖像分類、阿爾法狗、自動駕駛、醫(yī)療技術等幾個方面都有著很大程度的突破。這些學術方面的突破,使計算機超越了人類以后,就相當于在垂直領域邁過了一道檻。而這道檻之后,人工智能技術終于可以落地了,終于可以替換一些人工成本,來幫助產(chǎn)業(yè)提高效率了。 所以,我們看到的人工智能涉及到了很多具體的領域,有的與產(chǎn)業(yè)結合得很好,有的則剛剛開始,當然也有一些完全是出于炒作??傊菂⒉畈积R,或者說是各有千秋。
4、圖像:眼睛的智能
目前,人工智能主要有三個戰(zhàn)場:一個是語音識別,相對來說比較成熟;它之后是自然語言,在這個領域還有很多事要繼續(xù)研究,非常難;現(xiàn)在的主戰(zhàn)場是圖像,就是眼睛的智能。怎樣用眼睛識別出環(huán)境與物體,這也是非常困難的事。 2012年,Hinton在圖像識別方面也取得了重大突破。在此之前,Viewdle擁有這個領域最大的訂單,但Hinton的成果一下把前人甩出了10年的距離,并在當時引起了很大的轟動。 在此之后,僅僅過了4個月,谷歌花了5千萬美金收購了它。這個驚人的舉措令我們認識到,人工智能開始值錢了。接著,谷歌又花了6.6億美金收購了一家公司。這家公司只有12個人,沒有什么特別的產(chǎn)品,主要是研究如何用深度學習來下棋。當時我們覺得它的價格過于昂貴了,但實際上這個公司誕生了很多算法,所以僅僅過了一年多以后,他們用阿爾法狗下了一盤舉世震驚的棋,一下子就把投入的錢賺回來了。 2013年,F(xiàn)acebook聘請了另外的團隊,在紐約建立了人工智能實驗室。后來,通用、因特爾等大企業(yè)也紛紛進入到這一領域,并且也開始收購一些公司。 三、人臉識別技術——華人的成就 在這期間,我們做了幾件比較有影響力的事。2014年,我們首次突破了人臉識別技術(ImageNet,一個計算機視覺系統(tǒng)識別項目,是目前世界上圖像識別最大的數(shù)據(jù)庫),在2015年的時候取得了全球第一的成績,2016年在五項里取得了三項世界冠軍。與阿爾法狗一樣,我們也做到了機器的算法超過了人類,在某個特定的領域可以把人打敗。 這其實并不神奇,因為汽車早已在賽跑的領域打敗了人類??梢哉f,在某個特定領域打敗人類不是什么了不起的事。但是人們普遍認為,人工智能就是機器人,它可以超越人腦并控制人類。但事實上,這是非常遙遠的事情。我們真正在一線做人工智能研發(fā)的人是不敢這么想的,只是致力于讓機器做事先設計好的特定任務,絕不會有另外的任務附加給它。我們經(jīng)常開玩笑說,李世石在跟阿爾法狗下棋之前,也許早已在賭博公司下了賭注,賭自己輸。但是,阿爾法狗想不到這一點,所以盡管它以為自己贏了,但實際上它輸了(笑)。 深度學習有三個大核心要素:一是深度學習的算法設計;二是高性能的計算平臺;三是大數(shù)據(jù)。
1、艱難而輝煌的戰(zhàn)績
2011年,我們實驗室的幾十個博士、教師開始研究深度學習。這是學術界最早涉獵深度學習的華人團隊。因為做得早,所以在2011—2013年間,在人工計算機視角最頂級的兩個會議上,全球貢獻的29篇涉及到深度學習的文章中,有14篇出自我們的實驗室,占了全球一半的數(shù)量。2014年,我們又打敗了Facebook,在人臉識別技術方面超過了人眼識別。當時,一般人眼識別的準確率是75%強,但Facebook做到了97.3%。但我們的團隊連續(xù)做了四五個算法,最后從97.4%一路做到了99.55%,在與Facebook和谷歌的競爭中取得了好成績。 2014年9月份,我們又參加了一個世界級的大賽,與包括百度、谷歌、牛津、微軟在內的37個世界頂級團隊競爭,取得了全球第二的成績,谷歌是第一。其實在競賽中,我們做到了的數(shù)據(jù)高于谷歌發(fā)布的成績,所以只能屈居第二。 2015年,組委會在比賽中加入了視頻。在視頻的檢測中,我們取得了全球第一的成績。 2016年,我們在五項比賽里取得了三項第一名。
2、我們自己的開源系統(tǒng)
這個時候,我們其實在做一個“大腦”,這是一個非常困難的任務。深度學習跟人的大腦有相似之處,越難的任務會做得越好。比如說,我們要從幾千個瓶子里識別出其中的一個,這個算法肯定做不好。但如果能做出一千類物體的識別技術,把它做成最好的大腦,這時再回來識別瓶子,就可以做得很好。ImageNet就是對一千個問題進行了分類。跟人腦的相似之處在于,如果一個人希望在未來搞投資,那他肯定不會從幼兒園到小學只學投資這件事。人在小的時候,數(shù)學、物理、化學、歷史都要學習,只有讀到博士的時候再去做具體的任務。所以,一定要有把大腦訓練聰明的過程。 大腦的核心就像是一套操作系統(tǒng),它是一個開源系統(tǒng)。谷歌和Facebook都有它自己的開源系統(tǒng)用來做基礎應用,而且有一些還是免費的?,F(xiàn)在人工智能、深度學習的門檻變得比較低,就是因為它有了開源系統(tǒng)。有了這個系統(tǒng),隨便找?guī)讉€懂點技術的人,利用這套系統(tǒng)就可以訓練出一個模型,可以做一些應用。 但是,這里存在一個問題。比如你要做的是安卓系統(tǒng)還是在安卓系統(tǒng)上寫一個APP?我們經(jīng)常會把這兩件事混為一談。比如有的人能做幾個APP,演示出來就被說成是人工智能,但事實上它們是不同的。而且,我們做出來的東西是不是好,都是要受這套開源系統(tǒng)的控制。 我們在2011年的時候還沒有開源系統(tǒng),所以要努力學習,從頭做起。這些年來,我們成功開發(fā)了自己的這套系統(tǒng),雖然沒有完全對外開放,但我們自己和一些合作伙伴都在用。 今年開始,我們開始用這套系統(tǒng)訓練ImageNet。它是一個神經(jīng)網(wǎng)絡,有點像DNA的結構。在2012年,我們做到了5層,谷歌打贏我們的那場比賽用的是22層,去年微軟做的是152,而用我們的系統(tǒng)訓練出來的是1207層。 在2013年的時候,我們訓練網(wǎng)絡的檢測準確率只有22%,2014年做到了53%,后來又發(fā)展到了62%,現(xiàn)在我們的最好成績是66%??梢钥吹?,以前,我們最好的進展情況大概是一年一個點,這樣的速度就完全可以發(fā)論文了。但是經(jīng)過了這三四年,從22到66,我們已經(jīng)翻了三倍,這就是進展的速度。跟以前不一樣的是,我們在單向任務上也是突飛猛進的。
3、自己的操算平臺
訓練這么復雜的一個網(wǎng)絡需要一個大的平臺。谷歌和Facebook的開源系統(tǒng)并不支持這個大平臺的運算,所以我們要做自己的操算平臺,并且要與谷歌的機器連起來。我們在香港有一個操算集群,在北京有三個,只有在這樣的大集群上才能真正的訓練出核心的大腦和核心的網(wǎng)絡。 在這方面,我們主要的合作伙伴有兩家,一家是NVDIA。我們幾乎所有的智能學習都是基于它的CPU在進行運算。很榮幸,這家公司把我們當成了跟谷歌、Facebook一樣級別的戰(zhàn)略伙伴。另一家是用一些高速的網(wǎng)絡把這些機器連起來,和我們也形成了戰(zhàn)略合作伙伴關系。目前,我們正與這兩家公司共同研究下一代產(chǎn)品。
4、大數(shù)據(jù)庫
最后一個是大數(shù)據(jù)。有了模型,有了平臺,還需要海量的數(shù)據(jù)。在這方面我們與300多家企業(yè)進行了合作,有18類、十幾億的各種圖像和多媒體的數(shù)據(jù)。同時,我們也在建立一些大型的學術方面的數(shù)據(jù)庫,定義了很多新的研究方向和新的課題,包括人臉數(shù)據(jù)庫、車型數(shù)據(jù)庫等等。 比如車型數(shù)據(jù)庫,在我們進入這一領域之前,學術界只有10幾種車型,而我們定義了上千種。對人群定義了94種特性。還有各種服裝的數(shù)據(jù)庫也是我們定義出來的。以前,我們看別人的文章,跟著別人的文章做,現(xiàn)在我們自己做文章,做專利,也在參與做標準。并且我們又在開辟新的方向,提出新的問題,定義新的數(shù)據(jù)庫,定義新的玩法,這實際上是在引領新的學術研究方向。
5、人工智能的十大先驅
在這些輝煌的戰(zhàn)績背后,是我們實驗團隊的艱苦付出。以圖像放大,并處理清晰這件事為例,大家不妨感受一下,人工智能這件事到底有多難。 比如,我們在機場拍到的罪犯的照片很模糊,經(jīng)過超分辨率處理變成清晰了以后,可以輔助警方把他給抓住。我們不但要把圖片放大,并且還要使模糊的照片變得清晰、漂亮。在已經(jīng)做十幾年之后,我們仍然覺得做不到。因為已經(jīng)有人做得很先進了,但他們也沒有做到。最初,我們用當時的算法得到的結果是令人失望的,放大了以后效果很差。但是,我們仍然在人臉檢測、高分辨率、人臉的特性分布等所有方面進行了大量的研究,每一項都有專門的文章。最近兩年,我們有多篇文章從這一方向闡述,并拿到了世界頂級的學術會議上。從學術的角度來講,這些都是很大的進步,但是花了這么大的功夫,也仍然有太多太多的空間有待我們去進步,還有很多的技術沉淀,有很多工作要做。 剛剛我們又投出了幾篇把一張小圖變成高清大圖的文章,因為這里面的應用前景非常廣闊。我們知道,傳輸一張高清大圖的速度很慢,那么我可以把它壓縮得非常小,傳過去以后,可以由接收端自行放大,并且得到非常高清的效果。日本有人用我們的技術做了一個很好玩的應用,叫做WAIFU2x,翻譯過來就是放大兩倍,就是把普通照片放大兩倍的意思,并且變得更加清晰。 但更重要的是,諸如遙感衛(wèi)星監(jiān)控,還有一些軍事上的偵查,都可以應用這一技術。 在沒有高分辨率技術之前,一般系統(tǒng)的分辯率都非常差,但用了人臉定位信息以后,我們可以實時并且非常準確地把人臉上的點定位出來,然后進行多集放大,每一集放大一點后再定位,然后放大一點,再定位,最后取得了非常好的效果。最初,我們在全球第一個做到了5點深度學習,后來做到了106點定位。現(xiàn)在,業(yè)界有用很多人臉跟蹤的應用,據(jù)說直播軟件背后都是這一技術。同時,我們在實際偵查圖像上進行了應用,基本可以把人看清楚了。這在以前是完全做不到的。 人工智能不可能橫空出世,說出來人們也不會相信。我們之所以能夠做這些事,是因為我們有一定的積累。我們在深度學習之前已經(jīng)有了很長時間的積累。比如,從2004到2008年間,我們在兩個頂級學術會議上的文章數(shù)量,其中的一個實驗室就做了57篇,而NIT一共有91篇,劍橋是30篇,可以說我們跟這些學校打了一個平手。前年也是在這兩個會議上,我們發(fā)出了24篇文章,谷歌是38篇。要知道,谷歌是擁有6萬名員工的大公司。去年,還是這兩次會議,我們又發(fā)表了42篇文章,超過了谷歌前年的水平。按照這個標準,我們頂多落后于谷歌一年。 在人工智能領域,全世界有600個國際會議。在其中排名前五的會議上,從我們實驗室畢業(yè)的學生拿到了54個最佳論文獎,包括剛才講到的去霧的算法。要知道,這些會議每次從一千多篇文章里只會選出一篇,而且是雙盲選擇,與人無關,只與文章本身有關。這跟中國的一些獎項的評選完全是不同的運作方式。 我們的這些成績,也得到了國際上的承認。NVDIA去年評選出了人工智能的十大先驅,我們很榮幸地位列其中,也是亞洲區(qū)唯一入選的實驗室。跟我們同時入選的另外9家都是計算機視角鼎鼎有名的機構,包括NIT、斯坦福等等世界級的百年名校,還有深度學習的“四大天王”、Facebook、谷歌的一些元老等等。與之相比,香港中文大學只是一所有著50年歷史的名校,而作為唯一一個比較年輕的實驗室,我們也不是靠學校的名氣入選的。 三、人臉識別技術在產(chǎn)品中的應用 以上是我們的一些學術成績。但是,如果這些成果不能落地,最終不能進入到產(chǎn)品階段,不能夠讓大家用起來,那就成了紙上談兵。那么,我們的成果怎樣落地,怎樣能夠在產(chǎn)品中得到應用呢?
1、 多個應用方向
平安城市與智慧商業(yè) 首先是平安城市。我們的人群監(jiān)控系統(tǒng)能夠時實分析出整個場景中有多少人,每一點上人的密度,每個進出口的人的數(shù)量,或者是各種逆向流動等特殊情況,都能夠監(jiān)控。大家都知道上海外灘發(fā)生過大規(guī)模的踐踏事件,假如外灘有我們這套系統(tǒng),那次悲劇完全是可以避免的。 還有人臉識別技術,在各種場景下,比如地鐵口、火車站等,完全不需要指令就可以進行高精度的人臉識別,這是“靜場景”的人臉識別。除此之外,我們還可以“抓人”,在百米之外看到目標,能夠把他拉近以后進行識別。也能夠從百米之外將車輛拉近,識別出它的車牌、車型等等。這是對人群的遠距離監(jiān)控。 在對視頻結構化以后,我們在每個城市都可以有上百萬的監(jiān)控攝相頭,但沒有那么多的人力來篩選。那么,我們可以通過視頻對人、車和非機動車進行監(jiān)測和標注,包括對人的性別、體貌特征、車型、車牌、顏色等等進行監(jiān)測。它可以自動監(jiān)測出在什么時段,在什么位置,一個有著什么樣具體特征的人出現(xiàn)等等信息。 智慧商業(yè)與此類似,就是商場各個角落的情況,都可以做到實時監(jiān)控。
自動駕駛與人臉檢測定位系統(tǒng) 我們的另一個方向是自動駕駛。現(xiàn)在自動駕駛炒得非常熱。但是,做出一個能在路上跑的車,這是汽車廠商一百年前就做的事,不屬于人工智能范疇。我們要做的,是支撐這些新功能背后的核心技術。在自動駕駛里,有30項基本技術,每一項都是有一定的門檻,需要很多人付出卓絕的努力。 比如說物體檢測功能,對任何物體進行跟蹤檢測,是我們在2015年取得最好成績的那次競賽的參賽項目。這個技術能夠讓我們對街道上所有的機動車、非機動車和行人進行時實跟蹤監(jiān)測。同時,我們可以監(jiān)測出馬路上的人在往哪個方向看,有沒有注意到車來的方向。還可以監(jiān)測車道線,并且不受大霧、大雨等極端天氣的影響。 還有場景的感知??臻g在什么地方,所有物體的分割、分類都可以進行實時感知。包括對司機的監(jiān)測等等。當然,這不是全自動駕駛,而是輔助駕駛。是將人的行為表現(xiàn)反饋回來,通過人與汽車面板的交互、協(xié)同來完成駕駛任務。
在手機中的應用 i.手機相冊 如果用戶手機中有一張模糊的照片,用我們的深度算法,可以把暗光增強,把非常小的圖像放大,使它變成一張很清晰的圖像,甚至可以識別出圖片所中一些細小又模糊的文字。包括圖像的顏色恢復、先拍照后聚焦等等功能。這是一件很神奇的事,用戶可以先拍一張照片,然后再選擇在哪一個點聚焦。還可以用濾鏡把圖片變成各種各樣風格的畫面。這是我們兩年前就做出的技術。同時,我們也是第一個用深度學習做圖像處理,并且第一個把它真正產(chǎn)品化的機構。 可以說,所有客戶端的相冊都有我們公司所提供的相冊管理服務。比如小米手機里就有我們的相冊管理軟件——寶寶相冊,這是小米的一個亮點。 ii.換臉術 在華為的相冊管理里,人臉和40類場景也是我們提供的。這是一個很好玩的應用特效,可以將照片上的人臉換成另一張臉。 iii.特效技術 與換臉相類似的技術是做各種各樣的特效。facv和各種直播的特效,以及韓國的cno的背后,都有我們的支持,秒拍、花椒、獵豹、移動都是我們的客戶,加起來大概有上百家。在大家經(jīng)??吹降奶匦к浖澈?,也是我們的 在VR游戲、電視遙控等領域,都有我們的應用。遠程教育也是我們的應用之一。在遠程教學中,教師可以觀察到學生的聽課狀態(tài)。
線上空間與手機軟件
在線上我們也有用武之地。比如應用于借貸寶,還有跟中國移動的獨家合作。目前,在中國移動買一個手機卡需要進行身份的識別和認證,這方面我們在聯(lián)合開發(fā)其它產(chǎn)品。 樂視上網(wǎng)也采用了人臉識別系統(tǒng)。手機也可以嵌入我們的系統(tǒng)。 還有一些技術未必馬上就能夠應用于產(chǎn)品,但是未來必然會用到,它們也是我們開辟的新的研發(fā)方向。比如說,我們用兩個人上傳到網(wǎng)絡的照片可以分析出這兩個人的表情、距離、方向,彼此之間的關系是信任的,還是依賴的。這些技術的用處是什么呢?其中的一個應用是大數(shù)據(jù)征信。比如我發(fā)現(xiàn)你跟一個非常高端的人士有一張合影,你的信譽值就有可能會提高。而如果你跟罪犯有著密切的關系,那么如果我是銀行,是不會把錢借給你的。 我們也可以用VDIA做這件事,用每一幀圖像分析出兩個人的關系。當然了,不是所有的問題都能夠得到解決,比如說,我兒子跟這個玩具小娃娃的關系,我們怎么分析?對6個月大的嬰兒怎樣去分析?我想人工智能還不能完全理解這其中的奧秘。 但是,通過對視頻的分析,我們可以分析出某一個情景是不是災難,從而對其進行預警。
2、一個技術核心
所有這一切,聽起來有十幾個方向,但其背后的技術都是相通的,都是整個人體的交互。它主要還是在用一個核心的大腦在與各個行業(yè)進行結合,這是一個高門檻的技術。 如果你玩過微軟的TNET(音),就知道可以用人控制這個游戲。但是,TNET是一個深度攝相頭,兩個攝相頭加上一個VC,價格大概在幾百美元。我們現(xiàn)在做的是用一個一、二百美元的單向攝像頭就可以實現(xiàn)這個功能,并且有著廣泛的應用場景。比如在智能家居、游戲等領域,我們都是第一個做出時實效果的機構。
3、與2B企業(yè)的合作空間
目前,有好幾家廠商,包括OPPO、360、微博相冊等等已經(jīng)采用了我們的技術。前段時間,有一個公司做的to C產(chǎn)品跟我們的技術有些類似,但實際上,我們并不做C端,而是跟to B的企業(yè)合作。 我們自己并不做手機,也不會親自做攝相頭,而是與這些產(chǎn)業(yè)的領袖、產(chǎn)業(yè)中最優(yōu)秀的企業(yè)進行戰(zhàn)略合作,然后把我們的技術植入到對方的產(chǎn)品中去。 (文字整理 /編輯 李澤慧)
|
|