按照這個計劃,顧誠估計他回國後全面推進“YY網”和“人人網”的開發計劃、四季度十一黃金週前後上線網站,基本上就可以卡住幾個關鍵時間點。
除了歷史上FACEBOOK和谷歌已經幹過的事情之外,“深度學習”在顧誠手中自然還有他獨到的用處,那就是“使用者偏好分析”。
這事兒在平行時空的起步,比前兩項應用要晚得多,但顧誠深知那並不是這件事情技術上比前兩項難多少,而是因為平行時空最初接觸深度學習型人工智慧的巨頭們,統統都沒有涉獵娛樂/內容產業。
換言之,如果第一批接觸深度學習人工智慧的換成亞馬遜公司,“使用者偏好分析和推送”肯定會變成第一優先順序的存在。
顧誠的生意,和亞馬遜的重合度非常高,而且他是個知其然知其所以然的人,當然不會放過這一領域的佈局。
只是這塊工作量比較大,一方面要堆疊演算法,另一方面也要讓把目前市面上已有的大量文娛作品進行標籤化分類和資料標識、將來再長年累月一步步細化細分資料表示。
按照最樂觀的估計,“使用者偏好分析和推送”至少要在實驗室裡躺兩三年,才能談試運營的問題。
幸好顧誠錢多,做得起這種長線投資。
……
在多倫多盤桓了三四天,挖夠了人之後,顧誠就準備驅車回波士頓,了結一下跟扎克伯格的賭約。
然而算算日子,跟扎克伯格的一週之約還沒到期,顧誠只好先去紐約休假兩三天。
以他這麼忙的身份,就算在紐約也不會很閒,至少也要電話遙控一下生意。
這不,他人還在多倫多的時候,就把公司的準CFO柳倩從紐約發配去了舊金山,讓她在矽谷投資一塊辦公樓地皮,在那兒註冊一間YY子公司、同時留心一家成立還不到兩年的初創公司,嘗試一下收購。
被顧誠盯上的這家公司,便是後來在05年拿出了世界三大物理運算引擎PhysX的AGEIA公司。這家公司歷史上應該於08年被英偉達(NVIDIA)收購,後來成就了英偉達的完全體GPU大業。
顧誠要搞深度學習型人工智慧,要搞卷積神經網路,挖一家這樣的公司就非常有必要。
就如前幾天顧誠和史蒂芬.庫克教授談到的那樣,任何“神經網路”和傳統計算機網路最大的區別,是“沒有中樞,每個神經元節點完全平等,徹底雲分佈”。
所以在執行“神經網路”相應的運算時,人類傳統的電腦CPU效率其實並不是很高,無論英特爾還是AMD。
因為稍微懂點計算機常識的人都知道,CPU是“時分佔用”的計算硬體,通俗的說,一個4G主頻的CPU,只是一秒鐘能夠運算40億次,但每一瞬間依然只能計算一次,INDOS的“多工處理系統”,本質上只是“把CPU的時間佔用細分,每個後臺程式在每一秒裡佔用那麼幾微妙”來實現的。
比如一個人打CS遊戲的時候,後臺開了個QQ。執行QQ需要佔用“每秒1億次運算”的CPU處理資源,那麼實質就是“4G主頻的CPU每秒分出25毫秒處理QQ”,而不是物理意義上的“同時處理CS和QQ”。
這種只能單核運算的模式,註定了不適合未來卷積神經網路越來越多的“併線操作”。所以06年當卷積神經網路的曙光出現之後,平行時空的英特爾公司也不是沒有意識到這一點並且掙扎。只不過英特爾公司最初的掙扎方式是“開發多核CPU”。
這才有了後來人們熟知的“英特爾酷睿雙核/四核”。
可惜歷史最終證明,CPU再多核,要滿足浩如煙海的併線操作,也是杯水車薪。
要徹底滿足神經網路的併線胃口,還是得靠最初作為顯示卡物理運算用的GPU。
這才有了後來人工智慧在軟體領域爆發後,倒逼硬體計算企業市值劇烈波動。做顯示卡GPU出身的英偉達公司,一下子在兩年裡股價市值躍升了十幾倍,儼然對英特爾都形成了競爭。
用一句文科生都聽得懂的話來解釋這裡面的區別:為什麼所有的顯示卡都沒有“雙核/四核”概念?就是因為顯示卡GPU的每一個單元都是天然並行運算的。顯示卡處理電腦影象的時候,每一個畫素都是單獨同時處理的。沒有了“時分佔用”的瓶頸,導致GPU顯然不像CPU那樣需要多核。
(注:GTXTitan系的顯示卡有些被稱作“雙核”,其實是商家的錯誤宣傳,那些顯示卡的本質是“兩塊顯示卡”而不是“雙核”。)
顧誠的打算,就是在英特爾還準備靠多核掙扎的時候,他直接一步到位看穿其中的大坑,直接跳到GPU一統天下的路數上去。
如今的AGEIA公司成立還不到兩年,也沒什麼牛逼到爆的科技成果市場化。柳倩揮舞著顧誠的支票本出發,斷無不利之理。