要像人類一樣聰明 AI先得突破算力極限

2020年01月14日08:55  來源:科技日報
 
原標題:要像人類一樣聰明 AI先得突破算力極限

  算法、數據和算力被視為推動人工智能發展的三大要素,其中算力更是被形容為支撐人工智能走向應用的“發動機”。人工智能研究組織OpenAI最近指出,“高級人工智能所需的計算能力每三個半月就會翻一番”。

  近日,臉譜(Facebook)人工智能副總裁杰羅姆·佩森蒂在接受《連線》雜志採訪時認為,AI科研成本的持續上漲,或導致我們在該領域的研究碰壁,現在已經到了一個需要從成本效益等方面考慮的地步,我們需要清楚如何從現有的計算力中獲得最大的收益。

  那麼,為何人工智能需要如此強大的計算能力?計算能力是否會限制人工智能的發展?我們能否不斷滿足人工智能持續擴大的計算需求?

  人工智能“動腦” 背后算力消耗驚人

  “2016年3月,谷歌人工智能阿爾法圍棋(AlphaGo)戰勝韓國棋手李世石時,人們慨嘆人工智能的強大,而其背后巨大的‘付出’卻鮮為人知——數千台服務器、上千塊CPU、高性能顯卡以及對弈一場棋所消耗的驚人電量。”遠望智庫人工智能事業部部長、圖靈機器人首席戰略官譚茗洲在接受科技日報記者採訪時表示。

  “相比雲計算和大數據等應用,人工智能對計算力的需求幾乎無止境。”中國工程院院士、浪潮集團首席科學家王恩東指出。

  據介紹,人工智能最大的挑戰之一是識別度不高、准確度不高,提高准確度就要提高模型的規模和精細度,提高線下訓練的頻次,這需要更強的計算力。准確度也是算出來的,比如大型互聯網公司或者知名人工智能創業公司,有能力部署規模比較大的人工智能計算平台,算法的模型已經達到千億參數、萬億的訓練數據集規模。

  “現在人工智能運用的深度學習框架,多數依賴大數據進行科研訓練,形成有效模型,這些都需要較高的計算力。”譚茗洲指出,當前隨著人工智能算法模型的復雜度和精度愈來愈高,互聯網和物聯網產生的數據呈幾何倍數增長,在數據量和算法模型的雙層疊加下,人工智能對計算的需求越來越大。無疑,人工智能走向深度學習,計算力已成為評價人工智能研究成本的重要指標。可以說,計算力即是生產力。

  數據搬運頻繁 “內存牆”問題凸顯

  人工智能為何如此耗費算力?具體而言,在經典的馮·諾伊曼計算機架構中,存儲單元和計算單元涇渭分明。運算時,需要將數據從存儲單元讀取到計算單元,運算后會把結果寫回存儲單元。在大數據驅動的人工智能時代,AI運算中數據搬運更加頻繁,需要存儲和處理的數據量遠遠大於之前常見的應用。當運算能力達到一定程度,由於訪問存儲器的速度無法跟上運算部件消耗數據的速度,因此再增加運算部件也無法得到充分利用,就形成了所謂的馮·諾伊曼“瓶頸”或“內存牆”問題。這就如同一台馬力強勁的發動機,卻因為輸油管的狹小而無法產生應有的動力。

  顯然,頻繁的數據搬運導致的算力瓶頸,已經成為對更為先進算法探索的限制因素。而算力瓶頸對更先進、復雜度更高的AI模型的研究將產生更大影響。

  王恩東曾指出:“計算力的提升對體系結構提出挑戰。在半導體技術逐步接近極限的情況下,計算機發展迎來體系結構創新的黃金期,計算力的提升將更多通過體系結構創新來滿足。”

  據了解,最先進的自然語言處理模型XLNet約有4億模型參數。據估算,人腦中細胞間互聯軸突個數在百萬億到千萬億數量級。顯然AI在認知問題上離我們追求的所謂通用人工智能還有巨大差距,而要達到通用人工智能的水平,預計研究所需要的計算能力和計算系統的能源效率將比現在至少提高幾個數量級。因此人工智能要進一步突破,必須採用新的計算架構,解決存儲單元和計算單元分離帶來的算力瓶頸。

  譚茗洲說,目前人工智能的無用計算較多。現在人工智能還像不斷灌水一樣,處在輸入數據、調整參數的階段,是個“黑盒子”模式,特別在圖片視頻方面消耗很多能量,而其中真正的有效計算卻不多,非常浪費能源。今后AI有待在“可解釋性”上進行突破,搞清是什麼原因導致后面的結果,這樣可以精准運用數據和算力,大大減少運算量。這也是目前重要的研究課題,將大大推動深度學習的發展。

  計算儲存一體化 或成下一代系統入口

  “雖然目前階段計算力還談不上限制人工智能的發展,但計算力確實提高了參與人工智能研究的門檻。”譚茗洲指出。

  除了研發資金的增長,在計算力爆發之前的很長一段時間,產生數據的場景隨著互聯網的發展滲透到生活、生產的各個角落,並且隨著通訊技術的進步,尤其是5G的商用,使得產生數據的基礎場景覆蓋面和深度達到新的層次,數據的生產也將達到一個新的數量級。

  2020年伊始,阿裡達摩院發布《2020十大科技趨勢》報告顯示,在人工智能方面,計算存儲一體化,類似於人腦,將數據存儲單元和計算單元融為一體,能顯著減少數據搬運,極大提高計算並行度和能效。

  然而,計算存儲一體化的研究無法一蹴而就。這個報告提出策略,對於廣義上計算存儲一體化計算架構的發展,近期策略的關鍵在於通過芯片設計、集成、封裝技術拉近存儲單元與計算單元的距離,增加帶寬,降低數據搬運的代價,緩解由於數據搬運產生的瓶頸﹔中期規劃是通過架構方面的創新,設存儲器於計算單元中或者置計算單元於存儲模塊內,可以實現計算和存儲你中有我,我中有你﹔遠期展望是通過器件層面的創新,實現器件既是存儲單元也是計算單元,不分彼此,融為一體,成為真正的計算存儲一體化。近年來,一些新型非易失存儲器,如阻變內存,顯示了一定的計算存儲融合的潛力。

  據介紹,計算存儲一體化正在助力、推動算法升級,成為下一代AI系統的入口。存內計算提供的大規模更高效的算力,使得AI算法設計有更充分的想象力,不再受到算力約束。從而將硬件上的先進性,升級為系統、算法的領先優勢,最終加速孵化新業務。

  而除了計算存儲一體化的趨勢,量子計算或是解決AI所需巨額算力的另一途徑。目前量子計算機的發展已經超越傳統計算機的摩爾定律,以傳統計算機的計算能力為基本參考,量子計算機的算力正迅速發展。

  譚茗洲表示,未來人工智能的突破,除了不斷提升技術本身之外,還需要全球各國協同創新,融合發展,探索新的合作模式,如採取共享思維,調動世界各方面的計算資源集中發力,以降低計算的巨大成本。

  延伸閱讀

  延伸閱讀

  人工智能計算力展現五大發展趨勢

  互聯網數據中心(IDC)與浪潮聯合發布的《2019—2020中國人工智能計算力發展評估報告》指出,全球新創建的數據量將從2018年的33ZB增長到2025年的175ZB。隨著數據持續爆炸性增長及算法的不斷演進,未來算力仍有很大的發展空間。

  該報告公布的最新中國人工智能計算力城市排名顯示:排在前5位的城市依次為北京、杭州、深圳、上海、廣州﹔排名6—10位的城市是合肥、蘇州、重慶、南京、西安。

  報告還提出了未來人工智能計算力發展的5個重要趨勢,一是到2022年,人工智能推理市場佔比將超過訓練市場﹔二是預計到2023年,中國人工智能基礎架構市場未來5年復合增長率將達到33.8%,是中國整體基礎架構市場增速的3倍以上﹔三是5G和物聯網將推動邊緣、端側人工智能基礎架構的快速發展﹔四是人工智能與雲的融合將進一步加速,未來5年AIaaS(人工智能基礎設施即服務)市場規模的年復合增長率預計達到66%﹔五是隨著計算力的提升,越來越多的企業將參與到人工智能開源軟件的研發和行業性能評測基准的建設中。

(責編:楊虞波羅、呂騫)