昨日(5月16日),硅谷研究機構OpenAI發布了一份“人工智能與計算”的分析報告,報告顯示,自2012年以來,最大的AI訓練運行中所使用的計算力呈指數增長,每3.5個月增長一倍。
計算界的摩爾定律告訴我們,在價格不變時,集成電路上可容納元器件的數目,約每隔18-24個月會增加一倍,性能也提升一倍。這一計算能力增長速度,已遠遠趕不上AI計算能力的增長速度。

之所以用計算能力來衡量人工智能的發展速度,是因為人工智能中,算法創新、數據(可以是有監督的數據或交互式的環境),以及可用于訓練的計算量這三個因素很重要。其中,算法創新和數據這兩項的進步情況較難追蹤,而計算能力可以被量化,從而更方便評估AI的發展進程。
在圖中,可以看到AI的發展主要有四個時期:
2012年之前,在機器學習中使用GPU還未普及,計算能力的提升也相對較慢。
2012年至2014年,大多數使用1-8個GPU,性能是1-2 TFLOPS,總計為0.001-0.1 pfs-days。
2014年至2016年,GPU的使用數量增至100-1000個,計算速度提升至5-10 TFLOPS,結果為0.1-10 pfs-days。
2016年至2017年,出現了更大更優的算法并行性辦法,還出現了TPU等專用硬件,實現了更快的互聯。
分析認為,AI算力的增長速度很可能沿圖中趨勢持續下去。
報告地址:https://blog.openai.com/ai-and-compute/


產品與服務
聯系站長
關于我們