爲什麼現在人工智慧加速發展?

為什麼現在人工智能加速發展?

人工智能是信息時代的尖端科技,近年來的發展更是有目共睹,例如谷歌深度思維 AlphaGo系統,不僅擊敗了世界冠軍,而且使用了沒有人曾經做過的行為,而 深度學習能力方面的飛躍成為當前人工智能突飛猛進的催化劑。在過去的 5到10年,三件事發生了根本改變:

1、數據。通過分佈於全球持續增長無所不在的互相聯繫的設備、機器和系統產生的非結構化數據的數量呈現巨大的增長。擁有的數據越多,神經網絡就變得越有效率,意味著隨著數據量的增長,機器語言可以解決的問題的數量也在增長。移動手機、物聯網、低耗數據存儲的成熟和處理技術(通常在雲端)已經在數量、大小、可靠數據結構方面創造了大量的成長。例如,特斯拉至今已經蒐集了 780mn英里的駕駛數據,並且每 10 小時通過它連接的汽車增加百萬公里的數據。Jasper(2016 年2 月被思科以 14億美元收購)擁有一個平臺驅動機器和機器的溝通,服務於多種汽車製造商和電話公司。Verizon在8月進行了一次類似的投資,宣佈收購 Fleetmatics,它通過快速增長的無線網絡,連接運輸工具上的遠程傳感器到雲端軟件。5G 的首次展示將最適當地加速數據可被獲取和轉移的機率。根據 IDC 的數字領域報告,到2020年,每年數據量將達到44ZB(萬億G),5年內年複合增長率達到141%,暗示我們剛開始看到這些科技可以達到的應用場景。

2、更快的硬件。GPU 的再次使用、低成本計算能力的普遍化,特別是通過雲服務,以及建立新的神經網絡模型,已經極大的增加了神經網絡產生結果的速度與準確率。GPU 和並行架構要比傳統的基於數據中心架構的 CPU 能更快的訓練機器學習系統。通過使用圖像芯片,網絡能更快的迭代,能在短期內進行更準確的訓練。同時,特製硅的發展,比如微軟和百度使用的 FPGA,能夠用訓練出的深度學習系統做更快的推斷。另外,從1993 年開始超級計算機的原計算能力有了極大發展(圖2)。在2016 年,單張英偉達遊戲顯卡就有了類似於2002年之前最強大的超級計算機擁有的計算能力。成本也有了極大的降低。英偉達GPU(GTX 1080)有9 TFLOPS 的性能,只要 700 美元,意味著每 GFLOPS 只要8 美分。在1961 年,要提供1GFLOPS,需要足夠多的 IBM 1620s 串聯在一起,計算下來費用要超過 9萬億美元(根據通貨膨脹調整)。

3、更好、更普遍可用的算法。更好的輸入(計算和數據)使得更多的研發是面向算法,從而支持深度學習的使用。例如伯克利的Caffe、谷歌的 TensorFlow 和Torch 這樣的開源框架。比如,剛開源一週年的 ensorFlow,已經成為最大的開發人員協作網站GitHub 上最多分支(或活動)的框架。雖然不是所有的人工智能都發生於普遍可用的開源框架中,但開源確實在加速發展,而且也有更多先進的工具正在開源。


“也思集成”由也思(常州)系統集成有限公司運營,專注於智能製造領域技術與知識分享。



分享到:


相關文章: