GPT-4爆火,去中心化算力能解決AI算力難題嗎?

上週,OpenAI 大型語言模型GPT-4 一經公佈便引發了全球科技圈與媒體的關注,60秒創建出一款小遊戲,將一張草圖快速變為功能性的網站,完美通過歷史、數學等幾乎所有的學科考試,檢查代碼漏洞等等,各種逆天的功能展示它極為強大的能力,可以說,GPT-4 成為了在知識、技能、邏輯領域的全能人才,比以往的任何AI 都要強大,而這一款瘋狂的產品或將預示著AI 奇點的到來。


GPT-4與GPT-3.5各項考試成績對比


在AI 開始不斷刷新人們認知的同時,另一個更為底層的領域也同樣發生著巨變,那就是算力。眾所周知,AI 模型都需要消化大規模的數據,同時也需要消耗更為龐大的算力,諸如圖像識別、自然語言處理和機器學習等各種AI應用和模型的訓練,都依賴於龐大算力的加持。

據OpenAl 此前發布的數據顯示,從2012年到2020年,其算力消耗平均每3.4個月就翻倍一次,8年間算力增長了三十萬倍,更不用談自去年ChatGPT 推出後爆火所帶來的需求暴漲。

此外,AI 時代算力的增長也遠遠超過了摩爾定律每18個月翻番的速率,根據中國信息通信研究院的估算,2021年全球超算算力規模大約為14EFlops,預測到2030年全球超算算力將達到0.2ZFlops,平均年增速超過34%。AI 的奇點的到來也將會成就算力領域的黃金時代,同時,算力的發展好壞也將會影響著其未來的發展,兩者彼此成就。


OpenAl算力消耗情況數據來源:阿里研究院《數實融合的第三次浪潮》

目前,關於AI 算力的優化技術主要有以下幾種:


01 GPU資源池化

通過虛擬化和遠程調用,將GPU從硬件定義轉換成軟件定義的資源池,實現資源的共享、按需分配、彈性伸縮和統一管理。

02 計算精度優化

過混合精度計算,利用不同的浮點數類型在保證模型訓練和推理效果的同時,降低數據傳輸和存儲成本。

03 模型壓縮優化

通過參數剪枝、量化等方法,減少模型參數量和計算複雜度,降低模型大小和內存佔用。

面對算力需求的增長,短期內可以從軟硬件和工程優化等角度解決,但在未來十年,二十年之後呢?當芯片逼近量子極限,當AI 的進化需要越來越龐大的數據、越來越多的預訓練模型參數、越來越高的算法精度時,會帶來對算力需求的指數級增長,而且這種增長是長期性的,由此帶來的成本問題將會成為一個不可規避的難題。同時這也會讓AI 只有巨頭才能入局的遊戲,據悉,OpenAI 接受微軟投資的很大原因就是為了獲得微軟雲Azure 的計算支持。

所以,為了能降低成本,並獲得更多的算力來支持AI 項目的進一步發展,很多新興企只能選擇與大型雲算力企業合作,作為交換讓渡出部分權利,而去中心化的算力系統或許能在一定程度上解決這一問題,並降低AI 模型訓練的門檻。

去中心化算力是指將分散在不同地點、不同設備上的計算資源整合起來,形成一個去中心化的網絡。以此,為AI 應用提供更加靈活、高效、低成本的計算服務,其潛在優勢體現以下幾個方面:

01

提供分佈式計算能力,支持人工智能模型的訓練和運行,使任何人都能運行AI模型,並在來自全球用戶的真實鏈上數據集上進行測試。

02

去中心化還可以通過創建一個強大的框架來解決隱私問題。

03

通過提供透明、可驗證的計算過程,增強人工智能模型的可信度和可靠性。

04

通過提供靈活、可擴展的計算資源,支持人工智能模型在各種應用場景下快速部署和運行。

05

提供去中心化的數據存儲和管理方案。


目前,已經有項目在探索以去中心算力+AI的組合,例如:

01 Gensyn

該協議通過智能合約方式促進機器學習(ML)的任務分配和獎勵,來快速實現AI 模型的學習能力,適用於深度學習計算的L1層,可以在大規模、低成本的網絡中實現ML。

02 Flux

一個基於區塊鏈技術的去中心化AI 平台,通過智能合約來規範AI 任務的發布、執行和驗證過程,並使用Token 作為激勵機制。

03 Golem

一個提供算力市場的點對點去中心化計算網絡,支持任何人都可以通過創建共享資源的網絡來共享和聚合計算資源。

但去中心化算力網絡與AI 的結合也需要解決驗證問題,即如何確保運算結果的正確性和可信性。此外,算力增長所帶來的電力消耗也是一個不可忽視的問題,據統計,訓練GPT-3 模型消耗的能源相當於120個美國家庭一年的耗電量,而這只是實際使用模型所消耗的電力的40%左右。

相比算力增長來說,能源電力稱不上難題,隨著技術的突破,AI 所展現出的潛力將會激發了更多的企業和研究機構投身其中,這些問題可能會被一一解決。而從計算機視覺到自然語言處理,從機器人學到推理、搜索,人工智能所帶來的生產力變革正在改變我們當前的工作方式,在技術發展的道路上,科幻照進現實只是時間問題。(巴比特資訊)