了解ChatGPT背後的芯片

ChatGPT 等生成式人工智能工具對社會眾多領域產生了巨大影響。作為工程師,了解使之成為可能的計算技術對我們很有幫助。

近年來,隨著新技術以前所未有的速度出現,人工智能取得了重大飛躍。毫無疑問,ChatGPT、Bard 和Einstein 等工具將影響各個行業——從媒體和內容創建到研究、金融等。

這些工具現在可以密切模擬人類對話,能夠理解上下文信息、實時對話,並以極高的精度執行從翻譯到總結的任務。

OpenAI 表示,為了了解這些AI 技術的進步速度,“最大規模的AI 訓練運行所使用的計算量呈指數級增長,是3.4 個月的兩倍” 。回顧80 年代和90 年代,神經網絡研究活動非常活躍,訓練引擎的計算和內存與今天的能力相比非常弱。

時間快進到2012 年,摩爾定律的不斷發展使人工智能能夠有效地執行分類——識別圖片和視頻中的對象。與此同時,自然語言處理(NLP)的發展也至關重要。


圖:此處顯示的是2012 年至2018 年期間用於訓練選定結果的計算總量(以petaflop/s 天為單位)


隨著Siri 等工具開始興起,並隨著這些應用程序慢慢發展和演變,顯然下一步就是讓它們生成。一旦這些訓練算法能夠快速分類信息、在數據之間建立關聯並理解所提出的請求,問題就變成了它們是否可以利用這些學習成果以可識別的方式有效地組裝新內容。

得益於半導體行業在HBM(高帶寬內存)、DDR、異構計算等方面的進步,隨著我們進入生成式AI 新時代的開始,這已成為現實。



硬件如何讓我們走到這一步

生成式人工智能的訓練和應用非常複雜,需要使用先進的學習模型和海量數據處理需求。當我們今天熟悉的生成式人工智能應用程序達到剛剛起步的階段時,計算(尤其是主內存)的進步是不可或缺的。

尤其是過去十年,由於DDR DIMM 芯片組和HBM 接口以及特定領域計算架構的代際升級,人工智能訓練和推理能力取得了巨大進步。這些都在生成式人工智能開發中發揮了關鍵作用,有助於提高速度、容量和連接性,以滿足日益苛刻的工作負載。

用於通過生成式人工智能創建新圖像、音頻和文本的機器學習算法需要大量數據和快速內存才能有效運行。DDR5是DDR 內存的最新標準,可提供更高的數據傳輸速率和更低的功耗,與前幾代產品相比,可以在低延遲的情況下實現更高效的數據處理。


轉向異構計算


服務器本身也開始轉向異構計算架構,因為越來越多地使用專用加速器來卸載CPU 上的專用工作負載。一個示例異構計算系統由CPU、AI 加速器和網絡處理器組成。

它們各自可以執行不同類型的計算,以實現生成式人工智能,因為複雜的計算可以在專用處理單元上更快地執行。例如,CPU 將用於通用處理任務,並且可以將某些任務卸載到人工智能加速器等專用處理器。

AI加速器可以加速張量運算,提高神經網絡訓練和推理的速度。網絡處理器可以提高數據通過網絡移動到服務器中的CPU和AI加速器的速度。

通過利用每個處理單元的優勢,生成式人工智能可以以更高的效率提供高質量的數據。處理器和CXL 等新標準促進的內存緩存一致性在這方面也發揮著關鍵作用,因為它支持CPU 和加速器之間的內存資源共享。


加速人工智能訓練

這些處理器極大地加快了人工智能訓練和推理的速度,降低了總擁有成本並實現了更大的可擴展性。總而言之,這使得研究人員能夠超越分類而進入內容生成本身。這些改進對這些模型學習速度的影響所產生的累積效應如今已顯而易見。

就在過去的幾個月裡,我們看到ChatGPT 取得了突飛猛進的進步。根據ABA Journal 的一篇文章,這項曾經在2022 年11 月進行試驗的新技術現在已經足以在幾個月後通過律師考試,排名前10% 。

雖然當前的能力展示了人工智能令人印象深刻的潛力,但它們僅僅觸及了未來可以實現的目標的表面。當我們開始考慮這些技術如何徹底改變我們的溝通和開展業務的方式時,一個新的問題出現了:生成人工智能的下一個可能階段是什麼?


半導體和ChatGPT 的下一階段

ChatGPT 和類似工具的發展速度如此之快,更先進的功能將很快進入主流。人工智能將超越文本和語音輸入,並有可能在新的未來包含解釋情感和細微差別等新功能。這將改變客戶服務、娛樂、遊戲和更多行業的遊戲規則,但我們如何實現這一目標?

硬件的快速發展表明,行業很快就達到了現有硬件的極限。為了繼續推動人工智能向前發展,為生成式人工智能提供動力的硬件必須具有更先進的計算能力以及更高帶寬的內存互連和存儲。這將需要半導體行業的快節奏創新,以及解決內存和處理之間瓶頸的承諾和協調努力。


一個全方位的行業

隨著新需求的出現,繼續以目前的速度前進將具有挑戰性。值得慶幸的是,業界正在“全力以赴”推動內存的改進,內存一直在支持計算範式的開發中發揮著重要作用。

如果沒有半導體行業生產更快的芯片和互連的能力,在過去11 年裡,最大規模的AI 訓練運行所使用的計算量不會增長300,000 倍。

即將出現的新技術展示了業界在推進內存技術和探索新架構以繼續改進人工智能方面的投資。(半導體行業觀察)