在巴塞隆納舉行的世界行動大會(MWC 2024)上,輝達發表了最新的入門級行動版工作站GPU,RTX 500 Ada和RTX 1000 Ada。
這兩款入門級行動工作站GPU與先前發表的RTX 2000、3000、3500、4000和5000一起,構成了輝達行動工作站GPU的整個產品線。
根據輝達官方的說法,配備了入門級GPU的筆記型電腦,相較於使用CPU來處理AI任務的設備,效率能暴增14倍!
這兩款新的GPU,將在今年第一季搭載在OEM的合作夥伴推出的筆記型電腦中上市。
入門級工作站移動GPU,補全產品線的最後一塊拼圖
從耗電量上我們就能看出來,這兩款入門級的產品基本上是針對輕薄本推出的產品。
雖然配備的核心數,內存數遠低於產品線中的其他訊號,但是Ada架構所支援的特性卻是一點沒有縮水。
- 第三代RT核心:
光線追蹤性能是前代的兩倍,實現了高度真實感的渲染效果。
- 第四代Tensor核心:
處理速度是上一代的兩倍,加快了深度學習訓練、推理過程和AI驅動的創意任務。
- Ada架構的CUDA核心:
相較於前代,單精度浮點(FP32)處理能力提高了30%,在圖形處理和計算任務上大幅提升了效能。
- 專用GPU記憶體:
RTX 500搭載了4GB內存,而RTX 1000則配備了6GB內存,足以應對複雜的3D和AI應用,處理大型項目和數據集,以及多應用並行工作流程。
- DLSS 3:
這項AI圖形技術的突破性進展,透過產生更多高品質畫面顯著提高了效能。
- AV1編碼器:
第八代編碼器(NVENC)支援AV1編碼,比H.264編碼高效40%,為視訊直播、串流媒體和視訊通話提供了更多可能。
基於Ampere架構的上一代產品,RTX A500和RTX A1000的核心數都只有2048。
這一代更新後的RTX 500 Ada,保留2024個核心數不變,但是RTX 1000 Ada的核心數就提升了1/4,達到2560個,記憶體直接標配6GB。
而且比較上一代產品,輝達這兩個型號的GPU功率都有了不小的提升。
RTX 500從20-60W提升到了35-60W,RTX 1000從35-95W提升到了35-140W,而RTX 1000也支援了Dynamic Boost,功耗可以再額外提升15W。
AI應用進入日常生活,入門級GPU大有可為
輝達稱,與單純依賴CPU的配置相比,新款RTX 500 GPU能夠在執行像Stable Diffusion這類模型時,提供高達14倍的AI效能。
此外,AI照片編輯速度提升3倍,3D渲染的圖形效能提升了10倍,將為各種工作流程帶來了巨大的生產力飛躍。
隨著生成式AI和混合式工作環境日益成為常態,從內容創作者到研究人員,再到工程師,幾乎所有專業人士都需要一款功能強大的、支援AI加速的筆記型電腦,以便在任何地點都能有效應對產業挑戰(加班)。
隨著各大硬體廠商都在佈局AI PC和AI手機,可以預料在不遠的將來,除了專業的開發者和內容創作者之外,普通老百姓也會在日常生活中接觸到大量的AI應用。
老黃在MWC如此重要的場合,拋出的卻是兩款最入門的行動GPU。
這似乎就是在對外宣稱,在算力巨頭眼裡,普通的消費者也同樣能夠享受到科技普及帶來的紅利。
而傳統的CPU廠家,也在今年初推出了自己帶有AI能力的產品,希望從產品形態和輝達形成差異化競爭。
AMD第一代基於XDNA架構的神經處理單元(NPU)去年上市,作為其「Phoenix」Ryzen 7040行動處理器系列的組成部分。
其中,XDNA透過一系列特殊設計的AI Engine 處理單元組成的網路來實現空間資料流處理。
每個AI Engine單元都配備了一個向量處理器和一個標量處理器,還有用於儲存程式和資料的本機記憶體。
這種設計避免了傳統架構中頻繁從快取中讀取資料所帶來的能量消耗,透過使用板載上記憶體和專門設計的資料流,AI Engine能夠在AI和訊號處理任務中實現高效和低功耗的計算。
幾個月後,英特爾推出了同樣配備NPU的Core Ultra「Me t e or Lak e」架構架。
英特爾的Meteor Lake SoC將CPU,NPU,GPU結合在一起,來應對未來可能出現的不同AI應用。
Meteor Lake擁有三個功能齊全的AI引擎,Arc Xe-LPG顯示卡保證了AI需求的算力上限。
相較之下,NPU及其兩個神經運算引擎用來承擔持續的人工智慧工作負載,以進一步提高能源效率。
CPU本身以及Redwood Cove(P)和Crestmont(E)核心的組合可以以更低的延遲處理AI工作負載,從而提高精度。
最近有消息稱,微軟最新推出的Windows 11 DirectML預覽版將為Core Ultra NPU提供初步支援。
隨著微軟在作業系統層面對於AI的全面更新和支持,英特爾和AMD在CPU中加入了應對AI負載的NPU,入門級AI應用的硬體競爭必將越演越烈。
在地化運行自己的大模型,輝達誓要將AI應用的門檻打下來
除了不斷更新自己的硬體收割科技大廠,輝達在前段時間也上線了自己第一款支援本地運作的大模型系統-Chat with RTX。
它可以讓用戶利用手上的消費級GPU在地化地運行開源LLM,利用用戶自己的數據和知識庫,客製一款專屬的聊天機器人。
這是輝達推出的第一款針對一般消費者的AI應用。
簡單來說,它就是輝達自己推出的開源大模型啟動器,目的是讓沒有技術背景的消費者能夠真的在自己的設備上運行大型模型。
使用者想要運行Chat with RTX的要求也非常簡單,只要是使用輝達消費級的30/40系的顯示卡,或者Ampere/Ada GPU,擁有16G的內存,100G的空餘硬碟空間,就能使用。
安裝模型的時候,會自動根據顯存提供支援的模型。
安裝完成後,透過瀏覽器介面就能直接使用聊天機器人了。
而現階段,只支援開源的Mistral 7B和Llama2 13B。
但因為顯存的關係,剛發表的RTX 500和1000 Ada似乎還不能運作這個系統。
但主要是因為兩款支援的開源模式尺寸對於消費級GPU來說還是比較大。
如果未來輝達能讓Chat with RTX支援更多的開源模型,比如說微軟前段時間推出的Phi-2 2.7B,那麼即便是4G顯存的RTX 500Ada也將可以在地化地跑大模型了。(新智元)
參考資料:
https://blogs.nvidia.com/blog/rtx-ada-ai-workflows/