還記得今年3月Meta CEO扎克伯格(Mark Zuckerberg)曬出的這張與輝達CEO黃仁勳的合照嗎?當時小扎稱,黃仁勳是“科技界的Taylor Swift”。
這被認為是兩個億萬富翁的世紀會面。
而就在剛剛,台北時間7月30日凌晨,黃仁勳與扎克伯格兩人再度現身電腦圖形學頂會SIGGRAPH 2024上,不僅迎來 AI 行業的世紀對談,探討 AI 和虛擬世界的基礎研究與未來。而且最後,小扎送黃仁勳一件定製皮衣,黃仁勳用自己標誌性的“全新”皮衣與扎克伯格交換,留下了精彩一刻。
扎克伯格在對談中表示,從網際網路到移動網際網路之後,Facebook這類軟體在蘋果iOS系統平台上受到了極大的限制,而如今,以Llama為首的開源AI模型將成為打敗蘋果封閉生態、微軟PC平台的下一個新的至寶。“我非常樂觀地認為,在下一代比賽中,開源 AI 將會為Meta贏得勝利。”
“我未來10年或15年的事情之一,就是我只想確保Meta能夠建立基礎技術,並將在此基礎上建立社交體驗,因為我已經嘗試了太多的東西。如果你剛剛被告知,在某種程度上,你需要通過平台來建構它,我只是想,不,去他媽的下一代(fuck that for the next generation),就像我們要一直往下建構,並確保在那裡。”扎克伯格再度炮轟蘋果封閉生態對於Meta公司的打擊。
黃仁勳則強調,AI 正在變革一切。而“我們(輝達十年前)改變了公司的一切,從處理器到系統,再到軟體堆疊,所有的演算法和視訊基礎研究都轉向深度學習。”
“This is SIGGRAPH, these 90 % PhDs.”一上台,黃仁勳就調侃了小扎,稱這個會議上的人90%都是博士,暗指小扎輟學創立Facebook的事情。
相比於大學本科期間就打造出Facebook並退學創業的扎克伯格,黃仁勳是在30歲才成為輝達的聯合創始人。於是他提到:“我要是知道得花這麼長時間才能成功的話……”
“你打從一開始就不會做這些了?”扎克伯格問道。
“不,我會像你一樣從大學輟學然後早點開始。” 黃仁勳表示。
實際上,輝達和Meta之間的關係頗有淵源。當全球最強開源模型LLaMA一代推出之時,Meta採用輝達A100 GPU卡進行訓練,如今最新的Llama 3則是輝達H100進行訓練推理形成的。
早前扎克伯格承諾,到今年年底,Meta將擁有35萬塊輝達H100 GPU,算力總和將接近於60萬塊H100所能提供的算力,預計投入成本高達70億美金以上。
扎克伯格在對話當中表示,Meta有一套算力叢集訓練技術方案。如今,多模態模型對於算力要求越來越高,而 AI 已經深入到每家公司,在這其中建構GPU基礎設施和運行大型推薦系統變得異常重要。
談到開源 AI,扎克伯格有些激動的表示,開源 AI 模型技術將成為 AI 時代下打敗閉源模型的重要動力。
“所以在這方面(Meta)有很多歷史。隨著時間的推移,我們做了很多開源工作。坦率地說,我認為部分原因是我們在其他一些科技公司之後開始建設分散式運算基礎設施和資料中心。正因為如此,當我們建造這些東西的時候,它並不是一個競爭優勢。所以我們想,好吧,我們最好把它打開,然後我們將受益於圍繞它(開放)的生態系統。所以我們有很多這樣的項目。我認為,最大的一個可能是開放計算,我們採用了伺服器設計和網路設計。最終,資料中心設計並行布了所有這些內容。通過讓它成為某種行業標準,所有的供應鏈基本上都圍繞它組織起來,這對每個人都有省錢的好處。”扎克伯格表示。
黃仁勳也同意開源 AI 的重要性,也支援Meta公司的願景。他表示,模型開源之後,每個人都可以有個AI ,每個企業都可以有一個AI,每個工程師和每個軟體開發人員都有一個AI。“我相信你也相信每個人和每個公司都應該能夠製造自己的AI,所以你(Meta模型)實際上是開放原始碼的。”
“所以這是一項非常棒的體驗。當Llama出現的時候,我們有點積極地傾向於為 AI 模型做這件事。具體來說,我想我有幾種方式來看待這個問題。我的一個想法是,在過去的20年裡,在公司裡建造東西真的很有趣。但最困難的一件事是,我們必須通過競爭對手的移動平台(蘋果)發佈我們的應用程式。所以一方面,移動平台對這個行業來說是巨大的恩惠,這是非常棒的。但另一方面,通過你的競爭對手來交付你的產品是具有挑戰性的。在我成長的那個時代,Facebook第一個版本是在網路上,而且是開放的。然後作為向移動裝置的過渡,有利的一面是,現在每個人的口袋裡都有一台‘電腦’。所以那很好。但缺點是,我們能做的事情受到了更多的限制。當你看這幾代計算時,有一種很大的限制和偏見,每個人都只看著移動裝置,認為因為封閉的生態系統,因為蘋果基本上贏了,並制定了條款。從技術上講,我知道市面上有更多的Android手機,但蘋果基本上擁有整個市場和所有的利潤。基本上,Android在發展方面有點像蘋果。所以我認為蘋果很明顯贏得了這一代人。但並不總是這樣。或者即使你回到一代人以前,蘋果也在做他們那種封閉的事情。但是微軟,顯然不像這個完全開放的公司,但與蘋果相比,Windows運行在所有不同的原始裝置製造商和不同的軟體,不同的硬體上。這是一個更加開放的生態系統和窗口。Windows是領先的生態系統。它基本上是那種PC時代的東西,開放的生態系統之一。我有點希望,在下一代計算中,我們將回到開放生態系統獲勝並處於領先地位的領域。然後,總會有一個封閉的和一個開放的。我認為兩者都有理由去做,兩者都有好處。我不是這方面的狂熱者,並不是我們發佈的所有東西都是開放的。但我認為,總的來說,對於整個行業正在建構的計算平台來說,這是很有價值的。如果軟體特別開放,這真的塑造了我的哲學,無論是與Llama AI,還是我們在AR和VR方面所做的工作,我們基本上是在做基於開源技術的系統架構,比如在AR上建構系統。因此,從某種意義上說,Android或Windows基本上是這樣的,但我們將能夠與許多不同的硬體公司合作,製造各種不同的裝置。我們基本上只是想把生態系統恢復到開放的水平。”扎克伯格這一段言論,直接炮轟蘋果封閉系統對於Meta產品和收入的影響。
隨後,扎克伯格就開啟了“fuck”之旅,他說“讓我談論封閉的平台,我就會生氣”。
黃仁勳隨後繼續稱讚Meta的開源願景,認為這種方式能讓所有人使用 AI 技術。
隨後談及虛擬現實的發展,扎克伯格指出,利用現有非常高品質的 AI 技術,AR技術能夠在全息AR出現之前以非常快的速度變得更好。“幸運的是,我們處於有利地位,因為我們正最終得到只是一系列不同價位、不同技術水平的眼鏡產品。所以我認為,基於我們現在看到的雷朋Meadows,我會猜測 AI 眼鏡在300美元的價位上將會是一個量級非常大的產品,數千萬或數億人最終將會擁有(它)。”
“我們開始建立一個GPU晶片。現在,當您部署GPU時,您仍然將其稱為H100。所以你們知道,當扎克伯格稱它建立擁有60萬H100的資料中心的時候,我認為出現了好‘顧客’。但這件事太不可思議了我有一個巨大的系統,非常難以協調、難以運行。你說你進入GPU的旅程比大多數人都晚,但你的規模比任何人都大。我祝賀你所做的一切真是難以置信,這真是個時尚偶像。”黃仁勳在演講結尾表示。
值得注意的是,伴隨這次訪談,本次SIGGRAPH 2024上,輝達公佈20多份研究論文和產品。其中,黃仁勳重點展示了一項輝達的“第二曲線”業務——推理微服務NVIDIA NIM。
7月29日,輝達推出了一套全新的NIM微服務,專門針對不同工作流提供定製服務,包括OpenUSD、3D建模、物理學、材質、機器人、工業數字孿生和物理AI,旨在賦能開發人員,特別是在DGX Cloud上整合Hugging Face推理即服務。
同時,Shutterstock還推出了一項生成式3D服務。而在AI和圖形領域,輝達發佈了全新的OpenUSD NIM微服務和參考工作流,專為生成式物理AI應用而設計。這包括一項通過面向機器人模擬的全新NIM微服務來加速人形機器人開發計畫。
實際上,所謂輝達Nvidia inference microservices(NIMs)是通過經最佳化的容器的形式提供模型,以部署在雲、資料中心或工作站上,是NVIDIA AI Enterprise業務的一部分。借助 NVIDIA NIM,全球超過2800萬名開發者能夠輕鬆地為Copilots、聊天機器人等建構生成式 AI 應用,所需時間從數周縮短至幾分鐘。
簡單來說,你可以理解為NIM是一種軟體模型服務即平台,與無問芯穹推理模型服務、Hugging Face有點類似。
事實上,隨著2022年底OpenAI推出ChatGPT聊天機器人產品,GPT大模型技術在幾個月內積累了超過 1 億使用者,幾乎推動了各行各業的開發活動激增。
而到了2023 年,開發者開始使用 Meta、Mistral、Stability等公司的 API 和開源社區模型建立模型或技術服務。
如今,2024年起,企業組織正將注意力轉向大規模生產部署,其中包括將 AI 模型連接到現有企業基礎設施、最佳化系統延遲和吞吐量、日誌記錄、監控和安全性等。但是,這種生產路徑既複雜又耗時,需要專門的技能、平台和流程,尤其是大規模部署。
就在此時,NVIDIA NIM應運而生。
今年3月,輝達首次公佈該產品,並在今年6月Computex電腦展上正式宣佈,包括Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI 和新思科技等近200家技術合作夥伴正在將 NIM 整合到他們的平台中,以加快特定領域應用的生成式 AI 部署,例如Copilot、程式碼助手和數字人虛擬形象等。另外,從 Meta Llama 3 開始,在 Hugging Face 上現已開始提供 NIM。
黃仁勳在今年6月表示:“每個企業都希望在其營運中融入生成式 AI,但並非每個企業都擁有專門的 AI 研究團隊。NVIDIA NIM 可被整合到任意平台中,任何地方的開發者都可以訪問,並且可以在任意環境中運行——它正在助力科技行業將生成式 AI 普及到每一個企業組織。”
具體來說,NVIDIA NIM主要有五個優勢:
與此同時,開發者可以使用 NVIDIA 託管的雲 API 測試新的生成式 AI 模型,或者通過下載 NIM 來自行託管模型,並在主要雲提供商或本地使用 Kubernetes 快速部署,以減少開發時間、複雜性和成本。而且,NIM 微服務通過打包演算法、系統和執行階段最佳化並新增行業標準 API 來簡化 AI 模型部署流程。
因此,借助 NIM,企業可以最佳化其 AI 基礎架構,以更大限度地提高效率和成本效益,而無需擔心 AI 模型開發的複雜性和容器化。在加速 AI 基礎架構的基礎上,NIM 有助於提高性能和可擴展性,同時降低硬體和營運成本。
另外,基於NIM,輝達還提供跨不同領域定製模型服務。比如,NVIDIA NeMo使用專有資料為大模型、語音 AI 和多模態模型提供微調功能;NVIDIA BioNeMo通過生成生物學化學和分子預測模型集合加速藥物研發;NVIDIA Picasso通過Edify模型實現更快的創意工作流程。這些模型在視覺內容提供商的許可庫中進行訓練,從而能夠部署自訂的生成式 AI 模型,以建立視覺內容。
目前,開發者現在可以從 Hugging Face AI 平台上,訪問 Meta Llama 3 模型的 NVIDIA NIM 微服務。通過基於 NVIDIA GPU 的 Hugging Face 推理端點,只需點選幾下,開發者就能在其選擇的雲平台上輕鬆地訪問和運行 Llama 3 NIM。
具體到案例中,輝達透露,作為全球最大的電子製造商,鴻海集團(Foxconn)正在使用 NIM 開髮針對特定領域的大模型,並將這些模型嵌入到其 AI 工廠的各種內部系統和流程中,用於智能製造、智慧城市和智能電動汽車;而西門子正在將其營運技術與 NIM 微服務整合,用於車間 AI 工作負載,此外西門子還利用NIM為Machine Operators 建構了一個本地部署版本的 Industrial Copilot。
另外,輝達稱,數十家醫療公司正在一系列應用中部署 NIM,以便在手術規劃、數字助手、藥物研發和臨床試驗最佳化等一系列應用中為生成式 AI 推理提供動力。而且,埃森哲、德勤、Infosys、Latentview、Quantiphi、SoftServe、塔塔諮詢服務(TCS)和威普羅(Wipro)已經建立了 NIM 能力,以幫助全球企業快速開發和部署生產型 AI 策略技術。
黃仁勳曾表示,未來,每台裝置都將運行 AI 軟體。因此,各個國家必須要做自己的主權 AI,而當前,企業以及制定主權 AI 戰略的國家正希望建立具有特定領域知識的自訂大語言模型,以便生成式 AI 應用能夠反映其獨特的業務或文化。因此,這些新服務的推出恰逢其時。
黃仁勳強調,輝達用“加速計算”技術重新發明了電腦。在過去的8年裡,輝達提高了每個GPU晶片性能,AI 算力性能提高了1000倍。
“現在,你可以擁有一台搭載GPU顯示卡、速度快100倍、能效高20倍、成本低20倍的電腦,能夠解決複雜問題以及 AI 技術。”黃仁勳稱,“事實上,我創造了‘加速計算’這個詞。”
黃仁勳解釋說,機器人技術需要三台電腦:一台用於訓練AI,一台用於在精確的物理模擬環境中測試AI,另一台則安裝在機器人內部。
“幾乎每個行業都將受到這項技術的影響,無論是科學計算以更少的能源更好地預測天氣,還是與創作者合作生成圖像,或為工業可視化建立虛以場景。生成式AI還將徹底改變機器人自動駕駛汽車領域。”黃仁勳表示。
黃仁勳強調,未來,客戶服務這一職業仍將由人類主導,但會有AI參與其中。所有這些創新技術,就像任何新工具一樣,都有望增強人類的生產力和創造力。“想像一下,有了這些工具,你將能夠講述那些新故事。” (鈦媒體AGI)