大模型的競爭遠遠沒有結束。
就在剛剛過去的4月,大模型再度經歷了新一輪諸神之戰。
先是有阿里在4月29日凌晨發佈開源模型Qwen,並官宣登頂全球開源模型榜首;
後又有Meta在4月30日舉辦首屆LlamaCon開發者大會,大會上不僅發佈了對標ChatGPT的Meta AI App,還面向開發者推出了Llama API預覽版。
Meta的Llama 4系列模型,則是在4月6日搶先對外發佈。
也是在首屆LlamaCon開發者大會上,Meta創始人祖克柏請來了現任微軟CEO薩提亞·納德拉進行了一場半小時的現場對話。
在這場對話中,小扎搖身一變,成了主持人,對這位曾經挽救微軟於水火,推動微軟巨額投資了OpenAI,如今在推動微軟進行又一次改革的傳奇CEO進行了一場精彩訪談。
納德拉說,我們正處於一個可以建構“深度應用”的階段;
納德拉說,一些項目中,我們程式碼庫裡的程式碼可能有20%-30%是由AI編寫。
祖克柏則指出,到2026年,預計會有一半的應用開發工作會由AI完成;
祖克柏還指出,未來每個工程師都會是技術領導,帶領一個自己的智能體小隊。
我們將這次兩大科技巨頭值得回味的對話內容整理如下:
祖克柏:你曾多次談到,當前科技領域所處的時刻,尤其是人工智慧高速發展,讓你想起了過去的技術轉型時刻,你能具體談談嗎?
納德拉:我加入微軟時,正值Windows 3發佈,所以我見證了客戶端-伺服器架構的誕生,然後是網際網路、移動網際網路、雲端運算的浪潮相繼興起。
你可以把現在的AI浪潮看作第四次或第五次技術轉型,每次技術轉型,技術堆疊都面臨著結構性調整,你需要回到第一性原理重新進行梳理。
以我自己的經歷來看,我從07、08年開始建構雲基礎設施,主要用於Hadoop之類的資料處理,但後來我們發現,這與為AI訓練工作負載建構的核心儲存系統完全不同。
資料平行、同步工作負載的需求讓我們重新自上而下思考技術堆疊的重構,這種挑戰在每次平台轉型時都會出現。就像網際網路雖然誕生於Windows,但後來網際網路的發展已經遠遠超越了Windows。
祖克柏:微軟在企業業務方面表現非常出色,你如何看待AI模型的效率提升對企業的影響?
納德拉:幾年前,我們還在擔憂摩爾定律是否已經終結,大家都在問:“接下來該怎麼辦?”但現在,我們進入了又一個技術大爆炸的時代。
技術平台轉型從來不是單一的S曲線,而是多個S曲線的疊加。
首先,晶片性能在持續提升,像Jensen(黃仁勳)或Lisa(蘇姿丰)等人推動的晶片技術革新,縮短了晶片的研發周期,這可以看作是摩爾定律的延續。
但更重要的是,系統軟體最佳化、模型架構最佳化、推理核心最佳化、應用伺服器,乃至提示快取,我們在這些方面都取得了顯著的進步。
把這些進步疊加起來,每6-12個月,我們就能看到10倍的性能提升。
當技術以這種速度增長,價格又以同樣的速度下降時,消費必然會大幅增長。
所以我非常樂觀,我們正處於一個可以建構“深度應用(deep applications)”的階段,現在,我們已經進入了多模型應用階段,可以進行編排、智能體和多個模型協同工作。
早期應用高度依賴單一模型,但現在我們能建構確定的工作流,讓基於某個模型的智能體與其它智能體對話,我們甚至有了像MCP或A2A這樣的協議,這些都是很好的技術演進。
人工智慧技術如果能進一步標準化,我們就能開發出更靈活且充分利用人工智慧技術的應用。
我認為,開源在這一過程中將發揮巨大的作用。
祖克柏:你認為開源生態會如何發展?為什麼這對你的客戶很重要?你在建構基礎設施時又是如何考慮的?
納德拉:我早期在微軟的一個重要工作是確保Windows NT與各種Unix系統之間的互操作性,這讓我明白了一件事:客戶首先需要互操作性,如果你在這方面做得很好,這對你的業務會很有益,這是我思考開放原始碼的起點。
我對閉源或開源並不教條,世界需要兩者並存。
事實上,客戶也要求兩者共存,即使有人固執己見也沒關係,因為需求會推動世界朝這個方向發展。
例如,我們現在有SQL Server,也有MySQL和Postgres;有Linux,也有Windows,甚至Windows上還有Linux。
我最喜歡的是Windows上的WSL,因為它讓許多開發工具在Windows上部署變得簡單。
總體來說,擁有一種能混合搭配這兩種模式的能力非常有用。
事實上,我們很多企業客戶希望提煉他們擁有的模型,形成他們自己的智慧財產權。在這種情況下,開源模型相較閉源模型有著巨大的優勢。
所以,現在的世界能更好地同時服務於優秀的閉源模型和開源模型,作為超大規模雲提供商,這對於我們來說是一件好事,我們的工作是為這些模型開發商提供服務。
例如在Azure上,你可以使用Postgres、SQL Server,或者Linux和Windows虛擬機器。
同樣,我們希望可以為大家提供各種模型支援。
祖克柏:你認為微軟在開源方面扮演著怎樣的角色?對於剛起步的開發者,微軟能為他們提供那些差異化能力?
納德拉:首先,AI工作負載不僅僅是在推理時有個AI加速器和一個模型,實際上,任何AI工作負載的底層都有儲存、計算資源和網路資源。所以核心基礎設施對Azure來說很重要。
我們希望基於計算、儲存、網路加上AI加速器打造世界級基礎設施,並作為服務提供給那些想要建構下一代智能體的開發者。
此外,我們還在與晶片代工廠一起建構一個應用服務平台,每次技術轉型都會出現一個應用服務平台。
如何將搜尋、記憶體、安全在內的所有開發者需要的服務封裝起來,這些都是現在每個開發者在嘗試做的事情,如何將這些封裝到標準框架中,為開發者提供相應的工具,這是我們在思考的問題。
我們專注在做的另一件事情是將GitHub Copilot作為工具,它的進展令我們非常興奮。
優秀的工具、優秀的應用伺服器和優秀的基礎設施的結合,是加速AI應用開發的關鍵。
祖克柏:你提到智能體和生產力提升,這顯然是整個生態系統的一個重要話題。我很好奇,微軟內部是如何看待這一點的?你看到的最有趣的例子是什麼?
納德拉:我們最直觀的感受來自軟體開發領域的變化。
以GitHub Copilot的演變為例,它最初只有程式碼補全能力,後來我們加入了聊天功能——讓開發者可以直接在工作流中解決問題,不用再去Reddit或Stack Overflow,然後,我們又引入了智能體工作流,可以直接分配任務。
現在,我們還有像SWE Agent這樣的Demo,你可以給它一個高級提示詞,或者把程式碼審查分配給它。
這四個方面——程式碼補全、聊天、智能體工作流和SWE Agent,共同為我們帶來了生產力的提升。
這其中,我們獲得最重要的經驗是,你必須把這些工具整合到現有的程式碼庫和開發者工作流中。
建構全新的應用是一回事,但我們很少能完全從零開始,通常我們需要在一個大型程式碼庫基礎上工作,面對複雜的程式碼工作流,需要整合各種工具鏈。
這是每個工程團隊都要做的系統性工作,只有這樣才能真正提升生產力。
這種變化同樣適用於其它知識型工作,例如在銷售領域,微軟內部在準備企業客戶會議時,以往的流程(我從1992年加入微軟以來就沒變過的流程)是:
有人寫了一份公告,然後通過郵件或共享文件傳送我,我會在會議前一晚讀這封郵件。
現在,我可以用Researcher和Copilot即時獲取網路、公司內部甚至CRM中的綜合資訊,這種改變不再需要有人提前做任何準備,但這需要改變工作方式、工作產物和工作流。
這種轉變一開始會很慢,然後會突然加速。
我在PC時代已經看到過類似的轉變,那時,人們用傳真和辦公室備忘錄做資訊記錄和傳遞,後來有人說:“我們用郵件發個電子表格吧。”數位化的引入改變了資訊記錄和傳遞的方式。
我認為,我們現在正處於類似轉變的起點,客戶服務、行銷資料創作、內容創作等領域都在發生變化,我們已經看到了實實在在的進展和生產力提升。
祖克柏:你有統計過現在微軟內部有多少程式碼是AI寫的嗎?
納德拉:事實上我們在追蹤關於AI的兩項指標:
一是大家對AI的接受率,目前大概在30%到40%,而且這個數字還在穩步上升,具體取決於程式語言。
我們現在很多程式碼還是用C++寫的,但是C++語言的程式碼補全效果不太好,C#還不錯,Python則表現得很棒。
隨著語言支援率的提升,程式碼補全的質量也在提高。
AI寫程式碼還處於早期階段,對於新項目來說,AI寫的程式碼比例會很高,但我們的項目並不是全新的項目,我估計,在一些項目中,我們程式碼庫裡的程式碼可能有20%-30%是用AI寫的。
二是程式碼審查,程式碼審查的比例也很高,我們用AI審查程式碼的使用率在不斷增加。
你們那邊呢?
祖克柏:我沒有現成的數字,但我們有很多團隊在研究Feed排名和廣告排名,這些領域可以通過變更歷史進行調整,這是個有趣的方向。
我們更關注打造AI和機器學習工程師,推動Llama開發本身。
我們預計,明年(2026年)可能有一半的開發會由AI完成,之後比例還會增加。你有類似的看法嗎?
納德拉:是的,我們也在嘗試用SWE Agent解決一些任務,比如核心最佳化,這種任務更有可能實現。
但提出全新的模型架構變化可能還不行,關鍵還是要看任務的性質。
祖克柏:最佳化和安全改進確實是很大的機會,我們也在解決不同的問題。
你們服務於很多開發者,那是你們的核心業務。而我們更多是改進內部開發流程,然後最佳化Llama模型供人們使用。我們不像你們那樣做意圖工作流,所以聽你的想法很有趣。
納德拉:微軟創始人比爾·蓋茲是以工具公司起家的,所以對我來說,現在有趣的是,我們該如何概念化工具和基礎設施,尤其是給智能體用的工具和基礎設施。
即使是SWE Agent也需要一堆工具,它們該是什麼形態?基礎設施該是什麼?沙盒該是什麼?
所以我們要做的事還有很多,基本上是改進GitHub程式碼庫架構,看看對SWE Agent來說是什麼樣。
祖克柏:這很有趣。
我認為,未來每個工程師最終都會更像是技術領導,帶領著自己的智能體小隊。
你提到你個人用AI的工作流,我想知道它為你帶來了怎樣的改變?如果你今天作為一個開發者開始建構智能體,你會如何考慮用AI工具的使用?
納德拉:比爾反覆向我們所有人提出的一個問題是:文件、應用和網站有什麼區別?
現在如果你用Meta AI、ChatGPT或Copilot,我不清楚聊天會話和頁面有什麼區別。
例如,我在使用Llama 4時,實際上我只是與它進行了一堆聊天對話並將它們加入到文件中,然後可以用程式碼補全把它做成應用。
這些想法,你可以從一個高級意圖開始,最終得到一個應用。
過去你會將它稱作應用,我認為這會對工作流有著深遠的影響,我們正處在這個轉變的起點。
作為基礎設施和工具的建構者與使用者,那些因軟體工作方式而形成的限制,也許你可以超越它。
例如,我們過去常常在想,為什麼Word、Excel、PowerPoint是分開的,為什麼它們不能是一個東西?我們試了很多次。
但現在你可以想像,從文字開始,可視化成像Excel那樣的東西,然後展示出來,它們都可以作為一個永久的資料結構。
以前沒能實現的靈活性,現在可以實現了。
祖克柏:你曾指出,如果AI能夠帶來生產力提升,最終會反映在GDP上,但這需要很長時間才能實現。你認為未來3-5年會有怎樣的體現?
納德拉:世界需要一種新的生產要素來應對挑戰。例如,發達國家想要以10%的速度增長,甚至是工業革命時期的峰值增速。
要實現這一點,醫療、零售、工業等各行各業都將需要生產力的提升。
我認為AI有這個潛力,但需要在軟體和管理上進行變革。
人們要用不同的方式與AI合作,就像電力發展一樣,電力存在50年後,人們才通過改變工廠來真正利用它,福特就是一個很好的例子。
我希望AI不會花50年,但單純把AI看作“無馬馬車”並不是解決之道。
技術需要進步,同時需要融入系統,我們需要有新的工作方式、工作產物和工作流。
祖克柏:接下來,我想回到“蒸餾工廠”的話題。你是怎麼把為開源建構的AI模型組合起來的?需要什麼樣的基礎設施?
納德拉:我認為這是開放原始碼的最大的魅力之一。
例如,在Llama家族中,你可以將一個大型模型蒸餾成更小的模型,甚至保持同樣的模型形態,這是很重要的用例。我們希望建構工具,希望將它作為服務來降低使用門檻。
啟動大型模型需要大量基礎設施,不是每個人、每個企業都有這樣的能力,但如果由雲提供商來做,圍繞它提供工具,就會有突破性應用。
例如,對Microsoft 365的每個使用者來說,如果他們能有一個特定的蒸餾模型,建立成智能體或工作流,然後從Copilot裡呼叫,這就會變得很強大,因為它們現在都已經支援MCP協議。
所謂“蒸餾工廠”,是指一個大型模型與多個蒸餾模型之間的一對多或多對多關係,這些蒸餾模型再與GitHub Copilot或其它工作流進行組合。
祖克柏:我一直對此很著迷,我認為蒸餾是開源模型最強大的部分之一。
我們訓練初始的Llama模型,但沒有建造大部分開發者需要的基礎設施,像你們這樣的公司會建構複雜的基礎設施,而我們有大模型,除非蒸餾成更合理的形式,否則真的很難直接使用。
Maverick就是從Llama蒸餾出的一個多模態模型,文字性能與DeepSeek這樣的領先模型相當,但在圖像和多模態上有很大的優勢。
大模型預訓練完成後,我們通過後訓練和蒸餾,從20倍大的模型中提取90%到95%的智力,蒸餾出更高效的模型。
這其中的問題在於,如何讓那些沒有強大技術能力的人也能用上,現在能操作這種規模模型的實驗室數量還很少。
等這個願景實現時,全世界的開發者都能用上不只從單一模型蒸餾,還能混搭不同模型的智能部分,這將是最酷的事情之一。
納德拉:是的,我認為這其中的另一個問題是評估和認證蒸餾模型,我們可以在這方面做更多工具和基礎設施來降低大模型的使用門檻。
好消息是,這些減少智能體建構障礙的工作已經有人開始做了。
此外,模型更新很快,你不能被過去的產品拖住,這也是我們需要擅長的。
祖克柏:確實,開發者需要不同形態的模型。
Llama的每個專家是170億參數,設計時考慮了H100的效率。但開源社區想要更小的模型,比如Llama 3的8b版本最受歡迎。
我們也在做更小的版本,內部代號是Little Llama,能從大模型提取智能,蒸餾成適合筆記型電腦或手機的形態,這是最重要的方向之一。
納德拉:是的,如果我們能做到混合模型,比如MOE組合加上推理模型,然後你就可以靈活地調整延遲或思考時間,那會是我們都想達到的目標。 (鋅產業)