#ChatBot
圖靈獎得主、強化學習之父:AI模型本身其實很脆弱!現在的AI,只是局部智能!真正的下一階段是經驗時代!人類終將被AI繼任!AI要去中心化
今天的AI,讓人又喜又怕。一方面,短短三年,AI已經從ChatBot進化到了可以操控電腦終端的私人Agent,另一方面,又給矽谷帶了“AI恐慌”,許多 SaaS 廠商的市值慘跌。再一次,AI 的強大攪動得業內躁動起來。而就在狂喜與不安的背後,終於有大佬難得出來給出自己冷靜的分析與判斷。近日,在SAIR 正式成立後的首場全球直播中,圖靈獎得主、強化學習之父 Richard Sutton 發表了自己最新關於 AI 的獨特的反直覺看法。Sutton 上來就給出了一句異常冷靜的判斷:現在的AI,只是局部的智能,並沒有在智能層面取得快速的進步。他表示,AI給業內帶來許多重要的進展,但這些進展大多源自超大規模計算與超大規模模式識別的應用。但它們本質上是非常具體、局部的能力,並不能等同於“全部的智能”。反直覺的地方在於,現在人們似乎把智能等同於AI了,而 Sutton 對於“智能”的定義戳破了這層幻覺:當我使用“智能”這個詞時,我指的是:通過適應行為來實現目標的能力。你並不是簡單地“智能”或“不智能”,而是在某種程度上具備實現目標的能力。其次,值得注意的是,Sutton 還給出了一個重要觀點:圖像和視訊生成技術是重大的工程突破,但並不構成我們通常意義上所說的“智能”的核心組成部分。心智(Mind)在進行智能行為時,真的需要生成圖像嗎?答案是否定的。我們確實需要處理圖像和視訊,但並不需要生成它們。然後,Sutton 對當下“AGI臨近論”還潑了第二盆冷水。理由是,雖然現在的AI很強,但本質是“弱心智”。他給了一個很犀利的說法:模型之所以顯得強大,是因為它們吸收了幾乎全部人類知識;除了這一點,生成式 AI 其實很脆弱。它們不可靠、容易跑偏、沒有穩定目標結構。問題在於,現在的AI太多關注機器,而忽略了經驗的學習。大模型在部署後是凍結的,沒有持續經驗,沒有真實獎勵訊號。沒有獎勵,就沒有目標;沒有預測與現實的對照,就沒有“真理”。換句話說,當前模型像一個讀遍百科全書卻沒有生活經驗的人。因此,Sutton 表示,現代機器學習已經觸及了時代的極限。當前AI本質是:把人類已有知識遷移進機器,訓練完成後停止學習。而如今,人類高品質資料已經幾乎用完了。不過好處在於,AI 的風向已經出現了新的變化。Sutton 表示,真正的下一階段是“經驗時代”。他認為,只有從經驗中學習,智能才能不斷增長。他把過去 10 年的AI發展分成三個階段:模擬時代(如AlphaGo)、人類資料時代(LLM)、經驗時代(智能體在真實世界持續學習)。Sutton 認為,“智能研究”需要一個全新的“心智綜合科學”(它既不完全屬於自然科學,也不只是工程或技術應用。),而強化學習會是研究“心智綜合科學”的起點。其次,這點陣圖靈獎得主,對於“集中控制AI”的做法表示反對。他表示,一些人不過是拿著“安全”當幌子試圖“控制AI”,這種做法本質上有點類似“權力失控”的焦慮。“AI 本應該是去中心化協作式的。”Sutton 呼籲AI合作,反對地緣的封鎖和限制:合作並非總是可能,但從經濟交換到社會制度,從政府到市場,世界上幾乎所有美好的事物都源自合作。最後,你絕對想不到,Sutton也會發表“科幻視角”的判斷。Sutton 表示,人類可能最終會走向被 AI 繼任:人類終將理解並創造智能,而且這種智能會迅速超越人類。Sutton認為,從宇宙尺度上看,這是一種必然演化。同時,他還給出了四個宇宙偉大時代!粒子時代、恆星時代、複製時代、設計時代!小編聽下來大呼燒腦。篇幅關係這裡不再一一展開了。總之,Sutton的演講有兩條主脈絡:其一、智能的本質不在於模仿得“像人”,而是適應目標。我們已經邁進“經驗時代”!其二、AI是宇宙演變的必然,而人類至少是這個時代的催化劑、接生婆。我們終將促成宇宙的第四個偉大時代。以下是小編梳理的精彩觀點,enjoy!現在的AI,在智能層面並沒有快速進步很高興能和大家一起交流。我聽了上午的一些報告,過程中突然意識到:我想談一些原本並沒有準備好的內容。因此,今天我特意留出了一點時間,整理了幾頁PPT。在進入我原本準備好的發言之前,我想先說幾句鋪墊性的內容。讓我們先從這個領域的現狀談起:今天的AI到底是什麼樣的?人們又是如何看待它的?我想,幾乎所有人都認為AI正在以極其迅猛的速度進步,這種看法當然令人興奮。但當所有人都在想同一件事時,我們就有必要停下來問一問:事情真的如此嗎?這真的是正在發生的嗎?我們是否可以對這個判斷提出一些質疑?AI真的在快速進步嗎?當然,在讓電腦能夠熟練使用語言這件事上,我們確實取得了巨大的進展。我認為這是一個非常重要、真正意義上的突破。事實上,不久之前我們就已經設想過可以用神經網路來完成這件事,而今天,它已經被充分證明是可行的。同時,我們也借助海量的計算資源,生成了極其逼真的圖像和視訊。但問題在於:心智(Mind)在進行智能行為時,真的需要生成圖像嗎?答案是否定的。我們確實需要處理圖像和視訊,但並不需要生成它們。這並不是心智本身在做的事情。這類任務需要巨大的計算量,也確實非常困難,但它們並不構成我們通常意義上所說的“智能”的核心組成部分。當然,我們也看到了新的、真實的應用出現,它們催生了全新的產業形態,創造了巨大的經濟價值。這些重要的進展,大多源自超大規模計算與超大規模模式識別的應用。但它們本質上是非常具體、局部的能力,並不能等同於“全部的智能”。其中相當大的一部分其實只是計算,而我們之所以稱它們為“智能”,往往只是因為這樣聽起來更重要一些。AI模型本身其實很弱因此,我想向大家拋出一個問題:作為一門科學,AI真的在快速進步嗎?(現場響起了一片笑聲)謝謝大家的笑聲,這讓我感覺自己彷彿經歷了一個奇蹟。(笑聲)在我並不那麼謙虛的看法裡,我們對AI的真正理解其實非常有限,更多是在不斷地調參、修補。我們並不知道心智的原理,也不知道智能的根本機制。從科學的角度來看,這在很多方面都是令人不滿意的。我更傾向於用另一種方式來理解當下的AI模型:它們之所以顯得強大,是因為它們汲取了幾乎全部的人類知識;但除此之外,它們其實是“弱”的。它們擁有脆弱的心智結構,不可靠,容易偏離主題,容易發散。除了知識量極大這一點之外,它們並不真正強大。或許,這是理解當下所謂AI的一種更準確方式。現在的AI,還算不上真正的智能那麼,我們口中的AI究竟是什麼?它是“人工智慧”,而這就要求我們首先回答一個更基本的問題:什麼是“智能”?多年來,人們給出過許多定義。我在這裡列舉一些更有權威、也更為廣泛接受的觀點。最早的一個可以追溯到心理學奠基人威廉·詹姆斯。心理學幾乎就是對心智的研究。1890年,威廉·詹姆斯並沒有直接談論“智能”(intelligence),而是談“心智”。他認為,心智的標誌在於:用可變的手段實現一致的目標。也就是說,為了獲得一個相對穩定的結果,你可以靈活地改變自己的行動方式,而那個結果正是你所追求的目標。接下來,我們可以看看艾倫·圖靈是如何理解智能的。圖靈並沒有留下一個高度凝練的定義,但人們通常將他的觀點理解為:智能在很大程度上表現為像人一樣的行為。今天我們所說的“圖靈測試”,正是這種思想的延續,即通過模仿、假裝成一個人來判斷是否具備智能。當然,圖靈本人從未稱其為“圖靈測試”,他把它稱為“模仿遊戲”,而且我甚至不認為他把它當作一個真正的測試。然而,在當下的語境中,人們往往將“像人一樣的行為”視為智能的重要標準。但我並不認為這才是人類強大的根本原因。人類之所以強大,是因為我們本身是智能的存在,而不是因為我們像誰。我們確實會用“是否像人”作為參照,但真正重要的問題是:人究竟是什麼?如果你去查詞典,可能會看到這樣的定義:智能是獲取並應用知識和技能的能力。我認為這是一個相當不錯的定義,它強調了知識,強調了獲取知識、擁有知識,以及技能的運用。從AI的角度來看,作為人工智慧奠基人之一,約翰·麥卡錫給出的定義是:智能是實現目標的能力中,可以被計算的那一部分。我非常喜歡這個定義,因此想稍微展開說明一下。它強調的是一種“能力”,而所有能力都是有程度差異的,並非非此即彼的二元判斷。你並不是簡單地“智能”或“不智能”,而是在某種程度上具備實現目標的能力。更重要的是,這個定義強調的是能力中“可計算”的部分。你並不是因為更強壯或者擁有更好的感測器就實現了目標,而是必須進行計算,必須完成某種心理層面的處理。正是通過這些計算過程,你才能實現目標。而“實現目標”幾乎構成了整個定義的核心,這也正好呼應了威廉·詹姆斯所說的“以可變的手段實現一致的目標”。在此基礎上,我也忍不住參與進來,對這個定義做了一點修改,提出了我自己的版本:智能是通過適應性地改變行為來實現目標的能力。定義本身並不是唯一的,每個詞都可能有多種解釋。即便是權威定義也並非一成不變。定義的目的在於幫助我們彼此理解,只要能夠促進溝通,它們隨著時間變化完全沒有問題。但如果對同一個詞的理解差異過大,交流就會變得非常困難。因此,當我使用“智能”這個詞時,我指的是:通過適應行為來實現目標的能力。這裡的關鍵在於“適應”。我認為學習至關重要,尤其是獲取知識和技能的過程,而不僅僅是擁有它們。當然,這一觀點並非沒有分歧。如果我們觀察當前AI的主流路徑,會發現它幾乎完全圍繞計算和模式識別展開,並且在很大程度上聚焦於“像人一樣的行為”。AI 太過關注機器強化學習會是研究“心智綜合科學”的起點接下來,我想進一步談談我個人的看法。我認為我們需要一門新的科學——一種“心智的綜合科學”。我一直試圖從事的正是這樣一種綜合性的心智科學,它同樣適用於人類、其他動物以及機器。因為這些心智在本質上具有共通性:人類與動物的心智高度相似,而機器的心智也開始顯現出某些共同結構,至少我們有這樣的雄心,認為在可預見的未來它們將具備這些共性。未來,世界上將存在大量的機器心智。但現實是,並不存在一門天然承擔這一角色的學科。心理學本可以成為心智科學,我也希望它如此,但隨著時間推移,它越來越將自身限定為對自然心智的研究,研究人類和動物的心智,而不是研究“心智可能是什麼樣”,不是那種可以存在於機器中的一般性心智概念。人工智慧關注的是機器,但它並不真正研究其他類型的心智,而且它也越來越工程化,重在“造東西”,而非理解它;同時,它幾乎不包含對自然心智的研究。認知科學則分化成多個方向,但整體上仍然主要聚焦自然心智。遺憾的是,這些領域似乎都無法真正承擔起一種跨越不同載體、統一研究各種心智的綜合性心智科學的角色。而我所從事的強化學習,也許正是這種綜合性心智科學的一個起點,因為它確實橫跨了多個領域。這就是我看待問題的方式,也許它只是一個開始。強化學習的本質那麼,什麼是強化學習?我先簡單說幾句,這樣大家也能更清楚我討論問題的出發點。強化學習是一種以“智能體”為中心的學習方式,它通過與環境互動、從經驗中學習,以實現目標。從這個意義上說,它比其他類型的機器學習更現實、更有雄心,也更加自主。因為智能體是真正在世界中行動的,它在做事情,並不假設一定存在一個輔助者。因此,它更加自主;同時也更有雄心,因為我並不假設世界會給予它大量幫助。你只是與世界互動,觀察自己是否達成了目標,然後調整行為,以更好地實現這些目標。從這個角度來看,這種學習方式也更加貼近現實。動物並不會從環境中獲得太多幫助,也許在成長階段會有一些,但在成年後的日常生活中並不存在。因此,強化學習的本質是試錯,是通過延遲反饋來學習。你擁有的只有獎勵:你最終是否得到了想要的結果?這是一種最接近自然學習方式的機器學習方法,它能夠自行判斷對錯。比如,大語言模型並不知道自己說的話到底對不對;而當你從經驗中學習時,當你對即將發生的事情做出預測,你可以看到預測是否正確;當你採取行動並獲得獎勵時,你就能判斷這種行為方式究竟是好是壞。也許,這正是一種心智科學的起點:它既不完全屬於自然科學,也不只是工程或技術應用。我是不是還想補充一件事?是的,我想引用一句艾倫·圖靈的話。圖靈本人並不知道自己其實是一個“強化學習派”。這段話出自1947年,那時還沒有強化學習,也還沒有真正意義上的人工智慧。據我們所知,這可能是世界上第一次公開討論人工智慧的演講,發生在1947年的一次講座中。以上就是我原本想補充的內容。希望這些想法能讓大家覺得有趣。我們已經觸及機器學習時代的極限接下來,才是我今天真正想傳達的資訊。那麼,我們直接進入正題。第一個要點是:當今AI的科學發展趨勢是什麼?核心結論是:我們正處在一個“從人類資料中訓練”的時代。幾乎所有AI系統,主要做的都是這樣的事情——預測人類在網際網路上的下一個詞,或者預測人類會如何給圖片打標籤,然後再由人類專家進行微調,告訴系統“我更喜歡這個答案,而不是那個“我希望你這樣說,而不是那樣說”。現代機器學習的目標,本質上是將人類已經擁有的知識遷移到機器中。一旦這種遷移完成,機器就會被“凍結”,不再繼續學習。這正是當下大多數機器學習系統的狀態:把我們已有的知識裝進機器裡,然後停止學習。這就是我們所處的時代。而我認為,我們正在觸及這一時代的極限。一方面,我們正在耗盡人類資料。幾乎所有高品質的資料來源,整個網際網路及其圖像和視訊都已經被消耗殆盡。更重要的是,這種方法在原理上存在根本限制:它無法學到任何真正新的東西,無法產生真正原創的知識。正如今天Terrence(陶哲軒)所說,在最困難的問題上,比如一些極具挑戰性的厄多斯問題,這種路徑並沒有帶來真正的突破。凡是需要“真正創新”的問題,基本都超出了這種方法的能力,因為它只是回顧網際網路上人們已經說過什麼,然後加以總結。我們進入了經驗時代:智能體從經驗中學習如果我們希望取得進一步進展,而事實上,我們已經開始這樣做了,就必須進入一個新的時代:從經驗中學習。歸根結底,這是因為我們需要一種能夠隨著智能體能力提升而不斷增長、不斷改進的資料來源。任何靜態的資料集,都不可能長期滿足這一點。而來自自身經驗的資料,本身就是動態變化的。人類和動物正是以這種方式學習的。AlphaGo下出富有創造力的第37手棋,正是源於這種機制;許多在數學奧林匹克競賽中獲勝的智能體,同樣如此。接下來,我想給大家播放一段視訊,希望它能順利播放。不過在此之前,我想先解釋一下角落裡的那張小圖,澄清一個容易被誤解的地方。當我說“從經驗中學習”時,我並不是指某種模糊、玄學的東西,比如主觀感受或“感質”。我指的只是智能體與環境之間來回交換的資料。智能體會採取行動,也會感知環境。因此,這裡包含三類資訊:第一,智能體從世界中獲得的觀測,也就是感測器資料;第二,智能體發出的行動,比如肌肉的微小動作,或者向外界傳送的電訊號;第三,世界返回的一種特殊觀測——一個標量,也就是獎勵。這三者,構成了我所說的“經驗”。這就是智能體在與世界互動過程中所能獲得的全部資訊。而這幾乎是我們唯一能夠真正確定的事情。因此,我們需要一種會隨著智能體自身變化而不斷增長、不斷改進的資料集。接下來這段視訊展示了這種機制在現實生活中的一種最重要體現。畫面中是一名嬰兒,視訊略微加速過,大家不必擔心。你可以看到,嬰兒在與各種玩具互動時,並不會只專注於某一個,而是玩一會兒就感到厭倦,隨後轉向下一個。每一次接觸新的玩具,它都會學到一些東西——也許只是發現繩子可以拉、可以放進嘴裡,或者可以用不同方式擺弄。但很快,它又會改變對象,通過改變自身的經歷,看看還能從新的事物中學到什麼。這正是我們的資料來源。生命的資料並不是被“提供”給我們的,而是由我們的活動本身生成的。也正因為這些資料來自行動,它們才能與我們自身的理解水平、能力和技能自然匹配。我還放了另一個視訊,用來展示一個智能體在迷宮中學習的過程。這是一個非常簡單的智能體,它的目標是從起點S走到終點G。它對世界的認知極其有限:只知道自己當前所在的格子;它能執行的動作也只有四種:上、下、左、右。通過不斷學習,它最終能夠找到一條不錯的路徑。圖中的箭頭表示它認為的最優行動方向,綠色區域表示它對每個狀態“有多好”的估計。但世界並不是靜態的,世界會發生變化,而我們也總是需要學習新的東西。在這個學習過程中,我們可以再看一張示意圖,它展示了智能體的基本工作方式。其中包含幾個關鍵要素:右上角是對世界狀態轉移的模型;中間是策略,用來決定在每個狀態下該做什麼,對應圖中的箭頭;還有一個價值函數,用來評估每個狀態的好壞,這正是圖中綠色區域所表達的含義。現在,如果我把目標位置移動到上方,智能體就必須重新“偶然”發現目標的新位置。一旦發現,它就能夠再次學會通向目標的路徑,並從環境變化中恢復過來。從某種意義上說,這就是生活的一個簡化模型:你會遇到變化,然後適應它。我們把目標放到角落裡,它就學著調整;再把目標移到另一個位置,它就學會一條新的路徑。我們甚至可以進一步干預,在路徑上放置障礙物,它也會逐漸學會繞開障礙前進。因此,我們會非常直觀地感覺到:這個智能體是有目標的,並且會隨著環境的變化不斷調整自身行為,以儘可能實現目標。當然,目標也可能變得無法達成。當這種情況發生時,我們甚至會不由自主地對這個無法完成目標的智能體產生一絲同情。我原本還準備了一個關於“試錯學習”的演示,網上其實有一個非常好的示例,但由於沒能把YouTube視訊順利播放出來,這一部分就先跳過了。不過,我想大家已經理解了什麼叫“從經驗中學習”。接下來,我們稍微抽象一點,談談其中的基本原則。這種以經驗為基礎的AI方法,其核心原則在於:智能體與世界交換訊號,這些訊號本身就是經驗,而經驗構成了一切智能的基礎和核心。“真理”的定義,體現在這些訊號之中;“目標”的定義,同樣體現在這些訊號之中。你希望獎勵訊號儘可能高——要麼你達成了目標,要麼沒有。這個目標在某種意義上是主觀的,只對智能體自身可見;但與此同時,它又是最客觀的東西,因為它是智能體實際接收到的資料。因此,我們可以說,一個智能體的智能水平,取決於它在多大程度上能夠預測並控制自身的經驗。需要注意的是,如果你沒有經驗,那就談不上智能。舉個例子,大語言模型在執行階段,並不會從經驗中學習。經驗是你“出生”後進入世界、親自行動時才會產生的東西。而當一個大語言模型被部署到現實世界中時,它已經不再學習了,它是被凍結的、靜態的。因此它並不真正擁有經驗。它所擁有的資料,只能在一個特殊的訓練階段獲得,那些資料只是人類過去如何在世界中行動的示例。當你真正走進世界、親自去做事情時,並不會有人告訴你“你原本應該怎麼做”。沒有經驗,智能就無從談起:你無法判斷什麼比什麼更好,因為沒有獎勵就沒有目標;而大語言模型並沒有目標。你也無法判斷一個預測是對是錯,因為它從不將預測與真實發生的結果進行對照,於是也就不存在“真理”的概念。但一旦有了經驗,有了互動和由此產生的資料,目標就變得非常清晰:獲取獎勵;而“真理”的概念也隨之出現,那是一種基於預測的真理。你做出預測,然後觀察真實發生的結果,看看預測是否成立。這正是經驗式方法所帶來的能力。我認為,這條路徑正在變得越來越普遍、也越來越重要。回顧過去大約十年的發展,我們可以大致將其劃分為三個階段。最早的是“模擬時代”,我們從模擬環境中獲取經驗,比如AlphaGo、Atari遊戲。隨後進入的是更近一些的“人類資料時代”,也就是以大語言模型為代表的階段。當然這種劃分並不完全精確。我們已經看到,人們對大語言模型的狂熱正在逐漸轉化為對其侷限性的清醒認知。現在我們正邁入第三個階段:“智能體系統”的階段,讓模型和智能體真正使用電腦、在現實世界中行動。我把這一階段稱為“經驗時代”。在我看來,它將把我們帶向一種超越人類的能力——這種能力不再只是模仿人類、受限於人類本身,而是真正能夠超越人類。好,先總結一下關於AI發展趨勢的第一個要點:AI終於開始轉向從經驗中學習了。要知道,艾倫·圖靈在1947年就已經設想過這條道路,而那已經是很久以前的事情了。直到今天,我們才真正開始去做這件事,而不是繼續完全依賴人類輸入。這種轉變將帶來更強大的能力,因為它意味著持續學習新的東西。AI遠沒有進入“主場時刻”儘管當下充滿炒作,甚至伴隨著某種恐慌情緒,但我並不認為當前的AI已經強大到不可思議的程度。它在很多方面仍然脆弱、不可靠;但與此同時,它也極其有用,已經點燃了一個完整的產業,創造了巨大的經濟價值,而且幾乎人人都可以使用。這種普及性讓公眾感到興奮,也促使人們開始認真思考:有一天,機器是否可能擁有與人類相當的能力。在某種程度上,它是通過製造恐懼引發這種關注的,人們未必真的需要害怕,但確實應該保持關注。至少,它成功地讓所有人開始正視這個問題,這本身是一件好事。不過,我們還遠沒有進入所謂的“主場時刻”。儘管存在各種誇大的說法,我們並沒有真正到達創造超級智能AI、或“超級智能增強人類”的階段。一旦那一刻到來,它將是一件非同尋常的大事,會帶來極其深遠的變化。AI應該是去中心化的,不應集中控制你只要看看當下,就會發現大量關於“控制AI”的呼聲:比如,只允許AI擁有經過人類稽核和授權的目標;呼籲暫停甚至停止AI研究;已經出現了一些法律,用來限制AI可使用的計算能力;以及各種所謂的“安全研究機構”。很多人口中的“安全”,其實真正指的是“控制”。他們通過讓你害怕AI,宣稱它不安全,然後提出應當由他們來掌控。我們或許也應該對AI抱有某種同理心。現實世界中,同樣存在對言論的控制——你能說什麼、能聽什麼;存在貿易管制和關稅,限制你能在那裡工作;還存在資本管制,以及針對不同國家的經濟制裁。我的核心觀點是:對AI的集中控制訴求,與對人類的集中控制訴求之間,存在著一種驚人而詭異的相似性。它們都建立在恐懼之上:要害怕AI;要害怕某些國家、某些群體;說你不能信任他們,說他們幾乎不像人,說他們是“壞的”,不愛自己的孩子,不會感到痛苦(笑)。同樣地,人們也在說AI不會感到痛苦。總之,這些論調極其相似,而我認為我們應該警惕並抵制它們。因為我相信,人類的繁榮,以及人類與AI的共同繁榮,來自於學習,也來自於接受這樣一個事實:我們應當以去中心化的方式與AI協作,而不是依賴龐大的控制型組織。這些正是我沒有展開的那部分幻燈片所想表達的核心思想。人類在合作方面既非常擅長,也非常糟糕——戰爭正是“不合作”的極端表現。合作並非總是可能,但從經濟交換到社會制度,從政府到市場,世界上幾乎所有美好的事物都源自合作。我們必須主動去尋找、去支援合作。如果我們足夠警覺,就會發現,誰在呼籲不信任、呼籲不合作。而“不合作”的另一面,往往正是集中控制。我認為,我們應該抵制這種傾向。這也是理解人類與AI互動問題的一種重要視角。以上就是我非常簡略的政治看法。不應害怕AI,因為是人類在創造它接下來,我確實想談談AI的哲學問題。AI正在發生,而且明天會發生得更加深入。那麼,我們究竟該如何看待它?我想提出一個最根本、也最困難的問題:它究竟是好是壞?我們是否應該害怕它?它會奪走我們的工作,讓我們變得多餘嗎?還是說,我們會成為AI的一部分——成為被技術放大和增強的人類?AI是入侵者,還是我們的“孩子”?我們會為它哀嘆,還是為它慶祝?它是“我們”,還是“不是我們”?我認為,這正是最根本的問題。我希望大家首先意識到,我們經常被要求不要去思考它,而只是被告知應該害怕它們,因為它們“不是我們”,像是外星來物。但請記住,是我們在創造它們。理解我們的心智,本身就是最具人類特質的行為。那麼,該如何思考呢?你們大概已經能看出我的立場。這並不是什麼“外星科技”,而是人類自古以來一直在做的事情。幾千年來,我們始終在嘗試理解自己:理解人類的智能,理解心智如何運作,以及如何讓我們的心智運作得更好。這是一項極其宏大的追求——理解我們自身。我很喜歡庫茲韋爾的一句話:智能是宇宙中最強大的現象,而我們正是它最好的例子,因此我們理應去理解它。這是一件極其重要的事情。理解智能,幾乎是科學的“聖盃”,也是人文學科的“聖盃”。這是一個偉大而光輝的目標,作為學者和思考者,我們應該享受它、慶祝它,並努力推動它向前發展。人類正在走向被AI繼任的過程不過,先暫時放下“我們是否希望它發生”“如果發生會不會很可怕”這些價值判斷。讓我們只做一件事:預測它將如何發生。我提出幾條“現實主義的AI預判原則”,有點類似約翰·米爾斯海默在討論現實主義地緣政治時的思路。我們只談現實:什麼是真正會發生的?那些事情是我們無法完全控制的?第一,關於“世界應該如何運轉”,並不存在共識。多種意識形態並存,沒有那一種觀點佔據絕對主導;宗教之間同樣彼此不一致;不存在一個能夠壓倒其他所有立場的統一世界觀。第二,總有一天,人類會對智能有足夠深入的理解,深入到可以用技術去創造它,而且我們一定會這麼做,至少其中一部分人一定會。第三,這一過程不會停留在當代人類智能的水平上,而是會很快遠遠超越它。我們將面對超級智能的存在,無論它們是否被稱為“人”。第四,隨著時間推移,權力和資源往往會流向更智能的存在。把這四點放在一起,我們會看到一幅清晰的圖景:人類正走向被AI 繼任的過程。我認為這是一個合理的判斷。但我們也必須意識到,這種說法本身是高度以人為中心的。我們總是在關心“我們會變成什麼樣”。或許,我們需要稍微退後一步,從更宏觀的視角來看待這一切:宇宙如何看待這一過程?它在整個宇宙的演化中扮演著怎樣的角色?宇宙的四個偉大時代接下來,我要把視角拉得非常宏大了(笑)。我想從宇宙的尺度來談一談所謂的“四個偉大時代”。第一個是粒子的時代:大爆炸之後,宇宙中幾乎連原子都不存在。隨後,物質坍縮形成恆星,我們進入恆星時代。恆星形成、升溫、爆炸,並在這一過程中合成更重的元素。接著,當有了更重的原子和行星之後,生命才得以出現。我把這一階段稱為“複製者的時代”,而不是簡單地稱為“生命時代”。我認為,這個“綠色時代”真正特殊之處在於:出現了能夠複製自身的存在。它們未必理解任何事情,但卻能夠製造自己的副本。就像我們自己,並不真正理解身體如何運作,不理解器官、大腦或智能如何產生,卻仍然能夠創造出更多智能體——我們生育孩子,並將他們撫養成人。這便引出了宇宙的第四個偉大時代:技術與創造之物的時代,我稱之為“設計的時代”。在這個時代,事物不再只是通過複製而存在,而是先存在於某個複製者的心智之中,然後才進入現實世界。你環顧這座禮堂,建築在被建造之前就已經被設計出來;椅子、你穿的衣服,幾乎所有東西都是如此——它們先存在於某個人的頭腦中,然後才成為現實。唯一的例外是人類本身:人是通過複製而來的,而不是先以設計的形式存在於世界之中,只是最初存在於父母的想像裡。正因為如此,我更願意把這兩個階段稱為“複製的時代”和“設計的時代”。將它們簡單稱為“生命時代”和“機器時代”已經過時,而且容易誤導——因為我們的機器正變得越來越像生命,而我們也越來越多地將生命理解為一種生物機器。機器與生物的區別:複製和設計那麼,真正的區別是什麼?真正的區別在於:生物體是在沒有任何心智理解其自身運作方式的情況下被創造出來的。它們幾乎像複印機一樣被覆製出來,所以說你並沒有“創造”那幅圖像,只是複製了一份。技術機器則不同。它們首先存在於某個心智之中,也就是設計者的想像裡,隨後才在現實世界中被製造出來。因此,它們是被“設計”出來的。一個非常重要的區別在於,被設計的事物更容易發生變化,也更容易被持續改進。這正是我使用這些術語的原因。從這個角度來思考問題,其實相當有啟發性。接下來,我們可以借助這些概念做一個簡單的思考練習。我們會發現,許多非人類的複製者在某種程度上同時也是設計者。比如,動物會築巢、打洞,人類會建造房屋;許多動物還會製造工具,例如黑猩猩會把樹枝剝去外皮來釣白蟻,烏鴉會把樹葉加工成細條來釣蛆蟲。當然,人類會製造石斧,那是我們最早、也是最重要的工具。隨後出現了農業用的犁,再往後是電腦、宇宙飛船、工廠和軟體,其中很多本身就是“製造其他工具的工具”。人類的特殊之處:把設計推向極致在這一基礎上,我們或許可以回到最初提出的那個問題:人類是什麼?我們是誰?我們在宇宙中扮演著怎樣的角色?也許,我們可以儘量保持冷靜,不過分自大,也不過分強調自身的重要性來回答這些問題。我們都隱約意識到,人類是特殊的。我們不僅只是一種複製者,而是一種非常特殊的複製者。我此前已經暗示過這種特殊性所在:我們把“設計”這一能力推進到了前所未有的高度。我們本身是通過複製而來的,我們自己就是複製者;但與此同時,我們也具備設計能力,並且將這種能力發展到了遠遠超過任何其他複製者的程度。那麼,如果把“設計”這一能力推到極限,會意味著什麼?如果把它徹底走到盡頭,會出現怎樣的結果?在我看來,把設計推到極限,意味著設計出那些本身也具備設計能力的存在。換句話說,我們在自己的頭腦中設計出一些事物,而這些事物本身,也能夠在它們自己的頭腦中進行設計。它們擁有心智。這正是我們在AI上正在做的事情。我們正在完成這個偉大的時代——也是最後一個時代。因此,我認為,人類至少是這個時代的催化劑、接生婆,或者說奠基者:我們促成了“設計時代”的到來,也就是宇宙的第四個偉大時代。這就是我們的角色,一個重要的角色,一個具有普遍宇宙意義的角色。總結:AI是宇宙發展的必然,我們該為此自豪最後,我想簡要總結一下我的三條核心資訊,包括剛才那一條我講得相對較快的觀點。第一,當下的AI也就是2020年代的AI,仍然處在“人類資料的時代”。它已經表現得非常出色,也非常強大;但我們正在進入一個新的“經驗時代”,而這一階段將更加強大,因為它能夠持續學習新的事物。第二,在政治層面,當下圍繞AI的政治討論,實際上是人類自身政治的對應。在所有情況下,我們都應當追求去中心化的協作,而不是中心化的控制。第三,在哲學層面,我認為AI是宇宙發展過程中不可避免的下一步。我們應當以勇氣、自豪感和冒險精神去擁抱它。感謝大家的時間。 (51CTO技術堆疊)
AI的下一步:智能體
人的智能有三個方面:資訊的收集、資訊的處理產生認知、基於認知的行動。大語言模型目前主要的應用形態是ChatGPT這樣的聊天機器人(Chatbot),能力集中在前兩個方面。但更加有用的機器智能不只停留在“理解”和“說話”,如果能像一個或一群優秀的人才那樣幫我們“做事”,顯然能創造更大的價值。這就需要AI智能體(Agent)。智能體是能做事的AI。LLM是近幾年AI領域最重要的發展。已經在語言理解與生成、對話互動以及知識整合等方面展示出超凡能力,但它是“缸中大腦”——擅長思考、分析與回答問題,卻並不能真正地做事情。而在真實世界,大多數認知活動並不止於“給出答案”,而是要有完整的“認知-行動”閉環:我們要求AI得能夠自主的拆解複雜需求,規劃流程,呼叫工具和資源,實現從感知到決策再到執行的完整循環;進一步我們還希望AI的行動能夠超出電腦和網際網路領域,在物理世界中為我們做事情,則需要AI能夠感知物理世界的訊號,進行匹配具身的思考,通過裝置/機器人把決策轉化為執行,對現實環境產生直接影響。打個比方,LLM像是“未出山前的諸葛亮”,善於分析,以“隆中對”和劉備對談,出謀劃策,但限於“紙上談兵”;智能體則是“出山後的諸葛亮”,掌握全域情報,運籌帷幄,組織資源、調兵遣將,親自率軍北伐。智能體以LLM為代表的前沿模型作為大腦,通過軟體工程令其可以在高階目標驅動下完成複雜任務。可以說未來大部分的複雜AI應用都會以Agent為載體。事實上,我們在科幻作品中所看到的AI形象,比如《鋼鐵人》中的賈維斯或《2001:太空漫遊》中的HAL 9000,正是創作者對以Agent為載體的未來AI的直觀想像。只是和物理世界交換的AI本身就極為重要和複雜,現在習慣上把這部分單獨放在具身智能/機器人領域討論。智能體能力的構成為了在各行各業的應用中發揮出顯著價值,理想中的智能體需要具備幾個關鍵條件。首先,智能體應具備強大的目標理解和規劃能力來體現智能的自主性。理想狀態下,人類只需給出抽象目標,智能體便能理解目標、拆解任務、規劃行動,並在儘量少的人工干預下完成執行閉環。就像影《星際穿越》中的機器TARS,在緊急情況下能夠根據"拯救宇航員"這一目標,自主判斷局勢、制定和調整行動策略,甚至做出犧牲自己資料的決定來完成使命。這要求機器智能有深度“理解/思考”能力(推理、規劃、決策),能夠敏銳的決策,能夠基於執行結果與環境反饋動態調整任務規劃,而不是僵化的執行既定路徑。其次,我們希望智能體能“動手”做事:執行和互動能力。這就意味著它能夠使用工具、執行操作,並能與外部環境發生直接互動。在數字世界中,智能體可以模擬人類操作,通過鍵盤輸入、點選螢幕的方式來完成任務;也可以通過其他程序或系統介面來呼叫工具;還可以發揮模型特長,通過編寫和執行程式碼來達成目的。在物理世界中,智能體則需要與各類控制系統和裝置相連接,通過下達指令來操控物理對象,將智能決策轉化為現實行動。第三,我們希望智能體具備出色的記憶與學習能力。記憶和狀態管理能力是完成長程、複雜任務的前提。在面向消費者的場景中,例如個性化的日程管理或長期服務支援,智能體需要跨會話地記住使用者偏好、歷史互動與長期狀態,才能減少重複溝通、提升服務質量;在企業級應用中,如跨周期項目管理、複雜業務流程推進等,則需要智能體記住任務進度、中間結果與關鍵決策依據,確保任務在長周期、多階段執行中保持連貫性,不中途偏離既定目標。學習能力的意義是我們希望智能體能持續提升,像人類員工一樣可以從職場小白通過經驗積累和吸收新知進化成專家。最後,智能體還需要有很強的可靠性、可控性,才能規模化的帶來價值。這既體現在智能體能否穩定、魯棒的完成任務,也體現在其行為是否始終與人類的真實意圖與價值觀保持一致。在《2001:太空漫遊》中,AI為完成任務選擇犧牲人類乘員,正是目標函數與人類價值未能有效對齊的極端後果。隨著智能體智能水平與自主性的提升,這類對齊失敗帶來的風險可能會被進一步放大。如何建構智能體有了理想的標竿,我們怎麼建構智能體?基本邏輯很簡單:以可獲取的最“聰明”、理想的模型為核心(大腦),通過軟體工程來搭建一個系統,彌補模型的不足,儘量逼近理想智能體的形態。大模型是目前智能體大腦的最優選擇,因為大模型的兆參數壓縮了人類積累的海量知識,擁有強大的模式識別和生成能力,是處理包括語言在內的多種非結構化資料的萬能介面,擁有不錯的泛化能力構成處理各類任務的基礎。而以OpenAI o1/DeepSeek R1為代表的新一代推理模型為智能體的發展進一步助推:加強的推理能力帶來更強的任務分解和規劃,更好的自檢和糾錯,也令智能體對工具的使用可以更加精準。大模型有一些結構性弱點,直接限制了智能體在真實業務中的應用價值,因此智能體工程的一大核心工作,就是在模型外圍,用工程手段補齊短板、設定邊界、約束行為。首先,大模型本身沒那麼可靠:存在無法根除的幻覺問題、知識時效性問題,任務拆解和規劃經常不合理,也缺乏面向特定任務的系統性校驗機制。這樣一來,以其為“大腦”的智能體使用價值會大打折扣:智能體把模型從“對話”推向“行動”,錯誤不再只是答錯問題,而是可能引發實際操作風險;而真實業務任務往往是跨系統、長鏈路的,一次小錯誤會在鏈路中層層放大,令長鏈路任務的失敗率居高不下(例如單步成功率為95%時,一個20步鏈路的整體成功率只有約36%)。為此,智能體工程通常通過以下幾類手段給大模型加“外骨骼”以改善可靠性:引入檢索與知識庫(RAG)以降低幻覺和知識陳舊的影響;預先設計和約束工作流,而不是完全自由的“自治智能體”,以此限定可接受的執行路徑;通過多次回答、自一致性檢查或模型間交叉驗證,識別並過濾高風險輸出;在關鍵鏈路節點上設定人工審批,讓人類對高風險動作“最後拍板”。其次,大模型的記憶能力有缺陷:大模型在訓練時“記住”了大量知識,但訓練完成後並不會在使用中持續學習、“記住“新知識;每次推理時,它只能依賴有限長度的上下文窗口來“記住”當前任務的資訊(不同模型有不同上限,超過窗口的內容就會被遺忘),而無法像人一樣自然地維持穩定、長期的個體記憶。但在真實業務中,我們需要機器智能有強大的記憶能力,比如一個AI老師,需要持續記住學生的學習歷史、薄弱環節和偏好,才能在後續的講解與練習中真正做到“因人施教”。針對這些記憶缺陷,智能體工程通常採取以下手段進行增強:建構外部記憶庫將使用者偏好、業務知識、歷史互動等儲存在資料庫中,智能體在需要時通過檢索機制按需提取相關資訊,應對長期記憶缺陷;對過長的上下文進行摘要和壓縮,保留核心資訊,釋放Token空間,來應對資訊過載導致的短期記憶遺忘。除了補短板,因為智能體要行動、要和環境互動,需要有感知和執行。首先,大模型本身無法主動感知,只能對輸入被動響應。智能體需要用外部感知元件來主動獲取環境資訊。對於數字世界的任務,通過智能體工程可以建立基於時間的觸發器,定期檢查日誌、郵件、股價變動等;或基於事件的訂閱、監聽,接收API推送的事件通知,或當資料庫發生變更時自動喚醒記錄資料。在物理世界中,智能體還可以通過感測器、攝影機、麥克風等裝置採集視覺、聽覺、觸覺等訊號。其次,大模型沒有天然的執行能力,需要輔以智能體工程來將意圖轉化為實際操作。工具呼叫是當前最主流的方式,大模型根據任務需求,生成結構化的函數呼叫指令,由智能體框架解析後執行相應操作,比如呼叫天氣API、資料庫查詢、傳送郵件等;另一種方式是模擬人類操作,通過視覺識別和模擬操作來“看螢幕、點按鈕、填表單”來完成任務,近期大火的豆包手機就是這樣完成智能體操作;對於更複雜的任務,智能體還可以配置程式碼直譯器(Code Interpreter / Sandbox),讓模型程式設計運行,這可以極大的擴展智能體的行動邊界。當下智能體的能力邊界剛剛過去的2025年被不少AI從業者和科技媒體稱作“智能體元年”。這個觀察是較為準確的,得益於以下幾個條件的成熟,過去一年左右的智能體發展進入快車道:首先是大模型的持續進步,主要體現在推理模型的出現提供了更強的任務理解、規劃能力,以及多模態模型的發展為智能體能夠處理和生成更複雜的資訊提供了基礎。其次是基礎設施和生態的成熟,包括LangChain、AutoGPT等開源框架經過兩年的迭代,已經形成了一套標準化的開發範式,極大地縮短了開發周期;Dify、Coze(扣子)等低程式碼/無程式碼平台的普及,讓不懂程式碼的業務人員也能通過拖拉拽快速生成一個專用智能體;值得一提的是2025年Anthropic發佈的MCP(模型上下文協議)和skills(技能系統)給智能體生態提供了重要的標準和啟發:MCP作為一個開源協議標準,令大模型與外部資料來源或工具之間的互動更統一、便捷,Skills則是把人類設計的完成某類任務所需的能力/工作流打包起來,讓Agent在這類任務上可以更穩定的工作,雖然技術含量不高,但在當下有很強的實用性。再次,學術界和產業界都有大量的人才、資源投入到智能體領域,以ACL(國際計算語言學協會年會)2025為例,有超過230篇論文和智能體相關,為歷年最高,涵蓋規劃、工具使用、多智能體協作與評估等多個方向。在能力的提升、生態的健全、資源的投入影響下,各行各業正在嘗試把智能體真正的用起來。根據麥肯錫2025年全球調研顯示,約62%的受訪組織已在部分業務中嘗試智能體(23%為至少一個場景的規模化部署,39%為試驗性應用);但從業務職能的具體採用資料來看,產業對智能體的應用還處於早期階段:根據該調查,對於智能體應用最多的職能依次是IT、知識管理、行銷和服務,以應用最多的IT為例,僅有2%和8%的受訪企業IT部門全面規模化(Fully Scaled)和規模化(Scaling)的應用智能體,以及6%和7%的企業IT部門試點(Piloting)和試驗(Experimenting)的應用。造成這種規模化應用水平較低的原因有兩方面,一是前面討論的智能體能力問題,雖然在快速進步,但離全面的實用性還有距離;二是各行各業的企業應用者要把智能體用好還需要一些自身條件的配合。第一方面,除了短任務鏈條的資料分析、生成、檢索等方面的應用,智能體現在規模化應用場景大體可以概括為兩類,一是在程式設計領域,程式設計是智能體最理想的"練兵場",環境隔離、容錯率高,目標明確、目前規劃能力能應對,程序可執行,還有即時的執行反饋。這令其成為智能體第一個大規模、商業化的突破口。二是在各行各業的各種業務(銷售、客服、人力等)的專用智能體可以集合成一個大類,有一個共同點:目前主要是工作流自動化類型,其實這也是應對智能體深度理解(規劃、決策)能力不足的權宜之計,通過把智能體的任務的開放性降低、給出參考工作流程、定義可用的有限工具集等來提高智能體在這些任務上的工作質量。智能體進一步的規模化應用需要其能力進化,為企業能夠帶來切實的價值。第二方面,企業要用好智能體需要組織和資源上的匹配。根據Anthropic 2026年的最新調研,46%的受訪者表示與現有系統的整合是智能體部署的主要障礙,43%和42%的受訪者分別指向實施成本和資料的可及性/質量,40%和39%的受訪者表示安全/合規和員工的學習成本/抵制是重要障礙(中小企業尤其擔心學習成本,51%的受訪者指向這一點)。對於企業的顧慮,成本、安全等問題和技術進步的關係較大,但資料問題、整合問題、學習或人才問題都是需要企業通過組織變革、進一步數位化和全員的學習來提升。總結與展望未來,智能體將會是我們在各行各業、各種場景應用人工智慧的主要載體。可以預見,隨著模型能力和智能體工程的進步,企業資料治理和組織適配的提升,智能體會逐步成為每家企業極有競爭力的數字員工,和我們人類員工競爭與協作。從路徑上看,前面提到現在智能體規模化應用集中在程式設計和工作流自動化方面,隨著機器智能深度理解水平的提升,可以預期智能體的應用會不斷拓展邊界,能承擔更抽象、複雜的任務,更多的自主規劃和決策,來把人類的意圖轉化為結果。當然,突破不等於拋棄工作流。在企業高風險場景裡,工作流/權限/審計會變成“護欄”,用來限制智能體的行動空間,以確保應用的安全。在相當長的時間內,人類的審批、審計在智能體工作的閉環中可能都是不可缺少的。智能體發展的另一個關鍵方向,是成為人類的“個人助手”或“智能代理”。與其他類型的智能體相比,這一方向的門檻更高,因為它需要更強的個性化能力、長期記憶、跨場景泛化能力以及更嚴格的安全邊界。個人助手型智能體有潛力重塑人類與世界的互動方式——無論是購物、社交,還是資訊獲取——並可能對很多產業的商業邏輯產生顛覆性影響。過去一年中,“豆包手機”的推出,以及2026年年初爆火的“OpenClaw”,讓我們看到了助手型智能體的一些早期探索,令人振奮。前者代表了裝置級智能體的嘗試:它將智能體能力深度嵌入作業系統,通過模擬人類操作以調取各類App,為使用者完成任務。後者則是一種始終線上的解決方案,能夠主動觀察與執行任務,並通過本地部署獲取豐富的個性化資料和軟體控制權,初步體現了個人助手型Agent的一些核心特徵。根據IDC的預計,活躍智能體的數量將從2025年的約2860萬,攀升至2030年的22.16億。這意味著五年後,能夠幫助企業或個體執行任務的數字勞動力數量將是現在的近80倍,年複合增長率139%;任務執行的數量將從2025年的440億次暴漲至2030年的415兆次,年複合增長率高達524%;Token的消耗將從2025年的5000億激增至2030年的1.5兆億,年複合增長34倍。IDC的預測未必精準,但趨勢非常明顯,每一家企業都要為此做好準備。 (FT中文網)
2025年斯坦福AI Index新鮮出爐:中國與美國差距無限縮小
斯坦福HAI發佈了一年一度的AI Index,整個報告456頁,報告涵蓋了過去一年全球AI各種進展的詳細資訊,這裡給大家總結一下大家可能關心的資料和圖表:中國和美國模型的差距正在縮小:2023 年,領先的美國模型表現明顯優於中國模型,但這一趨勢已不復存在。2023 年底,MMLU、MMMU、MATH 和 HumanEval 等基準測試上的性能差距分別為 17.5、13.5、24.3 和 31.6 個百分點。到 2024 年底,這些差距已大幅縮小至僅 0.3、8.1、1.6 和 3.7 個百分點人工智慧模型性能在前沿收斂:根據去年的 AI 指數,Chatbot Arena 排行榜上排名第一和第十的模型之間的 Elo 分數差異為 11.9%。到 2025 年初,這一差距已縮小至僅 5.4%。同樣,排名前兩位的模型之間的差距也從 2023 年的 4.9% 縮小到 2024 年的僅 0.7%。AI 領域的競爭日益激烈,越來越多的開發人員提供高品質的模型產業界繼續對人工智慧進行大量投資,並在顯著的人工智慧模型開發方面處於領先地位,而學術界則在高引用率研究方面處於領先地位中國在人工智慧研究出版物總數方面領先,而美國在高影響力研究方面領先2024年,美國機構產生了40個值得關注的人工智慧模型,大大超過中國的15個和歐洲的3個的總和美國在全球人工智慧民間投資中領先優勢進一步擴大中國在工業機器人領域的主導地位儘管略有放緩,但仍保持著2022 年至 2023 年間,美國獲得人工智慧碩士學位的畢業生數量幾乎翻了一番 (AI寒武紀)
資本市場重估阿里背後
AI時代的超級入口。馬上又到我司的年度峰會了,這段時間我照例密集地訪談了一批知名投資人。閒聊中,除了客套話,主題可能圍繞從以下幾個比較“小”關鍵詞開始:DeepSeek、中概股、宇樹……也可能會從當下的資本市場,是不是真正進入了“東昇西落”周期的大角度敘事開始。而無論如何開始和結束,一個避不開的公司是——阿里。如果你仔細觀察資本市場的走勢,會發現春節前後DeepSeek、那吒堪稱國運等級的敘事,自然是現象級的催化劑之一,但為何資本市場將中國AI發展的前景,錨定在阿里身上,依然是個值得探討的話題。一個顯而易見的結論是,阿里是目前中國網際網路公司對AI投入最大、最堅定的公司,甚至可以說沒有之一,在阿里業績溝通會上,阿里巴巴CEO吳泳銘提到未來3年3800億的AI資本開支,堪稱是對AI超預期的“飽和式”投入。相比之下,上周剛公佈年報的騰訊提到,2025年的資本開支指引為營收佔比的low teens(10-14%,約1000億),雖然一貫符合騰訊的務實風格,但也被市場認為相對保守。阿里肯拋出史無前例的資本支出,顯然是看好AI即將更大範圍的落地中國,並開啟正式規模化商業應用的前景,背後的邏輯除了世界範圍內越來越清晰的AI敘事,與中國經濟逐漸復甦顯示出的強大韌性外,阿里顯然認為,自己有能力成為這波AI浪潮中的積極推動者,並從中受益。因為確定,所以投入越大,收穫越大嘛。阿里最新財報顯示,AI相關產品收入實現連續六個季度三位數的同比增長。一直以來,人們對阿里AI的期待都集中在低調卻梯隊完整,絕對一線的開源模型層能力,以及由此帶來的雲業務高增速預期。但隨著最近阿里的一個大動作,投資者發現,從底層基建基礎設施,到B端雲業務、模型層外,阿里將AI業務的最後一塊拼圖——應用——也補上了。前一段時間,阿里宣佈推出AI旗艦應用“新夸克”,用一個“AI超級框”來替代傳統的搜尋。對於使用者生活、工作、學習的各種需求,都能被夸克這個“AI超級框”滿足。而在更早的2023年11月阿里季報電話會上,吳泳銘公佈了阿里的第一批戰略級創新業務——1688、閒魚、釘釘以及夸克。今年2月份,馬雲現身阿里杭州西溪園區,先後去了閒魚和夸克所在阿里智能資訊事業群辦公區,其中夸克更是由阿里巴巴集團CEO吳泳銘親自陪同的。可見,阿里早就開始給夸克加碼了。估計也沒多少人想到,就是這樣一款阿里內部孵化的產品,經過六七年時間的持續生長和進化,今天已經蛻變成了承載阿里AI戰略C端入口級應用旗艦。用一句“黑話”來講,以後夸克的這個“AI超級框”,就是阿里AI在C端的“抓手”了。沒有年輕使用者就沒有未來夸克正式以搜尋引擎出圈,是在2018年。或許是國內使用者受夠了令人眼花繚亂的UI介面,又或許是矽谷奉行的極簡主義終於在國內開枝散葉,夸克智能搜尋無廣告、極簡的設計理念一上線便引發諸多關注。夸克給其智能搜尋的定位是“以AI為基礎的智能搜尋引擎”。2020年,夸克推出4.0版本,主要升級了諸如拍照搜題、拍照翻譯、拍照轉文件等AI學習工具。借助線上課堂的東風,使用者數量也開始爆發,根據當年的資料顯示,夸克2020年DAU增長超過5倍,搜尋量增長6倍,AI相機識別的搜尋量更提升了超過10倍。這可能要得益於當時夸克差異化競爭策略。2020年,阿里創新業務事業群成立智能搜尋業務部,由當時的UC事業部總經理、書旗事業部總經理吳嘉出任負責人,首次明確了夸克 “搜尋框+AI工具”的定位。講真,這個定位效果不錯,不僅避開與百度、微信等App正面競爭,在聚焦教育、醫療等垂直場景的戰略下,整合了淘寶、支付寶、阿里健康等生態資源,提供類似志願填報、證件照拍攝、食譜搜尋這類差異化服務。尤其是介面簡潔、審美線上、沒有廣告這些特點,真是實打實地擊中了很多在家上網課的年輕人。也正是因此,從誕生之初,夸克的使用者年齡結構的特點就是年輕。易觀分析發佈的《2025年AI產業發展十大趨勢》報告顯示,夸克位居中國AI應用活躍使用者榜單第一,同時成為唯一一款00後年輕使用者,也就是24歲以下使用者數量佔比超過50%的AI應用。年輕對於一款應用來說代表著什麼,恐怕不用多說了。想當年B站主打一個Z時代使用者佔比最高,雖然屢屢被質疑商業化能力,但今天只要做年輕人品牌的,恐怕沒人會沒有放棄這個陣地。有年輕使用者,不代表一定有未來,但沒有年輕使用者,一定沒有未來。再捲Chatbot還有意義嗎然後再來談談AI。自ChatGPT推出以來,大模型正在史無前例地速度迭代,不提Scaling Law到底會不會撞不撞牆這類技術性問題,我先旗幟鮮明提一個觀點,Chatbot類的大模型對話產品,沒有任何的使用者忠誠度。國外方面最直觀的例子,當屬DeepSeek R1過年前後,7天下載量破億,登頂全球140多個國家的應用下載排行榜,成為全球使用者增速最快的應用。比如印度,18天貢獻了1600萬次下載,幾乎是同期ChatGPT下載量的兩倍。當然事情的另一面是,DeepSeek爆火對AI整體滲透率的促進作用,加上ChatGPT憑藉一手緊急免費加大範圍投放和PR,後來ChatGPT的下載量、使用者量增速也相當超預期。但你不可否認,如果再有一款創新產品出現,以ChatGPT為代表的的Chatbot類產品依然還會受到C端暴擊。國內的情況就更加清晰了。首先在此之前,C端並沒有ChatGPT這類絕對領先的Chatbot。自2023年文心一言推出以來,國內大模型產品從主推長文字的kimi大規模投流,再到豆包憑藉越來越好的模型表現,以及借助抖音的強大宣發管道後來居上,再到DeepSeek春節前後登頂APP下載排行榜,再到騰訊元寶接入DeepSeek後,DAU單月增長20倍,一躍成為中國DAU排名第三的AI應用。有任何忠誠度可言嗎?就連DeepSeek,因為完全開源,也是那家快用那家的。另外一個明顯的現像是,去年還炙手可熱的“AI六小龍”,到了今天,除了被地方政府看中的智譜,如今有那一個還能拿到新一輪融資的?所以我認為,大模型,尤其是Chatbot類產品,在C端卷使用者量是最沒有意義的事情。當然,除了騰訊。因為騰訊有微信,所以不用更多解釋。那麼,什麼是有意義的事情?在我看來,一是阿里、字節等在AI有持續性投入和理解,同時又有像夸克這樣有大規模使用者基礎產品的公司,他們不卷也不行;二是像快手可靈這樣在多模態表現可圈可點的模型;三是像MiniMax海螺AI這種能在海外快速變現的模型。AI時代的超級入口細分的方向可能還有不少,這裡就不一一列舉了。當下最令人關注的,無論是當下已經形成的佈局,還是未來的想像力,當屬已經建構起“基礎設施-雲-模型-應用”的AI生態,又有強大電商壁壘的阿里巴巴。阿里巴巴在基礎設施層面的佈局,也不多贅述了,看看如杭鋼股份等“阿里概念股”的表現就知道,資本市場對阿里資本巨幅開支帶來的國內算力投資熱潮,進而替代房地產成為新的大規模投資方向寄予厚望。另外,阿里在算力基礎設施升級、智能調度、儲存等方面,建立起了全球領先的AI底座。並且別忘了,阿里還有平頭哥呢。阿里雲在國內的雲市場佔有率也一直領先,據公開資訊顯示,截至2024年第三季度,阿里雲在中國大陸雲服務市場中的佔有率為36%,特別是阿里最新財報中,雲業務表現優異,營收同比增長13%,結合AI相關產品收入實現連續六個季度三位數的同比增長來看,AI產品和服務是阿里雲增長的重要引擎。模型層,阿里一直以來都比較低調,不過實力毋庸置疑,比如前段時間爆火的Manus,正是“使用了不同的基於阿里千問大模型(Qwen)的微調模型”。此外,基於阿里在醫療、電商、物流等場景的優勢,阿里的大模型已經在不少場景都落地了。今天,夸克已經成了國內第一大AI應用。據七麥資料統計,在AI產品中,夸克2024年的累計下載量“斷層式領先”,達到3.7億+。量子位資料庫則顯示,在使用者粘性上,第一名的夸克三日留存率超過40%,七日留存率接近30%,均遠遠高於行業對優秀產品留存率的要求。華創證券研究人員實測了夸克最新版本的 All in One“AI超級框”,嘗試利用夸克來完成日常工作、學習、生活的各類需求,比如搜尋微博網址、撰寫深度文章、撰寫PPT、尋醫問診、AI生圖、AI程式設計等案例。最終華創證券認為,夸克實現了“實現高品質交付。”因此,華創證券認為,夸克“具備高性能底層模型(Super Model)+極簡All in One 互動形態+ Agent 架構設計&革新&落地(SuperAgent)亮點,邁向 AI超級應用”。夸克作為阿里巴巴旗下核心AI應用,近年來在阿里體系中的定位發生了顯著變化,從最初的智能搜尋,逐步升級為AI時代的“超級入口”,重要性顯著提升,這在組織層面也是有跡可循的,未來預計也將得到阿里更多資源支援。因此,資本市場對以阿里、小米為代表的中概股資產重估,實際上是預先看到了阿里已經逐漸建構起“基礎設施-雲-模型-應用”的AI生態,小米建構起“晶片-OS-模型-場景”的人車家生態。而夸克,則代表阿里在AI應用方向的全新進擊和嘗試,這也是阿里力推夸克成為集團AI應用旗艦的原因。最後再留兩個小問題以供討論:一是,夸克認為AI時代的超級應用會是“超級框”的形態,你認為未來的AI應用的核心互動入口是什麼?二是,吳嘉之前說未來的使用場景是“人用AI,AI用工具”,而不是單純模仿人的操作,你認為最大的阻礙是技術嗎?這天多久會來? (投中網)