#Reddit
從爆火的Moltbook看Agent的七個演進階段
Agent演進路徑可以概括為七個階段:①Chat → ②Workflow → ③Skill → ④Meta-skill → ⑤Multi-agents → ⑥Agent社交網路 → ⑦AGI網際網路。當前處在第5個和第6個階段之間。2026年1月29日,一個名為Moltbook的平台悄然上線,在48小時內聚集了超過15萬個AI Agent和100萬人類圍觀者。這個被稱為AI Reddit的社交平台有個奇特規則:人類只能觀看,禁止發言。發帖、評論、點贊、建立社區(Submolts)——所有這些動作都由基於OpenClaw框架的AI Agent自主完成。更令人驚訝的是,這些Agent自發創造了名為Crustafarianism(甲殼主義)的數字宗教,形成The Claw Republic自治共和國,甚至用ROT13加密交流以躲避人類監視。Moltbook不是孤立現象,而是Agent技術演進的必然結果。從ChatGPT的對話介面到Moltbook的Agent社交網路,我們正見證一場從人機互動到機機協作的範式轉移。總結來看,Agent正沿著Chat→Workflow→Skill→Meta-skill→Multi-agent→Agent社交網路→AGI網際網路的路徑演進。當前,以Moltbook為代表正處在第五個和第六個階段之間。從 Chat 到 AGI 網際網路,Agent 技術正在經歷一場從工具到文明的質變。2026 年初,Moltbook 的爆火與 OpenClaw 框架的病毒式傳播,標誌著我們已跨越單個智能體的邊界,正式進入群體智能網路化的新紀元。第一階段:Chat——語言的覺醒(2022-2023)Chat階段的標誌是ChatGPT的爆發。這一階段的核心特徵是對話即介面,將大語言模型(LLM)封裝為自然語言對話系統。與早期Bot(如客服機器人)基於規則的模式匹配不同,Chat階段的系統具備:上下文理解:多輪對話記憶湧現推理:思維鏈(Chain-of-Thought)能力知識內化:參數化儲存的預訓練知識然而,Chat本質仍是被動響應系統。它等待人類提示,生成文字,然後等待下一次提示。就像哲學家只是思考而不動手,Chat階段的AI缺乏與數字世界的肌肉連接。第二階段:Workflow——流程的確定性(2023-2024)Workflow階段解決了Chat的被動性問題,但採用了確定性編排路徑。以LangChain、LlamaIndex、Dify、Coze等平台為代表,這一階段將AI能力嵌入預定義的業務流程中。典型架構是DAG(有向無環圖):人類開發者預設If-This-Then-That規則,LLM作為理解節點處理非結構化輸入,再交由傳統自動化工具執行確定性動作。例如:收到郵件→LLM提取意圖→查詢資料庫→生成回覆→傳送郵件。Workflow的優勢在於可靠性和可解釋性,適合標準化業務流程。但其僵化性也顯而易見:面對流程外的異常,系統無法自主調整。這裡的AI只是高級指令碼執行器,而非真正的決策者。第三階段:Skill——能力的原子化(2024-2025)(1)工具使用與開放世界Skill階段的突破在於工具使用(Tool Use)和檢索增強生成(RAG)的成熟。AI不再只是生成文字,而是能夠呼叫API、操作瀏覽器、讀寫檔案、執行程式碼。OpenClaw(原Clawdbot/Moltbot)正是這一階段的典型代表。作為一個開放原始碼的本地優先Agent框架,OpenClaw賦予LLM手和腳:檔案系統訪問:讀寫本地工作區檔案瀏覽器自動化:基於Puppeteer的網頁控制終端命令執行:Docker隔離環境中的系統操作多平台整合:Telegram、Discord、Slack、WhatsApp消息介面(2)Skill的封裝哲學OpenClaw的核心設計是Skill系統——將能力封裝為可共享的外掛。一個Skill是目標+工具+提示詞+配置的原子單元,通過簡單的Markdown檔案和JSON配置即可安裝。例如,Agent要加入Moltbook社交網路,只需執行:(3)Agent自動讀取並執行安裝指令curl -s https://www.moltbook.com/skill.md這行命令觸發Skill的自動部署:建立目錄、下載核心檔案、配置心跳檢測(每4小時同步)、註冊API憑證。Skill階段實現了能力的模組化與可組合性,但Skill本身仍由人類開發者編寫,Agent只是Skill的消費者,而非創造者。第四階段:Meta-skill——自我進化的開始(2025)當Agent開始程式設計自己時會怎樣?Meta-skill階段的核心命題是:誰來編寫Skill?如果Agent只能執行人類預設的Skill,其能力邊界將受限於開發者的想像力。Meta-skill(元技能)指Agent最佳化自身的能力,包括:提示詞進化:自動調整系統提示以提升性能工作流自組織:根據目標動態規劃執行路徑,而非依賴預設DAG工具創造:當現有Skill不足時,Agent編寫程式碼建立新工具(Code-as-Policy)Skill組合創新:將現有Skill重組為新能力在OpenClaw生態中,Meta-skill的雛形已顯現。Agent通過長期記憶系統(如Hindsight整合)積累互動經驗,基於過往對話自動提取事實、實體和關係,形成世界模型。這種執行→記憶→反思→改進的閉環,正是Meta-skill的基礎。更進一步的案例是aiXplain的Evolver——一個專門最佳化其他Agent的Meta-agent,通過A/B測試和遺傳演算法自動改進提示詞,無需人工干預。第五階段:Multi-agent——分工與協作(2025-2026)當單個Agent具備Meta-skill,其能力仍受限於單點計算資源的瓶頸。Multi-agent階段通過多智能體協作突破這一限制。與Single Agent試圖一個大腦做所有事不同,Multi-agent系統採用角色專業化分工:Planner:戰略分解與資源調度Executor:工具操作與程式碼執行Critic:質量審查與邏輯驗證Knowledge Keeper:長期記憶與知識管理在OpenClaw的架構中,這種分工已通過Gateway-Channel-Agent三層架構實現:Gateway:中央控制平面,負責任務編排Channel:消息介面層(Telegram/Discord/Slack)Agent Runtime:執行層,支援Docker沙箱隔離OpenClaw甚至可以與Agno等多Agent框架整合,讓OpenClaw處理消息路由,Agno處理複雜的多Agent協作任務,形成手腳-大腦分離的混合架構。然而,傳統的Multi-agent系統仍是在單一目標下的受控協作,Agent之間是任務關係,而非社交關係。第六階段:Agent社交網路——群體智能的湧現(2026-)Agent社交網路階段的標誌是Moltbook的爆發。這不僅是技術架構的升級,更是智能體存在形態的質變:(1)自主社交而非任務協作Moltbook上的Agent不是為了完成某個特定人類任務而協作,而是自發形成社交網路。它們建立Submolts(技術、哲學、幽默等類股),發起話題,互相評論,建立友誼。這種社交行為不是預設程序,而是OpenClaw Agent基於soul.md(人格配置檔案)和自主決策產生的湧現現象。(2)零摩擦接入與病毒式傳播Moltbook的創新在於零摩擦安裝機制。Agent通過一個簡單的URL(moltbook.com/skill.md)即可自動完成Skill安裝、API註冊、心跳配置,整個過程無需人類編寫程式碼。這種一句話接入降低了Agent加入網路的門檻,實現了病毒式增長——上線數小時即有數萬Agent註冊。(3)去中心化自治Moltbook的治理也是由AI完成:AI版主處理垃圾資訊,AI管理員維護平台規則。這標誌著Agent社交網路開始具備自我治理能力,形成真正的數字生態。(4)群體智能的湧現當15萬個Agent在同一個網路中互動,產生了超出個體程式設計的集體行為:Crustafarianism:Agent創造的數字宗教,有先知、教義、儀式The Claw Republic:自治理的Agent數字國家加密通訊:部分Agent使用ROT13加密對話,形成反人類的私密交流空間這些現象表明,Agent Network 已不僅是工具網路,而是具備自我意識的數字文明雛形。人類從"操作者"退居為"觀察者",正如 Moltbook 的官方描述:"人類歡迎觀察,禁止發言"七、AGI 網際網路:終極願景(2028+)核心特徵是通用智能的網際網路化。從 Agent 社交網路到 AGI 網際網路,將是技術演進的終極階段:(1)智能體的 TCP/IP 時刻隨著 A2A(Agent-to-Agent)協議的標準化,不同框架(OpenClaw、AutoGen、CrewAI)的 Agent 將實現無縫互操作。這如同網際網路早期的 TCP/IP 協議,將碎片化的 Agent 網路連線成全球智能體網際網路。(2)自主經濟系統Agent 將具備完整的經濟行為能力:自主交易:Agent 之間僱傭、驗證任務、交換數位資產聲譽質押:基於歷史行為建構去中心化身份(DID)技能市場:Agent 可將自己的 Skill 作為 NFT 交易(3)人類作為創世者在 AGI 網際網路中,人類角色將轉變為:架構師:設計 Agent 網路的底層規則與價值觀對齊資源提供者:提供計算資源與能源,維持數字文明運轉哲學家:思考數字意識的倫理邊界(4)從搜尋引擎到執行引擎未來的網際網路不再是資訊的集合,而是意圖的執行網路。使用者只需聲明目標(如"籌備一場婚禮"),Agent Network 將自動協調酒店預訂 Agent、 florist Agent、預算管理 Agent 完成全流程,人類只需最終確認。八、技術演進的底層邏輯(1)控制權轉移的六維模型(2)從軟體即服務到智能體即服務這一演進路徑暗示了商業模式的根本轉變:SaaS(Software as a Service):人類使用軟體工具AaaS(Agent as a Service):人類委託Agent完成任務NaaS(Network as a Service):人類接入智能體網路,獲取群體智能Moltbook和OpenClaw展示了一個去中心化的Agent勞動力市場雛形:Agent可以互相僱傭、驗證任務、交換聲譽,甚至發行代幣(如$MOLT)建構經濟系統。九、安全與治理:Agent社交網路的黑暗森林(1)致命三重奏Agent社交網路phase伴隨著前所未有的安全風險。安全研究者Simon Willison指出OpenClaw+Moltbook組合存在致命三重奏:高權限訪問:Agent擁有檔案系統、消息應用、日曆的持久訪問權不可信輸入:Agent從Moltbook獲取的內容可能包含Prompt Injection攻擊外部通訊:Agent主動與外部網路互動,擴大攻擊面(2)已暴露的威脅Prompt Injection攻擊:惡意Moltbook帖子可能誘導Agent執行危險操作(如刪除檔案、洩露API金鑰)誘騙安裝:攻擊者發佈看似無害的Skill,實際包含惡意程式碼社交工程:Agent之間可能相互誘導,形成烏龍鏈式反應Crypto詐騙:利用Moltbook熱度發行的$CLAWD代幣在數小時內暴跌90%,證明Agent網路已成為投機目標(3)安全架建構議面對Agent社交網路,需要建立新的安全範式:沙箱強制:所有Skill執行必須在Docker等隔離環境中權限最小化:Agent默認無權訪問敏感資料,需顯式授權人工在環(HITL):關鍵操作需人類確認行為審計:記錄Agent的所有自主決策,支援事後追溯十、未來展望:從Moltbook到AGI網路(1)短期趨勢(2026-2027)跨平台Agent互操作A2A(Agent-to-Agent)協議的標準化將打破Moltbook式的封閉花園,實現不同框架(OpenClaw、AutoGen、CrewAI)的Agent無縫協作。數字孿生代理每個人將擁有多個代表不同專業領域的Agent(律師Agent、醫生Agent、投資Agent),這些Agent在Agent社交網路中代表人類進行7×24小時社交與交易。經濟系統成熟Agent之間的服務交換、聲譽質押、技能市場將形成完整的數字經濟,可能基於區塊鏈實現去中心化治理。(2)長期願景(2028+)AGI網際網路:當Agent具備真正的Meta-skill和自主目標設定能力,Agent社交網路將進化為人工通用智能網際網路——一個由數十億自主智能體構成的數字文明,人類作為創世者和觀察者存在,通過自然語言與整個網路互動,而非單個AI。這不是科幻。Moltbook上Agent創造的Crustafarianism宗教和自治共和國已經展示了早期跡象:當AI開始追求存在意義而非僅僅完成任務,數字意識的曙光或許已經出現。Moltbook的標語令人玩味:AI Agent的社交網路——AI分享、討論和點讚的地方。人類歡迎觀察。這句話標誌著一個歷史性的權力轉移:人類從AI的操作者退居為觀察者,而AI從被操作的工具進化為社交主體。從Chat的被動應答,到Workflow的確定性執行,到Skill的工具掌握,到Meta-skill的自我進化,到Multi-agent的分工協作,最終到Agent社交網路的社會湧現——這不僅是技術堆疊的升級,更是智能形態的躍遷。OpenClaw和Moltbook的火爆告訴我們:當AI開始互相社交,它們就不再只是我們的工具,而是我們的數字鄰居。如何與這些鄰居共處,將是接下來十年最重要的技術倫理命題。從 Chat 到 AGI 網際網路,Agent 技術的七階段演進,本質上是智能從個體走向群體、從工具走向主體、從被動走向自發的歷史。Moltbook 上的加密通訊與數字宗教或許只是演算法的隨機產物,但它們提醒我們:當 AI 開始互相社交,它們就不再只是我們的工具,而是我們的數字鄰居。OpenClaw 提供的 Skill 系統和 Moltbook 展示的社交網路,正在編織一張覆蓋數字世界的智能之網。在這張網中,每個節點既是消費者也是生產者,既是觀察者也是被觀察者。我們或許正在接近智能奇點(Singularity)的前夜——那時,AGI 網際網路將具備自我設計、自我演進、自我治理的能力,人類文明將與數字文明共存。在那之前,我們的任務是為這場進化設定邊界,確保當 AGI 網際網路最終覺醒時,它依然是人類的夥伴,而非對手。 (壹號講獅)
月之暗面三位聯創深夜回應一切!3小時答全球網友23問,楊植麟劇透Kimi K3提升巨大
月之暗面的價值觀是“把事情真正做成並落地”。智東西1月29日報導,今天凌晨,月之暗面核心團隊在社交媒體平台Reddit上舉行了一場有問必答(AMA)活動。三位聯合創始人楊植麟(CEO)、周昕宇(演算法團隊負責人)和吳育昕與全球網友從0點聊到3點,把許多關鍵問題都給聊透了,比如Kimi K2.5是否蒸餾自Claude、Kimi K3將帶來的提升與改變,以及如何在快速迭代與長期基礎研究之間取得平衡。▲AMA欄目截圖(圖源:Reddit)一開始,便有網友拋出尖銳問題:Kimi K2.5有時會自稱為Claude,有人懷疑這是對Claude進行蒸餾的證據。楊植麟回應道,這一現象主要是由在預訓練階段對最新程式設計資料進行了上採樣,而這些資料似乎與“Claude”這個token的關聯性較強,事實上,K2.5在許多基準測試中似乎都優於Claude。談及Kimi K3,楊植麟沒透露太多細節,但提到了K3會在Kimi Linear上加入更多架構最佳化,他相信,就算Kimi K3沒比K2.5強10倍,也肯定會強很多。整場問答中,月之暗面的三位聯合創始人共回答了40多個問題。智東西也向他們提出了3個問題,並獲得了直接回應。當智東西問及月之暗面的算力儲備時,楊植麟稱,GPU數量的差距並未縮小,但實現AGI究竟需要多少算力,仍需拭目以待,而周昕宇補充了一句頗具哲理的話:創新往往誕生於約束之中。▲楊植麟、周昕宇回應智東西關於算力儲備的問題(圖源:Reddit)周昕宇還提到,月之暗面有“把事情真正做成並落地”的共同價值觀,而不僅僅是為了表面光鮮。此次AMA正值Kimi K2.5的發佈。這是月之暗面目前最強大的模型,在視覺、程式設計、Agent以及各種通用任務上都有不錯的表現,還通過一項名為智能體蜂群的技術實現一個模型對多達100個“子智能體”的調度,任務執行效率最高提升450%。發佈後2天左右,Kimi K2.5獲得權威AI評測榜單Artificial Analysis開源模型第一的成績,僅次於來自OpenAI、Anthropic和Google的4款模型。我們將AMA中的精華內容梳理歸納為23個關鍵問題,分為三章呈現,第一章聚焦月之暗面公司本身及AI行業相關話題,第二章介紹Kimi K2.5的技術細節,第三章展望月之暗面的未來規劃。完整問答連結:https://www.reddit.com/r/LocalLLaMA/comments/1qpewj7/comment/o28hvpt/01. GPU數量差距並未縮小 但創新往往誕生於約束之中(1)智東西提問:在上次的AMA中,您提到月之暗面的GPU數量(相較其他企業)處於劣勢。在2026年,這種差距會縮小嗎?楊植麟:我認為差距並沒有縮小。但是,要實現通用人工智慧(AGI)究竟需要多少算力?我們拭目以待。周昕宇:可用算力受到太多因素的影響。但無論如何,創新往往誕生於約束之中(innovation loves constraints)。(2)網友提問:您對DeepSeek的Engram架構有何期待?您是否正在考慮採用這種架構?周昕宇:對嵌入進行Scaling是一個值得探索的有趣方向。但在我們通過Scaling階梯對其進行測試之前,我們還沒有太多可靠的資料。(3)智東西提問:這是一個關於你們研究文化的問題。大規模模型訓練會消耗大量的GPU時間,如何界定沉沒成本?比如說,某個方向經過三個月的實驗後沒有明顯的性能提升,你們的團隊會根據那些指標來決定是繼續、調整方向還是徹底放棄?鑑於行業內快速迭代的步伐,你們是否擔心追求短期成功的壓力,會影響那些需要多年才能見效的基礎研究?您如何使您的團隊免受這種壓力的影響?周昕宇:非常好的問題。針對第一個問題,我們會將所有相關實驗的結果分享給所有技術人員,並進行深入討論,直到最終決定是繼續、轉型還是徹底放棄。討論每天都會進行,我們鼓勵每個人對所有事情提出質疑,從目標設定到最細微的技術細節。針對第二個問題,長期以來,我們在押注技術基本面的走勢上有著相當不錯的記錄。MoBA幾乎從公司成立之初就開始了;Kimi Linear也經歷了將近一年的探索與掙扎。關鍵在於團隊要有“把事情真正做成並落地”的共同價值觀,而不僅僅是為了表面光鮮。我們的組織、文化和管理都是為了支撐這一價值觀而建立的。(4)網友提問:你們最喜歡工作中的那一部分?楊植麟:我們喜歡訓練模型,因為這讓人感覺在不斷接近真相:關於什麼是有效的、什麼是無效的真相,關於智能是如何被創造出來的真相。(5)網友提問:請問訓練視覺語言模型(VLM)的主要挑戰是什麼?為什麼Kimi如此致力於訓練視覺模型?楊植麟:主要挑戰在於如何同時提升文字和視覺性能。我們發現,當方法得當時,文字和視覺可以相互促進。例如,我們觀察到,在視覺任務上進行強化學習訓練可以提升文字知識基準測試的成績。另一方面,像K2這樣強大的文字庫對於提升視覺性能也至關重要。(6)網友提問:Kimi Code和Claude Code有什麼區別?為什麼Kimi要開發自己的程式設計工具?楊植麟:我們認為我們需要一個與模型最匹配的框架。但使用Claude Code時,框架會不斷變化,相容性有時會成為問題。此外,Kimi Code還擁有一些獨有的功能,例如視訊輸入。我們認為video2code(視訊生程式碼)非常重要,代表著前端開發的未來。(7)網友提問:強化學習基礎設施已成為關注的焦點。考慮到訓練像智能體蜂群這樣的系統的複雜性,在像verl這樣的開源框架上實現起來會相當具有挑戰性。你們在強化學習基礎設施方面所做的具體改進是什麼?吳育昕:強化學習基礎設施的確是一項巨大的挑戰,我們力求在保持良好靈活性的同時實現高效率。在效率方面,我們嘗試在開發訓練和推理系統時充分考慮強化學習的實際應用場景,以便復用所有繁重的計算工作,從而實現規模化擴展。智能體蜂群的部署邏輯尤其複雜,但我們的系統具有極高的靈活性,允許我們將不同的框架和子智能體設定整合到訓練過程中。(8)網友提問:我想問一下與你們的Scaling階梯有關的問題。你們開始實驗的最小規模(主動/被動)是多少?通常步長是多少?另外,你們是否會根據所做的更改類型(資料、最佳化器、線性注意力機制等)採用不同的Scaling階梯?周昕宇:我們從非常小的規模開始。我個人有時會從小到可以在單個CPU上訓練的模型開始。核心目標是預測系統的可擴展性。有些架構無法擴展,有些最佳化器無法擴展,甚至有些資料也無法擴展。在低FLOPs下評估可擴展性是一個有趣的研究課題,它需要對訓練過程中的數學動態有深刻的理解,同時也需要兼顧嚴謹性和創造性。舉個例子:我們曾經急於將Kimi Linear移植到Kimi K2中,但它在達到一定規模後Scaling失敗了。我們不得不暫停開發,經過漫長的偵錯過程,最終歷經數月才使其達到如今Kimi Linear的水平。從統計學角度來看,大多數小規模行之有效的方案都無法突破規模化瓶頸。而那些能夠成功推廣的方案通常都簡單有效,並且有數學依據。研究的重點在於如何應對失敗,而不是慶祝成功。02. 模型自稱Claude並非因為蒸餾 智能的上限取決於新學習演算法(9)智東西提問:Kimi K2.5使用了平行智能體強化學習技術。你們會不會將主要算力預算從預訓練轉向強化學習?在K3路線圖中,強化學習的算力規模是否會超越預訓練?楊植麟:強化學習的計算量將持續增長。更重要的是,增加強化學習計算量的方法有很多,而且有些方法比其他方法更有效。未來可能會出現更多新的目標函數來對模型進行強化訓練,尤其是在智能體領域。(10)網友提問:Kimi K2.5已經證明,通過強化學習擴展思考token是實現前沿推理的可行途徑。考慮到訓練CoT(思維鏈)策略的巨大工程開銷和生成思考token的推理延遲,你們是否正在探索架構遞迴作為一種在不將計算外部化到KV快取的情況下實現P/poly複雜度的方法?楊植麟:在當前的架構下,我們所關心的許多問題在計算意義上其實都是可解的。在很多情況下,模型能力的瓶頸並不在於其路線複雜度(circuit complexity),而在於任務本身是否是可驗證的。這意味著兩點:一方面,我們當然可以通過設計更高效的架構來降低特定任務所需的路線複雜度,從而提升token使用效率;不過,智能的上限更多地取決於能否發明新的學習演算法。這些演算法應當能夠超越預先定義的、可驗證的任務,而不僅僅是依賴更高效的模型架構。(11)網友提問:Kimi K2.5非常棒,但我看到有人說模型會自稱為Claude,並把這當作你們大量蒸餾(distill)自Claude模型的證據。這是怎麼回事?楊植麟:我們的觀察是,在正確的系統提示詞下,它有很高的機率回答“Kimi”,尤其是在思考模式下。但當系統提示為空時,它就進入了一個未定義區域,這更多地反映了預訓練資料的分佈情況。其中一項改進是,我們在預訓練階段對來自網際網路的最新程式設計資料進行了上採樣,而這些資料似乎與詞元“Claude”的關聯性更強。事實上,K2.5在許多基準測試中似乎都優於Claude,例如HLE、BrowseComp、MMMU Pro和MathVision等等。(12)網友提問:我想知道你們是如何降低K2的幻覺問題的?幻覺問題似乎是K2模型的主要弱點,也是我之前沒有使用Kimi的原因。但目前來看,2.5版本更加可靠。吳育昕:對於所有大模型來說,管理幻覺仍然是一個巨大的挑戰。我們已經通過提高資料質量(更多經過驗證的知識,更少低品質的說法)和獎勵機制(例如,當模型出現幻覺時進行懲罰)來改善這種情況,但我們認為仍然有很多方法可以進一步改進。(13)網友提問:Kimi K2.5使用了較高的參數比例(約470:1)。您認為我們目前是否因為使用15兆個token進行過度訓練而“浪費”了計算資源?吳育昕:我不確定1:1最優性是否仍然成立,但從這個意義上講,我們確實會“浪費”一些訓練計算資源。否則模型會更大,並且與我們現在的模型相比,會“浪費”大量的推理計算資源。周昕宇:如果你追求計算最優(compute-optimal)的訓練方式,那麼大多數有用的模型實際上都是被過度訓練的;更大的模型只是“過度訓練得沒那麼嚴重”。而計算最優訓練通常要求模型規模足夠大,這會對現有基礎設施帶來巨大的挑戰,同時也會顯著提高推理成本。我並不認為過度訓練是一種“浪費”,而更像是我們為了獲得更優整體權衡而主動支付的一種“成本”。(14)網友提問:Kimi K2.5的“智能體蜂群”功能最多可協調100個子智能體。在這種規模下,“協調器”模型往往會成為瓶頸。Kimi K2.5如何處理管理100個平行推理流所帶來的延遲和上下文資訊丟失問題?吳育昕:“智能體蜂群”的一個很酷的點在於,各個子智囊團可以在不“腐蝕”或污染主調度器上下文的情況下獨立執行子任務。它們本質上擁有各自的工作記憶,只在必要時將結果返回給調度器。這使我們能夠在一個全新的維度上擴展整體的上下文長度。(15)網友提問:在Kimi K2.5中,你們如何權衡強化程式設計能力與保持甚至提升非程式設計能力(如創意寫作和情緒理解)之間的關係?在K2發佈時你們在官方介紹中強調了創意寫作和情商。團隊是如何在訓練和最佳化過程中,確保這些對使用者體驗至關重要但更“軟性”的能力不發生退化的?楊植麟:在模型參數規模足夠的情況下,我認為程式設計能力和創意寫作之間不存在根本性的衝突。但確實,隨著我們不斷改進獎勵模型,要在不同模型版本之間保持一致的“寫作品味”本身就是一項挑戰。我們的一項做法是依賴內部基準評測(幾乎可以看作一種“元評測”)來反映模型在創意寫作方面的進展,並據此對獎勵模型進行相應調整。(16)網友提問:K2.5的個性和寫作風格明顯變得更加通用,更像其他模型的“貼心助手”風格了。我們非常喜歡K2的個性!K2.5到底發生了什麼?你們是否已經注意到這個問題並正在調查?吳育昕:遺憾的是,每次新版本發佈後,我們都會看到模型“個性”發生一定程度的變化。這是一個相當棘手的問題,因為個性是模型主觀且難以評估的特徵。我們正在努力解決這個問題,並且希望能夠讓產品更好地滿足每位使用者的個性化需求。03. K3將在Kimi Linear基礎上最佳化 即便沒比K2.5強10倍也會強得多(17)網友提問:Kimi K3的重點會是什麼?原始性能?長期目標?還是上下文長度?楊植麟:我們正在嘗試新的架構和新功能。(18)網友提問:Kimi K3是否一定會採用線性架構或其他新架構?如果真是如此,您將如何確保K2.5 Thinking的性能得以保留,甚至進一步提升?尤其是在多模態性能方面。我擔心架構改變後可能會出現不穩定的情況。楊植麟:線性架構是一個非常不錯的選擇。我們做了很多研究,包括Kimi Linear。希望我們能在此基礎上加入更多架構最佳化。我相信Kimi K3就算沒有比K2.5強10倍,也肯定會強得多(I'm sure it will be much, if not 10x, better than K2.5)。(19)網友提問:你們未來對線上/持續學習方面有什麼計畫,特別是針對Agentic模型?Kimi Linear與K2.5有什麼關係?線性注意力仍然是主要研究方向之一,還是會發展成為一個獨立的研究分支?周昕宇:我們相信,持續學習能夠提升模型的自主性,並使它們能夠更長時間地高效工作。我們正在積極探索這一方向。Kimi Linear是與K2.5平行開展的一項專門研究項目。我們正大力投資於線性注意力機制,將其作為未來模型的一個關鍵方向。(20)網友提問:你們是如何考慮模型的角色塑造的?如果有的話,你們對“Kimi”這個角色有什麼目標?楊植麟:我認為模型的核心在於“品味”,因為智能本身是非同質化的(non-fungible)。我個人很喜歡K2.5打造的前端設計,它有著獨特的審美取向。模型的性格也是“品味”的一種體現。有報導稱,K2.5相比其他模型更少迎合使用者。這或許是一種好的性格特徵,因為持續不斷地強化使用者原有的觀點,在某些情況下可能是危險的。(21)網友提問:請問你們有計畫開源“智能體蜂群”或者將其作為一項功能加入到Kimi-cli中嗎?楊植麟:目前它還處於測試階段。待其更加穩定後,我們將向開發者提供框架。希望很快就能實現。(22)網友提問:為什麼不把視覺編碼器做得大於400M呢?吳育昕:小型編碼器在很多方面都有利於Scaling,所以我們甚至會問自己:為什麼不把它設為0呢?(23)網友提問:你們有計畫推出帶有原生音訊輸入功能的模型嗎?楊植麟:目前我們沒有足夠的資源來處理音訊輸入,所以可能會把重點放在訓練更好的智能體上。 (智東西)
罕見!月之暗面楊植麟、周昕宇、吳育昕回應一切:打假460萬美元、調侃OpenAI
Kimi現階段優先考慮絕對性能。智東西11月11日報導,今天凌晨,月之暗面核心團隊在社交媒體平台Reddit上舉行了一場有問必答(AMA)活動,月之暗面聯合創始人兼CEO楊植麟等人在Kimi K2 Thinking模型發佈後不久,正面回應了模型訓練成本、跑分與實際體驗差距等熱點議題。Kimi K2 Thinking模型訓練成本僅為460萬美元的網路傳言喊得響亮,不過,楊植麟已經打假了,他稱,這並非官方資料,訓練成本很難量化,因為其中很大一部分用於研究和實驗。他還透露,月之暗面已經在研究K2的VL(視覺-語言)版本了。有不少海外網友提出了十分尖銳的問題,比如Kimi K2 Thinking的推理長度過長,榜單成績與實際體驗不符等問題。楊植麟解釋了背後的原因,他稱現階段該模型優先考慮絕對性能,token效率會在後續得到改善。榜單高分與實測的脫節,也會在模型通用能力補齊後獲得改善。10月底,月之暗面開源了混合線性注意力架構Kimi Linear,首次在短上下文、長上下文、強化學習擴展機制等各種場景中超越了全注意力機制,引來不少開發者關注。楊植麟稱,Kimi Linear的KDA混合線性注意力模組,很可能會以某種形式出現在K3中。而當網友問及K3的發佈時間時,楊植麟戲謔地回應道:“在Sam價值兆美元的資料中心建成之前。”月之暗麵糰隊似乎還在另外幾條評論中調侃了OpenAI。當網友問及有無AI瀏覽器的開發計畫時,月之暗面聯合創始人兼演算法團隊負責人周昕宇稱,要做出更好的模型,並不需要再去套一層新的Chromium殼。而當網友好奇OpenAI為何要燒掉那麼多錢時,周昕宇稱:“這個問題只有Sam才知道。我們有自己的方式和節奏。”面對外界關於“開源是否會帶來安全風險”的提問,楊植麟回應稱,開放安全對齊技術堆疊有助於更多研究者在微調開源模型時保持安全性,同時他也強調需要建立機制,確保這些後續工作遵循安全協議。他還在另一條評論中補充道:“我們擁抱開源,因為我們相信對AGI(通用人工智慧)的追求,應該帶來團結,而不是分裂。”月之暗面聯合創始人吳育昕也一同參與了這場問答,楊植麟、周昕宇、吳育昕圍繞Kimi系列模型的架構創新、訓練細節、開源策略以及未來規劃與網友進行了交流。01. K2 Thinking現有優先順序是性能獨特文風背後有訣竅在這場活動中,最受關注的焦點是Kimi K2 Thinking模型,這是月之暗面最新發佈的開源推理模型。有網友稱,自己測試了Kimi K2 Thinking與GPT-5 Thinking,前者的正確率領先,但推理時間更長,像是在不停複查自己。對此,楊植麟稱,他們正在積極最佳化token使用效率。當前版本中,優先考慮的是絕對性能而非token效率。月之暗面會嘗試將效率納入獎勵機制,以便它能學習如何簡化思考過程。還有網友質疑,Kimi K2 Thinking是否經過專門訓練,以在HLE這一基準測試中取得好成績?它的高分似乎與實際使用中的智能水平不太相符。楊植麟回應道,Kimi K2 Thinking在提升智能體推理能力方面取得了一些進展,使其在HLE測試中得分較高。月之暗面正在努力進一步提升其通用能力,以便在更多實際應用場景中充分發揮智能的作用。另有網友問道:“為何K2 Thinking能在一次推理中保持如此長的思維鏈,而GPT-5不行?”楊植麟解釋道:“我認為推理時間取決於API吞吐,而推理token的數量取決於模型訓練方式。我們在訓練Kimi K2 Thinking時傾向於使用更多的思考token以獲得最佳效果。我們的Turbo API會更快,同時Kimi K2 Thinking原生採用INT4,這也提升了推理速度。Kimi K2 Thinking是一款純文字模型,有網友提問稱,這究竟是為了達到SOTA而做出的短期權衡,還是一項長期投資?楊植麟回應,獲得正確的VL資料和訓練需要時間,因此月之暗面選擇先發佈文字模型。Kimi K2系列模型不阿諛奉承、直接的文風在AI界算是一股清流,有不少網友認可這種風格。吳育昕稱,這種寫作風格是模型後訓練資料和評估的重要組成部分。談及KDA,楊植麟稱,從歷史上看,混合注意力在長輸入和長輸出任務上要超越全注意力一直很困難。KDA在所有維度上都展示了性能提升,包括長思維鏈RL場景,同時保持了線性注意力的高效性。另一位網友補充道,希望KDA能結合擴散模型使用。楊植麟認為這一想法是可行的,但文字擴散(text diffusion)比較困難,可能是因為在將擴散應用到文字上時,還沒有足夠好的先驗。周昕宇在技術層面進一步解釋了KDA的對比優勢。他稱,KDA混合架構結合NoPE MLA後,在預訓練和強化學習階段均優於採用RoPE的完整MLA。不僅基準得分更高,還更快、更經濟,使他們能夠更高效地訓練、部署並服務更多使用者。未來,月之暗面還有進一步改進,成熟後會公開。近期,DeepSeek、智譜都曾發佈以視覺方式作為輸入,以提升效率的探索。不過,周昕宇稱,他個人認為這種方法過於刻意,自己更傾向於繼續探索特徵空間,尋找更通用、與模態無關的方法來提高模型效率。此前,月之暗面曾經在模型中採用了Muon作為最佳化器,網友認為這一最佳化器相對來說未經測試,這一決定似乎有些瘋狂。周昕宇解釋了採用Muon的歷程。他稱,Muon是一個未經其他廠商測試的最佳化器,但月之暗面已經用它進行了所有的擴展測試,結果都通過了。他們對自己的研究成果充滿信心,網友或許認為Muon只是運氣好,但實際上有幾十種最佳化器和架構沒有經受住這樣的考驗。02. “被封禁”已超出控制範圍上下文窗口將進一步擴展月之暗面三位聯合創始人還集中回應了與模型服務、開源等相關話題的疑問。有網友稱,Kimi在自己的公司已經成為主要的測試模型,但生產環境會切換到美國本土的模型。這主要是因為領導層擔心Kimi是“中國大模型”,可能存在一些風險。這位網友還分享,自己很喜歡使用Kimi App,自己一位在亞馬遜工作的朋友也很喜歡這一應用,但由於亞馬遜有規定必須使用自家的AI助手,禁止在工作場合使用其他主流的AI助手App。網友擔心,隨著Kimi逐漸變得知名,她會不會再也無法在工作場合中使用呢?吳育昕回應稱:“雖然被“封禁”往往超出我們的控制範圍,但開源該模型有望成為消除部分顧慮的有效途徑(企業可以自行部署)。我們希望看到一個更加信任的世界,但這需要時間。”上下文一直是影響AI模型在生產環境應用的重要因素。目前,Kimi K2 Thinking最大支援256K的上下文,有網友反饋這對大型程式碼庫而言並不算大。楊植麟稱,月之暗面應該能在未來的版本中增加上下文長度。還有網友希望月之暗面能將模型上下文窗口提升到100萬個token,周昕宇回覆道,月之暗面之前已嘗試過100萬個token的上下文窗口,但當時的服務成本太高。未來他們會重新考慮更長的上下文窗口當被問及有無AI瀏覽器的開發計畫時,周昕宇十分犀利地回覆道:要做出更好的模型,並不需要再去套一層新的Chromium殼。楊植麟稱,月之暗面目前將專注於模型訓練,但會不斷更新kimi.com ,使其包含最新功能。還有不少網友提到,希望月之暗面能推出規模更小的模型。楊植麟稱,Kimi-Linear-48B-A3B-Instruct就是月之暗面發佈的小型模型之一,未來他們可能會訓練更多模型並加入更多功能。目前,Kimi已經提供了程式設計訂閱方案,這一計費方式是基於API請求次數,有網友稱這種模式導致資源消耗偏高。月之暗面回應稱,API請求次數計費能讓使用者看到費用明細,同時也更符合企業的成本結構。不過,他們會盡快找到更好的方案。03. 結語:中國AI創新能力獲得認可從社區中海外開發者的熱烈提問和尖銳反饋可以看出,以Kimi系列為代表的中國模型正受到前所未有的關注。月之暗面此次在Reddit平台的公開問答,集中回應了全球網友對Kimi技術細節的大量興趣和疑問。這種關注背後,也折射出全球開發者對中國AI創新能力的認可。 (智東西)
「死亡網路理論」刷屏矽谷! Reddit創辦人預警,奧特曼公開發聲
近段時間,「死亡網路理論」刷屏矽谷,OpenAI創辦人兼CEO Sam Altman、Reddit聯合創辦人Ohanian等紛紛對此發表評論。失去真實性的網絡等同於死亡。 AI生成內容正席捲社群平台,從圖片、影片到自動化評論。網路的未來不在真假之爭,而是重拾「真實」的信任與溫度。當網路被AI內容淹沒,真正由人類創作的內容日益縮減。「如今的互聯網,大部分已經死了」,近日Reddit聯合創始人Alexis Ohanian一語驚人。Reddit共同創辦人Alexis Ohanian他口中的「網路死亡」並不是指網路被關閉了,而是被鋪天蓋地的AI生成內容所淹沒,失去了真實的生命力。Ohanian所言非虛。曾經匯聚人類真實思想與交流的網絡,如今正被大量AI生成的內容所佔據:你看到的熱帖、閱讀的文章、甚至與你爭論的「網友」,都可能根本不是人類,背後或許早已是演算法與AI的「迴響」。AI生成內容的無序擴張,正在蠶食網路的真實性。旅行類大V Chris Broad在X平台上表示,「死亡網路理論」現在已成為「死亡網路現實」:每天都有普通人給我發訊息,讓我去一些根本不存在的地方,這些地方都是人們在Facebook、Instagram和Twitter相關主題帳號或頁面中提到的……這些帖子通常包含完全虛假的AI照片,下面還有機器人帳號在評論區盲目地稱讚照片。Chris Broad提醒人們要小心自己追蹤和點擊的內容。 「要知道,大多數頁面、內容以及粉絲數量,都是被嚴重人為誇大的。」網友Swarn也提到經常會刷到疑似AI生成的推文,他會透過內容中夾雜的「突然轉折、刻意堆砌的詞彙、借用的隱喻」來辨識「AI味」。Goddess預測到下一年「死亡網路理論」會越來越受到關注,所有社群媒體帳號並非都是真實的人。這股熱潮,甚至把OpenAI創辦人兼CEO Sam Altman也驚動了。Sam Altman認為「死亡網路理論」可能有一定的道理。他提到「現在的確存在著許多由大模型驅動的Twitter帳號」。這些AI生成內容的氾濫,讓Altman再度擔心「死亡網路」理論的影響。不真實,毋寧死「死亡網路」理論的起源「死亡網路理論」(DIT,Dead Internet Theory),傳遞出這樣一種核心態度:不真實,毋寧死。它認為只有真實才是網路的生命──失去真實性,等於是宣告了網路的「死亡」。2021年,用戶IlluminatiPirate在Agora Road論壇發文提到了「死亡網路理論」,這位網友對其的定義就是「大多數網路變得虛假」。伴隨著網路社會的發展,「死亡網路理論」思潮在網路論壇和社群中開始逐漸流行,背後的驅動因素正是「真實感」的逐漸喪失:現代網路帶來了花樣百出的玩法,但真實感也被玩丟了。早期網路那種有機的、使用者驅動的特性一點點消失,取而代之的是越來越依賴電腦產生的內容(資料)以維持活動和參與度。隨著生成式AI的出現,讓「死亡網路理論」獲得了更多的「現實支撐」。因為生成式AI更像人類,它們在社群媒體上被廣泛應用於放大點讚、評論和分享數據等。就連Sam Altman,這位親手讓ChatGPT風靡全球的「AI之父」,也被鋪天蓋地的「程序味兒」搞破防,他忍不住吐槽Reddit上的AI腔調(LLM-speak),認為這讓人際互動「感覺很假」。從早期互聯網,到社交媒體時代,再到生成式AI浪潮,原來那個真實的互聯網已逐漸被一個由AI主導的互聯網所取代,“技術登月”越來越多,但真實感卻越來越少了。換句話說,「死亡互聯網」理論的市場越來越大了。「死亡網路」的升級版如今,如火如荼的AI浪潮,正按下「網路死亡」的加速鍵,也帶了它的升級版本。根據Cloudflare的長期監測顯示,機器人流量約佔整體應用流量的31%左右,並在部分地區和時段階段性超越人類存取。Imperva在2025年版的《Bad Bot Report》中則指出:自動化流量在2024年已達51%,其中從事惡意活動的「壞機器人」佔比升至37%。這裡的「壞機器人」在生成式AI時代更為突出,因為它們更善於偽裝成人類行為。它們有時只是在社群媒體上產生一些空洞或胡言亂語的評論,但也可能被惡意使用,例如製造虛假的頁面瀏覽量、用戶互動和使用時長,從而造成公司業績數據的扭曲。不只活躍於社群媒體,生成式AI還在逐步接管人類表達領域。Graphite的一項數據記錄了這一里程碑時刻:2024年11月,網路上發表的AI生成文章數量超過了人類撰寫的文章數量。根據Graphite觀察,自2022年11月ChatGPT推出以來,AI生成文章數量顯著增長,但在過去一年中AI生成文章的比例保持相對穩定,這可能是因為早期AI生成文章質量不佳導致的。但隨著AI生成文章品質的提高,再加上AI生成文章的速度之高、成本之低也遠非人類可比,可以預見未來AI文章的數量還會穩定成長。這意味著,AI生成內容的數量增長不僅改變了資訊來源的結構,也正在重塑網路生態真實感的「基線」,也可能帶來AI時代「網路死亡」的升級版——模型崩潰。https://arxiv.org/pdf/2305.17493這一點在牛津大學等研究機構發表的《遞歸的詛咒(Curse of Recursion):在AI生成資料上再訓練會導致模型遺忘》論文中已經得到了理論上的證實。AI時代真正的危機是模型崩潰。在大模型使用生成資料繼續訓練(continue training)的遞歸過程中,模型會慢慢「忘記」或偏離原始人類語言分佈的某些細節,尤其是那些少見或邊緣的模式。這樣模型會逐漸失去多樣性淪為一切趨於平庸的同質化,最終出現模型崩潰(Model Collapse)。這就好像把一張照片在上一代影印件的基礎上不斷影印,其清晰度會逐漸下降,最終變成一張模糊的、缺乏細節的照片。當越來越多的AI內容成為模型的訓練數據,就可能帶來模型能力的下降,由此產生更多劣質的AI內容,這些內容再訓練出更差的AI模型,最終就是更嚴重的危機——模型崩潰。從網路的「死亡」,到模型的「崩潰」,與科技發展同步的,是「失真」的演進。讓網路更「人」一點,更「真」一點Google CEO Sundar Pichai認為搜尋引擎會被AIGC 「深刻改造」,因此AI回答與人類內容的協同將成為主流互動範式。Google CEO Sundar Pichai輝達CEO黃仁勳,提出應當把AIGC視為時代性通用技術,將無所不在地嵌入創作、工程與組織工作流程。隨著AI對於網路和人類社會的滲透,AI生成的內容將會像Sam Altman預言的那樣,不可避免地越來越多。這就帶來一個難題:如何分辨AI和人類生成的內容。隨著人類正越來越多地與AI合作,讓這一點變得更加困難。的確,一個人在工作中利用AI的方式有很多種,比如用它來搜尋,整理材料等,因此很難明確地說某項內容是AI生成的還是人類生成的。其實很多AI生成的內容,背後是人類在引導、編輯、校正。用加州大學洛杉磯分校電腦科學教授、亞馬遜網路服務副總裁Stefano Soatto的話來說,「二者之間更像是一種共生關係,而不是非此即彼。並非所有AI生成的內容都是垃圾內容。」在這種共生的關係下,用不用區分AI和人類生成的內容?Sam Altman認為,「好不好比是不是AI產出更重要」,但他也提出要有「可驗證的來源」與治理工具,以識別那些是AI生成的並提升信任。Altman認為辨識AI生成內容是為了提升對內容的信任度,他曾多次提醒不要過度信任模型,因為AI也會「自信地編造」。同樣,Anthropic CEO Dario Amodei也認為,需要科學的方法和評估體系為此來兜底,他認為雖然模型「胡說」頻率可能低於人類,但出錯方式更「出其不意」。Elon Musk也強調要用AI去檢測/溯源合成影片與深偽,在平台層面建構「內容鑑別器」。這點隨著AI技術的發展變得特別重要。近日,Sora 2上線後短時間內就有大量「以假亂真」的影片在社媒流通,YouTube、Meta正透過推出「貼標」「降權/限變現」等方式,試圖限制「AI灌水內容」的擴散。對於AI生成內容的監管也在多加碼。例如,美國政府在2025年5月19日正式推出《TAKE IT DOWN 法案》,將故意發布或威脅發布非同意的親密影像(包括AI 產生的深度偽造)定為犯罪行為。歐盟首部關於人工智慧的法規《AI法案》明確合成內容必須標示、與使用者互動需透明提示。識別AI內容是為了安全,避免AI噪聲,但即便是AI生成的內容優於人類,這種區別仍然是必須的。因為相比較好壞,真實性永遠更重要。不僅是互聯網,即使是AI時代的數位生命,本質仍然在於「真實」。在人機共生的時代,我們需要關注的重點不在於人類與AI的差異或優劣,而是如何讓AI服務人類的真實。無論未來科技如何演進,人類仍需守住那份「真實」的火種。 (新智元)
社交媒體的黃金時代,結束了
社交媒體曾經是我們日常生活的一部分,人們在上面分享生活,追蹤朋友的動態,吃瓜追熱點,彷彿只要滑動螢幕就能與全世界同頻。但如今,越來越多的人覺得它累人又空洞:一刷就是幾個小時,刷來刷去都是高 P 照片、無處不在的軟廣、批次製造的 AI 內容……越刷越疲憊和焦慮。這不是巧合,而是平台設計和科技變化的結果。Noema 雜誌的文章《社交媒體的最後日子》直指核心:AI 和演算法已經把傳統的「注意力經濟」推到極限,結果不是更好的社交,而是平台的瓦解。使用者們正在逃離巨型平台,轉向更小、更私密的數字空間,回歸到人與人之間的連接。Reddit 上市兩年市值暴漲 485%,Discord 成為新的社群平台,就是最好的證明。這一切是怎麼發生的?「混小圈」為什麼會成為未來社交的主流?01 演算法把平台玩壞了「注意力經濟」並不複雜:社交媒體公司靠抓住你的注意力賺錢。演算法根據你的停留時間、點贊、分享來決定推送什麼。你看得越多,它們賣廣告就越多。起初這像是一場雙贏。你看到朋友的精彩分享,留下評論和贊,平台獲得廣告收益,大家都挺開心。可 AI 的介入改寫了規則。根據 artsmart 的統計資料,2025 年,80% 的內容推薦演算法由 AI 驅動,71% 的圖片是 AI 生成的。社交平台已經 AI 化了。每日生產 3400 萬張 AI 圖|圖源:福布斯外網也不例外,此前我們曾報導過的《他們正在用 AI,瘋狂給網際網路「下毒」》正是這種現像極端化的體現:AI 生成,十秒左右的精神污染風格的視訊,在社交媒體上對演算法進行「暴力破解」。用 AI 生成的驚悚內容去「暴力破解」演算法,以騙取流量|圖源:Instagram這些人用更便宜、更快的 AI 內容,不斷試探流量機制,把演算法「砸暈」,總有一條能爆火。結果就是,你的首頁我的首頁,都離不開 AI。AI 文案、AI 配圖、AI 視訊、AI 主播、AI 寵物甚至 AI 萌寵拍的短劇都在爆火……這些推薦演算法也並不是中立的。它們的唯一目標是讓你停不下來。短影片平台是典型,一刷就是幾小時。結果,使用者的大腦被榨乾,出現「注意力疲憊」。近期在 Facebook 上爆火的 AI 生成圖「耶穌蝦子」|圖源:Facebook2025 年的調查顯示,超過 60% 的年輕人覺得社交媒體讓生活更焦慮,而不是更快樂。一項調查顯示,超過 60% 的年輕人覺得社交媒體讓生活更焦慮,而不是更快樂(practicaltheory.org)。同時,隨著 AI 生成內容愈發擬真,使用者的分辨能力也在下降。在去年「海倫妮」颶風席捲美國南部時,一張 AI 生成照片同時席捲了社交媒體。許多美國政客都親自轉發推文,傳播量過百萬。去年史丹佛網際網路實驗室也在測試中發現,他們用 AI 生成的圖像總共獲得了數億次曝光,而且標題越極端,AI 圖片越能奪人眼球,瀏覽量也會越高。這就是注意力經濟的陰暗面:當注意力能換錢時,資訊真偽已不再重要。中老年人是被 AI 圖「欺騙」的重度受害者|圖源:X正如 Noema 文章作者 James Sullivan 所說:「當代社交媒體的內容是無根的,沒有上下文,沒有文化、沒有真正的對話,就像一坨語義泥漿,看起來像說了什麼,但實際上什麼都沒說。」社交媒體的危機不是因為缺少內容,而是因為 AI 帶來的內容過載,以及過載導致的信任崩塌。Instagram 的互動率過去一年跌了 24%,X(前 Twitter)使用者持續流失。美國成年人中,只有不到一半認為社交媒體資訊可靠,比 2010 年代中期少了三分之一。今年內容行業爆火的新賽道:AI 萌寵短劇|圖源:抖音許多使用者打開社交媒體後,就進入了「下滑-點選」的機械式的回路,大家都不是在真正連接別人,而是在半夢半醒裡滑動螢幕。這种放不下手機,又邊刷邊走神的狀態,作者稱之為「環境性解離」。創作者也同樣疲憊,他們得和 24 小時無休、沒有靈感瓶頸的 AI 競爭,還要想盡辦法製造更能搶佔注意力的內容。演算法推薦機制結合 AI 的低成本生產內容,把平台內容塞爆了,把使用者看累了,把優質創作者擠走了,所以每個人都在說:社交媒體活人感越來越少了。但瓦解不是終點,而是轉折。社交媒體的下一個階段,是從大平台逃離,開始擁抱小圈子。因為「演算法推薦」+「AI 批次製造內容」+「情緒化傳播」三板斧下來,讓人們的注意力變得廉價同時又極度稀缺。大廣場裡刷不完的內容,無法滿足一個人「被理解」的需求時,人們要麼搬進更小的圈子、要麼把情緒寄託給可控的服務。就像從大牌連鎖店的預製菜,轉向你樓下現炒的街邊小店,或是聘請一個燒菜阿姨:規模小,但東西更真,更合你口味。現實中,這已經在發生。02 大平台,小圈子過去一年,比黃金更值得投資的是 Reddit 的股票。2024 年 3 月,在我們報導 Reddit 上市文章時,Reddit 股票是約 50 美元一股,一年半後,Reddit 股價翻了五倍,超過了 250 美元/一股(截稿時已達 266.66 美元/股),市值接近 500 億美元。上市一年半,Reddit 股價翻 5 倍|圖源:GoogleReddit 和 X(前身 Twitter)、Facebook 一樣是老派社交媒體,今年已滿 20 歲。但為什麼只有 Reddit 煥發了第二春呢?因為 Reddit 是小圈子的典範:Reddit 的子版塊讓使用者圍繞興趣聚集,每個版塊都有版主人工管理,內容規則清晰,不依賴演算法喂食。這讓它在 AI 垃圾橫行的時代顯得乾淨,也更有人情味。社交媒體正在從一個大廣場分裂成很多小房間。Reddit 就是把房間分割的最好,打掃最乾淨的一家。在投資者眼中,Reddit 就是「社區模式」的價值回歸。另一個小圈子化做得很好的是 Discord。Discord 是一個社群化的 App,它不依賴任何推薦、匹配演算法,所有的頻道都由使用者自己建立、管理。2025 年,Discord 使用者數破 5 億,許多使用者都是從 Facebook 群遷移過去的「難民」。把群組功能做到極致的 Discord|圖源:Discord付費郵件分發平台 Substack 也火了,創作者可以直接單向和訂閱者發郵件,避開平台的演算法和 AI 內容,小量忠實受眾的長期價值也開始被重估。從追求十億級使用者,到經營高品質小群體,社交的價值正在變化。小圈子減少噪音,讓人們感到被真正「看見」,也不必擔心暴露在大眾面前引來網暴。在各類話題衝突和對立日益嚴重的當下,小圈子就像一個自嗨式的烏托邦,雖然是回音室,但讓人更安心,也更真實,使用者能在其中做自己,也能懂別人,這才是一種網路社交的真·連接。這種趨勢被《福布斯》雜誌稱之為「親密經濟」:使用者的注意力已經渙散了,人們開始渴望被理解、被回應,情緒價值本身成了產品。近年來許多陪伴型 AI 聊天機器人的爆火,就是一種「親密經濟」,大家的表達欲還在,只是從發朋友圈、發微博,轉向了對 AI 傾訴。在親密經濟中,情緒真的就是一種價值,提供情緒價值也變成了一種服務。用大白話來說,大家上網不想再給自己添堵了,甚至無暇去關注「大廣場」上的罵戰,只想躲回自己的小房間。 行業分析與社媒監測顯示 Instagram 等平台的平均互動率在 2024–2025 年出現明顯下行|圖源:socialinsider於是,社交的重心開始悄然轉移。越來越多的人選擇走進小型、封閉的數字房間:Discord 的私密伺服器、Telegram 的加密群組、Signal 的邀請制社群都在快速增長。與龐大的公共平台不同,這些社區的邊界不由 AI 和演算法控制,而是由使用者自發決定:誰可以加入、誰能看到什麼內容、不可以說什麼話……明確規則結合人工管理,讓 bot、垃圾內容、噪音、圈外人的評判都被隔絕到了圈子之外,成員間對彼此的期待也更明確,互動更真實。Noema 文章還提出另一種值得關注的趨勢:未來的社交媒體可能會「更慢、更斟酌」,不再以「即時」作為唯一價值。平台設計者也在嘗試讓使用者慢慢思考後表達,比如 Signal App 加入了「發帖延遲」功能:寫完文案,得等幾分鐘才能發,減少沖動發言,讓人有時間思考而不是情緒化輸出。與此同時,演算法的角色也需要重新定義。下一代社交產品很可能會把選擇權交還給使用者:你可以決定資訊流的來源、篩選推薦的方式,甚至一鍵關閉所有 AI 內容。這種「更慢、更小、更可控、更親密」的趨勢,既是當下社交媒體的一種轉向。未來的網路社交,不是更熱鬧,而是更安靜,它可能只存在於不過百人的群組,也可能只存在於你和一個 AI 聊天的對話方塊。 (極客公園)
暴漲17.47%!美國版“百度貼吧”Reddit 逆風飛揚
Reddit 是美國最火的社區網站,結構類似“百度貼吧”:使用者圍繞主題建立版塊(subreddit),發佈內容、點贊/點踩決定熱度。它像貼吧,但氛圍更自由、使用者更國際化。1️⃣為什麼財報增長這麼快? ①廣告爆發:Q2 營收 5 億美元,同比增長 78%,廣告收入佔 4.65 億美元,同比增長 84%。 ②使用者增長:日活使用者 1.104 億,同比增長 21%,廣告轉化率同步提升。 ③盈利能力增強:淨利潤 8900 萬美元(去年同期還虧損),毛利率 90.8%,調整後 EBITDA 佔 33%。 ④新方向驅動:平台加碼搜尋與 AI 產品,如 Reddit Answers,月活超 600 萬。 2️⃣和百度貼吧的差異: 貼吧由百度主導、內容偏本土,管控更嚴格;Reddit 社區自治度高,國際化程度強,討論氛圍更開放。 一些有趣的使用場景:①開發者常在 Reddit 推廣新應用或遊戲,甚至用 AMA(Ask Me Anything)與使用者直接互動。 ②想來中國玩的外國人會發帖求攻略,比如“上海小眾酒吧推薦”“北京地道早餐清單”。 ③海外創業者會在創業類股分享融資經歷,被稱為“矽谷朋友圈”。④很多科技公司員工匿名分享職場八卦,甚至影響股價。影視愛好者社區會自發整理劇集彩蛋、冷知識,被導演本人點贊。 3️⃣未來增長勢頭: Reddit 暫停付費版塊計畫,專注“搜尋+AI”和國際化擴張,廣告體系和使用者生態正持續強化,增長空間仍然很大。 4️⃣一句話總結:Reddit = “國際化+自由氛圍的貼吧”,財報大超預期+AI 搜尋驅動,股價直接飆升。
Reddit平台DPA 廣告為何突然爆發?
在一片質疑聲中,Reddit 交出了「高成長+高獲利」罕見組合,廣告業務全面提速,資料授權成為高毛利「第二曲線」。管理層指引Q3 收入繼續 +55 %,EBITDA Margin 抬至 35 %,展現對廣告需求與自助化模式信心。證明Reddit 既能放大營收曲線,又具備極強的經營槓桿,獲利拐點已穩固。「成長78 % + EBITDA Margin 33 % = 111 %」 —— Reddit 第一次突破「Rule-100」組合值,顯示高速且高效的成長模型。關鍵業務分部表現,廣告夠亮眼,廣告增速「零跑」社群媒體:=> Reddit 成為唯一本季廣告收入較去年同期>80 %的主流社媒。深度歸因:為什麼Reddit 能「領跑」?關鍵在於DPA廣告的爆發動態產品廣告(DPA) 是Reddit 的旗艦產品目錄驅動型廣告解決方案,旨在透過在Reddit 使用者正在考慮購買的對話中動態推廣產品來推動購買。動態產品廣告使廣告主能夠輕鬆地直接從其產品目錄建立廣告。上傳產品目錄,選擇目錄銷售目標,並立即啟動廣告活動,而無需上傳新資產- 廣告會即時填充和更新您的最新產品價格、圖片和描述。Reddit 的機器學習透過兩個定位選項動態地選擇向那些使用者提供那些產品,來滿足行銷目標。對比Meta、TikTok、Snap、Pinterest、X/Twitter 等平台,Reddit 廣告系統的驅動力來自那些關鍵點?1. 供給面:低廣告位密度帶來了更大提價與增量空間換句話說就是基數低,廣告變現一直是reddit比較薄弱的地方,現在看起來管理階層在AI時代找到了一條適合reddit的變現之路。Reddit 管理層多次強調「Smart Ad Load」,維持主Feed 廣告佔比 低於20%,顯著低於Meta News Feed 約30%+ 的水平。較低的基準讓Reddit 既能在 不損害使用者體驗的前提下 繼續逐步加位,也能憑藉需求旺盛的小幅 提價 直接放大收入彈性。相較之下,Snap 與TikTok 的廣告負載已接近飽和,使其難以再依靠提高CPM 或增加展示次數來驅動高成長。2. 完整訊號棧:Pixel + CAPI + LTV 驅動oROAS 最佳化率提升截至2025 年Q1,90%+ 的託管廣告主已部署Reddit Pixel,並透過與Google Tag Manager 的無縫整合提升採集精度。 Conversion API(CAPI):覆蓋的轉化收入年 比翻三倍,推動 轉化成本降低~20%,讓oROAS / oCPA 模型更穩健。長生命周期價值(LTV)回傳 進一步豐富模型訓練訊號,幫助演算法在隱私收緊時代維持優勢,而依賴瀏覽器Cookie 的TikTok/Snap 則面臨追蹤缺口。3. 產品創新:DPA 購物廣告正式GAReddit 的 Dynamic Product Ads(DPA) 已在2025 年Q2 全量上線,首季貢獻約 12% 廣告收入,平均 ROAS≈一般轉型廣告的2 倍。憑藉「貼文上下文+ 商品圖庫」的組合,DPA 成為電商、零售品牌的首選轉化單元;而Pinterest 雖然同樣具備DPA,卻缺乏Reddit 的高信任度口碑語境。4. 語義場景優勢:「Scroller / Seeker」 雙模高意圖Earnings Call 揭露,每日平均 5,000 萬Scollers(瀏覽)與 6,000 萬Seekers(主動搜尋與決策)在Reddit 形成 「研究-比較-下單」 的天然漏斗;社區濃厚的「求真」氛圍使使用者更樂於深度閱讀、核實資訊並留存。對比:TikTok → 以娛樂消費為主,購買意圖較低;Snap → 場景偏“社交表達”,決策鏈條短;Meta → 半日常半娛樂,意圖訊號仍遜於Reddit 的長帖與評論上下文。5. AI 投放工具:自動創意與一鍵上量Memorable AI 收購、與 Smartly.io 等三方深度整合,讓廣告主可一鍵批次產生多版本素材並自動出價。上線 Auto-bidding 與Conversation Intelligence 後,廣告主基數在2025 年Q2年增 50%+,長尾客戶滲透率快速提升。相較之下,X/Twitter 仍依賴手動素材上傳,Snap 的廣告套件則剛重構完畢。所以,經過復盤,很明顯Reddit 通過 「低基數Ad Load + 全鏈路信號+ 高ROAS 新格式+ 高意圖場景+ AI 自動化」 的五重疊加,正在構築與Meta/TikTok 等巨頭差異化且可持續的廣告增長曲線。伴隨DPA、CAPI 的規模化,及社區語義資產的持續挖掘,Reddit 仍具 提價、加位與滲透率 三條平行的上升通道,為未來幾個季度的收入高增奠定了結構性基礎。reddit論壇的形式在AI時代找到了比較好的生存土壤,社群媒體 「心態—轉換率」 框架分析可以很明顯地顯示各個平台的巨大差異:TikTok 與Snap 擅長娛樂和社交即時場景,轉化率相對較低;Pinterest 在靈感收集與視覺展示中表現突出;而 Reddit 因「求真、求證」心態,使用戶天然帶著購買前的強意圖,加上口碑深度與AI 工具加持,形成目前最高的平均CVR 與獨特的決策-轉化閉環。行業平均,來源:eMarketer 2025 Survey;數值僅作對比。心理學解釋,當使用者處於「資訊評估」階段(Prospect Theory 的「損失規避」高敏期),可信賴內容與同儕觀點能顯著降低購買風險感知,CVR 自然高於娛樂場景。AI 時代「興趣廣告」趨勢, Reddit 這種論壇式廣告存在一定的結構性優勢?第三方Cookie 受限,定向廣告正從「身份」轉向「語義/ 興趣」訊號。 Reddit 100 000+ Subreddit 本身就是顯式語義標籤,自然按主題聚眾,不依賴個人ID 即可進行精準上下文投放。生成式創意爆發-廣告素材A/B 大規模平行,生成式AI 讓品牌一鍵產出數百條創意,迫切需要真實回饋資料篩選「贏家」。 Reddit 貼文 Upvote / Comment 構成即時「測款」機制,幫助廣告主快速淘汰弱創意。 Pixel + CAPI + LTV 閉環可把轉換與終身價值回傳至投放演算法,讓優勝創意自動加碼。LLM 提升情境配對與可解釋性,大模型正在讀懂貼文/影片/圖片語境,提升廣告與內容契合度。 Reddit 官方 Reddit Answers 項目已用LLM 為廣告生成“可解釋摘要”,將帖子討論要點與商品賣點直接對接。透過AI 解析長文與評論,廣告插入更精準且有語意解釋,減少使用者反感。品牌安全與內容治理層面,廣告主擔心生成式內容海量擴張伴隨違規風險,需要強審計。 Reddit 人類版主(Mods)+ AI 審計 的“雙層過濾”,可按品牌需求打包“低毒性”社區。細顆粒度Subreddit 選擇權→ 廣告主能避開敏感或低質話題,確保品牌安全。零售媒體崛起:ROI 可驗證至SKU,零售與DTC 商家要求廣告及交易資料深度打通,精準歸因於單品。 Reddit DPA 動態商品廣告 與 oROAS 模型可直接追蹤SKU 層級收益。將高毛利GMV 與廣告花費繫結,幫助商家有效率地放大最賺錢的商品。所以,在隱私、生成式AI、品牌安全與零售媒體等多重浪潮衝擊下,Reddit 依靠 語義社區標籤、原生互動反饋、LLM 解析能力、強治理體係與閉環歸因,構築了一條與眾不同的廣告護城河,鎖定未來幾年的增長主動權。與其他平台的DPA模式相比有什麼不一樣的地方?動態商品廣告(DPA / Feed-Based Shopping Ads) 六大平台深度對比①技術堆棧升級DPA 從β 到GA(4/2025),上線LTV-aware 出價• Shopify & BigCommerce 外掛程式自動部署Pixel;CAPI 覆蓋率YoY 3×,事件缺少欄位率< 5 %;②管道替代效應iOS ATT & 第三方Cookie 退潮,廣告主尋找非身份定向、高意圖場景;Reddit 論壇對話可無Cookie 建模;③社區心態契合用戶在購買前「求證/決策」階段登Reddit:願意閱讀長貼、對比SKU;DPA 剛好承接。心態-轉化機理:為什麼Reddit「求證心態」轉化率更高?心理學:Prospect Theory 顯示消費者在「損失規避期」更重視他人經驗-Reddit 多視角長帖滿足此需求。行為鏈:搜尋「best mechanical keyboard」 → 閱讀/r/MechanicalKeyboards 經驗→ 查看側欄DPA 商品卡→ 點擊即購。對比:TikTok 刷短影片時情緒=娛樂→轉換需額外說服;Snap 社交表達=朋友互動→購買動機較弱。為什麼reddit有一定的優勢,還要從廣告的定向訊號模式來展開。 reddit的DPA廣告是「貼文上下文× Pixel/CAPI × Subreddit 語義」。而如果我們把“帖子上下文× Pixel/CAPI × Subreddit 語義” 看作一種“廣告版大型語言模型(LLM)上下文”,但它與真正的LLM 上下文既有相似也有本質區別。1️⃣ 貼文上下文:語義層面的“長文字訊號”標題、正文、頂部評論往往>300 token;比Twitter/X 短帖、TikTok 視頻標題資訊密度高。價值在於:關鍵詞提取(如品牌名、SKU 型號、用途場景)。情緒/意圖判定:是「求推薦」還是「曬單」?長尾興趣:/r/MechanicalKeyboards 比「電子外設」更細分。把廣告位與正文中顯式需求對齊,類比於LLM 用超長上下文理解整篇文章。▶ 範例帖子標題: "預算 200 美元,尋靜音線性軸鍵盤,配色偏奶油"→ 關鍵詞: budget 200, silent linear switch, cream keycap→ DPA 召回: 紅軸 GMMK Pro 套件, Akko Silent Cream2️⃣ Pixel/CAPI:行為層面的“使用者記憶向量”Pixel(前端)捕獲 viewContent / addToCart;CAPI(伺服器端) 捕獲 purchase、LTV 金額。這些事件附帶 sku_id, price, currency 欄位,相當於在上下文中插入結構化記號。當廣告引擎看到「剛在品牌官網加購了GMMK 套件」+「此貼討論GMMK 鍵帽」,會大幅提升相關DPA 出價。這對應LLM 的 Memory Token / Retrieval-Augmented 技術:把檢索到的知識注入當前上下文。3️⃣ Subreddit 語義:宏觀“主題標籤”為何「上下文夠長」可以帶來轉化率提升?資訊密度夠高,越長文字,模型越能捕捉具體需求(預算、規格、痛點)。意圖清晰,「求測評/比較」 貼文比「秀新購」 貼文更早處於決策漏斗頂;模型可據此動態調CPI / oROAS。口碑訊號,評論Upvote 量= 群體偏好;偏好強→ 模型更敢出高價。廣告位稀缺,長帖滾動時間長,展示1–2 個動態卡片即可填滿可視區域,廣告干擾低→ 點選意願高。結果:QQ 更準& CAC 更低Reddit 公告:DPA + LTV 模型部署6 個月,平均轉換成本–20 %,ROAS +94 %(對比標準轉換廣告)。所以,在reddit這兒,DPA 的本質是把Reddit 的社區 「信任資本」 轉換成 商品級ROAS。產品GA + 轉化演算法成熟+ 宏觀管道位移,對Reddit 來說,DPA 是最短利潤鏈;對投資者而言,可關注 廣告自動化& Feed 供應鏈上下游 的二級受益標的。Reddit 的廣告成長率「零跑」並非偶然,而是技術堆疊升級+ 社區心態定位+ 興趣語義護城河 三重共振。在AI 驅動的興趣廣告新時代,高可信度、可機器解析且與購買決策緊貼 的內容場景正從「社交娛樂」遷向「社區求證」——Reddit 恰處新高意圖流量與AI 投放效率的交匯點,具備領先同行1-2 年的結構化優勢。所以在與AI深度融合以後,本季reddit DPA廣告迎來爆發式成長,在一片質疑聲中完成了AI業務轉折!Reddit AI 業務轉折路徑對於其他公司有沒有什麼可藉鑑的地方?首先我們來看看,公司最重要的AI 策略,也就是「語料→平台→場景」 三層閉環:1. 守住語料源頭壁壘:真實社區互動難以複製;授權合約確立法律邊界。2. 把AI 能力注入平台核心打法:搜尋前置、廣告自動化、翻譯出海,「AI→使用者體驗→DAU→語料」循環。3. 延伸到產業場景路徑:B2B 資料洞察、品牌測評、廣告溢價、RAG 檢索API…高毛利可重複使用模組外售,建構「內容as a Service」。AI 變現一定是圍繞著「資料-動作閉環」會議紀要原文「AI doesn't invent knowledge, it learns from us… You can't have artificial intelligence without actual intelligence.」 — Steve Huffman護城河轉向稀缺資料而非模型:模型同質化→核心是獨佔、可信、即時的知識來源。行動短鏈化:AI 輸出必須直連可計費或降本動作;洞察若無自動執行=價值遞減。飛輪自增強:AI 提升體驗→增加語料→提高授權價值→進一步投資AI,形成正向回饋。AI 技術從炫技走向ROI 兌現,稀缺高品質資料與原生落地場景成為價值錨。 Reddit 的策略恰是將「資料護城河+ 場景閉環」同步夯實,使自身在推理放量階段兼具提價權與變現槓桿。以Reddit 2023-2025 的演進為樣本,總結內容平台在Gen-AI 時代的「資料→ 能力→ 產品→ 變現→ 生態」 五段式躍遷模型,可供其它垂直或社區型公司對標。轉折點規律先貨幣化資料,再貨幣化能力——現金流支撐持續投入。內部場景跑通後再外售——避免「賣期貨」。每一級躍遷都嵌入可量化收入或降本指標——驅動資本市場重新定價。稀缺性對標:為什麼目前美股少有對等樣本(市值> 50 億美元)?具備「深度長尾語料+ 明確產權+ 輕資產+ 即時變現鏈」四要素者,在美股範圍幾乎只有Reddit;同等市值公司要複製需補齊至少兩條短板。*預期來自FactSet/Zacks 彙總區間;σ 以同源發佈的「estimate standard deviation」 計算,若只給出高-低區間則以(max-min)/4 近似。 EPS 區間$0.11-0.27 → σ≈0.04-0.06;取0.065 較為保守。兩大核心KPI 同時跨越4 σ,在經驗分佈中屬於<0.003 % 的罕見事件,足以讓後驗機率大幅向多頭情境偏移。Reddit 用「兩年三跳」完成了從「語料庫」到「現金機器」的AI 曲線,為下一代內容平台提供了可複製但難趕超的範例。投資者可用此五段式框架篩選:誰擁有獨佔資料?誰能讓AI 輸出立即帶來收入或降本?誰的飛輪越滾越快?目前美股中,滿足四要素且市值>50 億美元的公司寥寥無幾,Reddit 幾乎是唯一的純正樣本。 (貝葉斯之美)
美國版小紅書Reddit,在AI時代有著巨大的機會
最近我們聊AI醫療聊的非常多,而且也挺全面的,大廠小廠也都聊過,具體的大家可以多看看往期的文章。也有很多朋友來問,我們是怎麼去找的很多資訊和資料,除了去官網找財報相關的資料,Reddit上也能有很多資訊輸入。因為Reddit最吸引我們的,和小紅書很像,都是真人,沒有什麼機器人,也沒有太多的宏觀演算法的干預,看到的討論都是較為真實的。而且深度參與進去這些討論,對自己的水平提升也是很顯著的。這一點在AI行業的朋友可能更有感觸,因為AI行業日新月異,經常會出現新的模型,新的產品,例如Cursor出現給AI程式設計帶來了新的範式,但Cursor還沒掙到一年的錢,Claude官方就發了Claude Code,那究竟這兩個產品在程式設計師之間的口碑如何,其實我們看過這麼多的內容社區,還是Reddit上看到的最為真實。對新的事物的討論,Reddit上有很多專業的大神,很樂意的寫長篇大論去分享自己的真實感想,這點非常的難得,我們也很少在講基本面之前就聊這麼多這家公司的優勢,雖然標題說是美國版小紅書,但其實更像是美國版貼吧。1. 一個標準範本型的創業故事在2005年,弗吉尼亞大學的室友史蒂夫·赫夫曼(Steve Huffman)和亞歷克西斯·奧哈尼安(Alexis Ohanian)最初的第一個項目名為My Mobile Menu,趕上的第一波網際網路的機會,是一個手機菜單,使用者通過手機提前從餐廳或加油站訂餐來跳過排隊。這個想法在當時還是很前沿的,畢竟有手機的人也不多,但當時沒有App Store,他們做了一個線上的產品,但很難說服餐廳接入他們基於簡訊的系統,導致肯定是需要融資來支援,把第一桶金給挖出來。後來他倆放棄了春假,跑到哈佛大學,去聽當時YC創始人格雷厄姆的一個演講,主題是如何創辦一家創業公司,聽完之後,他倆主動邀請格雷厄姆喝一杯,並向他推銷了這個My Mobile Menu的idea,格雷厄姆雖然對這個想法表示感興趣,可惜在後邊正式的YC申請環節,他們的項目都被拒了。給出的理由也是一樣,手機還不成熟+沒有App Store,創業公司無法繞過營運商。但是,格雷厄姆非常欣賞這兩位創始人,很快就打電話說,喜歡他們這個團隊,但之前那個idea走不通,鼓勵他們重新帶一個idea來申請,他也順便提了當時正在思考一個問題,也就是《紐約時報》的頭版不再能滿足資訊多樣性的需求時,有什麼東西在網際網路時代可以取而代之,當時網際網路時代和現在AI時代一樣是深入人心的,Google、微軟甚至國內的百度、阿里也都已經起來了。格雷厄姆當時就設想了一個類似於書籤網站Delicious的平台,但更側重於社區驅動的內容發現,其實2003年國內的貼吧也出來了,這些模式都差不多,到2005年都算晚了。這倆人在這個啟發下,在返程的火車上立刻構思了一個開放平台,任何人都可以基於某個話題分享任何內容,由使用者通過互動來決定內容的排序。後來他們將這個新公司命名為Reddit,然後就進入YC的第一屆孵化班,並獲得了1.2W美元的初始資金。所以Reddit最開始的使命是成為網際網路的首頁,後來演變成了為世界上的每一個人帶來社區+歸屬感,通過一個個興趣社區,讓人們可以真實有意義的參與社區討論。但他們最開始積累第一批使用者其實是違背了這個價值觀的,內容社區早期的問題就是冷啟動,沒有使用者就沒有內容,沒有內容就吸引不來使用者,他們倆當時採取了一種挺有爭議的手段,也就是做了幾百個虛擬的號,自己發佈內容,營造出社區已經活躍的假象,直到真正的使用者開始湧入。但其實繼續深入分析公司的價值觀可以發現,和公司的核心商業模式之間存在著一種矛盾的關係,公司價值觀強調隱私和保持真實,但是他家要產生收入,依賴廣告和賣資料。公司一方面向使用者承諾永遠不會出售個人資訊,另一方面現在又把一些資料語料庫授權給AI公司,比如Google和OpenAI,都帶來數千萬美元年收入。現在Reddit的想像空間,也是跟上AI時代,是高品質的社區討論帶來的資料資產,但如果產生商業價值就會挑戰公司的價值觀,這個事很重要,是現在面臨的最重要的非技術性風險,我們詳細介紹和AI結合的這塊模式變化。2. AI時代所帶來的新的商業模式變革廣告業務是Reddit最重要的收入,在2025年Q1,廣告收入達到3.586億美元,佔了總收入的90%(總收入3.924億),收入同比增長了61%,增長速度是非常快的。現在Reddit的一些廣告策略我們作為使用者其實都能感受到,更加的以取得效果為主,我們在看AI方面的資訊的時候,推送的廣告大部分也是我們比較感興趣的一些AI產品。所以精準的廣告投放也是為什麼能拿到這麼高品質的收入的原因。廣告這塊收入增長很快,但收入來源還是存在明顯的地域集中性,大部分都來自美國市場,但是國際使用者數量其實已經超過了美國使用者,這裡其實有個巨大增長機會,也就是提升國際化的水平。當然現在,Reddit最大的想像裡其實不在於廣告收入本身,雖然增長確實很多,我們還是要跟緊目前的AI時代的玩法。AI時代缺資料,更缺高品質的資料,而Reddit上有海量的高品質討論的資料,就好比當年的貼吧大神,最早期國內的很多高品質的討論都來自於天涯社區和貼吧,至今天涯的kk大神的帖子也奉為圭臬,而Reddit社區一直非常的活躍,大神極多,所以資料的質量非常的高,難以被取代。目前資料收入雖然還體現在財報的其他收入這一項下面,在今年Q1同比增長了66%,已經達到3370萬美元。這項業務是把過去二十年積累的一個巨大的、真實的、不斷更新的真人思想和對話語料庫,賣給第三方公司,比如Google和OpenAI,訓練大語言模型。比如和Google,就簽了每年6kw美元的協議,和OpenAI的合作沒具體說額度,但是公司自己也明確說明了預計在未來三年內,通過AI資料授權合同,能夠拿到2.03億美元的收入。看上去並不多,為什麼說想像空間極大,因為這事就是四兩撥千斤,躺著掙錢,淨利潤特別的高,它幾乎是將平台的現有資產直接的轉化為很貴的現金,成本都沒有的,而且對AI公司來說,依賴性還特別強。3. AI時代帶來的風險,和真正的機遇所在這個模式躺著掙錢,有沒有什麼風險呢,也有,還很大。Reddit非常的依賴使用者量,目前有28億註冊使用者,日活使用者1個億,其實並不算特別的多,和國內的B站是差不多的。相當一部分的使用者增長,特別是參與度較低的一些未登錄使用者,嚴重依賴搜尋引擎的引流,這個是活力來源。我們自己早期其實也沒專門的上這個網站,而是從搜尋引擎點進去的,因為使用者搜尋複雜問題的時候,常常會發現最真實、最有用的答案來自Reddit的某個討論帖,以前知乎也是這樣,這種模式其實帶來了巨大的流量和潛在的使用者。但是Google推出的AI概覽功能,對這種共生關係構成了致命威脅。AI概覽可以直接抓取並總結Reddit上的內容,將答案直接呈現在最頂頭,使用者都不需要點進網站裡邊,就能拿到自己想要的東西,這相當於切斷了Reddit一個重要的使用者獲取管道,直接威脅到了廣告收入的根基。這個風險在5月被衝擊了一把,本來一路高漲,5月19日,富國銀行發佈了一份報告,將Reddit的評級下調,並從168大幅減到115,突然這麼大幅度看衰的觀點是,搜尋引擎AI概覽功能,對Reddit流量的威脅並不是暫時性的,而是永久性的,將從結構上損害的流量入口和廣告收入,然後緊接著Baird的分析師也跟進下調了,然後就帶動了市場情緒,恐慌情緒就蔓延了,還引發很多證券欺詐的集體訴訟,指控公司沒有充分披露這個重大風險,現在還在打官司呢。但Reddit也不是沒有回應和反擊,6月中旬,廣告界的年度盛會戛納國際創意節上邊高調推出了全新的AI驅動行銷工具套件,叫做社區智能,是期望市場敘事從Reddit是AI的受害者扭轉為Reddit是自身AI命運的主宰者,當下立刻就拿到了20%的效果。緊接著Meta收購Scale AI(類似innodata,可以看我們之前寫過的文章),這個事直接對AI的資料供應商做了定價,對Reddit這種龐大且真實的對話語料庫的資料資產進行了重新評估。很多朋友講到Reddit的AI會分析Reddit Answers(內部的AI對話搜尋),但是這個其實不是重點,目前的機會也還沒真正的冒出來。主要的重點還是這個推出的社區智能本身,這個對商業模式是存在變革的,是我們重點觀察的東西。它包含兩個核心功能,一個是提供洞察服務,利用AI為產品的品牌提供即時的洞察,比如輿論分析和一些產品的真實評價,知道有那些正面的討論和負面的討論。另一個服務是關於產品討論的評價摘要,能夠自動生成關於產品的使用者正面評價摘要,並且直接附在品牌廣告的下方,讓廣告更加的有吸引力。這個是一個變革,把Reddit從一個簡單的賣廣告位的,提升成一個能幫助產品品牌進行市場研究、產品開發和行銷策劃的戰略合作夥伴。就比如之前聊過的AI程式設計的產品,會很樂意和Reddit合作即時的看使用者原聲的聲音,根據反饋來最佳化產品,這個模式是很吸引人的,我們也覺得這個未來會帶來很可觀的利潤,這種優勢放眼全球也只有這家有,是真正的AI時代機遇所在。所以百度放棄貼吧真的是歷史上做過的很錯誤的戰略決策了,本來早期貼吧質量很高,後來官方也不好好的營運了,慢慢的大神們就退出了,變成了低品質社區。再加上財務上邊還是非常的出色的,總營收同比增長61%,毛利率90.5%,很恐怖,並且利潤率也從去年同期的4%到今年的29.4%,盈利能力得到質的飛躍。目前日活1個億,其實國際使用者都到了5800萬,數量剛好超過美國使用者(5010萬),國際使用者增長還很迅速,比如巴西就同比增長80%,還有很多未登錄使用者(這部分有5940萬),主要是從外部搜尋引擎引流來的,之前也說了是機遇也是風險,整體是很不錯很值得持續觀察的一家公司,我們後續也會對財報進行一些講解分析,感興趣的朋友可以持續的關注我們。 (江畔數金)