#Cursor
IPO前夕砸600億美金收購Cursor,馬斯克的「陽謀」與「陰謀」
“網友給馬斯克算了五筆帳。”4月22日清晨,SpaceX的一紙公告直接把矽谷的程式設計師們整不會了。公告顯示:SpaceX獲得了一項期權,今年晚些時候將以600億美元收購AI程式設計工具Cursor的母公司Anysphere;或者,作為替代支付100億美元用於雙方的AI合作。消息一出,全球科技圈和社區直接炸鍋。要知道,就在兩個月前,馬斯克剛把SpaceX和xAI攢到一起,合併估值幹到了1.25兆美元。現在IPO窗口就在眼前,他又搞出這麼個“600億天價期權”+“100億分手費”的霸氣條款。這那裡是做生意,分明就是在給華爾街寫劇本。下面咱們把這層窗戶紙捅破,看看馬斯克葫蘆裡到底賣的什麼藥。01600億買“鏟子”:戰略卡位,還是IPO注水?不管什麼星辰大海太空藍圖了,咱們先算筆帳。要知道,在2025年1月,Cursor估值才25億美元。而就在一周前,其融資估值也就500億。現在SpaceX直接激情溢價20%喊出600億,還附帶一個“不買就賠100億”的豪氣條款。這根本不符合馬斯克一貫“砍價狂魔”的人設啊。除非,這600億買的根本不是Cursor這家公司,而是它背後的三樣東西。第一,買的是算力“消化能力”。SpaceX聲明裡特意提了一嘴:“將Cursor與SpaceX算力相當於‘百萬塊H100晶片’的‘Colossus’超級電腦相結合。”這話翻譯過來就是:我有全球最大的AI算力叢集Colossus,但還缺個能把它變現的“收銀台”。Cursor有百萬日活開發者,有20億美元的ARR(年化經常性收入),這就是最好的變現出口。第二,買的是“懂算力的人”。Hacker News上有老哥扒得很深:這本質上是一次夾雜著人才收購、模型升級和算力消化的綜合考量。要知道,早在今年3月,Cursor的兩位核心工程負責人Andrew Milich和Jason Ginsberg就已經跳槽去了xAI。而且Cursor的核心模型Composer 2被曝是基於Kimi開源模型微調的,並非從零訓練。SpaceX看中的,是這支能駕馭大規模算力,並且能快速微調模型的頂尖工程團隊。在AI下半場,懂怎麼調度算力的人,比懂演算法的人更值錢。第三,也是眼下最現實的,買的是IPO估值助燃劑。據此前報導,已完成與xAI合併的SpaceX,目前估值已達1.25兆美元,並計畫以最高1.75兆美元的目標估值進行IPO。為了撐起這個天價,馬斯克必須向投資者展示他在AI應用層的統治力。而Cursor是目前全球當之無愧最受開發者歡迎的AI工具,有資料顯示,財富500強公司裡超過50%都在用它。把Cursor併入報表,SpaceX的AI故事瞬間就從“燒錢不斷的大模型”變成了“真金白銀的 AI SaaS收入”。這帳,華爾街愛看。02歷史迴響:巨頭們的“軍備競賽”與馬斯克的“陽謀”回溯歷史,不難發現馬斯克不是第一個對AI程式設計工具下手的巨頭,但他的玩法確實最野。微軟當年收購GitHub推出了Copilot,那是出於“防禦”。作為地主,微軟必須確保開發者留在Windows和Azure的生態裡,這是一筆收“過路費”的生意。而Salesforce收購Windsurf,則是“吞併”。Hacker News上有使用者提到了“Windsurf事件2.0”。當年Salesforce 收購 Windsurf 後,便強行將其塞入自有生態體系,大刀闊斧改動產品邏輯、互動介面與使用習慣,全然無視核心老使用者的體驗訴求,最終導致大批忠實使用者集體流失、紛紛出逃。有此先例,如今市場普遍擔憂馬斯克接手 Cursor 後會重蹈覆轍,效仿 Salesforce 的粗暴整合方式,隨意改動產品、強綁 SpaceX 與 xAI 生態,徹底毀掉 Cursor 原本的核心體驗,逼走高度依賴它的程式設計師群體。不過,為了避免諸如此類的未來風險導致600億打水漂,馬斯克也是想了一招——這次他玩的是“算力換股權”。資料顯示,xAI已同意向Cursor出租其自研晶片算力,用於訓練程式碼大模型Composer 2。這揭示了一個新趨勢:算力即資本。Cursor雖然猛,但一直受制於OpenAI和Anthropic的模型依賴。現在抱上SpaceX 這條大腿,Cursor就有了擺脫巨頭“斷供”的底氣。順理成章的,SpaceX通過出租算力實際上“參股”了Cursor的未來,雙方現在是現實層面的利益共同體。這比直接砸錢收購更雞賊,也更高級。03SpaceX此舉是否為了“割韭菜”?在外網社區,尤其是Hacker News上,對這筆交易的討論充滿了火藥味,簡直是大型“吐槽大會”。質疑派認為這是“IPO包裝術”。也有評論直言:“不知道收購AI程式碼工具跟航空航天業務有什麼關係。”另外,許多開發者認為Cursor在IDE領域“幾乎沒有護城河”,甚至有人聲稱“認識的工程師年初就切換到了Claude Code”,此時花這麼多錢收購Cursor真的值嗎?陰謀論派則看到了更大的圖景。在這個邏輯下,太空資料中心是太陽能電池板的“需求藉口”,而Cursor則是資料中心算力的“需求藉口”。層層巢狀的宏大敘事背後,是對IPO估值最大化的極致追求。當然也有支援派,看到了“工程效率”的未來。Cursor CEO邁克爾·特魯埃爾(Michael Truell)回應稱,這是打造最佳AI程式設計環境的一步。不得不說,對於SpaceX這種極度依賴工程效率的公司,擁有一款頂級的內部AI程式設計工具,或許真能極大程度地降低研發成本。04終局:2兆IPO與AI競賽的“奇點”時刻再回到最初的問題:馬斯克到底打的什麼主意?答案其實藏在時間表裡,2026年的IPO窗口正在逼近。其實這筆交易無論最終是否執行600億美元的收購,SpaceX都已經贏了。如果收購成功,SpaceX將擁有AI時代最核心的開發者入口,它的估值邏輯將從“航天公司”徹底轉變為“AI基礎設施+應用巨頭”,2兆美元的估值將有了堅實的支撐。如果收購失敗,SpaceX也能通過100億美元的合作費(或算力置換)獲得巨額現金流,並深度繫結Cursor的算力需求。事實上,眼下的AI競爭已進入到全端整合、全線作戰的關鍵階段。放眼市場,Google有Anthropic和Gemini,微軟有OpenAI和GitHub,而馬斯克正在通過SpaceX整合“算力(Colossus)+ 模型(Grok)+ 應用(Cursor)+ 分發(X平台)”,來打造自己的堡壘陣線。正如知名科技博主WallStreetSilv在X上所言:“馬斯克正在試圖用物理世界的火箭,去撞擊數字世界的奇點。Cursor只是他手裡的一塊磚,他想砌出的,是一座通往2兆美元市值的通天塔。”在這個故事裡,Cursor是幸運的棋子,也是昂貴的籌碼。 (雷峰網)
年入20億美元,卻被客戶拋棄,Cursor怎麼了?
AI編碼王座易主?2026年3月,《福布斯》雜誌發佈了一篇題為“Cursor Goes To War For AI Coding Dominance”的深度報導。文章揭露了一個令人震驚的事實:曾經勢不可擋的AI編碼獨角獸Cursor,正在被自己的“盟友”取代。當Anthropic和OpenAI推出自主編碼智能體Claude Code和Codex,Cursor作為程式碼編輯器成為“中間層”工具,不再被開發者需要。儘管Cursor年化收入已突破20億美元,但客戶已經開始流失,管理層被迫啟動“戰時”計畫,甚至提出“刪除該產品”的轉型策略。這場AI編碼王座的生死戰,暴露了中間層應用在基礎模型廠商面前的脆弱處境。Cursor CEO Michael Truell圖片來源:Forbes2026年1月5日,Cursor員工結束假期回到辦公室。全員大會上,一張標題為“戰時”的幻燈片,讓所有人屏住了呼吸。休息期間,大家試用了Anthropic最新的Opus 4.5模型。一個令人不安的事實浮出水面:AI的編碼能力,已經進化到開發者無需再逐行檢查程式碼了。你不需要再和Cursor編輯器裡的AI助手協作。你只需要向自主智能體發一個指令,它就能直接返回完整的功能——有時甚至是最終產品。這顛覆了Cursor作為程式碼編輯器的底層邏輯。Cursor的核心理念是“程式設計師版的Google Docs”——一個人類和AI共同寫程式碼的協作工具。但如果AI根本不需要人類,那編輯器還有什麼用?領導層發出警告:未來幾個月將動盪不安。公司發佈新任務,代號“P01”——優先順序零:建構最佳編碼模型。在Cursor內部,這感覺像一場清算。百億獨角獸的暗礁就在不久之前,Cursor還無人能擋。2025年初,它的年化收入約1億美元;到了11月,這個數字已突破10億美元。最新一輪融資讓估值逼近300億美元,四位聯合創始人躋身億萬富翁,Cursor也成了全球最有價值的20家私營公司之一。這家公司由四位麻省理工校友於2022年創立。最初想幫機械工程師設計零件,結果發現自己壓根不懂那行。迅速轉型後,他們推出了一個爆款——AI驅動的程式碼編輯器。後來,這款超快的編碼模型還催生了“直覺編碼”現象:你只需輸入簡單的指令,AI就能幫你寫出完整的網頁應用。Cursor的員工大多二十五六歲。公司不像企業,更像精英校園。進辦公室要脫鞋,經常加班到半夜,然後在公司洗澡,住的地方離辦公室只有幾個街區。一年前,Cursor僅靠20名員工、零銷售團隊,年收入就破了1億美元。這種火箭般的增長,吸引了Accel、Andreessen Horowitz等風投巨頭,也讓它拿到了頂尖模型的優先使用權。但AI領域如今的競爭邏輯很簡單:你能做的,模型廠商也能做,而且做得更底層。Cursor的核心是“協作編輯器”——人和AI一起改程式碼。但Anthropic和OpenAI繞過了編輯器這個中間層,直接扔出了“自主智能體”。你不需要打開任何編輯器,只需要在命令列裡給Claude Code或Codex一個指令,它就能自己規劃、自己寫程式碼、自己跑測試,最後把成品交給你。這意味著什麼?Cursor幫你寫程式碼,對手直接替你寫程式碼。一個是副駕駛,一個是全職司機。2025年,Anthropic向當時最大的客戶Cursor預覽了Claude Code。結果呢?Claude Code六個月內年化收入破10億美元,上個月更是衝到25億美元,反超Cursor。與此同時,OpenAI的Codex在2025年4月重新推出後,第一周下載量就超100萬次。X論壇上開始湧出大量創始人,聲稱團隊已經棄用Cursor。“大多數公司的觀點是,Cursor如今已經過時了,”一位投資人直言。不是Cursor做得不好,而是賽道本身被抽空了。當模型足夠聰明,使用者就不再需要一個“協作介面”——他們只需要一個“發令台”。而發令台,模型廠商自己就能做。親手殺死爆款產品開發者不寫程式碼了。他們開始操控智能體——發指令、等結果、調bug。AI語言應用Speak的CTO說:“這是軟體開發史上最重大的變革。”他的50人工程師團隊全在用編碼代理,功能發佈從幾個月縮到幾周。Cursor還有用,但越來越邊緣。今年2月,抵押貸款公司Valon的90多名員工直接取消了Cursor訂閱。改用Claude Code後,資料遷移、修bug全自動搞定。CEO說:“速度提升了10倍。”社交媒體上,“Cursor過時了”的論調甚囂塵上。但財務資料展示了真相的另一面:Cursor年化收入已突破20億美元,三個月翻了一番。截至2月,仍在增長。這並不矛盾。放棄Cursor的是嗓門最大的那批極客,但大眾市場還在瘋狂湧入。然而,Cursor的管理層沒有被增長數字說服。他們看的是趨勢——開發者正在拋棄編輯器這個“中間層”。於是公司內部的戰略改為:“刪除該產品。”Cursor要親手幹掉自己的爆款,轉身去做和Claude Code一樣的智能體。上周,他們宣佈“雲智能體”重大更新:多個智能體可同時在各自空間幹活,還能記錄工作內容。但有個死穴:Cursor太依賴Anthropic和OpenAI了。它的程式碼編輯器底層直接呼叫這兩家的模型API,等於把命脈交到了競爭對手手裡。要打仗,彈藥卻在敵人手裡。於是他們開始自研,用DeepSeek、Kimi等中國開源模型做底子,再拿自有資料訓練出Composer模型。Composer 1.5已是平台第二受歡迎的模型,運行成本也低。可對開發者來說,它還是貴:每百萬輸入代幣3.5美元,而OpenAI的Codex只要1.75美元。想擺脫對手,成本降不下來——這是Cursor轉型路上又一個坎兒。大廠補貼,Cursor苦撐錢,是Cursor最頭疼的問題。大廠燒錢起來,根本不管死活。Anthropic的Claude Code每月只收200美元,實際消耗的計算資源高達2000美元。相當於賣一單虧十單。如今更誇張,同樣的套餐,可能要吃掉5000美元的算力。這是拿VC的錢,硬生生把對手逼上絕路。Cursor也補貼使用者,但力度差遠了。它的消費者訂閱業務,賣得越多虧得越多,利潤率一直是負的。真正能賺錢的是企業套餐——合同簽得慢,但客戶不跑路。至今,Cursor只丟過一兩家企業客戶。但問題是,直到去年11月,企業合同只佔收入的13.6%。Cursor太依賴散戶了。現在它拚命調頭,據稱約60%的收入已來自企業客戶,銷售團隊拿下了Meta和Nvidia。一半員工撲在市場上,這是孤注一擲。但是焦慮仍在蔓延。據外媒報導,因為收入追蹤太耗精力,Cursor甚至停掉了Slack裡每日發資料的numbers頻道。不敢看,更可能是看到問題也解決不了。劇烈的變化還在繼續,多智能體系統正在崛起——一個開發者操控幾十個AI智能體,各司其職,像人類隊友一樣協作。Cursor必須找到管理幾百個智能體同時幹活的辦法,他們內部叫“高效工作模式”。但問題來了:怎麼給每個智能體分配角色?怎麼防止它們偷懶?是的,AI智能體看到同事多了,也會摸魚——跟人類一模一樣。Cursor如今面對的挑戰,不僅來自競爭對手,更來自日新月異的技術更新。這場AI編碼的王座之爭,剛剛開始。 (新質動能)
馬斯克重拳出擊,戳破矽谷那件皇帝新衣
很長一段時間裡,矽谷 AI 是帶著濾鏡的。原創、前沿、高大上。提起先進技術,大多數人的第一反應還是:厲害的,都在國外。馬斯克,一句話,把這層窗戶紙捅穿了。他撕開的不是什麼驚天秘聞,而是一個業內的真相:矽谷一家估值不菲、風頭極盛的 AI 公司,對外標榜自研大模型,底層基座,用的是中國的 Kimi。不是參考,不是借鑑,是直接當作核心底座在用。事情不大,但意味,完全不一樣。一、事情其實很簡單矽谷有個做 AI 程式設計的產品,叫 Cursor,一度被視作明星項目,估值水漲船高。官方口徑很清晰:自研大模型 Composer 2,技術獨立,能力領先。直到被業內人扒開底層呼叫記錄:模型標識清清楚楚,指向的是中國月之暗面的 Kimi K2.5。平台還想模糊解釋,馬斯克直接一句:“對,就是 Kimi 2.5。”一錘定音,沒得洗。創始人後來也承認:確實在用,而且Kimi 是現階段市面上能打的開源模型。說白了,不複雜:一邊頂著「矽谷自研」的光環抬身價,一邊用中國的硬核技術,撐住實際場面。二、被撕開的,不只是一家公司的遮羞布這件事真正戳破的,是兩個長期被默認的幻覺。第一個,矽谷技術無敵的濾鏡,碎了。過去很多人理所當然覺得:頂級創新,出自矽谷。現在現實很直白:不少海外公司,故事講得很漂亮,真到拼硬工業化實力、拼落地效果,還是得選更能打的中國模型。第二個,中國 AI 早已不是跟跑者。以前是我們追著國外走,現在是國外公司悄悄用我們的技術,還不敢明著說。行業裡有句話說得直白:“以前是中國學矽谷,現在是矽谷偷偷用中國。”不是口號,是生意場上的真實選擇。三、為什麼海外公司寧願 “套殼”,也要用 Kimi?商業不講情懷,只講性價比。Kimi 這一代模型,長文字理解、邏輯推理、程式碼處理,確實摸到了全球第一梯隊。業內人都清楚,Transformer 架構成熟這麼多年,真正能做出實質改進的,不多。Kimi 算一個。它的核心競爭力,不在堆參數、炒概念,而在解決了一個十年未破的底層死穴——意識殘差(資訊稀釋)。傳統大模型靠固定加法殘差傳遞資訊,層數越深,淺層關鍵資訊越容易被稀釋、丟失,長文字越往後越“失憶”,算力還被大量浪費。Kimi用注意力殘差(AttnRes) 徹底重構了這一機制:結果是:不再是無腦累加,而是讓每一層動態“回顧”前面所有層,用注意力權重精準篩選、保留關鍵資訊,過濾冗餘噪聲。再通過Block AttnRes分塊最佳化,把視訊記憶體與延遲控制在幾乎可忽略的範圍(訓練額外開銷<4%,推理延遲<2%)。長文字穩得住、邏輯鏈不中斷、複雜推理不掉線,算力效率還提升1.25倍。這才是Cursor這類海外公司,寧願頂著“套殼”爭議也要用Kimi的根本原因——好用、穩定、划算,沒有替代品。再加上成本可控、部署穩定、接入簡單,對企業來說,性價比一目瞭然。Cloudflare 之前做過測評:使用這類中國開源模型,企業的 AI 使用成本能明顯下降,效果反而更穩定。Hugging Face 的創始人也公開說過:中國開源大模型,已經是全球 AI 圈子繞不開的一支力量。市場從來不說謊:誰好用、誰穩定、誰划算,資本和開發者就會用腳投票。四、這不是個案,是已經發生的趨勢Cursor 只是被擺在檯面上的那一個。真實情況是:海外大量工具、產品、中小平台,都在悄悄接入中國大模型。做客服、做內容、做效率工具、做企業內部系統,不少國外大廠也在內部測試、試用。資料更直接:中國大模型的全球呼叫量,早已達到巨量等級;各大開源榜單前排,常年被中國模型佔據;海外開發者社區,討論中國模型的熱度,一直在走高。不用宣傳,不用造勢,好用,自然會被選用。五、矽谷真正不安的,不是技術,是話語權這件事之所以引發震動,不是因為一家公司 “套殼”。而是矽谷維持了幾十年的優越感,第一次被這麼直白地戳破。一是技術原創的優越感。過去是他們定義前沿,制定方向,我們跟著跑。現在是他們要靠我們的模型打底,“自研” 兩個字,變得格外尷尬。二是行業話語權的優越感。以前規則由他們定,標準由他們提。如今中國 AI 在開源、性能、成本、生態上全面起勢,“什麼才是好用的 AI”,這個標準,正在悄悄被改寫。六、中國 AI 這一波,贏的不是炒作,是實在我們這一輪走出來,靠的不是概念,不是聲勢,是三件很樸素的東西:能落地。不玩虛的,穩、快、能用。成本低。小企業、小團隊、普通開發者都用得起。夠開放。不封閉、不卡脖子,願意成為全世界可用的底座。就像月之暗面後來那句很淡、卻很有份量的回應:“我們很欣慰,Kimi 能成為全球 AI 創新的一塊地基。”沒有高調,沒有叫囂。但意思很明確:我們早已不是追隨者。而是別人,已經離不開的底層支撐。 (鋼筆刀)
馬斯克撕破了一塊遮羞布
AI競爭這件事上,攻守之勢正在發生變化。也許很多年後,人們才會意識到,轉折點,只是當時的一件“小事”。(一)這幾天,一場堪稱“AI世紀打假”的戲碼在全球科技圈上演。矽谷當紅炸子雞AI程式設計巨頭Cursor,高調發佈其“自研”的Composer 2模型。然而,全球開發者卻在程式碼中抓到了致命問題——模型ID赫然顯示為中國產大模型Kimi K2.5。一家正在尋求500億美元估值的矽谷明星企業,其最核心的競爭力,竟然必須悄悄建立在一個來自中國的基礎模型之上——而且,開發這個模型的公司估值僅有180億美元。這簡直滑天下之大稽,一時間,全網AI從業者嘩然。更有意思的事,開發者這個模型的中國公司,4天前剛剛才給了矽谷技術圈一個小小的震撼。到底是咋回事?還得從技術底層聊起:這兩年讓AI技術深入生活的,大部分是“大模型”產品,普通人能跟AI直接對話,讓它幫忙工作、做視訊、出主意,都是因為它能進行“邏輯推演”,這背後,源自它名為Transformer的核心元件,這個核心元件的底層,則用了一種叫“殘差連接”的主要邏輯。這個殘差連接不得了,它堪稱現代大模型的基石,不管是長文字理解、複雜邏輯推理,還是多輪對話,模型都靠它保證深層網路的穩定訓練和資訊傳遞。但是,這種連接還是不完善的,用久了,大家就發現了一個核心痛點——層數越深,殘差裡的有效資訊越容易被稀釋,早期層的關鍵資訊直接被埋住。這是阻礙大模型的能力進一步變強的絆腳石之一。而就在3月16日,中國大模型廠商月之暗面,也就是發佈了Kimi的公司,發佈了一份名為《注意力殘差》的技術報告,從底層邏輯的層面,對Transformer架構的關鍵元件殘差連接進行了其發佈十年來的首次重大重構。簡單來說,就是Kimi為大模型這整個“物種”的基礎架構層,提出了一套新的思考路徑,讓其找到全新的進化空間。這一成果,讓馬斯克關注到了,並評價為“印象深刻”。緊接著,就有開發者發現一個問題:這個中國模型的名字怎麼有點眼熟?它似乎出現在矽谷自研的前沿模型 Composer 2的底層程式碼裡。馬斯克確認了這件事,並在社媒上轉發,一錘定音,輿論嘩然後,“冒用者”Cursor也坐不住了,其聯合創始人Aman Sanger發表聲明“服軟”:“我們系統評估了眾多開源基座模型,Kimi k2.5被證明是世界最強的。”這毫無疑問是揭開了一塊“遮羞布”:矽谷公司引以為傲的技術創新大廈,其地基正在被悄然置換為中國製造。(二)矽谷可不是僅僅是一個地名,它幾乎是全世界頂尖人工智慧人才嚮往的聖地,是美國在AI競爭中最不可替代的基石。它的品牌,是幾代精英,用幾十年來鑄造的。矽谷何以為矽谷?這背後有兩個關鍵“定量”:第一,必須始終保持創新,保持對全世界的技術優勢,甚至讓這裡的思想,成為引領全世界技術進化的方向;第二,必須能夠輸出標準,這裡不僅僅是科技領域的技術標準,還包括了很多產業範式,比如AI領域一貫堅持的“開源協作”。但是,當馬斯克撕開了遮羞布,這兩大基石就產生動搖了。“還能相信矽谷嗎?”有人在社交媒體上反問。懷疑的種子一旦種下,命運的齒輪也就開始轉動了。越來越多的人發現,不能只關注矽谷故事,還應該多看看中國成果。這一看不要緊,原來,除了矽谷的初創公司開始拋棄昂貴的專有模型,轉向開放原始碼的中國版本之外,從Airbnb到德國工業巨頭西門子,已公開使用中國模型。市場在用腳投票,資本也沒閒著。以這次事件的主角Kimi為例——它在3個月內估值翻4倍至180億美元,增速超過了同期的字節和拼多多。正如全球最大AI社區Hugging Face聯合創始人直言:“中國開源已成為塑造全球AI技術堆疊的最強驅動力。”其實,中國的AI企業在起步之初,也都深受矽谷影響。在矽谷巨頭面前,始終保持學習者的姿態。但現在,跑道上的差距正在縮短:追趕者正加快腳步,逼近領先者。這不是單純的臆想,實際上,除了目前已經發生的改變,還有邏輯上的必然。Kimi為什麼能成為被競爭對手選定,甚至不惜冒險隱身使用的“世界最強開源基座模型”?這看起來只是一次偶然的事件,但在偶然背後,一定是必然。在被矽谷巨頭點贊之前,市值800億美元的全球網際網路基礎設施巨頭Cloudflare宣佈在生產環境中部署Kimi K2.5後,其內部安全審計Agent(日處理70億Token)的營運成本直降77%,效率也有明顯的提升,這背後,固然有中國AI 通過“兆MoE架構”和“原生多模態理解”等技術優勢的原因,但更重要的,是因為這個模型做到了“性能和價格的最佳平衡點”。正如同中國製造一樣,中國大模型也有自己的獨特優勢,比如,它進化快,它成本低。而這兩個優勢,本質上,其實指向一個關鍵點:中國在AI時代的“基建優勢”,正在成為AI競爭的勝負手。(三)這兩天有個新聞:Token出海,很轟動。媒體說,過去一年,中國大模型的海外付費呼叫量呈現爆發式增長,今年,這個趨勢更快。這裡有倆關鍵詞:第一,Token,它剛剛有了一個中文名詞元,簡單來說,就是大模型運算時需要消耗的基礎貨幣。第二,海外付費呼叫量,指的是海外個人、企業充值來使用中國大模型生產的Token。這個資料,簡單來說,就是世界上花錢使用中國大模型的人數正在變多。為什麼?一方面當然是因為中國大模型越來越好用,另一方面,是因為成本,簡單來說就是,中國電力優勢正在轉換為算力優勢,讓詞元——Token的定價,遠低於國外。這可不僅僅意味著中國將為全世界提供廉價的算力,更意味著中國AI產業從此刻起,就擁有了“近水樓台先得月”的發展環境。試想一下,當中國大模型通過性價比更高的Token,服務全世界的使用者時,它的成長速度一定會超過矽谷的同行,這一東昇西落的趨勢是不可逆的,且會逐漸加速的。轉折點已經不遠了,因為端倪確實已經出現:目前,頂尖中國大模型的海外呼叫量正在成倍增長。而你追我趕的國產大模型,在關鍵指標上與國際頭部模型差距持續縮小;並且,是中國,出現了DeepSeek、Kimi這樣敢於打破範式,試圖重構底層邏輯的突破者。其實,Kimi被冒用這件事,最後的結果很“平和”——事情發生後,月之暗面並沒有禁止矽谷巨頭使用自家產品,而是順勢發文祝賀,落落大方地寫道:“We are proud to see Kimi K2.5 provide the foundation。”用中文說,就是“我們很自豪看到Kimi K2.5 奠定基礎”。相信矽谷一定不願意看到這樣平和但堅定的話語,因為這等於釜底抽薪,改變了矽谷對於未來技術的定義權。用一個比喻來說就是:矽谷長期在打造豪華跑車,引領行業發展,結果有一天,一輛新跑車被人打開,一看發動機是來自中國的,那麼,距離中國人重新定義高級跑車的時間已經不遠了——更何況,中國還在全世界修高速公路。矽谷的巨頭們甚至不敢正視“中國AI技術的崛起”,因為當他們一旦承認中國實驗室正在以更高效、更開放的方式推動行業進步,中國的基礎設施又好又便宜,矽谷的神聖地位就不復存在了,而當全世界的AI企業都把目光轉向東方,那個“我們需要 10000 億美元才能建構 AGI”的融資敘事還會好使嗎?(四)馬斯克揭開的,絕不僅僅是矽谷的遮羞布,而是矽谷的命運線——它將指向一個必然的結果:全球AI的發展範式不只有“矽谷發明-全球應用”這一個軌道,還有“中國創新-全球受益”新軌道。中國通過DeepSeek、Kimi等公司證明,新質生產力不僅是更高效的生產工具,更是一種可定義成本、可制定規則、可輸出生態的全球性基礎設施能力。它包含了重寫架構標準的技術定義力,定義能效與Token價格的成本定價力,繼承並行展開源協議治理的生態規則力和定義綠色、普惠的AI路徑的發展話語權。“中國AI崛起”,崛起的不是簡單的GDP數字,而是這種定義下一個時代發展基座的系統能力。當越來越多的全球智能,開始運行在由中國定義效率、成本和規則的基礎之上時,時代將被誰塑造,已經不言而喻。 (牛彈琴)
AI 爆款視訊製作復盤:全網2500萬曝光、Cursor+Seedance,我如何做的?
在視訊/音訊/文字內容生成技術越來越強的當下,AI時代的內容創作者要如何更好利用AI?創作者和工具之間的關係會如何發展?Medeo 產品負責人晨然在這篇文章裡拆解了自己用Seedance 2.0 製作爆款視訊的全流程,很有參考意義。2月12號,我發了一條用 AI 做的《怪奇物語》終局之戰的視訊。然後它爆了。僅黑叉平台一個管道,92 條相關推文的總瀏覽量就達到了 1914 萬。總點贊 52 萬,轉發 4.9 萬,回覆 5000+。其中我的原帖只佔了 234 萬瀏覽,剩下 1680 萬全是別人搬運和討論帶來的。最大的搬運者是巴西博主 @nerdemcartaz,他一條轉發就拿了 492 萬瀏覽——比我原帖還多一倍。我的視訊被全球至少 6 種語言的人搬運:英語、葡萄牙語、土耳其語、中文、日語、西班牙語。Ins 上至少 12 個帳號搬運,估算曝光 500-1000 萬。TT 估算 100 萬+。油管也有大量傳播。最讓我詫異的是——好萊塢頂級媒體 Deadline 寫了專題報導,Cosmic Book News 也做了報導,專門提到了我的視訊,原文說 "one post has more than 2M views"。全網總曝光保守估計:2500 萬+。我一個人做的 AI 視訊,全球拿了 2500 萬曝光,還上了好萊塢的新聞。01 先有了爆款方法論,我才有了爆款視訊但最離譜的不是這個資料——而是這件事發生的時間線。故事要從兩天前說起。2月10號,我在給 Medeo 的同事們寫了一篇文章,叫如何提升網感,做出百萬播放量的視訊?那篇文章裡,我認真分析了爆款的底層邏輯。我寫道:內容要的就是稀缺。任何內容都必須滿足稀缺這個屬性。我總結了社交媒體上的各種稀缺性類型——虛構昂貴的電影場景、IP 混搭的同人二創、高動態的超越人類體驗的內容、風格反差……我還說了,一個好的爆款內容,需要同時滿足好幾個維度:對於稀缺性的精準設計對於某個"梗"的深刻理解對於情緒共鳴點的放大指令碼階段,基本上就能預判出內容是否具備爆款潛力。寫這些的時候,我信心滿滿。方法論已經想得很清楚了,每一個點我都分析得頭頭是道。但是——寫那篇文章的時候,我自己其實還沒做出過爆款。文章裡我放了好多自己做的實驗視訊:如來佛祖玩 VR 壓孫悟空、Taylor Swift 和 Blackpink 在舞台上互扯頭花、寂靜嶺風格的逃跑視訊……每一個我都覺得不夠好。我給自己的評價是:笑點不夠密梗不夠多資訊密度太低反轉力度不夠那篇文章的最後一句話,我寫的是:"我還在摸索中。"就很真實對吧?一個還沒做出過爆款的人,在寫怎麼做爆款的方法論。那個時候,我不知道這套理論到底行不行。我只是覺得方向是對的,但還在實踐的路上。說實話,心裡是有一點慌的。萬一這套東西根本不管用呢?誰能想到,僅僅兩天后,視訊就真的爆了。2月12號,我用 Seedance 2.0 做的《怪奇物語》終局之戰視訊爆了。然後——一切都變了。瀏覽量開始飛漲。搬運開始瘋狂傳播。我眼睜睜看著通知列爆炸。爆款的體感是,即時能刷新出評論,像在看時間線一樣。評論區徹底炸了。各種各樣的人在說各種各樣的話:怪奇物語的粉絲最激動。他們等了這麼久,終於看到有人"修復"了那個讓他們失望的結局。評論裡到處都是:"This is better than what we got"(比我們看到的原版好多了)"We're not ready for this"(我們還沒準備好接受這個)"AI just gave us the ending we deserved"(AI 給了我們應得的結局)科技圈和路人直接被震住了。 很多人根本不敢相信這是 AI 做出來的:"AI is getting scary"(AI 開始嚇人了)"This is terrifying"(這太恐怖了)"Hollywood is cooked"(好萊塢完蛋了)"AI is happening fast"(AI 發展太快了)還有人叫我修復權游結局。有人甚至在爭論我的視訊到底有多少是 AI 生成的、多少是真實素材混剪的Cosmic Book News 專門寫道:"The face matching and voice syncing are so tight that people are debating how much of the footage is AI versus blended source material."(面部匹配和聲音同步做得太逼真了,人們在爭論到底有多少是 AI 生成的。)最離譜的是行業內的人也來了。 SAG-AFTRA(美國演員工會)甚至因為這波 AI 視訊浪潮專門發了聲明。Deadline 寫了專題報導,Cosmic Book News 也做了報導,都點名提到了我的《怪奇物語》視訊。(雖然是點名批評,但也是一種認可…)巴西博主 @nerdemcartaz 搬運了我的視訊,單條就拿了 492 萬瀏覽——比我原帖還多一倍。全球至少 6 種語言的人在搬運和討論。從英語、葡萄牙語、土耳其語,到中文、日語、西班牙語——我根本看不懂一半的評論,但我看得懂下面的數字在漲。02 復盤:我到底是怎麼做到的?回過頭看,這次爆發的核心原因,恰恰就是我在2月10號文章裡分析過的那個詞——稀缺性。只不過這次,好幾個維度的稀缺性同時疊在了一起。一、時間節點的稀缺Seedance 2.0 當時只有中國創作者能用,外網創作者還用不上。這個時間窗口非常關鍵——我們比別人早拿到了武器,就應該第一時間製作視訊。二、AI 臨界點的爆發AI 視訊的質量到了一個臨界點。大部分普通觀眾根本不知道現在的 AI 原來已經可以做到這麼好了。這種"震驚感"本身就是巨大的稀缺。三、內容本身的稀缺這一點是最關鍵的。《怪奇物語》的粉絲對結局不滿意。這種不滿催生了強烈的內容需求。內容是由市場催生的,由市場決定的。創作者並不是真的在引領時代,你只需要比市場和觀眾的預期跑在前頭一點點,這就是好的內容。看起來你是在做很多創新的東西,實際上是因為人心所向,很多人期待看到這樣的內容,它就應該被做出來。創作者只是一個承接的載體,負責將這些內容具象化。2.1 寫指令碼佔了我 80% 的精力。我在 Cursor 裡面和 AI 模型一起討論,讓它去全網搜尋《怪奇物語》中有那些缺憾點,大家在 Reddit 上對結局有什麼不滿。我想彌補這些缺憾。自己去想一個指令碼很可能不符合市場預期,所以我會跟 AI 反覆討論、不停迭代。這個過程是非常迭代式的:我一開始並沒有寫整個兩分半鐘的指令碼,甚至都沒想過要做到兩分半。製作過程是每 15 秒、15 秒進行的。每次只想 15 秒的指令碼,要求接下來的 15 秒一定有節拍的反轉。我是看了 AI 做出來的 15 秒之後,才決定接下來要怎麼做。有時候是 AI 生成的戰鬥畫面給了我靈感,我再回去改指令碼。最多同時只構思了 30 秒的內容。整體的故事框架直到做到 80% 的時候才成型——最開始只是有一個方向。先做 MVP 測試本來我設想了很長的劇情,但有可能做出來沒人看。在做長視訊之前,我先做了一個成本很低的 MVP 實驗。我一個晚上先做了《怪奇物語》的第一集短片,40秒內容,發在小紅書上,很快就有幾百上千的點贊。這說明——這是市場需要的內容。第一集在抖音也爆了,3k贊,比我以前所有視訊好。直接做長視訊,很有可能做出來沒人看。用短影片先測試,成本很小,速度很快。驗證了之後,再放心地投入精力做長的。2.2 打鬥設計:一層比一層爽做第二集的時候,我關注兩個點:文戲要貼近角色,打鬥要極其精彩。打鬥分三個環節,規格一層層升級,讓觀眾越來越爽:Will 對抗 Vecna —— 觀眾特別想看到 Will 覺醒超能力,反抗第一季就抓走他的 Vecna。Eleven 和 Eight 聯手打 Vecna —— 彌補了她們從來沒合作過的遺憾。他們三個都是從同一個實驗室出來的,這種三角關係本身就有內在的張力。奪心魔打 Vecna —— 怪物之間的大場面,超出所有人的預期。最後引出 Max 拯救小 Henry 的終極反轉。2.3 反轉、反轉、再反轉這次經歷之後,我對一件事的理解變得非常深刻視訊是一個線性的東西。什麼意思呢?視訊不像文章,讀者可以跳著看、掃一眼標題就知道大概。視訊是一秒一秒往前走的,觀眾只能按順序看。如果他在第 3 秒劃走了,你後面做得再精彩他也看不到。完播率的資料是很殘酷的:2 秒內劃走的人可能就有一半,5 秒內劃走的人可能是 80%。想想這意味著什麼——你辛辛苦苦做了兩分半鐘的視訊,80% 的人連前 5 秒都沒看完就走了。你後面所有的高光、所有的反轉、所有的精心設計,對這些人來說根本不存在。以前我對這件事的意識沒那麼深刻。但現在,我對前 3 秒和前 5 秒的設計極其看重。因為如果前 5 秒留不住人,後面就是廢片。不是後面做得不好,是觀眾根本沒機會看到後面。所以整個視訊就是一個線性的大漏斗:每一秒都在流失觀眾,你能做的就是讓每一秒都有值得看下去的東西,把流失降到最低。我在設計劇情的時候,核心原則就是——每一秒都要有爆點,每一秒都要有很高的資訊密度,觀眾才不會劃走。整個兩分半鐘的視訊,我至少設計了 8 次反轉:反轉一(前 5 秒): 讓觀眾瞬間意識到這是一個同人二創。場面上,竟然能看見 Will、Eleven 和 Eight 聯手對抗 Vecna。前 5 秒就給到了 Will 高光,展示他掌控了"蜂巢"的超能力並用來反攻 Vecna——這是開篇的爽點。反轉二: 當觀眾以為 Will 能夠跟 Vecna 決一死戰時,劇情反轉了:Vecna 直接打敗了他,Will 的控制力瞬間消失。反轉三: 當觀眾以為主角團即將被抓時,Eight 的幻覺起了作用,給觀眾一個喘息的機會。反轉四: 當觀眾以為 Eight 的幻覺很強時,Vecna 展現了更強的能力,直接把 Will 抓走。此時節奏慢下來,給出反應鏡頭。反轉五: 當觀眾以為 Will 被抓、大家陷入無奈時,安排 Eleven 和 Eight 聯手進行一段高強度的打戲。反轉六: 當觀眾以為這段打戲能贏過 Vecna 時,結果反轉成三個人都被抓。隨後進入一段文戲對抗,增加內在張力。反轉七: 當觀眾以為他們還會繼續打鬥升級時,場外的奪心魔加入戰鬥,讓事情變得更加有趣。場外因素是一個超出預期的變數,打破了打鬥的平衡,就會很有意思。終極反轉: 在觀眾還不知道發生什麼的時候,讓 Max 成為主角並獲得高光,拯救過去的小 Henry。整個劇情設計就是反轉、反轉、再反轉。 觀眾永遠猜不到下一秒會發生什麼,這就是他們不會劃走的原因。用反轉跑贏了小紅書大盤2.4 文戲:每句台詞都要簡短有力我在設計文戲的時候,刻意要求每個角色說的話都非常簡短有力。而且每個人都必須有高光,每個人都必鬚髮揮作用,每個人的作用之間還要有張力。這裡拿幾段我設計得比較滿意的文戲來拆解一下。Will:"You put this thing inside me. Now it's mine!"這是開場第一句有台詞的文戲。Will 翻著白眼嘶吼出這句話的時候,控制著魔王衝向 Vecna。為什麼這句台詞有力?因為 Will 從第一季就被 Demogorgon 抓走,第二季被 Mind Flayer 附身——他從頭到尾都是一個受害者。觀眾等了五季,就想看 Will 站起來。而這句話的意思是:你在我身上種下的東西,現在我學會用它了,而且比你用得更好。 他不是在否認這段創傷,他是把創傷變成了武器。劇本裡 Vecna 後來在空中還嘲諷他:"You think that power belongs to you? I planted it in you when you were twelve. Every connection, every whisper you ever heard — was me calling it home."Will 咬著牙回了一句:"Then you made a mistake... because I learned to use it better than you ever did."這段空中對峙的文戲,我故意把節奏放慢了——前面全是快切打鬥,突然慢下來,兩個人在血紅天空下面對面懸浮,給每一句台詞留呼吸的空間。快和慢的對比,讓台詞更有重量感。Eleven + Eight + Vecna 的三人對峙這是我覺得全片情緒最集中的一段文戲。三個人全部被 Vecna 抓住,動彈不得。此時打鬥已經打不了了,只剩下語言。我喜歡他們三人的內在張力衝突,都是一個實驗室的。Vecna 居高臨下地說:"A new world is coming. And none of you will be in it."Eleven 滿臉鮮血,但抬頭死死盯著他:"There is no new world. Only you, alone."——這是在戳 Vecna 最深的恐懼。他不是在建設什麼新世界,他只是一個孤獨的人。然後 Eight 嘴角掛著血,扯出一絲笑:"You sound just like Papa."這一句是我跟 AI(Claude 4.6 Opus)聊出來的。我跟它說,我需要一句簡短有力的嘲諷,要能夠一下子把 Vecna 惹怒。為什麼這句話殺傷力這麼大?因為 Vecna 的前身 Henry Creel 從小就被 Dr. Brenner(Papa)當作實驗品,被關在實驗室裡,被當作工具。他恨透了 Papa,恨透了被控制的感覺。他後來殺了實驗室裡幾乎所有人,就是為了反抗 Papa。但現在——他在做什麼?他在控制別人,把別人當工具,居高臨下地宣判誰有資格活著。他變成了自己最討厭的那個人。 而說出這句話的是 Eight——同樣從那個實驗室出來的孩子。她太清楚 Papa 是什麼樣了,所以這句話從她嘴裡說出來,殺傷力是最大的。指令碼裡我寫了 Vecna 的反應:表情瞬間僵住,嘴角弧度消失,瞳孔微縮。然後憤怒從臉上炸開——藤蔓不受控制地狂亂抽搐。他被戳中了。Eight 的 "try harder"還有一段——Eight 用幻術騙了 Vecna,讓他以為抓住了三個人,結果全是幻影。Vecna 碾碎幻影之後停頓了一瞬,Eight 從掩體後面抬起下巴看著他,鼻血掛在臉上,嘴角一扯:"Try harder."就兩個詞。但你能感受到她的那種不屑——你這麼強大,結果連真假都分不清?這種挑釁反而讓 Vecna 看起來更可怕,因為他馬上就爆發了,新的藤蔓比之前更快更密地射出來,一把抓走了 Will。Max 的 "Got you."最後說一段我特別喜歡的設計。Max 在精神世界裡待了很久(原劇第五季設定裡她的意識被困在 Vecna 的精神世界中)。她見過無數次幼年 Henry Creel 的記憶——一個蹲在黑暗洞穴裡瑟瑟發抖的小男孩,手裡攥著一塊被奪心魔寄生的石頭。但原劇裡 Max 從來沒有過去跟那個小男孩互動過。我覺得這是一個遺憾——小 Henry 也是一個等待被拯救的孩子。所以在我的指令碼裡,我安排 Max 飛昇進入 Vecna 的精神深處,蹲在小 Henry 面前,輕輕從他顫抖的手裡接過那塊石頭,把他護在身後。然後她低頭看著掌心中的石頭,嘴角緩緩上揚:"Got you."就兩個字。但你能感受到她已經贏了。這個高光比安排她去拯救 Holly 要出彩得多——Max 一直有一種"孩子王"的氣質,她來保護這個被所有人遺忘的小男孩,才是最適合她的高光。03 我是怎麼用 Seedance 和 Cursor 的前面聊的都是指令碼和創意層面的設計思路,這裡說一下具體的製作流程——我是怎麼把指令碼變成視訊的。指令碼的固定格式,我在 Cursor 裡面給每一個生成場景寫指令碼,用了一套固定的格式。每個生成指令碼都有幾個固定類股:角色 + 參考圖——每個出場角色都對應一張參考圖,用 【@圖片】 的方式引用背景介紹——交代前情和環境鏡頭描述——逐鏡頭寫清楚畫面內容、角色動作、台詞風格指令——統一的視覺風格要求關鍵是多參考圖的方式。每個角色一張參考圖,場景也有參考圖,一個 scene 可能會掛 6-8 張圖。這樣做的好處是 Seedance 在生成的時候能更準確地還原每個角色的臉和穿著,不會搞混。尤其是多角色同框的場景,沒有參考圖的話 AI 很容易把人搞混。這裡有一個小技巧:你可能會問,《怪奇物語》的角色 IP 已經被訓練進模型了,為什麼還需要用參考圖?原因有三個:固定年齡。 《怪奇物語》拍攝跨度很大,演員們從 11 歲拍到成年。模型的訓練素材裡包含了多個年齡段的形象,如果不用參考圖鎖定,生成出來的可能是 11 歲的 Eleven,也可能是 18 歲的——你沒法控制。參考圖可以鎖定"我要的就是第五季這個年齡的臉"。統一穿著。 每個角色在不同季、不同場景裡的穿著完全不一樣。我需要保證整個視訊裡每個角色的衣服、造型和定妝照保持一致,這只能靠參考圖來固定。還原戰損狀態。 大戰場景裡每個人臉上都有傷、有血、有灰塵。這種"戰損妝"是原始訓練資料裡沒有的,必須通過參考圖來告訴 AI "這個角色現在長這樣"。所以,即便有了訓練好的模型,依然必須要用參考圖。 模型知道這個人是誰,但參考圖告訴它:這個人現在幾歲、穿什麼、臉上有沒有傷。那麼角色參考圖從那裡來呢?我直接下載了最後一集,從原視訊當中截了每個角色的圖。場景參考圖怎麼來的呢?用Medeo生成的。因為Medeo能理解我的劇本直接做出來。3.1 用 Cursor 的資料夾管理資源在 Cursor 裡面,我用資料夾來管理整個項目的所有資源:所有參考圖統一放在一個資料夾裡。每個角色的參考圖、每個場景的參考圖,都按編號整理好。寫指令碼的時候直接 @ 引用對應的圖片就行,不用到處找。每個 scene 的參考圖按格式逐一放入指令碼。 寫完之後,一個 scene 的所有資訊——prompt 文字、角色圖、場景圖、風格指令——全都集中在一起。可以直接一次性複製貼上到即夢裡。 做視訊的時候,我打開指令碼檔案,找到對應的 scene,整塊複製過去就能開始生成。不需要來回切換窗口找素材、找描述、找風格指令。這個工作流看起來簡單,但省掉了大量的來回切換和尋找時間。做 AI 視訊最怕的就是素材散落在各處,每次生成都要東翻西找。把一切集中在一個格式化的指令碼檔案裡,效率提升非常大。3.2 10-15 秒一個 scene = 一次生成 = 一個反轉我的每個 scene 設定在 10 到 15 秒。因為 seedance 最大生成秒數是 15秒。前面說過,我要求每 15 秒必須有一次情緒反轉。所以一個 scene = 一次生成 = 一個反轉節拍,三者完美對齊。這意味著我每做完一個 scene,就能看到一個完整的情緒波動:鋪墊 → 高潮 → 反轉。看完之後,我再決定下一個 scene 怎麼接——是繼續升級,還是突然轉向。這也是我之前說的"迭代式創作":做一段、看一段、想一段。根據 AI 實際生成出來的畫面來調整後面的走向。有時候 AI 生成的畫面超出預期,反而給了我新的靈感,我就回去改指令碼。3.3 指令碼和生成是互相喂養的,不是單向的。很多人可能以為 AI 視訊是"生成一次就能用"的。實際上遠不是這樣。我的做法是:每一個 scene 的 prompt,我會生成 4 到 6 次。 然後把所有能用的素材全部拖到剪輯軟體的時間軸上,進行混剪。為什麼要這樣做?第一,視覺一致性好。 因為用的是同一個 prompt,Seedance 2.0 的指令遵循度很好,生成出來的多條素材在風格、色調、角色外觀上會非常接近。這意味著把它們剪在一起的時候,觀眾不會覺得突兀——看起來就像是同一個鏡頭的不同角度。第二,打鬥場景必須剪輯。 像打鬥這種複雜場景,AI 生成的畫面還是會有很多穿幫的地方——手臂穿模、動作不連貫、物體突然消失之類的。這時候就需要用剪輯技巧來處理,比如匹配剪輯,在穿幫的地方切到另一條素材的對應時刻,觀眾就看不出來了。第三,提高素材利用率。 這一點很關鍵。AI 生成的視訊,很多時候不是整條都能用的:一條視訊可能只有 60% 是好的,剩下的穿幫了,那我就只取那 60%。有時候畫面不行,但角色的配音表現特別好——語氣、情緒都很到位。這種情況我就單獨提取音訊,然後配上另一條素材的畫面。反過來也有畫面很好但聲音不對的,同樣可以互相替換。所以最終的成片,其實是從 4-6 條可用素材裡挑出最好的部分,拼在一起的。04 最後說一個比較玄的體會。在創作過程中,我有的時候會注意到一些很奇怪的細節——一個角色的表情、一段對話的節奏、一個畫面的構圖。當時說不清楚為什麼覺得重要,但就是覺得不對,或者覺得很對。後來我發現,這些直覺往往是對的。比如我在設計 Max 拯救小 Henry 那場戲的時候,一開始並不是計畫好的。是我在看劇的時候突然覺得"這個小男孩好可憐,為什麼沒有人去管他"——就這麼一個模糊的念頭,最後變成了全片最打動人的一個設定。以前看書看到,編劇的方法論中有一種"頓悟時刻",就是你把一個個拼湊起來的線索合併成一個完整的劇情,突然覺得"啊,原來是這樣"。就像《星際穿越》裡主角掉進黑洞,觀眾突然理解了——四維空間就是未來的人類。那個"啊"的瞬間,是最讓人爽的。好的創作不是從頭到尾都想清楚了再做。好的創作是在做的過程中,不斷相信自己的直覺,然後一步步把模糊的感覺變成清晰的作品。說實話,這次爆發運氣成分很大。Seedance 2.0 剛好在那個時間點發佈,我剛好是最早知道的一批人,《怪奇物語》剛好是全球熱度最高的 IP 之一,剛好粉絲對結局不滿意……這些條件湊在一起,換一個時間點發,可能就沒這個效果。但也不完全是運氣。我之前花了不少時間研究什麼樣的內容容易傳播,選《怪奇物語》也是因為自己本身就喜歡這部劇、瞭解粉絲的痛點。指令碼花了 80% 的精力,做之前還先用短影片測試過市場反應。這些準備不能保證一定會爆,但至少讓我在機會來的時候,不至於手忙腳亂。整個過程創作還是不夠順手,未來一定會有更好的創作工具讓人上手。比如我正在做的AI視訊產品,Medeo,就是希望一站式創作,從生成到剪輯成片,都可以和Agent協作完成,那就太爽了。我會把這個創作過程做進產品,讓更多人能更簡單的創作!期待 Medeo 下次更新吧!2月10號,我寫了一篇《如何做爆款》的文章,最後一句話是"我還在摸索中"。2月12號,全網 2500 萬曝光,好萊塢媒體來報導了。中間只隔了兩天。有時候我也會想,這到底是方法論的勝利,還是純粹的運氣?說實話,我覺得兩者都有。但如果讓我重新來一次,我不會改變任何一個步驟——研究稀缺性、用 MVP 測試、一個 scene 一個 scene 地迭代、把 80% 的精力花在指令碼上。這些東西不能保證你一定會爆。但它們能保證提高爆款機率。至少下次我能在發之前提前預判:這有沒有可能爆了。 (Founder Park)
AI程式設計助手Cursor再下一城:超2.9億美元收購程式碼審查平台Graphite
雙AI合力!提升編碼效率。AI程式設計助手Cursor宣佈,已收購初創公司Graphite——這家公司專注於通過AI技術提供程式碼審查與偵錯服務。儘管此次交易條款未予披露,但Axios報導稱,Cursor的收購價格“遠超”Graphite此前2.9億美元的估值——該估值是在這家成立五年的公司今年早些時候完成5200萬美元B輪融資時確定的。此次合作具有重要戰略意義。AI生成的程式碼往往存在漏洞,迫使工程師耗費大量時間進行修正。Cursor主要在編寫程式碼階段為程式設計師提供輔助;而Graphite則聚焦於程式碼完成之後的流程,幫助團隊評審變更、判斷程式碼是否已具備上線條件。Graphite聯合創始人Tomas Reimers與Cursor CEO Michael Truell的共識是:“AI的引入意味著會有更多程式碼被寫出來,也就必然意味著,需要被評審的程式碼只會更多。”(圖片來源:X@TomasReimers)雖然Cursor已通過其產品Bugbot提供AI驅動的程式碼審查服務,但Graphite的專屬工具集具備一項獨特功能——“堆疊式拉取請求”,該功能可以讓開發者同時處理多個相互依賴的程式碼變更,無需等待審批。將AI輔助寫程式碼工具與AI輔助程式碼審查工具相結合,可大幅縮短從程式碼起草到最終部署的全流程耗時。目前,其他提供AI程式碼審查服務的創業公司還包括CodeRabbit和規模較小的競爭對手Greptile。其中,前者在9月的估值已達5.5億美元,而後者則在今年秋季宣佈完成2500萬美元A輪融資。Cursor聯合創始人兼首席執行長Michael Truell,早在創立Cursor之前就已結識Graphite的三位聯合創始人Merrill Lutsky、Greg Foster和Tomas Reimers。Cursor聯合創始人兼首席執行長 Michael Truell(圖片來源:YouTube@ycombinator)他們的聯絡始於Neo Scholar——由Ali Partovi的早期風險投資公司Neo營運的大學生項目。據PitchBook資料顯示,Neo曾在種子輪對Graphite進行過投資。此外,Cursor與Graphite還擁有其他共同投資方包括Accel和Andreessen Horowitz。Cursor在去年11月的估值已達290億美元,持續進行收購熱潮。上個月,該公司收購了科技招聘戰略公司Growth by Design。據PitchBook消息,今年7月,Cursor以1.29億美元的投後估值收購了人工智慧驅動的CRM初創公司Koala的人才團隊。 (創新觀察局)
彭博:矽谷有多少技術是建立在中國人工智慧基礎上的?
凱瑟琳·索貝克是彭博社專欄作家,主要報導亞洲科技領域。此前,她曾擔任CNN和ABC新聞的科技記者。中國開源人工智慧正在走向世界。 圖片:Ying Tang/NurPhoto/Getty Images輝達公司首席執行官黃仁勳曾表示“中國將在人工智慧競賽中獲勝”,但後來軟化了立場,稱美國“落後納秒”。人工智慧行業正在發生微妙的轉變,低成本、開放原始碼的中國人工智慧模型正在吸引全球使用者,並贏得矽谷的青睞,像 Airbnb 和 Cursor 這樣的公司都在使用中國的人工智慧工具。就開發者累計下載量而言,中國模型已經超過了美國,阿里巴巴的Qwen下載量超過了Meta Platforms Inc.的Llama,基於Qwen建構的衍生系統佔新語言模型的40%以上。輝達公司首席執行官黃仁勳的初步評估過於簡單,他對美國的負面看法也顯而易見。過去一年,他一直辯稱,儘管華盛頓不斷加強出口管制,但他的公司向中國市場銷售晶片,美國仍然從中受益。但他擔心開發者爭奪戰可能已經開始失控,這種擔憂不無道理。 該立場表示,美國的競爭對手僅僅落後“幾納秒”,因此美國必須“奮起直追,贏得全球開發者的青睞”,才能最終勝出。近幾周來,一種微妙的轉變愈發明顯。幾個月來,一直有傳言稱,低成本、開放原始碼的中國人工智慧模型可能會將全球使用者從美國產品中吸引過來。但現在看來,它們也正在悄然贏得矽谷的青睞。風險投資家查馬斯·帕裡哈皮蒂亞(Chamath Palihapitiya)最近在他頗具影響力的播客節目“ All-In ”(由白宮人工智慧主管大衛·薩克斯共同主持)中表示,他合作的一家公司已將大量工作負載轉移到北京登月人工智慧公司開發的Kimi K2平台。他表示,這種開源模式“坦白說比OpenAI和Anthropic便宜得多”。不久之後,Airbnb首席執行官布萊恩·切斯基承認,他沒有將Airbnb的旅行應用程式與OpenAI的ChatGPT整合,是因為相關的連接工具“尚未完全準備就緒”。切斯基表示,Airbnb的新客服代理依賴於十幾種不同的AI模型。他們“非常依賴”阿里巴巴集團控股有限公司的Qwen產品線:“它非常好,而且速度快、成本低。”考慮到切斯基與OpenAI首席執行官薩姆·奧特曼的密切私人關係,他的這番言論尤其引人注目。公開表示認可的案例越來越多。由OpenAI前首席技術官Mira Murati創立的初創公司Thinking Machines Lab在一篇部落格文章中表示,其最新研究受到了阿里巴巴Qwen3團隊的啟發,並在此基礎上進行了拓展。但或許更有意思的是,這種轉變正以更為微妙的方式悄然發生。備受矚目的AI程式設計領軍企業Cursor估值約100億美元,上個月發佈了新版助手。一位科技投資者在X論壇上指出,他在使用Cursor時,它的內心獨白突然切換到了中文。此後,網路上紛紛猜測Cursor的助手是基於類似DeepSeek的中國AI工具開發的。另一家估值約100億美元的美國熱門公司Cognition AI Inc.,似乎也是基於智普人工智慧(Z.ai)的基礎模型開發了其新型編碼代理。在社交媒體使用者表達了他們的懷疑之後,這家總部位於北京的公司似乎在推特上證實了他們的發現,稱此舉“凸顯了開源貢獻對生態系統的積極影響和價值”。這兩家美國公司均未立即回覆我通過電子郵件發出的置評請求。但由於中國人工智慧模型的許可機制較為寬鬆,企業可以免費在其基礎上開發產品。來自 Hugging Face 平台的資料,由支援開源人工智慧的美國聯盟ATOM Project收集,證實了這一點。中國模型在開發者累計下載量方面已經超越了美國。這種轉變起初緩慢,隨後迅速爆發:2024 年初,Meta Platforms Inc. 的 Llama 下載量達到 1060 萬次,而阿里巴巴 Qwen 的下載量僅為 50 萬次。到上個月,Qwen 的累計下載量已達 3.853 億次,而 Llama 為 3.462 億次。基於 Qwen 建構的衍生系統目前佔 Hugging Face 平台上新發佈的語言模型的 40% 以上,而 Meta 的份額已降至 15%。Qwen的累計下載量先是緩慢地,然後突然之間超過了Llama的。資料來源:ATOM Project,經由 Hugging Face 提供 註:衡量累計下載量國際使用者湧入中國人工智慧工具引發了地緣政治方面的擔憂。但對於爭分奪秒推出產品的開發者,尤其是在編碼和軟體開發領域,這些風險的擔憂有所減輕——尤其是在權衡價格和性能之後。此外,開放模型還可以下載、微調並在本地運行,從而降低使用者對內容和資料隱私的擔憂。黃仁勳現在就斷言誰是贏家還為時過早。美國在獲取尖端晶片和計算能力方面仍然擁有明顯的優勢,而這些正是開發先進系統的關鍵元件。但中國推行的低成本和開源策略無疑正在吸引開發者,而開發者正是人工智慧創新的中堅力量。如果華盛頓真的想在長遠來看取得勝利,它首先應該問問自己,為什麼矽谷已經開始倒戈了。 (邸報)
矽谷今夜學中文! Cursor被曝「套殼」中國製造,AI頂級人才全是華人
矽谷AI圈最近魔幻事件,不會中文進不了AI核心小組。開完會,全說漢語,老外懵了!連模型在思考時,也在說中文~如果你有在關注最近矽谷的AI圈子,你會發現最近出現一個神奇的現象。當中國都在學英文看文獻的時候,國外的AI圈都說中文了!簡直是倒反天罡。以Meta為例,如果你不會中文,都混不進核心團隊。正式開會說英文,散會後大家集體用中文嘮嗑。現在換老外懵圈了!前幾周OpenAI一個會議,一進門,三百人的會場整個左小半邊都是華人。更有趣的是,當華人成為AI頂尖人才的認證標籤後,連中國的開源模式也被老外偷師。海外模型「偷師」傳說Cursor最近剛發布2.0版本,並推出了他們的第一個自研模型Composer。但很快打臉就來了,網友發現Composer動不動就給他「說中文」。在包裹的思考過程中,Cursor這個所謂的自研模型說的都是中文。這讓老外再一次懵B。最有趣的是Windsurf,直接承認自己拿著GLM-4.6的定製版本進行微調和強化學習。除了「頂級AI人才說中文」和「模型用中國開源大模型微調」這兩個主動選擇,現在連一些大佬都開始放棄OpenAI和Anthropic而被動選擇中國的開源模型。為什麼?因為模型量大管飽,性能還好,還便宜。最近一個消息真的讓我們感覺老外現在不僅不迷信OpenAI等閉源模型,而且紛紛開始選擇中國的模型了。例如Chamath Palihapitiya表示,他的團隊將大量工作負載遷移到了Kimi K2,因為它的效能顯著更好,而且比OpenAI和Anthropic 都便宜得多。這哥們是美國知名的企業家和投資人,他的聲明還是能夠說明一個問題:中國開源大模型,是真的香!不過評論區還是有些冷靜的聲音,說這哥們早期投資了Groq(不是馬斯克那個Grok)。而這次他們團隊從Bedrock(據說是前20大客戶)遷移到Groq上的Kimi K2,因為模型的效能更優!但背後其實可能為了宣傳Groq的服務。這次Cursor為什麼在思考過程頻繁「說中文」,網友們也總結出兩個主要原因:1. 自研難度與成本過高。以Cursor的資源體積,從零預訓練一套強模型的可能性很小,更像是在開源的SOTA智能體模型上做二次訓練;因此出現「說中文」的情況並不奇怪,這更像是底座與訓練資料選擇的結果。2. Composer的滯後與避戰。Composer大機率是用「幾個月前」的開源SOTA做微調,但大模型迭代極快:等推向市場時底層已落後。於是既不願與當下最新的開源SOTA正面對比,又對底層細節諱莫如深;即便融資可觀,仍難擺脫「更多是個殼子」的質疑。總之還是一句話,中國的開源模型,真香。從國外數據網站的統計數據就能看出來。在能力這塊,中國開源穩居第一梯隊在Artificial Analysis Intelligence指數榜單上,除了排在前幾名是閉源的OpenAI的GPT-5、Google的Gemini 2.5、xAI的Grok、Anthropic的Claude 4.5以外,緊隨其後的都是開源模型。而且,大部分都是中國模型:MiniMax-M2、DeepSeek-V3.1、Qwen3-235B-A22B、GLM-4.6、Kimi K2。而開源老祖Meta的Llama,以及相關的微調版本,都得排到他們後邊。而在Coding指數榜單上,依然如此,DeepSeek V3.1要比Google的Gemini 2.5 Pro還要好。智能體榜單上,Kimi、GLM和Qwen也排到了前面。如果按照開源和閉源劃分,全球AI模型的能力中,開源真的很能打。不要忘了,這只是能力榜單,如果再考慮中國開源模型的價格,確實就真香了。在隨著時間,AI能力增長這件事上,雖然OpenAI一直遙遙領先,但MiniMax、DeepSeek、Qwen、GLM、Kimi追改的速度一點都沒有落下。這波AI浪潮,不僅改變了世界科技的走向,甚至對於人才標籤的認知也同樣被改寫。說起來,能把單一頂尖人才的薪水公開喊價到上億美金,也就是前段時間Meta的祖克柏首創的。矽谷頂級華人有那些?首先是Meta。在剛組成幾個月的超級智慧實驗室(Meta Superintelligence Labs)中,最初的44人團隊裡差不多有一半都是華人。其中,趙晟佳和後來加入的宋颺,分別擔任首席科學家和研究負責人。MSL首席科學家,趙晟佳(Shengjia Zhao)。趙晟佳本科畢業於清華大學,史丹佛大學電腦科學博士學位。2022年6月畢業後就加入了OpenAI技術團隊。工作經驗僅有3年的他,履歷上已有了多項輝煌戰果。還在OpenAI時,他是多項里程碑突破背後的關鍵人物。引爆全球AI浪潮的ChatGPT的初始團隊成員GPT-4的核心貢獻者OpenAI首個AI推理模型o1的核心研究員,與OpenAI聯合創始人Ilya Sutskever一同被列為「奠基貢獻者」深度參與mini系列的構建,包括4.1和o3負責OpenAI合成資料團隊作為開啟AI「思考」能力的第一個推理模型,o1的成功,直接推動了整個產業在「思維鏈」技術上的發展熱潮。延伸閱讀:清華校友趙晟佳,出任Meta超級智慧首席科學家! GPT-4核心功臣MSL研究負責人,宋颮(Yang Song)。宋颮本科就讀於清華大學數理基礎科學班,博士畢業於史丹佛電腦科學專業,研究方向聚焦生成模型與多模態推理。在學術界,他以「擴散模型」研究聞名,是該領域的技術奠基者之一。他曾在Google大腦、Uber ATG、微軟研究院等機構實習,擁有豐富的工業與理論背景。2022年加入OpenAI後,他組成「策略探索」團隊,圍繞更大規模、更複雜數據、更高維模態進行方法論探索與系統落地。擴展閱讀:突發! Meta剛從OpenAI挖走了清華校友宋颮比起Meta,OpenAI團隊裡的華人其實更多。每逢重磅發布,從長長的貢獻者名單到直播現場,都少不了華人科學家的身影。不過,擔任高階主管職位的,就只有首席研究官陳信翰(Mark Chen)了。陳信翰的母親邱瀞德是台灣清華大學教授,現任資訊系統與應用研究所所長;父親陳建任曾任亞光電董事長。他高中時曾隨家人從美國回台。在新竹實驗中學的雙語部就讀時,他接連在數學競賽AMC10、AMC12和AIME中取得滿分,並憑此優異成績進入麻省理工學院(MIT)。在MIT獲得數學和電腦科學雙學位後,陳信翰進入一家自營交易公司從事量化投資工作,負責為股票和期貨開發機器學習演算法。在OpenAI的七年時間裡,陳信翰從研究科學家逐步晉升為首席研究官,負責模型開發和公司整體研究工作。在此期間,他領導了多項里程碑式的項目,包括o1系推理模型、文字到圖像模型DALL-E,以及融入視覺感知的GPT-4等等。值得一提的是,剛以突破性進展登上Nature封面的Google量子人工智慧團隊,他們的處理器總監Yu Chen也是華人。Yu Chen先後在中國科學技術大學取得物理學理學士學位,並在明尼蘇達大學取得凝聚態物理學博士學位。在加州大學聖塔芭芭拉分校做了4年博士後研究後,他於2014年加入Google,擔任量子研究科學家。除了這些AI頂尖人才,還有很多耳熟能詳的華人大佬。例如輝達的CEO 黃仁勳、AMD的CEO 蘇姿丰、英特爾的陳立武等等。開源「電廠」,好用又便宜除了人才和模型訓練,許多提供API的平台公司,也紛紛連結中國的開源模型。例如Vercel的老闆Guillermo Rauch就表示,鑑於GLM-4.6的出色表現,「在nextjs.org/evals中排名第三,並且是前五名中唯一的開源模型」。現在,他們不僅提供GLM-4.6的API服務,而且價格也是最低的。10月22日,Airbnb CEO Brian Chesky在訪談中表示,Airbnb的客服AI現在由13個模型組成。關鍵是,他公開承認Airbnb「在很大程度上依賴Qwen來支援AI客服。」甚至表示Qwen比OpenAI的產品更好更便宜。除了這些平台類公司無需開發基礎以外,像Cursor這種一直被喊套殼的公司,想要從零開始預訓練一個模型花費不菲,而且是針對Coding領域的特定模型,純粹預訓練得不償失,那該在怎麼辦?就像網友說的,最好的方法就是找一個開源模型去微調。那現在全世界開源領域最好的模型也就是中國耳熟能詳的那幾家了。而且不僅開源,而且開源選擇的協定都是最友善的。網友們還在Windsurf中直給提問,你是誰,誰開發了你?Windsurf的模型直接回答我就是「GLM」~如果說AI是新時代的電力,那麼以上這些跡象正在表明,我們正在從「世界工廠」轉變為AI的「世界電廠」。透過開源,我們正在搶佔全球AI時代的基礎設施定義權。當一個開源的中國模型能提供80%的效能,而成本只有20%時,選擇是顯而易見的。當這個模型能提供100%甚至110%的效能(如DeepSeek-V3.1在編碼上的表現),而成本依然低廉時,它就從「備選項」變成「最優解」。Cursor被網友抓包時的尷尬,恰恰揭露了矽谷開發者的一種矛盾心態:身體可能很誠實地擁抱中國模型,但在宣傳上仍試圖維持「矽谷原創」的政治正確。最後總結一下,「倒反天罡」的不僅是AI人才中華人的佔比,更重要的技術流向。當矽谷的工程師們為了優化成本和性能,不得不開始研究GLM和Qwen的文檔時,這場關於下一代AI技術浪潮的牌局,才算真正進入了最精彩的下半場。One More Thing不過我們也不能「高興」太早,在AI領域的人才上,華人現在一種標籤。但是,如果看看各大科技公司的CEO,你會發現,印度老哥們也不甘示弱。例如Google的CEO劈柴哥,Sundar Pichai。例如微軟的CEO,納德拉Satya Nadella。例如IBM的CEO,Arvind Krishna。例如Adobe的CEO,Shantanu Narayen。例如霍尼韋爾的CEO,Vimal Kapur。以上這些CEO們都是印度老哥,其中不乏AI科技領域的掌舵人,例如劈柴哥和納德拉。參考資料:https://x.com/FuSheng_0306/status/1983894938669433044https://x.com/auchenberg/status/1983901551048470974https://x.com/AI_Whisper_X/status/1983819229737652336https://x.com/artificialanlys/status/1983915999998230932 (新智元)