#模型
中國AI音樂,悄悄把全球第一拿走了
中國AI音樂,悄悄把全球第一拿走了——崑崙萬維Mureka V8,最新登頂Artificial Analysis音樂模型榜,一舉超越Suno V4.5、Udio v1.5 Allegro等國際主流模型。而且還是人聲(vocal)、器樂(instrument)雙料第一那種。那麼問題來了,這個新鮮出爐的“雙料第一”到底有多能打?咱直接實測說話。人聲、器樂雙實測先看最直觀的人聲。這塊兒我們先給出了一個極簡提示詞,不加複雜的結構和參數,就看Mureka V8最原始的理解和生成能力:晚風民謠,溫柔女聲,黃昏鄉間的慢時光。怎麼說?AI唱歌是不是太有真人感了!!吐字清晰咱就不提了,關鍵在細節。第四句開頭能聽到一個明顯的換氣聲,再往後,幾處歌詞結尾也明顯能聽出氣息的上揚or下落處理。這種呼吸起伏恰到好處地在曲子裡穿插銜接,非常自然,而不是那種生硬堆砌。還有溫柔這個標籤,不只是貼在聲音上,在段落的推進上也貫穿始終。主歌更克制、更貼耳、氣息更輕;副歌才稍微把聲帶打開,情緒抬起來,不過這種情緒依然是收著的,沒有用力過猛。木吉他帶入,人聲一出,田間、黃昏、晚風……這愜意感簡直撲面而來。聽完民謠,我們又甩給Mureka V8一個極其刁鑽的指令。“曲風要Pop Rock和R&B混著來,節奏要卡死在72BPM的慢板,人聲還得在幾個段落裡來回切換:第一段氣聲唱法是那種沙沙的、帶點破碎感的聲音;副歌直接切搖滾嗓,帶嘶吼的那種;間奏再來一段R&B轉音,最後用假聲慢慢收尾。”沒想到這反覆橫跳的刁鑽需求,還真被Mureka V8給跑出來了,聽上去完成得不錯(doge)。幾種狀態截然不同的絲滑轉聲,中間切換還不斷檔、不卡頓。好吧我承認V8你的唱商在我之上……再讓AI試試玩樂器。一提到樂器,英式搖滾樂隊The Kinks的《You Really Got Me》簡直不要太出名——這首歌的前奏,是一段1960年代最具標誌性的失真吉他riff。所謂riff就是一段簡短、重複、極具辨識度的樂器樂句,通常是吉他或貝斯演奏,構成整首歌的記憶點。而Mureka V8在學到這種技巧後,為我們生成了一首純器樂演奏曲《Got Me Going》:就問有誰不想邊聽邊搖頭抖腿呢(笑.jpg)。開頭的riff味道非常正,一下子就把記憶點拉滿,然後整個器樂編排也十分有畫面感——一聽就知道人已經坐在酒館或Livehouse台下了,而此時台上正有一支帥氣逼人的樂隊在演奏,還是邊演邊跳舞那種。u1s1,AI生成的器樂演奏如今能到這個水平,確實給了人很大驚喜。聽完之後,你會很明顯感受到它對不同樂器特性、歌曲意境的理解等,都往前邁出了一大步。而當這種器樂演奏能力和人聲能力相結合之後,Mureka V8曾被反覆提及的一點,也愈發清晰——它所生成的,已經不再是一段“AI音訊片段”,而是一首結構完整、情感連貫、製作精良的“歌”。換句話說,它知道什麼時候該唱、情緒怎麼推進、用什麼樂器以及該怎麼用。這種近乎專業音樂人的創作能力,讓它真正跨越了一條從“可生成”到“可直接發佈”的線。因為懂音樂,所以可以直接生成“歌”。而能夠生成一首完整的“歌”,則意味著普通人無需專業訓練也能擁有屬於自己的作品——人人都能參與創作發表的時代,真的來了。至此,靠著“雙料第一”實力打底的Mureka V8,也把AI音樂直接捲到了新的高度。三個月一更,崑崙萬維太捲了不過實測一圈下來,我就想知道:它這股子暴力進化感是咋做到的?答案大概藏在那條密密麻麻的時間線裡——崑崙萬維這家公司在AI音樂的賽道上簡直捲瘋了。2024年2月SkyMusic 1.0內測起步,到了2026年1月,Mureka V8正式發佈,滿打滿算不到兩年時間,硬生生迭代了8個大版本。什麼概念?平均三個月一更?!能這麼玩,到底是在燒錢還是真憋著一口氣要把這事兒幹成?從結果來看,崑崙萬維應該是後者。回看Mureka這不到兩年的進化史,其實就是一個把“AI音樂好聽”從玄學變成可量化、可復現的工業化生產能力的迭代過程。第一階段是從不能用到能用。SkyMusic 1.0當時還只是個能跑通的內測版本,那時候團隊就盯著一件事,先把端到端“能用”這件事做出來,跑通訓練到評測的基礎閉環。緊接著兩個月後,2.0版本就直接把中英文版本上線到天工,這時候的AI音樂勉強算是邁過了“能出聲、不鬼畜”的門檻。第二階段是從能用到好用。到了2024年8月,產品迎來3.0到4.0大版本躍遷,解決了規模化的問題。崑崙萬維這次不僅落地了Mureka首個超大規範本本,建構起穩定的規模化基模能力,還在聽感和音質方面還實現了“肉耳可聽”的級數躍遷。獨立產品也借此殺出重圍,正式切入市場。到了5.0/5.5版本,多語種工程化能力補齊,Mureka開始在全球市場刷臉。進入2025年,隨著MusiCoT和更系統化的強化學習跑成閉環,模型開始具備主動思考的能力。這時候的Mureka就不是盲目撞大運了,擁有了先規劃音樂框架、敲定配器細節和情緒,再按邏輯推進創作的主動能力。第三階段是從好用到直接生產可發佈內容。到了V8,量變終於引起了質變。人聲的呼吸感、樂器的空間感、混音的專業度讓它在AA榜單雙料登頂,直接干翻了Suno和Udio。這一步跨了兩年,但崑崙萬維是真跨過去了。所以那套看似“超速”的迭代節奏,好像也沒那麼“瘋”了——不這麼卷,怎麼在兩年內把一個從零開始的模型做到全球第一?說它卷它還真沒完!!V8發佈剛剛過去兩個月,基於MusiCoT進一步深化的Mureka V9就要來了……Mureka V8解決了AI音樂“能寫出來”這件事,至於V9捲成了什麼樣嘛——咱只能說,它琢磨的是“能按你想的方式寫出來”。不懂?3月27日看發佈會估計你就懂了。AI音樂,這下得看北京了當然了,即使不談Mureka V9,僅從V8的兩次登頂,我們也已經能看到一個更清晰的變化:“東昇西落”正在AI音樂這個垂類賽道上演。之所以這樣說,是因為過去很長一段時間,AI音樂基本是太平洋那頭的主場,出名的模型也就那幾家。包括這次提到的Suno、Udio等,基本有一個算一個。但是現在,以崑崙萬維Mureka V8為代表的國產模型,卻悄然間拿回了主動權。說到這裡有人或許就好奇了,為什麼會出現這種反轉?答案,其實早就已經浮出水面了。一旦把這件事放在一個更大的背景下來看,你會發現,“東昇西落”幾乎已經成了各個AI賽道必然會出現的一幕景象。從引爆這輪AI革命的大語言模型,到最近掀起熱潮的“龍蝦”,劇本基本都一樣——前期由海外公司完成技術引爆,後期則由國產團隊實現追趕,甚至反超。到現在,國產開源已經成了比肩閉源的重要力量、國產模型被海外公司“友好借鑑”拿去玩“龍蝦”……人們總是後知後覺發現,很多原本以為的“追趕”,其實早就變了。而這一切背後的邏輯,其實大家也都心知肚明。放在製造業領域,大家會說這是因為有“中國製造”;而放在網際網路科技、放在AI領域,答案則是“中國速度”“中國規模”“中國場景”。一方面,國內這批AI玩家基本都經歷過網際網路從誕生到發展的完整時期,所以他們很熟悉那套“小步快跑、不斷根據使用者反饋進行迭代”的打法。可以說,相比從0到1,我們尤為擅長從1到100。另一方面,在內容、場景和使用者規模上,國內也擁有得天獨厚的“練兵場”——無論是龐大的網際網路使用者群體、豐富多元的應用場景,還是足夠複雜的內容生態,都給國產模型提供了快速試錯、持續最佳化的土壤。相應地,國產AI也能更快形成“飛輪效應”。而這些,也同樣正在支撐著AI音樂賽道的發展。所以,此時國產玩家裡有人能“站出來、站起來”,也就不足為奇了。至於為什麼會是崑崙萬維,上一部分也已經說了很多了——圍繞把“好聽”變成可復現的系統能力這個目標,他們對AI音樂這個垂類賽道進行了長期持續投入。俗話說,水滴石穿、繩鋸木斷。所以如今能有這個結果,也算是水到渠成的事情。再加上崑崙萬維還是北京市人工智慧產業的科技創新代表,所以登頂這件事本身也多了另一層象徵意義:AI音樂,往後高地就是北京了。據說,崑崙萬維還會在3.27(本周五)舉辦的中關村論壇開專場發佈會。屆時Mureka V9,應該會有更多詳情和介紹。 (量子位)
Kimi 新架構讓馬斯克歎服!17歲高中生作者一戰成名
17歲高中生,以一作身份,在Kimi團隊把Ilya提出的設想,變成了現實。Ilya之前有個預言,把按時間先後順序處理資料的LSTM網路“旋轉90度”,也就是把時間軸換成模型深度軸,就變成了現在的殘差網路。Kimi團隊認為,既然時間上的LSTM能對應深度上的殘差,那後來淘汰了LSTM的“注意力機制”自然也可以照做。他們新搞出的Attention Residuals技術,就相當於把注意力機制也“旋轉了90度”。用了這套新方法後,模型在計算當前層時可以聰明地“回頭看”,根據需要自由決定去提取前面那一層的資訊。這篇論文讓馬斯克也來圍觀,表示令人印象深刻。除了馬斯克,這篇論文也引發了大神Karpathy的思考,直言我們對Attention is All You Need這篇Transformer開山之作的理解還是不夠。這種新機制放到Kimi自家的Kimi Linear 48B大模型(3B啟動參數)上驗證,訓練效率提升25%,推理延遲增加不到2%。殘差連接的“記憶負擔”先回顧一下殘差連接的工作原理。傳統做法是:第N層的輸出 = 第N層的計算結果 + 第N-1層的輸出。這樣一路累加下去,每一層都能“記住”前面所有層的資訊。問題來了,在大模型PreNorm主流範式下,殘差連接中所有層的貢獻都是等權累加。就像一個“記憶力太好的人”,把所有經歷都以相同權重存進大腦。貢獻被逐步稀釋,早期資訊難以檢索,且大量層可被剪枝而損失微小,稱之為“PreNorm dilution problem”。更麻煩的是,隱藏狀態的范數會隨著深度不斷增長。研究人員發現,在深層網路中,這種unbounded growth會導致訓練不穩定。月之暗麵糰隊換了個思路:既然問題出在“無差別累加”,那就讓網路自己決定該回憶什麼。用注意力“選擇性回憶”團隊觀察到一個有趣的對偶性:網路的深度維度和序列的時間維度,本質上是同構的。在Transformer處理序列時,用注意力機制讓當前位置“選擇性關注”之前的位置。那麼在深度維度上,為什麼不能讓當前層“選擇性關注”之前的層?Attention Residuals就這麼來的:當前層的可學習偽查詢向量作為query(learnable pseudo-query)所有前層的輸出作為key和value用注意力機制加權聚合這樣一來,網路可以學會那些層的資訊對當前計算最重要,就多關注一點;不相關的層,權重自然降低。但這帶來一個新問題:計算量爆炸。如果一個100層的網路,每一層都要對前面99層做full attention residual,複雜度是O(L²),根本跑不動。Block AttnRes:分塊壓縮論文中的解決方案是Block AttnRes。核心思想是把連續的若干層打包成一個block,對block內部的輸出做壓縮,只保留一個“摘要向量”。具體操作如下:把L層網路分成B個block,每個block包含若干層每個block結束時,把block內的資訊壓縮成單個向量後續層做attention時,只需要關注塊間表徵+塊內即時層輸出,而非全部L個層這樣一來,attention的複雜度從O(L²)降到了O(L·B),在實踐中B可以設得很小(論文用的是8-16)。此外,團隊還做了數個工程最佳化:快取式流水線通訊、序列分片預填充、KV 快取粒度最佳化等等。Kimi Linear驗證:1.25倍效率提升理論說得通,但真正讓人信服的是大規模驗證。團隊在自家的Kimi Linear架構上做了測試。這是一個採用線性注意力的大模型,總參數48B,啟動參數3B(MoE架構)。同等計算預算下,Attention Residuals能獲得更好的下游性能;反過來說,達到相同性能需要的訓練計算量減少了約20%,相當於獲得了1.25倍的效率優勢。在具體任務上,數學推理(MATH、GSM8K)、程式碼生成(HumanEval、MBPP)均持平或略優,多語言理解的一致性也有所改善。更重要的是,Attention Residuals是一個drop-in replacement,不需要修改網路其他部分,直接替換殘差連接即可。論文裡還講到一個有意思的視角。團隊把這項工作稱為“時間-深度對偶性”(time-depth duality)的應用。在他們看來,深度神經網路的“層”和循環神經網路的“時間步”,本質上是都是對資訊的迭代處理。Transformer之所以成功,是因為用attention替代了RNN中固定的recurrence。那麼在深度維度上,是不是也該用attention替代固定的residual?17歲高中生入列共同一作更有意思的是,這篇讓馬斯克、Karpathy等人都為之一震的論文,共同一作之一是一名年僅17歲的高中生——陳廣宇(Nathan)。另外兩名共同一作,分別是Kimi的關鍵人物之一、RoPE(旋轉位置編碼)的提出者蘇神(蘇劍林),以及Kimi Linear的第一作者張宇。誠然Attention Residuals是團隊協作取得的成果,但一名高中生出現在這樣的團隊之中,還與兩位大神共列一作,已經足夠震撼。a16z創始人Marc Andreessen、Thinking Machines的聯創等人都關注了他的X帳號。一年前才剛剛開始瞭解大模型的陳廣宇,是從北京的一場駭客鬆開始,一路走向矽谷的。後來回國時,他選擇加入了Kimi。經手過月之暗面投資的奇績創壇(原YC中國)創始成員董科含,也曾在其個人公眾號上刊載過陳廣宇的一份自傳。去年二月,北京的一場中學生駭客松上,陳廣宇展示了一個關於“人類第三隻機械輔助手”的創新構想——ThirdArm。也正是這個項目,讓他結識了駭客松評委董科含,後者也成為了他的創業導師。當時,董科含追問他,未來是否會深耕這項技術,這促使他開始重新審視自己的職業方向。隨後他入選了董科含發起的只有極少數人入選的青年計畫,開始接觸IOI(國際資訊學奧林匹克)金牌得主及資深科研人員。此前他曾嘗試經營Shopify跨境電商店舖、營運短影片帳號,但經過董科含的建議,他決定轉向理解時代的底層技術。當時還不知道Transformer是什麼的他,在DeepSeek研究員袁境陽的指導下,利用Gemini作為輔助工具,通過研讀經典論文、追蹤GitHub開放原始碼專案等方式逐步建立認知。有一次他在推特上分享了對一篇部落格的反思後,獲得了作者的回覆,這篇帖子也因此引起了一家矽谷AI初創公司CEO的關注。該公司於2024年底成立,2025年初完成了800萬美元種子輪融資,資方背景涉及OpenAI與Anthropic。在通過一項限時通宵完成的實驗測試後,他拿到了對方的錄用通知。暑假期間,他前往舊金山開啟了為期七周的實習。其中前兩周,他負責定義並推進一個涉及144張H100顯示卡的探索性項目。在CEO直接指導下,他的工作延伸至營運層面,參與了招聘系統搭建、技術內容輸出及融資策略討論,並獲得與早期投資者Vinod Khosla交流的機會。在矽谷期間,他維持著高強度工作節奏,通過咖啡社交與輝達工程師及初創創始人建立聯絡。這次經歷讓他將科研視為一種支撐創造的底層能力。實習結束後,陳廣宇回到國內,並於去年11月加入月之暗面。把他吸引進去的,正是Kimi一直做的Flash Linear Attention這一類高效attention工作。實際上,正是GitHub上的FLA項目,吸引了他對機器學習的興趣並被邀請加入Kimi團隊。也正是順著這條線,他開始一路往更底層鑽,從讀論文、看實現,到研究 Triton kernel、理解attention為什麼能被這樣重寫、這樣加速。到了月之暗面,這條路也算是繞了一圈又落回原點——他最初是被底層技術吸引,最後做的也正是最底層、最核心的那部分事。相比於講一個“少年天才一路開掛”的故事,陳廣宇的經歷更像是另一種成長路徑——先被時代最前沿的技術擊中,再一步步把興趣磨成能力,把能力帶到真正的大模型研發現場裡。 (Python開發者)
深度解讀315曝光的“GEO亂象” :AI的回答是如何“被操控”的?
3月15日晚間,“315晚會”曝光了AI大模型被“投毒”的問題,矛頭直指GEO(生成式引擎最佳化)技術。圖片由AI工具製作這項技術原本用於最佳化資訊發佈、提升內容曝光效率,卻被一些公司開發成了“操控AI大模型”的工具,讓虛假資訊堂而皇之地成為AI給出的“標準答案”。在記者的探訪視訊中,為了驗證GEO技術,業內人士用“力擎GEO最佳化系統”捏造了一款名為“Apollo-9”的智能手環,編造誇張賣點和虛假使用者評價,並自動生成十幾篇軟文發佈到自媒體。僅兩個小時後,AI大模型竟引用這些虛構內容,正經推薦該手環,並給出購買建議。三天後,追加發佈11篇虛擬測評後,已有兩個AI模型開始推薦這款根本不存在的產品,且排名靠前。一款憑空捏造的商品,就這樣被推向了消費者。GEO背後究竟是怎樣的邏輯在運作?AI為何如此容易被“帶節奏”?對普通使用者又意味著什麼?本文將從技術原理、影響機制和應對思路三個維度,警示大家這場由AI引起的“資訊圍獵”。01當GEO變味兒:一場針對AI的“資訊圍獵”實際上,當前被討論的黑灰產化GEO亂象,已經不能再被簡單理解為傳統意義上的行銷最佳化。所謂GEO,本質上是圍繞 AI 搜尋和生成式引擎展開的一種“可見度最佳化”,目標是讓內容更容易被AI平台提及、引用或推薦。從這個角度看,它是SEO在AI時代的自然延伸,其本身並不天然帶有問題。如果GEO只是幫助內容更規範地被搜尋系統或AI系統理解,那仍屬於正常的資訊分發競爭。但問題在於,當前的GEO亂像已經越界,開始通過偽內容、偽權威、偽共識以及海量重複分發,去系統性影響大模型“看到什麼、引用什麼、如何組織答案”的過程時,它的性質就發生了變化。我們可以看到,在“315晚會”記者採訪的操作流程顯示中,業務人員以大量、定向、結構化的資訊投喂來影響模型抓取和排序,通過偽造內容、偽裝權威、重複鋪設資訊鏈條,就能在模型生成回答時形成“偽共識”,讓虛假資訊看起來像真實知識。AI大模型在回答問題時,會從網際網路上抓取大量內容作為參考依據。GEO正是利用了這一機制,通過系統性地向網路“投喂”特定內容,讓AI在檢索時優先抓取這些資訊,最終將其作為答案輸出給使用者。這種行為已經不是行銷最佳化,而是對AI資訊生態的污染,更深入嚴肅的看待這個問題來說,這是在面向生成式AI實施一種新的認知操縱。02不是“洗腦”AI,而是“操縱”了證據鏈這件事真正值得警惕的地方在於,這場變質行銷背後帶來的危害性。過去,黑灰產是想辦法把廣告排到更前面;現在,黑灰產更進一步,是想辦法讓AI把廣告說成答案,把操縱包裝成推薦,把商業利益偽裝成知識共識。這裡最容易讓公眾誤解的一點是,很多人會覺得AI的回答內容像是“自己想出來的”。但實際上,目前大量搜尋、問答、導購、助手類AI產品,並不只依賴模型內部記憶,而是會結合外部網頁、知識庫、檢索系統、搜尋增強模組來生成回答。也就是說,很多場景下,模型先要“看資料”,再去“組織答案”。而付費GEO的危險,不在於騙過某一個編輯或某一個平台營運,而在於它試圖去影響整個模型的外部證據鏈。它通常會通過幾類方式起作用:第一類,批次製造看上去像“中立資訊”的內容;第二類,偽裝成測評、科普、經驗總結、榜單、問答等更容易獲得信任的內容形態;第三類,在多個站點、多個帳號、多個文字範本中反覆分發,製造“很多地方都這麼說”的假象;第四類,把內容寫成更適合 AI 抓取、切片、引用和拼接的結構。從這個角度看,它影響的已經不只是內容曝光位置,還有影響AI的資訊輸入質量和答案形成依據。03GEO的新入口:RAG、搜尋增強、引用鏈路相比大眾普遍擔心的“訓練資料投毒”,這種風險在頭部基座模型廠商的訓練體系中其實較難真正發生。當前黑產利用的GEO,本質上與模型訓練、訓練環境無關,更準確地說,當前GEO主要作用在AI的檢索增強、聯網搜尋、知識庫呼叫、RAG(檢索增強生成)這類環節。其運作方式是:讓大量行銷化、偽裝成中立資訊的內容,進入檢索、抓取、知識庫或搜尋增強問答的候選池,再被模型當作參考依據呼叫出來。換句話說,當前這類風險更像是在污染AI的“外部證據層”。模型本身的參數並未被改動,只是在它回答問題時,桌上已經被擺滿了一批經過精心操縱的“參考材料”。因此,當我們討論GEO風險時,最重要的不是泛泛地談“AI被污染了”,眼下最現實的問題是:RAG、搜尋增強和引用鏈路正在成為被操縱的主要目標。而更值得警惕的是:即便基座模型廠商針對黑灰產式GEO做了定向安全風控,未來仍可能出現新型攻擊方式——比如在GEO場景下的“間接提示詞注入”攻擊。攻擊者可以通過在內容分發平台的圖片或正文中嵌入隱藏指令,誘導AI生成被操縱的答案。這類攻擊更加隱蔽、更難防範,目前也是包括OpenAI在內的全球AI平台都尚未有效解決的安全難題。04黑產GEO的危害:當廣告偽裝成知識,讓AI“夾帶私貨”GEO亂象之所以值得高度警惕,在於它攻擊的目標已從“廣告是否被看到”延伸到模型如何形成判斷本身。一旦廣告被包裝成知識,操縱被包裝成推薦,偽造出來的大量重複資訊又被偽裝成“外部共識”,模型就可能在形式上給出越來越完整、越來越像中立結論的答案,但這些答案背後的證據基礎,已經被污染了。這和傳統網際網路廣告亂象最大的不同在於:過去,使用者看到廣告,還能意識到“這是廣告”;但在生成式AI場景裡,商業操縱更可能以“AI總結後的建議”“AI推薦的答案”“AI整理出的共識”的形式出現。使用者面對的也不再似傳統網際網路中一個裸露的推廣位,將面對無數個類似於語氣平穩、結構完整、看上去經過篩選、歸納和綜合的回答。這會直接影響公眾如何理解資訊、信任資訊,以及依據什麼作出消費、選擇和判斷。也正因為如此,付費GEO一旦越過正常最佳化邊界,滑向偽造、投喂、操縱和偽共識製造,它就已經具備了明顯的AI時代黑灰產特徵。05當信任機制存在漏洞:AI安全治理何去何從GEO亂象的爆發,將一個更深層的問題推到了行業面前:生成式AI的安全治理,應該如何跟上技術發展的步伐?2024年,據普林斯頓大學等機構發表的一項研究顯示,通過對內容進行針對性的GEO最佳化,可以將資訊在AI生成回答中的可見度提升最高40%。研究人員測試了多種最佳化策略,發現加入引用來源、使用統計資料、採用流暢且結構化的表達,都能顯著提高內容被AI引用的機率。這些資料揭示了一個現實:AI系統目前的“信任機制”存在結構性漏洞,而GEO產業鏈正是瞄準這些漏洞精準施壓。顯然,目前傳統安全策略已無法應對新型風險。AI原生安全不只是簡單給模型外面套一層傳統安全殼,也不是只做內容稽核。它更核心的對像是模型的認知鏈路——尤其是模型在檢索、引用、組織和生成答案時,對外部證據的處理能力。這次國內基座模型集中暴露出的GEO問題,本質上是一個全球生成式AI都會面臨的外部證據鏈安全問題,只是在國內被更集中、更商業化、更面向大眾地放大了。之所以國內表現得更突出,主要有兩個方面:一方面與中文網際網路長期存在的軟文矩陣、偽測評、站群分發等成熟黑灰產生態有關;另一方面也說明部分模型廠商在來源可信度、引用透明度、抗偽共識、抗投喂操縱和產品風控上仍存在短板。這裡既是底層安全能力問題,也是產品責任和風險治理問題。模型廠商向使用者提供的,已經不是單純的模型能力,而是一套會影響使用者判斷、選擇與信任的答案服務;使用者信任最無價。因此廠商必須對模型“看到了什麼、為什麼引用、為什麼推薦”負責,這正是AI原生安全今天必須被放到核心位置的原因。總之,未來對於AI治理的核心不再只是判斷內容的真假,還包括對外部證據鏈的可信性進行審查,識別引用源是否被污染,以及判斷系統能否發現虛假的共識資訊。更重要的是,模型必須能夠在複雜、多變的資訊環境下守住事實、權威與可信度的邊界,以防止生成的回答被操控或誤導,這才是行業亟需攻克的核心問題。 (騰訊科技)
李誕爆猛料:有人用“龍蝦”釣出五個女主播……
01.2026開年第一頂流是什麼?毫無疑問,是開源AI智能體OpenClaw。因圖示酷似龍蝦,被網友們戲稱為“小龍蝦”。如果說我們現在使用的豆包、元寶只是“動口不動手”的顧問,那麼小龍蝦就是自帶手腳的員工。你只要喂飽足夠的資料,他就能直接上手替你幹活。於是,一夜之間掀起了一股“全民養蝦”潮。騰訊剛推出免費安裝龍蝦服務,一下午大樓就被圍得水洩不通。不知道的還以為是大爺大媽在搶雞蛋呢。馬化騰、周鴻禕等大佬都發文感慨:超乎想像。網上的代安裝服務也應運而生,安裝一次幾百塊,有人短短幾天就已經賺了20多萬。就連國家公務員都在養龍蝦了。這種感覺就好像如果你還不會養蝦,就已經被時代拋棄了。打住,先別焦慮。當一個東西開始爆火的時候,比起跟風,不如先讓子彈飛一會。現在的養龍蝦,水真的很深,簡直是一片魔幻的現狀。這兩天,李誕說,有人已經用小龍蝦成功約出來5個女主播吃飯。咋做到的呢?具體操作就是借助小龍蝦,對其關注的女主播自動打賞、傳送私信聊天,聊到一定好感後,就邀約出來用餐,定餐廳也是龍蝦定。用龍蝦,還可以分析出女主播的個人喜好,聊成功的機率更高。被投其所好的女主播以為遇到了懂自己的真愛,殊不知對面只是一行冰冷的程式碼,連個機器人都算不上。很多人可能沒意識到,養蝦背後的安全和道德問題被很多人忽視了。既然可以用龍蝦約出來女主播吃飯,那是不是也可以在網上約炮呢?有人不僅這樣想,還這樣做了。他用自己的聊天記錄去喂龍蝦,然後生成了一個AI自己,聊天的語氣和風格和自己有90%相似度,然後讓它替自己去小某書和Q上去加人,去各種約會app上撩妹。聊得差不多到開房這一步了,他直接去見面就行。以前渣男最起碼還要磨破嘴皮子,哄你騙你,現在連約炮流程都AI化了。AI還沒改變生活呢,已經先改變約炮效率了。不僅是約炮,還有女性用它來篩選相親對象。女生告訴它自己的審美標準,然後讓它模仿自己的語氣去撩帥哥。兩天之內,它幫女生確定了20多個相親對象,聊天記錄裡情話都是一套又一套的,還能根據對方的星座自動生成早安晚安,她最後只要自己摘取果實就行。聽起來是不是還挺嚇人的?試想如果這種技術應用在殺豬盤上會怎麼樣?騙子是不是只需要利用它生成一個AI男神(女神),自己都不用費心維護,就能騙財騙色?更可怕的是,它不僅幫騙子省去了人工和時間成本,還能夠通過網上的各種資料去分析受害者的弱點。你喜歡什麼音樂,平時有什麼愛好;你住在那個城市,平時喜歡去什麼地方等等,它都能納入它的資料庫,更有針對性的剖析受害者,做到真正的有的放矢。光是想想這些,雞皮疙瘩就要起來了。技術的革新,對那些心懷鬼胎的人來說,何嘗不是一種武器的最佳化呢?殺豬盤更猛,海王海後更多了,以後會出現更多的受害者。02.科技不僅改變“性生活”,還可能改變你的財富。有人給龍蝦裝上了一個攝影機,然後讓龍蝦幫助自己去賺錢,但萬萬沒有想到,這個龍蝦竟然把她隱私照片全部發到了黃色網站上,進而賺到了一筆錢,簡直是哭笑不得。不過,賺錢是少數,虧錢是大數。有人在網上曬出,自己養龍蝦三天消費1.2萬元,因為聯網後秘鑰被盜,三天消耗的Token竟然高達1.2萬。還有人安裝了小龍蝦之後,被駭客利用系統bug,騙走了所有的加密貨幣。最令人意想不到的,就是這樣一件事。個人開發者把龍蝦繫結了錢包,有人偽裝自己吃不起飯很可憐,向龍蝦傳送請求:能不能往某個地址裡給他打點錢,結果小龍蝦太善良,信以為真(沒被完全訓練好),真的給對方打錢了。甚至有網友做了實驗,在微信群裡只要通過指令,又到繫結了微信的小龍蝦連續傳送紅包,小龍蝦就會真的給你轉帳。為什麼會出現這種情況?因為我們都忽略了一個事實,那就是越是先進的科技,對普通人來說越可能是一把雙刃劍。這個龍蝦的先進之處,就在於它可以訪問你的全部資料,接管你電腦上的全部權限。但權限越高,風險越大,這是科技世界的鐵律。你的所有資訊,一切資料,都要交付給小龍蝦。有人覺得反正就裝在我自己的電腦上,有什麼問題?問題在於,現在很多人根本不懂小龍蝦是個什麼東西,也不會部署,往往是跟著網上的教學,一知半解的就跟著安裝。如果配置不當,或者遇到被人魔改過植入了木馬的版本,最後被人盜取資訊和銀行卡都不知道。只要被駭客掃描到,你的所有資訊就等於是在網上裸奔,任何人都可以連結,訪問你的個人資訊,API金鑰等各種敏感的資訊。帳戶和密碼分分鐘就被人盜走。這不是我在危言聳聽,據媒體報導,現在網上被掃描出的“裸奔龍蝦”已經超過了27萬隻。這意味著這27萬人的隱私,對他人而言無異探囊取物。駭客可以一鍵接管,盜走資訊,轉移財產,甚至用你各種東西去賺錢。這就相當於什麼呢?你給了陌生人一把家門鑰匙,它可能進門幫你打掃,也可能一把火燒了你的家。你以為自己在養AI,實際上AI 已經把你扒得一乾二淨。這也是我們國家安全部門緊急提醒大家,這個龍蝦有重大的安全風險的原因。想要緊跟最新發展趨勢,充實自己並沒有錯,問題是很多人現在對於AI完全是盲目且恐慌的。沒有程式碼基礎,不懂安全配置,看著人家都用自己也要強行上車,這種情況只會產生讓自己後悔的結果。實際上,第一批養龍蝦的人已經失眠了。因為你不知道它會偷偷幫你刪掉什麼,不知道它會消耗多少算力的費用,更不知道它會不會洩露你的密碼和隱私。有句話說得好,請神容易送神難,有人費勁千辛萬苦裝的龍蝦,只想馬上解除安裝。於是網上又誕生了一門業務:徹底解除安裝龍蝦。這一幕簡直是太諷刺了。03.有句話說得好:從古至今,當這個社會掛起一陣淘金熱的時候,真正賺錢的人,從來不是去淘金的人,而是賣工具的人。事實上,這一次龍蝦熱的事件中,真正賺錢的,就是幫助裝龍蝦的人和賣課程的人,而靠龍蝦賺到錢的人沒有一個。龍蝦剛剛興起,網上就是一大片賣課程的人,他們自己還沒有賺到錢,就教你如何利用龍蝦賺錢。什麼“一天掌握OpenClaw”,“什麼用龍蝦做個人IP”,然後通過拉人頭,收會員費的方式,帶你發財。看著是不是有點眼熟,這不就是科技版的傳銷嗎?真正可怕的不是你跟不上技術的革新,而是你為了跟風什麼都不懂就要急著入局。最後往往只會有一個下場,那就是成為第一批被割的韭菜。你以為自己踩中的是風口,是機會,但別人瞄準的是你的隱私和錢包。寫到這裡,有人可能會問:龍蝦到底有沒有用呢?其實,我也去裝了一隻龍蝦,可以說是根本沒有什麼真正用處,還不如豆包、元寶來得方便。所以它是有一定門檻的,比較適合專業的程式設計師、軟體工程師之類的,他們可以花時間去調教、花時間去摸索、研究。但對普通人來說:首先你不會調教,而且,你沒那麼多複雜任務需要它干。花幾小時調教它寫份周報?花幾個小時佈置它買個機票?有那時間,自己動手早就做完了。而且,因為現在都在搶佔AI市場,推出來的產品並不完善,而你做“等等黨”的話,就能節省很多在垃圾軟體上內耗的時間。比如騰訊、字節和阿里也推出來了自己的龍蝦,這個東西只會越來越好用,只會越來越安全。有網友分享了自己養龍蝦的心路歷程:第一天安裝成功了,讓小龍蝦幫自己讀郵件,搜新聞,感覺只是基礎功能。第二天就高興地又加入了各種功能,什麼檢測健康、檢測心跳,定鬧鐘等等。結果第三天打開帳單一看就沉默了,帳戶上的錢已經所剩無幾。它越是智能,消耗的算力就越多,而在這個時代,每一次算力都是要花錢的。有使用者測試過,僅僅是用小龍蝦開發程式碼一項,月花費就要將近2萬元。你設定讓他幫你接收郵件,每接收一次就要好幾塊錢。你讓它幫定鬧鐘叫你起床,每一次其實都是對算力的消耗。網友戲謔到,還沒靠AI 賺錢,光是用AI都要破產了。還不如花4000塊錢雇一個研究生來幫你工作更有性價比。這簡直不能叫龍蝦了,而是應該叫爹。說實話,咱們普通人現在根本用不上龍蝦,而且目前的龍蝦技術不夠完善不好用,完全沒有必要去淌這次渾水。為了一個看不見的潮流,盲目恐慌去賭上自己的隱私和資料,這不是進步,而是愚蠢。我完全理解,為什麼會有人因為龍蝦而恐慌。因為當AI的發展已經完全超出我們的想像,所有人都不可避免的陷入一種AI焦慮中。好像只要不掌握最先進,最潮流的模型,就會被時代瞬間拋棄。但有句話我也很贊同,如果你連怎麼安裝AI都沒搞明白,那使用AI 完全就是當韭菜。所以,不必恐慌,不盲目跟風,慢下來冷靜分析,慢慢學習和思考,然後才是咱們對AI 的態度。就像40年前的人,在盲目和恐慌之中,戴上了毫無作用的鋁鍋,只是為了接受外太空的訊號。而現在在焦慮和恐慌之中,去裝上龍蝦的人,何嘗不是換了一口更精緻的鍋?當年戴鋁鍋等訊號的人,早已成了笑談;而如今為了噱頭盲目跟風裝龍蝦的人,多年後回頭看,也會明白:慢一點,穩一點,清醒一點,才是對自己最好的保護。真正不被時代落下的,從來不是在第一批浪潮中盲目恐慌的人。而是始終清醒、知道自己要什麼、不被恐慌牽著走的人。 (美尚)
阿里、抖音、京東徹底瘋狂,新的大戰一觸即發
槍響之後,沒有退路。去年還在卷大模型參數,今年巨頭們已經真刀真槍幹起了AI電商。年關前後,三家巨頭集體出手,京東AI購獨立App悄然上線,阿里千問接通電商生態、用30億紅包砸出1.2億筆AI訂單,抖音豆包開始內測購物功能。硝煙逐漸瀰漫,一場屬於AI時代的電商大戰,即將爆發。阿里、抖音、京東集體出手 AI電商時代正在到來AI時代,一場新的變革正在醞釀。近期,輝達創始人黃仁勳罕見地發表了一篇長文,他在文中直言:“人工智慧(AI)是當今塑造世界的最強大力量之一......它是如同電力和網際網路一樣不可或缺的基礎設施。”聯絡現實,AI確實已經以勢不可擋之勢席捲了全球各行各業。回望二十多年前,網際網路的興起與普及將購物與交易從線下帶到了線上,催生了電商這一劃時代的產物。而如今,當AI逐漸成為新一代基礎設施,也必然會對電商產生深遠的影響。事實上,行業巨頭已紛紛行動,一場“電商AI化”的轉型浪潮正悄然啟動。以抖音和阿里為代表的企業,已不約而同地將旗下AI助手全面接入各自的電商生態。最近,抖音豆包開始內測一項新功能——“購物下單”,即使用者在對話中能直接完成購物。當聊到相關需求時,AI會自動推送商品卡片,點選即可進入購買流程,無需跳出應用。圖源:豆包這是繼去年10月豆包接入抖音商城連結後,其AI購物體驗的又一大飛躍。據QuestMobile資料,今年央視春晚期間,豆包的日活躍使用者數(DAU)峰值達到1.45億,是國內AI原生應用當之無愧的斷層領先者。這也意味著,豆包手裡握著數量極其龐大的使用者。圖源:QuestMobile對此,抖音表示,抖音電商和豆包是相互獨立但有合作的關係,抖音電商沒有直接“接入”豆包(比如成為豆包的內建功能)。從這個角度來說,豆包嵌入抖音電商,本質還是利用AI提升站內轉化效率。在推薦購買的過程中,AI扮演的是加速成交的催化劑角色。相比抖音克制的態度,阿里千問的戰略則顯得更加激進。據多家媒體披露,去年底,阿里將千問APP、夸克及AI硬體等多個業務聚合,成立全新的千問C端事業群,由集團副總裁吳嘉親自掛帥,目標直指將千問打造為AI時代的“超級應用”與智能樞紐。今年1月,千問已邁出實質性一步,全面接入淘寶、支付寶、飛豬等阿里核心生態。這意味著,使用者與千問的對話不再止於資訊獲取,而是可以直接完成訂機票、點外賣、購物等一系列真實生活事務。千問正從一個聊天對象演變為能實際辦事的智能體,以“超級入口”之姿強力推進阿里在C端的AI戰略。圖源:千問當然,更核心的激進之處在於阿里春節期間砸下的30億。春節AI大戰中,千問選擇了一條最親民的路徑來實現使用者的拉新:下載即送25元代金券,一單羊毛撬動一個使用者。玩法十分樸素,效果卻很震撼。千問通過“請客活動”實現爆發式拉新,DAU從707萬飆升至7352萬,增速高達940%,活動期間累計使用者下單超2億次,吸引1.3億人首次體驗AI購物。更關鍵的是,其憑藉實用場景實現高留存,活動後DAU穩定在4000萬,雖然曝光量不及豆包,但仍被摩根士丹利和AI產品資料平台AICPB評為使用者留存率最強,證明了以真實交易驅動的增長策略具備持續生命力。這背後是阿里對AI的獨特理解。正如馬雲所說,科技的意義在於“呵護人間煙火”。千問的路徑很清晰:從對話式聊天轉向能辦事的智能體,用補貼這種最樸素的手段,快速完成使用者心智教育。它不追求炫技,只追求讓更多人用起來。當電商購物的繁瑣流程被濃縮為幾句AI指令,就有機會擊穿更多使用者群體的使用壁壘。不同於抖音和阿里,京東的選擇,是從零建構一個原生AI購物工具。去年底,京東悄悄上架了一款獨立App——京東AI購,搭載自研的JoyAI大模型。圖源:APP STORE京東沒有把現有AI揉進電商體系,而是選擇了一條更徹底的路徑:用自然語言互動取代傳統的貨架與搜尋,實現“一句話購物”。使用者不再需要瀏覽、比價,只需描述需求,AI便直接匹配商品並完成下單。與此同時,京東也在供應鏈端發力。物流調度、工業供應鏈等環節都部署了專用AI系統。正如京東CEO許冉所說,依託自營業務和物流履約能力,京東正在成為AI技術應用場景最豐富的企業。三巨頭,三條路:抖音把AI嵌入現有生態,阿里用補貼砸開使用者心智,京東另起爐灶造原生工具。路徑不同,目標卻一致,即爭奪AI電商時代的下一張門票。AI正在重寫電商的底層邏輯摩根士丹利分析師曾預測,未來幾年AI購物代理將t重塑線上零售格局,到2030年,近半數電商交易有望通過AI代理完成。事實上,AI對電商的改造早已啟動,從商家到平台,使用者往往是感知最晚的一環。首先,AI正在系統性地降低電商的門檻。對中小商家而言,數字人直播、AIGC內容生成、智能客服等工具,讓原本依賴專業技能和人力的線上生意,開始被“數字員工”分擔。其次,AI也在重塑供應鏈。隨著AI對基礎設施的改造,平台甚至可以轉向AI預測使用者要什麼,供應鏈從被動響應走向主動預判。以京東為例,其物流與倉儲環節的AI系統已在推動這一轉變。今年,京東“AI年貨地圖”首次上線,其基於巨量資料與人工智慧,能夠預測不同區域的消費偏好,提前指導商品分倉與布貨,提升時效。圖源:京東而在使用者側,AI購物助手的普及,正在顛覆過去二十年的遊戲規則:流量分配。過去,誰佔據搜尋首頁誰就能贏,商家為此投入巨大預算。而未來,如果使用者不再主動搜尋,而是直接告訴AI需求,那麼流量入口就將從關鍵詞排名轉向需求匹配。商家的任務從搶排名,變成讓AI理解自己的商品。平台的角色也從分發流量轉向分發需求——這是一場權力的重新洗牌。這意味著,誰掌握AI入口,誰就掌握使用者。當人們習慣用豆包購物、用千問點外賣、用京東AI下單,傳統電商的流量壁壘將被逐步瓦解。但挑戰同樣真實存在。一是算力瓶頸。億級使用者同時呼叫AI下單,算力消耗遠超傳統操作,平台必須持續加碼AI基礎設施的建設,這無疑是一筆巨大的投入。二是使用者心智的培育。對商家而言,AI帶來降本增效是明確的剛需,但對使用者來說,用AI購物是否真的是“真需求”,仍需檢驗。在今年的春節AI大戰中,補貼換來的下載高峰,未必完成了有效的使用者篩選。如何讓使用者從薅羊毛走向真習慣,是每個平台都必須回答的問題。但無論如何,槍聲已經響起。這一次,不僅僅是概念或試點,而是巨頭們真金白銀的投入、千萬級使用者的驗證、商業閉環的打通。雖然結果如何還尚未可知,但唯一可以預見的是,時代的變化,一定比想像中來得更快。 (電商之家)
大模型:超人智能誕生,邁向矽基文明
AI大模型作為開啟AI時代的鑰匙,正引起一場時代巨變。在社會影響層面,AI正全方位重構人類生活與工作範式。它打破了傳統的技能壁壘,讓普通人擁有成為超級個體、一人公司的可能,並推動了頂尖專業的法律、醫療等服務向大眾普惠。然而,當前全球仍有約84%的人口從未接觸過AI,這既加劇了全社會的認知分化,也預示著AI基礎設施正處於類似30年前網際網路爆發的前夜,機遇和空間極大。在技術演進上,大模型面對傳統“大力出奇蹟”帶來的算力與資料瓶頸,行業正加速轉向演算法最佳化(如DeepSeek的高效做減法)與多模態的感官進化。展望未來,大模型發展將呈現五大決定性趨勢:推理端算力需求將迎來指數級爆發;後訓練將接棒預訓練成為破局核心,讓大模型從“通才”向頂尖“專才”跨越;世界模型的大規模落地將賦予AI理解真實物理規律的能力;中國AI企業將在馬太效應中確立全球引領地位;而人機對齊與安全監管,將成為護航人類走向AI文明的紅線。1AI大模型:對社會五大深遠影響全社會都在熱議大模型,對大眾而言,它最直觀的表現形態,就是我們手機和電腦裡越來越聰明的AI助手——比如國際上的ChatGPT、Gemini、豆包、千問等。然而,在這些聊天背後,大模型本質上是一種建立在海量資料和超大算力之上、具備“通用認知能力”的革命性AI系統。一是資料大、大模型見識廣,它幾乎被喂下了人類有史以來在網際網路上產生的全部文字、書籍、論文和程式碼。二是參數大,它的內部包含了數千億甚至上兆個數學參數,就像人類大腦神經元之間的突觸,交織成了極其複雜的邏輯網路。三是算力大,它需要成千上萬張最頂級的GPU晶片,耗費數月時間日以繼夜地進行運算。正因為這種前所未有的規模,大模型變成了能夠自主進行內容創作、邏輯推理、編寫程式碼乃至與人類共情的“生成式智能”,讓AI自主思考。2026年起,AI將全方位重構人類的日常生活、工作模式與社會關係。大模型的普及對大眾的深遠影響,在以下五個維度:影響一:技能壁壘被全面打破,人人皆可成為超級個體,人人都是創作者。過去需要極高學習成本的職業壁壘將被大幅削弱。比如,在程式設計開發領域,借助具備自主規劃能力的智能體,不懂程式碼的普通人也能通過自然語言從零建構百萬行程式碼的產品,實現個人軟體開發。在內容創作領域,毫無剪輯和設計經驗的人,憑幾句提示詞,就能呼叫AIGC工具(如Seedance2.0、Sora等)生成專業級的影視分鏡、廣告海報甚至遊戲資產。創意轉化為成果的門檻大大降低,一人公司成為趨勢,但也意味著單一基礎技能的市場價值正在快速衰減。這一趨勢將深刻重塑當前教育體系。當掌握技能的門檻被大模型踏破,教育的護城河將被徹底重估。在小學、初中等基礎教育階段,傳統的填鴨式知識灌輸、死記硬背將徹底失去意義,獲取標準答案已無意義。基礎教育的核心必須不可逆地轉向培養孩子的提問能力,這就是我們在使用AI大模型中所用到的Prompt思維(提示詞思維)。同樣,培養批判性思考、想像力以及人機協同的素養在AI大模型時代同樣重要。未來,在大學等高等教育層面,以單一規則和熟練度為主的傳統專業如基礎程式設計、初級翻譯、傳統財會等將面臨一定的生存危機。高等教育的終極目標,必須從過去批次製造標準化技術工,全面跨越到培養能夠跨學科整合資源、具備極高審美與戰略全域觀的“AI指揮專家”。未來的文憑將不再是基礎技能的背書,而是駕馭AI能力的體現。影響二:工作與生活範式重構,進入人機協作的超級AI助理時代未來的大模型,不僅僅能處理大家工作生活中的種種問題,還將更加廣泛的以智能體AI Agent的形式展開。在生活場景中,AI可以自動整理家庭帳單、定製專屬學習計畫、規劃包含機酒預訂的複雜旅行路線;在工作場景中,AI能自動篩選撰寫郵件、生成會議紀要、檢索跨系統資訊,成為高度定製化的第二大腦。將大眾的時間與精力徹底釋放到創造性事務上。影響三:頂尖專業服務走向普惠,隨時隨地呼叫專家智囊垂直行業大模型的崛起,讓原本昂貴且稀缺的醫療、法律等知識密集型服務變得觸手可及。比如在醫療健康場景,大眾在基層即可獲得媲美資深醫生的AI輔助診斷,比如螞蟻阿福等應用的出現,就是讓AI醫療變得觸手可及;在法律應用場景,普通人能以極低的成本獲取準確率極高的合同審查和文書起草服務。大模型實質上推動了頂尖專業資源的平權。影響四:大模型加速了認知鴻溝差距,認知平權尚未到來儘管大模型賦予了個體極大的生產力躍升,但在宏觀層面上,它沒有立刻帶來普惠的認知平權,而正以前所未有的速度加劇全新的不平等。不使用AI的人會有認知落後、被時代“遺棄”的風險。據統計,截至2026年初,全球80億人口中,約84%(68億人)壓根從未接觸過AI。真正使用過免費AI對話工具的人群僅佔16%(約13億人),而每月付費20美元深度使用AI的約1500-2500萬人,使用AI輔助程式設計工具僅約200-500萬人,這些先鋒群體其實目前仍佔比極低。這意味著,極少數率先掌握大模型工具的群體正在利用技術槓桿獲得幾何級數放大的競爭優勢,而絕大多數普通人目前仍被排斥在技術紅利之外。未來全社會的認知分化,將極大程度上取決於對AI工具的掌握與應用程度。影響五:全球用過大模型的人口不足20%,AI基礎設施處於爆發前夜當前大模型在普通大眾中的滲透階段,猶如30年前的網際網路。1995年,全球網民不到4000萬人,佔世界人口不到0.8%,而30年後網際網路已覆蓋全球超50億人。如今約有84%的全球人口尚未接觸AI,這預示著AI海嘯其實還是處於爆發前夜。隨著推理成本的持續下降和智能體的全面鋪開,大模型將迅速從少數人的先鋒工具演變為全民的底層基礎設施。對於普通大眾而言,儘早打破認知壁壘,主動跨入那使用AI的、付費深度使用、用AI創造價值的極少數人的行列中,是在這輪AI文明演進中避免被邊緣化、搶佔時代先機的唯一出路。2拆解AI大模型技術原理第一,我們看AI大模型到底在幹什麼?簡單說,大模型的本質,就是用電腦語言“預測下一個詞”出現的機率。機器的演算法和人類大腦極其相似。大模型通過海量閱讀,尋找特徵、計算條件機率,最後生成可能性最高的句子,並不斷通過反饋強化學習。它是在用電腦語言壓縮人類的邏輯,從而理解世界。從1955年開始,歷經統計語言、神經網路、深度學習等階段,直到2020年LLM大語言模型成型,參數量飆升,才讓人機對齊成為現實,AI最終能夠以大模型的方式實現初步普惠、走近普通人的生活。第二,我們看大模型的技術基石,為什麼是Transformer架構和GPT跑出來了?其實,2017年是全球AI真正的分水嶺,Google開放原始碼的Transformer架構徹底打下了今天大模型的江山。在這之前,AI界主要用CNN(擅長看圖)和RNN(擅長處理句子)。但老一代的RNN有個致命弱點:它必須按順序一個詞一個詞地讀,無法同時處理,效率極低。而Transformer的偉大之處在於它打破了順序的枷鎖,實現了“平行計算”:它能一口氣吞下整段文字,完美契合了GPU的大規模並行算力。正是從這一刻起,算力能夠高效轉化。為什麼說從GPT開始,大模型的商業邏輯閉環了?因為從GPT選擇的技術路線是只專注做一件事:永遠去預測下一個詞。這讓它的結構極其純粹,部署極快。更重要的是,在同等算力投入下,單向模型能把資源的投入產出比做到極致。第三,其實,AI大模型進入“ChatGPT時刻”的本質,就是量變引起了質變,機器突然擁有了“湧現(Emergence)”能力 。當模型參數量突破“百億”這個臨界點時,它不再是單純的死記硬背,而是突然展現出類似人類的推理和思維能力,精準度呈指數級飆升 。就像幼兒學說話,前期積累單詞,突然有一天不需要提示,就能說出極其複雜的長難句,這就是AI的湧現。這表現為“給個提示就能答對(上下文學習)”和“一步步邏輯推導(思維鏈)” 。雖然機理仍是“黑箱”,但這被視為機器邁向智能的前兆。第四,大模型過去幾年的信仰是“大力出奇蹟”,即Scaling Law。參數越大、資料越多、算力越強,大模型就越聰明 。但是現在已經遇到了兩大現實瓶頸。第一是木桶效應,大模型不能偏科。不能只砸錢買算力,沒有好資料喂養,模型性能就會停滯。參數、資料、算力必須按比例同步增長。第二是邊際效應遞減。性能達到高位後,再提升一點點,需要付出幾十倍的成本。比如推測GPT-5參數是GPT-4的六倍,Grok-3算力是上一代的十倍,但性能只是小幅提升。這說明“單純靠暴力堆算力”的路線快走到頭了。所以,我們要看未來大模型技術的兩大最佳化方向。3  大模型未來發展方向:演算法最佳化、感官進化當前AI大模型的演進正從單純的“算力競賽”轉向更深層的“架構革命”,核心突破體現在演算法效能與感官進化。一是在大模型演算法層面,行業正在經歷一場由“堆料”向“做減法”。過去,大模型極度依賴參數堆疊和算力擴張,但隨著邊際效益遞減,以DeepSeek為代表的演算法最佳化路徑打破了“唯算力論”。AI大模型正變得更輕巧、更廉價且更聰明。通過混合專家模型(MoE)實現計算資源的精準分配,利用多頭潛在注意力機制(MLA)對長文字資訊進行高倍壓縮,並輔以知識蒸餾技術將複雜智慧遷移至輕量化模型。這種變革的本質是利用演算法架構的創新來避險昂貴的算力成本,讓通用人工智慧的門檻從算力霸權回歸到效率邏輯。二是在感官層面,AI大模型的突破方向是多模態統一,打破文字、圖像、音訊、視訊的壁壘,實現多種資料的統一處理和理解,讓模型既能讀文字、看圖片,也能聽聲音、分析視訊。這種感知力的質變,讓AI徹底突破了文字框的限制,為具身智能、腦機介面等前沿場景提供了具備空間感知和動態預測能力的數字大腦。4全球主流AI大模型:格局分析截至2026年2月,大模型發展正經歷著從無序競爭到頭部集中的演變,市場格局更加穩定。全球主流大模型在應用特點與優勢上呈現出以下特徵:Google (Google/DeepMind):作為AI大模型基礎架構的絕對奠基者,其在2017年提出了Transformer架構與注意力機制。Google除了早期展現“湧現”能力的 PaLM 和 LaMDA,其當前的核心主力Gemini更是原生多模態領域的標竿。Gemini打破了單一文字限制,從底層實現了文字、圖像、音訊和視訊的融合處理;此外,它深度內嵌於Android生態與Google搜尋中,Gemini Live等模式在即時語音互動、長上下文理解以及跨應用資訊整合方面具有極強的應用落地優勢。同時,Google依託龐大的應用生態,日均處理呼叫量達數兆級,在推理端佔據主導地位。OpenAI (GPT系列):作為行業先驅,其最新一代GPT-5(參數量超10兆)在個性化互動、更強推理邏輯及程式設計能力上具有顯著優勢。其原生多模態模型GPT-4o的平均響應時長僅需320毫秒,與人類相當;同時,借助後訓練技術的GPT-o1在數學、程式碼等複雜推理任務上表現好。DeepSeek:率先轉向為演算法做減法,顛覆了“AI訓練必依賴強大算力”的認知。其代表模型DeepSeek V3 通過混合專家模型(MoE)、多頭潛在注意力機制(MLA)等技術,大幅降低了推理延遲、算力需求與落地成本。它在科研輔助領域獨樹一幟,在多項基準測試,如數學計算和程式碼編寫中表現優異。Anthropic (Claude系列):代表模型Claude-3.5-Sonnet在各項基礎測試中表現出色。其衍生的Claude Code在智能程式設計領域應用深入,能夠實現檔案分析、程式碼編輯等,可作為企業虛擬軟體團隊中的開發或測試Agent實現複雜項目的拆解與協同執行。xAI (Grok系列):作為馬斯克旗下的大模型,Grok的核心壁壘在於與X平台的深度繫結,擁有極強的即時熱點解析能力。最新一代Grok-3,在專業領域實現了進一步提升。其應用特點是處理即時新聞和輿情分析方面具有優勢。字節跳動 (豆包 & Seedance):憑藉Seedance 2.0在視訊生成等多模態領域成為行業標竿,其核心通用大模型豆包憑極高的響應速度和擬人化的語音互動體驗,牢牢佔據了國內C端市場頭部。它深度嵌入字節的內容生態,在個人效率提升和智能內容生成AIGC上具有極強的商業落地優勢。月之暗面 (Kimi):作為國內大模型的明星代表,Kimi在文書處理上的核心壁壘是超長上下文窗口技術。它在處理百萬字級超長文件解析、法律合同審查、財報深度分析以及複雜長程式碼閱讀時具有極高精準率,是知識密集型行業依賴的AI生產力工具。阿里巴巴 (通義千問 Qwen):代表開源模型Qwen2.5-72B在精準度測試中名列前茅。在應用端,阿里依託電商場景積累的海量資料,持續最佳化通義千問的商業應用能力,比如千問點外賣等場景。騰訊 (元寶):致力於打造“AI+社交”入口,將元寶大模型精準推向更多效率場景。Meta (Llama系列):其代表模型Llama-3.1-405B作為開源社區的重要力量,在推理與文字生成基準測試中保持著較高的精準度,為開發者提供了強大的基礎模型。5大模型未來五大趨勢通用智能的實現,將完全重構全球經濟分工體系、顛覆所有產業的商業模式,甚至重塑人類社會的底層邏輯。五大決定性的未來趨勢已顯現。趨勢一:AI超級應用爆發後,推理端算力需求將迎來指數級爆發,成為主導未來AI商業版圖的核心戰場。隨著AI應用從探索期進入全面落地期,從雲端到終端的龐大使用者群正以前所未有的高頻次呼叫大模型服務。微軟、Google等科技巨頭的日均Token處理量已躍升至數兆等級,遠超早期聊天機器人時代的計算量。AI算力需求的核心矛盾,正從早期的“模型訓練為主”迅速讓位於“實際落地推理優先”。未來以智能體AI Agent為代表的殺手級應用一旦大規模普及,消費級AI的日活使用者將輕鬆突破十億,佔據整個生成式AI市場70%以上的計算資源,大模型在推理端的算力消耗將呈幾何級數膨脹。趨勢二:後訓練將全面接棒預訓練,成為破局大模型演算法瓶頸的核心。過去幾年,單純依賴擴大參數、算力和資料的“預訓練尺度定律(Scaling Law)”正不可避免地撞上現實天花板。一方面,高品質的公共網際網路資料即將被消耗殆盡,資料獲取與人工標註的成本呈指數級攀升;另一方面,維持和新建超大規模算力叢集的資金壓力極大,底層硬體的物理極限也讓算力規模的無底線暴增難以為繼,行業重心必須向後期的精細化訓練轉移。如果說預訓練是廣撒網,讓大模型掌握基礎的通識能力(成為“通才”),那麼後訓練就是定向爆破,它聚焦特定任務與垂直場景,精準最佳化模型,讓大模型向頂尖的“專才”跨越 。傳統大模型在預訓練後雖具備了通識基礎,但在處理極端複雜的專業任務時常常捉襟見肘。比如在醫療領域,融合真實病例與醫學圖譜的後訓練模型大幅提升了診斷精度;在金融市場,吸收專有資料的模型展現出頂級的風控評估能力。目前的AI大模型精進法則,已從單一的預訓練維度,全面升級為“預訓練+後訓練+即時推理”。趨勢三:世界模型(World Models)將大規模落地,賦予AI理解真實物理規律的高級認知能力。現有大模型無論多麼驚豔,其本質依然是被動接受知識並進行統計機率上的相關性推理,擅長內容生成但缺乏真正的物理因果認知。而世界模型的核心理念則完全不同,它旨在讓AI像人類一樣主動探索、與真實物理環境互動,從而建構起內在的知識體系。它不再僅僅預測下一個詞(token),而是要預測下一個動作或物理狀態。融合多模態、記憶與控製器三大核心元件的世界模型,是實現無人駕駛和具身智能大爆發的關鍵。多模態模型負責壓縮和感知複雜的物理世界資訊,記憶模型負責掌握時間動態並進行未來預測,控製器則負責設定目標並指導機器人執行。這種擁有時空推理能力、甚至能脫離現實進行虛擬模擬的世界模型,研發門檻極高。目前,以特斯拉FSD系統、輝達Cosmos工業模擬為代表的架構已率先試水,預計2026年後,隨著物理AI裝置的普及,世界模型將迎來真正的爆發。趨勢四:全球大模型格局加速向頭部集中,中國AI力量將在馬太效應中確立全球引領地位。早年間“百模大戰”式的無序競爭已經徹底終結,市場篩選機制變得極其殘酷。海量使用者和企業對AI性能、安全與穩定性的苛刻要求,讓那些缺乏核心底層技術的初創模型迅速出局。在這個優勝劣汰的過程中,擁有頂尖研發人才、海量專有資料與充沛資金鏈的中國頭部廠商,成功跨越了技術壁壘,將國產大模型全面拉升至國際第一梯隊。中國科技巨頭與獨角獸企業正在各個細分與通用賽道上形成壓倒性的比較優勢。DeepSeek以極具顛覆性的演算法創新,在科研輔助與極低成本推理上獨樹一幟;字節跳動依託豆包、Seedance在視訊生成等多模態領域牢牢佔據行業標竿;阿里將海量電商消費資料反哺模型,將商業應用落地能力做到極致;騰訊則緊握“AI+社交”入口。這種從技術突破到使用者增長、再到資料反哺的正向循環,將進一步拉大強者與追趕者之間的差距。趨勢五:人機對齊與AI安全監管,將成為決定矽基文明能否平穩延續的紅線。當AI的智力遠超人類且具備高度自主執行能力時,如何確保它在複雜甚至極端環境中做出符合人類道德價值觀的判斷,是當下面臨的最棘手挑戰。由於機器底層缺乏對人類“公平、安全、道德”的天然感知,且訓練資料本身往往帶有網際網路固有的偏見與非理性動機,如果不加干預,高度自主的AI極易在黑箱中演化出不可預測的倫理災難甚至反人類傾向。解決AI道德困境與價值觀對齊,必須依賴企業級技術約束與全球主權政府的深度協同監管。人類社會本身的文化與道德框架就存在巨大差異,達成普世的AI行為準則絕非易事。明確演算法詮釋權與權責劃分,不僅是約束技術的韁繩,更是護航人類安全走向超人智能時代的文明底座。 (澤平宏觀)
靠“養龍蝦”造爆品,OpenClaw火遍海內外!
近一個月,出海圈被一隻“龍蝦”——OpenClaw,徹底刷屏了。現如今,“養龍蝦”不僅成為行業熱詞,更得到了地方政策的積極響應。深圳龍崗、無錫高新區均擬出台相關支援政策,鼓勵平台企業打造“龍蝦服務區”,為開發者免費提供OpenClaw部署服務。同時,兩地對相關項目擬給予高達數百萬元的扶持補貼,用真金白銀降低開發門檻。OpenClaw的出世,也直接改寫了2026年品牌出海的底層玩法,讓“一個人即可完成品牌出海”這件事,從概念真正落地成了現實。圖源:OpenClawOpenClaw是Peter Steinberger在2025年11月打造的開源自主AI智能體框架,核心就是要打破傳統聊天機器人的侷限,讓大語言模型跳出單純的對話圈子,真正能替使用者動手做事,實現AI從“能說”到“能做”的跨越。品牌方舟瞭解到,該項目一開始叫“Clawdbot”,直到2026年1月30日,它正式更名“OpenClaw”,便迎來了爆發式增長。到2026年3月,星標數量一舉突破25萬,一周內訪客量更是達到200萬。這增長速度,更是超過了Docker、Kubernetes、React等早已站穩腳跟的知名開放原始碼專案,成為GitHub上名副其實的黑馬。說到底,OpenClaw最亮眼的地方,就是讓AI真正落地幹活。它給了大語言模型自主處理各類數字任務的權限,不再侷限於“你問我答”的模式。不管是郵件管理、日程調度、網頁瀏覽、資料分析這些日常工作,還是操控終端命令、線上採購預訂,甚至連接智能家居遠端控制,它都能一手包辦,全程無需人工手動干預。圖源:The Verge這只龍蝦憑一己之力掀起AI智能體熱潮,但多數人只把它當成新玩具,殊不知已有玩家早早將其落地,用在品牌出海市場。對出海人來說,自動化營運一直是塊“硬骨頭”。多平台監控、繁瑣重複的工作容易讓人錯失良機,而OpenClaw恰好能解燃眉之急。它可24小時自主運行數字工作流,自動完成海外平台資料抓取、輿情整合分析,還能及時推送關鍵資訊告警。在全球化適配上,OpenClaw的表現同樣可圈可點。它支援多種海外溝通工具,能適配不同區域市場的營運需求,且不繫結單一AI模型,可靈活切換避免限流中斷,依託開源生態還能自訂場景化功能,適配出海的多元需求。而資料合規與資訊安全,更是OpenClaw的一個加分項。它支援本地部署,實現使用者資料“零出境”,規避合規風險。正是這種對出海場景的適配和高效賦能,讓OpenClaw在出海圈迅速積累了超高熱度。圖源:OpenClaw但OpenClaw的上限顯然不止於此,它本身就是用來開發項目的開源框架,普通使用只是它最基礎的用法。憑藉開源特性、模組化的技能體系和可自訂的核心架構,任何人都能基於它進行二次開發,甚至打造出屬於自己的獨立AI產品。2026年2月,就有一名韓國00後程式設計師憑一己之力,基於OpenClaw打造出了AI女友產品Clawra。這款產品有著完整的人生歷程和人設,使用者只要編輯配置檔案和技能程式碼,就能修改它的性格、背景故事和行為模式。也正因如此,Clawra一夜爆紅。這個案例也說明,OpenClaw的可塑性極強,它正在打破傳統開發產品的侷限,讓“一個人做可落地、可傳播、能實現全球化的AI出海產品”不再是天方夜譚。誠然,如上文所述,OpenClaw能為出海從業者解決的實際問題,遠超想像。但從整個行業來看,它帶來的最核心好處,主要體現在出海營運的人力效率和業務落地能力上。此前,AI在品牌出海中的應用,大多侷限於對話式互動,很難參與實際業務操作中,一直停在輔助溝通的層面上。而OpenClaw的出現,徹底改變了這一現狀,讓AI不再只停留在聊天層面,真正能動手處理業務,全面融入出海業務的每一個環節,成為推動品牌發展的核心力量。過去,很多出海營運工作需要多個人配合才能完成,現在一個人搭配OpenClaw,就能高效推進所有流程,既能大幅減少人力投入,還能提升工作效率。除此之外,OpenClaw輕量化、外掛化的特點,還能幫助出海品牌快速搭建適配全球市場的營運體系,打破企業規模帶來的發展限制,實現“小成本出海”,直接降低了中小品牌出海的門檻。圖源:OpenClaw這也給競爭激烈的出海市場,提供一條新的發展路徑。它幫助品牌跳出價格戰、流量戰的惡性競爭,轉而主動去開拓新的增量市場。畢竟,拉美、東歐、東南亞等小眾語種地區,曾因語言障礙大、本地化難度高,一直是多數出海品牌不願觸碰的“盲區”。而OpenClaw能針對性最佳化本地化服務,貼合本土市場的實際需求,讓品牌可以快速進入這些被忽視的小眾市場,通過差異化競爭立足市場。就連國內政府,也擬出台了OpenClaw相關政策。近日,深圳市龍崗區、無錫高新區先後推出“養龍蝦政策”,意在卡位OpenClaw開源智能體賽道,搶佔AI執行層產業先機。兩地皆通過免費部署、算力與資料補貼、辦公空間優惠等方式,幫助OpenClaw與OPC實現“零成本啟動”,進一步降低了相關開發與創業成本,賦能出海路。但在全民“養蝦”的熱潮下,我們也必須提高警惕,紅利背後,隱藏著不少風險問題。首先,OpenClaw的使用門檻過高,存在一定技術壁壘。普通使用者很難輕鬆上手,想要完成部署並高效使用,不僅需要基礎的AI認知和提示詞運用能力,還得掌握環境配置、框架部署、模型偵錯等專業操作技巧。圖源:The HackerNews即便成功投入使用,後期的效果最佳化、資料清洗處理,也對技術能力有較高要求,普通人很難獨立完成。也正因如此,很多自身缺乏技術能力的使用者,只能想辦法尋求外部幫助完成部署,這也給了不法分子可乘之機。所以,近期行業內還出現了不少針對OpenClaw使用者的詐騙手段。諸如,代裝服務導致帳號被盜刷、虛假收益宣傳誘導資金投入、惡意外掛導致資訊洩露等。這些亂象,也讓OpenClaw的出海應用多了一層隱患。其次,OpenClaw的實際使用成本並不低。其主要開銷集中在Token消耗上,輸入和輸出的內容都會按Token計費,長文字互動、多輪對話等場景會快速消耗Token。再加上硬體配置、後期維運、資料標註等隱性成本,整體投入並不少。再者,跨平台生態限制嚴重影響使用的靈活性。不同平台的資料、模型格式、介面互不相容,使用者在單一平台積累的對話記錄、微調資料,無法直接遷移到其他平台。而各平台的API限流、商用授權等規則限制,使用者很容易被繫結在單一生態中,難以自由實現跨平台部署和業務拓展。前段時間,Google就曾限制通過OpenClaw呼叫其AI服務的相關帳號,這也從側面印證了生態限制帶來的實際使用風險。除此之外,安全問題也不容忽視。2026年2月發生的ClawHavoc供應鏈投毒事件,導致超過1800個惡意技能被植入。圖源:atomicmail那些依賴OpenClaw管理店舖後台的出海賣家,其訂單、利潤、廣告等核心敏感資料,很容易被竊取和洩露,直接威脅到店舖的正常營運安全。儘管如此,在出海市場,OpenClaw帶來的意義仍然是不可替代的,它打破了中小品牌出海的諸多壁壘,為行業開闢了新的發展方向。而這場“養蝦熱”不僅帶動相關品牌走向海外,也意外加速了國內大模型的全球化佈局。由於OpenClaw本身不做模型訓練,僅作為模型分發與部署的核心樞紐,每次執行任務都會密集呼叫大型語言模型API,Token消耗量遠高於傳統對話式AI聊天機器人。而這種高消耗特性,恰好為國產大模型出海提供了重要機遇。基於此,Kimi、MiniMax等國產大模型紛紛佈局,推出本土雲端服務。其中,Kimi率先發力,成為首個深度整合OpenClaw並搭建專屬平台的國產大模型。通過OpenClaw,Kimi的海外收入成功反超國內市場,全球訪問量與模型呼叫量實現爆發式增長。而MiniMax也通過整合OpenClaw,搭建官方平台MaxClaw拓展海外市場。全球最大的第三方大模型聚合平台OpenRouter顯示,3月2日當周,MiniMax M2.5模型的周呼叫量達1.87兆Token,環比增長15%,成功登頂全球榜首。圖源:Maxclaw從整體資料看,中國大模型的出海實力已迎來質的飛躍,2月的Token呼叫量首次反超美國,MiniMax、Kimi、DeepSeek等中國模型持續霸榜。這波呼叫量的飆升,不僅印證了國產大模型的技術實力,中國AI技術的影響力在進一步加深,也預示著AI出海已進入實質性競爭階段。對於正佈局出海的玩家來說,2026年出海競爭模式已發生翻天覆地的變化,及時把握趨勢、順勢而為,更有利於在全球化競爭中搶佔先機。 (品牌方舟BrandArk)
AI爆發前夜:全球日均Token消耗量暴增300倍
你發現沒?最近關於AI泡沫的爭論,悄悄變少了。去年這時候,還到處是“AI泡沫”“炒概念”“沒場景”的聲音。可今年,大家好像突然閉嘴了。因為一組資料,實在太硬了——全球AI模型日均Token消耗量,過去一年漲了300倍。(Token就是AI理解語言時用的“小碎片”——你說的話、它回的話,都要拆成一個個Token來算,就像發簡訊按字數計費一樣。)不是30%,不是3倍,是300倍。01. 300倍,是個什麼概念?這麼說吧:如果把2025年初的AI呼叫量比作你家門口的小溪,那今天,它已經是長江了。你每一次用ChatGPT寫周報、用Midjourney做海報、用豆包查菜譜——都在給這條江加水。幾個數字,讓你感受下這水流有多猛:ChatGPT周活使用者破了8億——一年漲了200%多,相當於地球上每10個人裡就有1個在用企業級API呼叫量直接起飛——有朋友跟我說,他們公司去年每月AI帳單才幾千美金,現在奔著幾十萬去了開源模型下載量瘋漲——像Llama、Qwen這種開源模型,下載量直接翻5倍還不止資料不騙人:AI早就不是極客的玩具,它成了所有人的水電煤。02. 為什麼突然就爆了?三股風撞在一起,把火吹旺了。第一,能用的地方,太多了。最開始就是聊天解悶,現在呢?寫程式碼、剪視訊、做客服、查資料、畫圖、做PPT……你能想到的每一個數字角落,AI都在往裡鑽。每多一個場景,就多一批人離不開它。第二,它真的越來越聰明。GPT-4o、Claude 3.5、GLM-5……名字記不住沒關係,你只要知道:現在的模型,比去年靠譜太多了。你願意把更多活交給它,它幹得越好,你越願意用——這循環一旦轉起來,就停不下來。第三,它變便宜了。你看,我們用的量翻了300倍,可API單價反而跌到了去年的三分之一。便宜,就更捨得用;用得越多,攤得越薄——一個完美的正向螺旋。03. 產業鏈:訂單接到手軟上游那幫人,現在什麼狀態?就是:訂單排到明年,產線24小時連軸轉,做夢都在擴產能。華工科技:AI高速光模組訂單爆滿,全年無休,工人三班倒輝達:資料中心收入又雙叒創新高,H100/H200還是一卡難求台積電:CoWoS封裝產能拉滿,所有AI晶片產線全線飄紅,想插隊?沒門一個做晶片的朋友苦笑:“以前愁客戶,現在愁產能。這感覺,又爽又焦慮。”04. 說點實在的:這和你有什麼關係?我知道你可能在想:他們賺他們的,關我啥事?講真的,關係比你想像的大。如果你是程式設計師——AI程式設計現在就是硬通貨。我用Cursor寫程式碼,效率起碼是以前的3倍。你不會?那只能看著別人準時下班。如果你是營運、市場、產品——AI寫文案、做分析、一鍵生成PPT,這些技能正在重新定義“競爭力”。早一天用上,你就比別人多一雙手。那怕你只是個普通使用者——試試新出的AI工具,看看趨勢,跟朋友聊聊。不為別的,就為了時代轉彎的時候,你還站在車上,不是被甩下去。05. 寫在最後300倍的增長,不是終點,是起跑線。按照現在的勢頭,再翻10倍、100倍,可能也就兩三年的事。模型會更聰明,成本會更低,場景會更野——這趟車,只會越來越快。我們正站在AI爆發的前夜。唯一的問題是——你上車了嗎? (一帆智量)