#Ai市場
壓倒世界第一,這個比OpenAI更能增長、更會賺錢的“叛徒”是誰?
01單仁牛商有很多學員都是製造企業,在輔導他們的過程中,有一些企業家經常會問我:“我在自己領域做的很不錯了,我能不能不做供應商了呢?我有好的技術,好的產品,我難道不能自己去C端做個品牌,成為第一嗎?”如果你也有一樣的問題,那我們不妨想一想,當世界第一,成為大眾市場領導者的煩惱是什麼?我想應該是本以為可以一覽眾山小的時候,突然發現有位“熟悉”的後來者邁著更穩健的步伐,從另一條道路走向自己,甚至更高的地方走來。這一幕其實發生在很多領域,包括今天的AI。像我們熟悉的OpenAI,截至到2025年11月,ChatGPT佔據了生成式AI市場約61%的份額,是當之無愧的全球第一,2025年預計營收130億美元,也遙遙領先於所有競爭對手。然而,在AI包括我們眾多的市場當中,其實存在著兩個截然不同的平行世界。一個是大家熟知的屬於大眾C端、以流量為核心的消費者世界。另一個就是我們往往不熟悉的屬於B端、以效能為核心的企業世界。儘管OpenAI在C端維持著統治地位,但是,在B端乃至商業化上,OpenAI卻遠遠落後另一家企業,Anthropic。當然,如果你沒有聽過這家公司,你可以去問問一位程式設計師,你覺得程式設計最好用的AI是什麼?如果他告訴你是Cursor或者是Claude,那就沒錯了,它們的底層模型和架構都是由Anthropic開發的。在AI領域的B2B市場,Anthropic才是那個比OpenAI更亮眼,更穩健的領導者。所以,今天的單仁行,我們來看看賣鏟子的商業模式,跟賣門票的商業模式,到底有什麼區別?Anthropic是如何在2B市場取得了領先?02其實,這兩家公司非常有緣分,就像矽谷八叛徒一樣,Anthropic也可以當成是OpenAI的“叛徒”。因為它的創始團隊全部都是前OpenAI的核心員工,包括研究副總裁達里奧·阿莫迪,而他們的離開就是源於OpenAI內部對AI發展路徑的根本分歧。山姆·奧特曼認為,OpenAI要加速GPT模型的商業化部署,通過先發優勢搶佔大眾市場;而阿莫迪這一系認為要先解決AI的穩定和安全問題,它必須是建構AI系統的核心約束條件,不應該急著向大眾市場投放,而是要從專業領域逐步滲透。雙方談判無果後,阿莫迪在2021年帶著這一系出走成立了Anthropic,而山姆·奧特曼在第二年也就是2022年10月就向全世界發佈了ChatGPT。當然,我們無法去評判誰對誰錯,但是這種分歧就天然決定了兩家企業截然相反的商業模式和產品風格。OpenAI就像一位賣門票的聚合者,什麼意思呢?就像亞馬遜,它是平台商,幫助商家把貨賣給消費者,但它又是零售商,它自己也開店賣東西給消費者。OpenAI比亞馬遜更直接,它是“以供應為中心”把所有使用者都通過ChatGPT這個入口聚合起來,然後建立一個大商場,直接向終端使用者收費,並且,由自己來控制使用者體驗的每一個環節。所以,OpenAI就迫切的需要使用者注意力,它希望每個用AI的人都用自己。但是,Anthropic不一樣,它是一個賣鏟子的賦能者,什麼意思呢?它只想建立基礎設施,“以需求為中心”幫助其他企業挖掘使用者價值,終端使用者可能根本都不知道它的存在,但在實際使用的時候卻離不開它。舉個例子,就像我們熟悉的支付寶,我們要交易需要登陸支付寶的帳戶,使用支付寶的介面,包括我們在其他平台購物,如果要支付寶去結算,也要登陸支付寶的帳戶,實際上,支付寶已經成為了一個C端的品牌。而Anthropic不想當支付寶,它想當的是像Stripe這樣的支付處理商,也就是給其他企業打造支付解決方案,即使有2C的能力,但它不干具體的應用,不面向終端使用者。03那麼,這兩種商業模式上的區別,帶來了什麼不同呢?OpenAI今天73%的收入來自使用者訂閱,只有27%來自API和企業級服務。我們知道AI應用在今天普遍面臨一個最大的問題,那就是普通人用不到。不管是在中國,還是國外,普通使用者在付費訂閱一個月後就會滿足好奇心取消付費,使用免費模型,它的續費流失率高達90%。而且,一般使用者跟AI的交流通常是低價值的閒聊,但它的推理成本卻一樣高,根據統計,OpenAI每賺1美元,就需要花費0.75-0.85美元用在計算和人力成本上。再加上OpenAI需要不斷投入巨額行銷費用和算力來獲取新使用者,還要推出語音模式、圖像生成(DALL-E 3)和視訊生成(Sora)功能來提升使用者的持續復購。所以,OpenAI拿到130億美元收入的另一面,是預計2025年虧損超過140億美元,同時,他們把盈虧平衡點推遲到了2030年。根據匯豐預測,OpenAI想要維持到2030年,至少有2070億美元的融資缺口。這就是OpenAI為了成為AI終端市場第一,要付出的代價。而Anthropic的業務中,有85%的收入都來自企業客戶和API呼叫。他們從一開始就把目標使用者定位在了專業領域的企業客戶,並且瞄準了企業客戶最核心的痛點:可控性、隱私安全和複雜邏輯推理的穩定性。Anthropic沒有去做通用大模型,而是獨創了一套“憲法AI”技術,通過預設原則來訓練模型,而不是依賴人類互動的反饋強化學習。同時,他們給企業開放審計介面,根據企業需求來定製原則,所以,他們的模型從一開始就不存在幻覺。像程式碼就是無法容忍AI的幻覺,要麼就運行成功,要麼就報錯,沒有中間地帶,而在AI程式設計市場,Anthropic的市場份額達到了42%。同時,Anthropic把大量的資源和技術都投入到幫助企業去訓練專業模型上,像全球最大的避險基金橋水就是Anthropic的客戶,核心原因就是他們能夠確保AI在嚴格的合規範圍內運行,只回答專業領域的專業問題。所以,企業客戶一旦把Anthropic整合到自己內部知識庫、客戶系統和程式碼開發中,替換的成本就無限高。更重要的是,隨著企業擴大使用範圍,從一個部門擴展到全公司,現有客戶的收入會自然增長,淨收入留存率(NDR)就超過了100%。在2024年初,OpenAI的收入規模是Anthropic的15倍,但到了2024年底,這個差距縮小到了5倍,而在今年8月份,Anthropic的收入已經達到了OpenAI的一半,並且,這個收入比OpenAI要穩定的多,也就是純利要高得多。04我想,對很多企業來說,成為大眾市場的領導者當然很美好,但它的風險也是極其高的,就像OpenAI向我們展示了AI的魔力,通過C端應用的爆發式增長喚醒了世界,但自己也陷入了高流失、高成本和缺乏明確2C商業模式的困境。所以,真正想要持續、穩定的增長,就要像Anthropic一樣弄清楚如何去賺錢。不是向所有遊客兜售門票,而是向那些礦業公司出售鎬和鏟子,而且是符合他們特定的標準、能夠不斷進步的鎬和鏟子。 (單仁行)
AI巨龍甦醒:Google有那些被忽視的技術武器與商業底牌?
在AI時代,我們所熟悉的公司都有它自身的獨特優勢,比如:輝達:GPU + 開發者平台微軟: 雲端運算OpenAI: 大語言模型但,有那麼一家公司同時擁有這3者:雲 + TPU + 大模型。不僅如此,它還壟斷了網際網路上絕大部分廣告業務。這家公司就是從沉睡中覺醒的“獅子”——Google。在上幾期的分享中(連結在文末),討論了Google崛起的歷史。本期,我們將邁入Google的AI時代,瞭解它的前世今生,探討改變世界的AI技術是如何誕生在Google?以及為什麼它們並沒有最先商業化?(註:本文1.3萬字,閱讀時長約40分鐘)Ben:想像一下你有一家盈利的公司,每條業務線都能產生巨大的利潤,而且你所在的市場也同樣巨大,可以說是全球最大的市場之一。但更幸運的是,你還是這個巨大市場中的壟斷者,市佔率90%,而且使用者鎖定效應很強。David:當你說壟斷,是按照美國政府的定義嗎?Ben:沒錯。但再想像這樣一件事:在你的研究實驗室裡,你那些才華橫溢的科學家搞出了一項發明。這項發明再加上其他天才科學家此前的一大堆發明,組合起來居然能做出一個在大多數用途上都比你現有產品好得多的新產品。於是你應該基於這項新發明推出了新產品。David:對。Ben:尤其是因為出於純粹的“善意”,你的科學家們已經發表論文,介紹這項新發明有多棒,而且此前的很多發明也都發了論文。所以,現在有新的初創競爭者迅速把這項發明商業化了。那麼當然,David,你會把你的整個產品線都改成基於這個新東西,對吧?David:呃,這聽起來像電影。Ben:但問題來了。也許你不應該推出那個新產品。David,這對我來說像是一個相當典型的兩難困境。這說的當然是今天的Google。在也許是最經典的“創新者的窘境”教科書案例中,我們當下身處的整場AI革命,是由2017年GoogleBrain團隊發明Transformer所奠定的。想想OpenAI和ChatGPT、Anthropic、輝達股價創歷史新高,如今所有這些瘋狂的事情都依賴於Google在2017年發表的那一篇研究論文。而且不光如此。十年前,Google擁有全世界最密集的AI人才陣容,促成了這次突破;而今天,他們幾乎擁有你能想像到的最佳資產組合。他們有頂級的大模型Gemini;他們不需要依賴公共雲來託管模型,而是有自己的Google Cloud,如今營收已經達到500億美元,具有真正的規模;他們還是一家晶片公司,擁有自家的TPU(張量處理器),除了輝達GPU之外,全球只有這一套AI晶片在真正大規模部署。也許AMD也算一點,但這兩家肯定是最頂的。有人在採訪裡對我說,如果你沒有一個基礎的前沿大模型,或者沒有一款AI晶片,你可能在AI市場裡就只是大宗商品。而Google是唯一兩者兼備的公司。David:Google目前依然有誇張強悍的人才儲備。Ben:儘管ChatGPT已經有點成了這個時代的“克林克斯”(紙巾代名詞),但Google仍然掌控著那個“文字框”——那個在絕大多數人任何時候只要想在網上搜點什麼都要用到的網際網路大門口。但問題依然是:Google在戰略上該怎麼做?他們是否應該孤注一擲,靠著自己的“嫡長子繼承權”去贏下AI?還是為了保護搜尋帶來的海量利潤而束手束腳,讓AI浪潮從身邊掠過?或許我們首先要回答的問題是:Google是怎麼走到今天這一步的?如果把時間撥回到今天的10年前,在Transformer論文發表之前,以下所有這些人(我們之前也談到過)都是Google員工:Ilya Sutskever,OpenAI的創始首席科學家,他與Geoff Hinton(辛頓)和Alex Krizhevsky在AlexNet上做出了奠基性工作,幾年前剛剛發表。Dario Amodei,Anthropic的創始人;Andrej Karpathy,直到最近都是特斯拉的首席科學家;Andrew Ng;Sebastian Thrun;Nam Shazeer。DeepMind的所有人:Demis Hassabis、Shane Legg、Mustafa Suleyman——Mustafa如今除了曾是DeepMind的創始人外,還在微軟負責AI。基本上,AI領域所有有名有姓的人都在Google工作過,唯一的例外是Yann LeCun(楊立昆),他在Facebook工作。David:是啊,現在很難去追溯一家大的AI實驗室,而不會發現它的起源故事裡有Google。Ben:對,這個類比就像在電腦時代曙光之際,有一家像IBM這樣的公司把所有會寫程式碼的人都雇了。於是如果別人想寫個程序,哦,對不起,做不了。因為,所有會程式設計的人都在IBM。而,2010年代中期的AI領域,Google就是這樣的存在。不過,學會程式設計相對容易;但是,想要成為一名AI研究者就難太多了。這是非常特定的博士項目才能做的事情,導師群體很有限,而且領域內部對研究方向有很多內鬥:什麼是正統、什麼是異端幾乎到了宗教之爭的地步。那麼Google怎麼走到這一步的?這要回到公司創立之初。拉里·佩奇一直把Google看成一家人工智慧公司。事實上,拉里的父親就是電腦科學教授,在密歇根大學拿的博士,研究方向是機器學習和人工智慧,那在當年電腦科學裡並不熱門。David:對。很多人認為專攻AI是在浪費時間,因為三十年前的一些大理論到了那個時期都被證明靠不住,或者至少大家覺得被推翻了。所以拉里父親把一生和事業都押在AI上,是一個相當逆向的決定。Ben:這也影響了拉里。如果你眯著眼看,Google的基石演算法PageRank就是一種統計方法,從電腦科學的分類看,它可以算作AI的一部分。而拉里當然一直有更大的夢想。我們之前在節目裡引用過他2000年的一句話——也就是Google成立兩年後——拉里說,人工智慧將是Google的終極版本。如果我們有一個終極搜尋引擎,它會理解整個網路,它會精準理解你想要什麼,然後給你正確的東西。這顯然就是人工智慧。我們現在離那還差得遠。不過,我們可以逐步接近,而這基本上就是我們在這裡所做的。Google一直就是一家AI公司。那是在2000年。當年晚些時候或2001年初,Google工程師Gor Heric和Ben Gomes(後來領導搜尋)以及一個相對新入職的工程師Gnome Shazir聊天,三個人吃飯時,George隨口說起他讀博時的一個理論:資料壓縮在技術上其實等價於理解資料。Gor是Google前10號員工之一,非常厲害的工程師。就像拉里父親一樣,他在密歇根大學的博士是機器學習。即使在他就讀的時候,這在電腦科學裡還是相當少見而逆向的分支。思路是這樣的:如果你能把某段資訊變小,存起來,然後在之後把它恢復成原始形態,那麼唯一可能做到這件事的方式就是作用於資料的那個“力”真的理解資料的含義。因為你在壓縮時丟失了資訊,然後還能重建回來。就像你在學校,讀了一本很長的教科書,把資訊存進記憶,然後考試時看你是否真的理解了材料。如果你能重建那些概念,那就說明你真正理解了。David:這有點預示了今天的大型語言模型是在把全世界的知識壓縮到若干TB裡,變成一個被壓得扁扁的小向量集合。Ben:相對於全世界的資訊量來說當然“小”。但就是這個思路:你能把世界的資訊存進一個AI模型裡,形式很難理解、幾乎不可解釋;但當你“解壓”時,便可以把知識大致還原。David:是的。Ben:這些模型能體現“理解”,對吧?David:它們真的懂嗎?Ben:這是問題。它們當然在模仿“理解”。David:這段對話正在發生……Ben:你知道的,這已是25年前的事了。新來的那位年輕人Gnome愣住了,說:“哇,如果這是真的,那太深刻了。”David:這是在Google的茶水間裡嗎?Ben:他們在吃午飯。David:你從那看到這個的?Ben:在《In the Plex》裡。Steven Levy寫的那本關於Google的好書,我們講Google系列都頻繁參考它。裡頭有一小段關於這個的描寫,因為這本書在ChatGPT和AI大熱之前出版。所以Gnome就“黏”上了George,圍繞這個想法一直碰撞。接下來幾個月,這兩個人決定用最“Googly”的方式:他們停下手頭一切活,去研究這個點——語言模型、資料壓縮,看看是否能用資料生成機器“理解”,如果能做到,對Google就很有用。我覺得這也恰好趕上了2001年那段時間拉里把工程組織的所有經理都開了,於是大家都在干自己想幹的事。David:有意思。書裡還有一段Gor的名言。Ben:很多人覺得讓我們倆(指Gnome和他)把才華用在這上面是個很糟的主意,但Sanjay Ghemawat——當然就是Jeff Dean出名的編碼搭檔——覺得這很酷。於是George就對任何懷疑者說:Sanjay覺得這是個好主意,而世界上沒人比Sanjay更聰明。所以,為什麼我們要接受你“這是個壞主意”的看法呢?總之,這把Gnome和George帶進了自然語言的機率模型兔子洞。意思是:對於網際網路上出現的任何一個詞序列,另一個特定詞序列跟在後面的機率是多少?今天瞭解LLM的人聽起來應該很熟悉。David:哦,就像下一個詞預測。Ben:或者如果推廣一點,就是下一個token預測。David:對。所以他們用這項工作做的第一件事,就是在Google搜尋裡做“你是不是要找:Did you mean”拼寫糾錯。哦,原來是從這出來的。Ben:對,Gnome做的。David:這對Google太重要了,因為當你把查詢打錯然後不得不再打一遍時,使用者體驗很差。Ben:而且這也會攻擊Google的基礎設施:每次拼錯的查詢發出去,系統都要去處理並返回結果,而這些結果是沒用的,很快就被新查詢覆蓋。這個問題又非常聚焦:比如有80%的機率,使用者打“god groomer”其實是想找“dog groomer”,然後他們會重打。若我們很有信心,就乾脆直接幫他改正,再給他一個退出選項,而不是讓他選擇“啟用”。這是一個很棒的特性,也是這個方向的很好首次用例。於是他們拿下這波勝利,繼續做,最後他們做了一個相當大的——對當時來說的“大”——語言模型,暱稱“Phil”,全稱是“probabilistic hierarchical inferential learner”(機率分層推理學習器)。David:這些AI研究者最愛造首字母縮略詞的諧音梗。Ben:快進到2003年,Susan Wojcicki和Jeff Dean在準備上線AdSense。他們需要一種方法去理解第三方網頁(出版商頁面)的內容,好把Google的廣告語料庫投放上去。Phil就是他們用的工具。我之前完全不知道語言模型參與了這個。於是Jeff Dean把Phil借來,在一周之內就寫出了AdSense。然後,砰——AdSense。這幾乎是一夜之間給Google帶來數十億美元新收入,因為就是同一套廣告語料、同一批AdWords搜尋廣告,現在能投在第三方網站上了。他們一下子把系統裡已有廣告的庫存擴張到巨量。好吧,這時候我們得停一下,來點“Jeff Dean Facts”。整集裡他都是那條貫穿線:Google怎麼做到的?Jeff Dean怎麼就周末回家重寫了一個巨型分佈式系統,順手把Google所有問題都解決了?在“查克·諾裡斯段子”流行的時候,Google內部也流行“Jeff Dean段子”。我最喜歡的一條是:真空中的光速原本大約是每小時35英里,然後Jeff Dean花了一個周末最佳化了物理。所以,語言模型確實有效,確實能為Google帶來巨大價值,並且它們非常漂亮地契合了Google“組織全世界資訊並讓其普遍可及且有用”的使命:如果你能理解世界資訊、把它壓縮,然後再重建,這就對上了。在 2000年代中期,Phil佔用了Google整個資料中心基礎設施的15%,我猜很大一部分是AdSense廣告投放,還有“Did you mean”和公司內部開始用它做的其他東西。好,現在來到2007年——對我們故事來說非常非常重要的一年。Google剛剛發佈了Google Translate。這是Google那些偉大產品密集出現的時代:地圖、Gmail、Docs,隨後還有Chrome和Android。他們有一段長達10年的輝煌期,除了搜尋,基本把你今天熟悉的所有Google產品都在那10年裡發佈了。然後在那之後大約10年(從2013年開始),他們基本沒再發佈你聽說過的新產品,直到我們來到Gemini,這是很有意思的現象。但2003到2013這段時間就是一波接一波的爆款。其中一個就是Google Translate。也許使用者規模或對世界的影響不如Gmail或地圖,但仍是一個神奇的產品。Translate的首席架構師是另一位機器學習博士,名叫Franz O。Franz的背景是NLP和機器學習,他在德國拿的博士。於是Google和Franz把他引入,Franz打造了一個更大的語言模型,在當年的DARPA挑戰賽中橫掃對手(這是2006或2007年)。他拿到了當時天文數字的BLEU分數(BLEU:用於評估機器翻譯質量的演算法標竿),遠超其他一切。Jeff Dean聽說了Franz和翻譯團隊的工作,說太棒了。這個模型裡“gram”是指詞的n元組,在Google搜尋索引的兩兆詞語料上訓練。東西大到翻譯一句話需要12個小時。所以DARPA這次比賽的規則是:周一給你一組句子,你必須在周五之前提交機器翻譯的結果。David:伺服器有大把時間可以跑。Ben:他們想的是:“好,我們從周一到周五有若干小時。用儘可能多的算力翻完這幾句就行了。學會規則並利用它。”於是作為“工程界的查克·諾裡斯”,Jeff說,把程式碼給我看看。Jeff空降到翻譯團隊,和他們一起幹了幾個月。他把演算法重構成平行地處理詞和句子,而不是順序處理。因為當你翻譯一個句子集合或一個句子中的詞時,不一定要按順序來。你可以把問題拆成若幹部分,獨立處理,可以平行化。David:當然你不會得到完美的翻譯。Ben:但是想像你只是逐詞翻譯——至少可以同時把每個詞都翻了,再把句子拼回去,基本能明白原意。而且Jeff太清楚了,因為是他和Sanjay、Zhozha一起搭了Google的基礎設施,那是極度可平行、分佈式的。你可以把負載拆成小塊,扔到Google各個資料中心裡,最後重組,把結果返還給使用者。David:他們是在全世界範圍內把CPU工作負載跨多個資料中心平行化做得最好的公司。Ben:我們還在說CPU哦。Jeff和團隊的工作成果是,把平均單句翻譯時間從12小時降到了100毫秒。然後,他們就把它上線Google Translate。效果很驚人。David:這聽起來像一條“Jeff Dean段子”。Ben:是啊,曾經要12小時,Jeff花了幾個月,現在100毫秒。所以這是第一個在Google產品裡生產級使用的“大”語言模型。他們看到效果這麼好,就想,嗯,也許我們可以把它用於其他事情,比如輸入時的搜尋詞預測;當然也別忘了Google的皇冠明珠:廣告質量分(AdWords的ad quality)其實就是對給定廣告文案的點選率預測。你很容易看出,一個擅長攝取資訊、理解並據此做預測的“大模型”,對計算廣告質量會非常有用——這直接關聯Google的利潤底線。語言模型線這邊很棒。我剛說2007年是個大年。也是在2007年,幾位電腦科學教授在Google園區的“宿命交匯”開始了。2007年4月,拉里·佩奇邀請史丹佛的Sebastian Thrun來Google,先是兼職,隨後全職,做機器學習的應用。Sebastian是史丹佛SAIL(人工智慧實驗室)的負責人。這個傳奇實驗室在上世紀六七十年代AI第一波浪潮中大放異彩——那時拉里的父親也活躍在該領域;實驗室後來曾關閉一段時間,在2000年代初復興,Sebastian成了負責人。有個關於Sebastian的趣事:他怎麼來Google的?他也跟我們聊過,我之前不知道這幾乎是一次“人才併購”。他和一些(好像是)研究生正要創業,拿到了Benchmark和紅杉的term sheet。然後拉里來了,說:“要不我們就用獎金的方式,在公司成立之前就把你們‘收購’了?”對他們來說,這可能是個非常明智的決定。SAIL不僅擁有世界上最厲害的教授和博士AI研究者,還有一條史丹佛本科生“人才流”,在讀本科時就能進去做研究(CS、Symbolic Systems之類專業的學生)。其中一位後來是Meta的首席產品官Chris Cox,他就是這麼入門AI的。當然Facebook/Meta等會也要在故事裡回歸。在Sebastian在任時,還有另一位在SAIL呆過的大一/大二本科生,後來從史丹佛輟學去創業,參加了2005年夏天YC的第一期。時間來到2007年4月,Sebastian從SAIL來到Google。接下來幾個月,他做的第一批事之一是Google Maps的Ground Truth項目,基本上就是重造Google Maps的底層資料。在Ground Truth之前,Maps產品已經存在,但底圖資料要從Tele Atlas買。David:我記得當時有兩家。Ben:是的,雙寡頭。另一家是Navteq(Navtech)。David:這是一套大家都用的、質量不怎麼樣的地圖真源資料。你也很難比別人做得更好,因為大家都用同一套資料。Ben:質量不高還很貴。Tele Atlas和Navteq都是市值數十億美元的公司,我記得可能有一家或兩家都曾經上市,後來被收購,總之營收很高。而Sebastian的第一個大項目就是Street View(街景)。主要用自家街景的照片重建Tele Atlas的資料。他們也引入了其他資料,比如人口普查等,一共用了四十多個資料來源,把它們融合在一起。Ground Truth是一個非常宏大的工程,從零開始做一套新地圖。David:尤其是當你雇了一千名印度員工幫你篩查資料差異,實際上把地圖手動畫出來的時候。Ben:對,那時AI自動化還不多。所以在Ground Truth大獲成功的基礎上,Sebastian開始遊說拉里和謝爾蓋:我們應該多做這種事。比如把AI教授、學者請進Google,兼職也行,不一定要他們全職,讓他們保留學術職位,同時來這裡參與我們的產品項目。他告訴兩位創始人:教授們的工作能被數以億計的使用者使用;我們付他們錢、給他們Google股票、他們還能繼續當教授。如你所料,拉里和謝爾蓋說:“好主意,干,多來點。”於是2007年12月,Sebastian請來了一位來自多倫多大學、當時相對小有名氣的機器學習教授Geoff Hinton(傑佛瑞·辛頓)到Google做技術演講,還不是聘用,只是來給大家講講他們在做的“用神經網路開闢新路”的研究。傑佛瑞·辛頓——如果有人還不熟這個名字——如今被稱為“神經網路之父”,也可以說是現代AI整體方向的“教父”。David:在那個時候,他還是“邊緣學者”。神經網路當時不是AI裡被尊敬的分支。Ben:對,完全不是。部分原因是三四十年前圍繞神經網路有一波炒作,但沒有兌現。於是大家把它當成被“證偽”的東西,至少是冷門。David:你還記得我們輝達那幾期裡我最喜歡的Hinton冷知識嗎?Ben:他曾祖父是George Boole。他是George和Mary Boole的玄孫,Boolean代數和Boolean邏輯的發明者。這就很有意思了,因為那是符號邏輯、確定性電腦科學邏輯的基礎。而神經網路的搞笑之處在於,它不是符號AI,不是那種“我給你具體規則,然後你沿著一棵巨大的if-then樹走”。它是非確定性的,恰恰是那個領域的反面。David:這再次強調了這支機器學習/電腦科學分支在當時有多“異端”。正如你之前說的,神經網路不是新點子,理論上前景巨大,但實踐上算力太不夠,沒法做多層。那時,一個電腦神經網路最多隻能有一層或個位數層。而Geoff和他的前博士後Yann LeCun開始在社區里布道:嘿,如果我們能搞出多層、深層神經網路,也就是“深度學習”,就能兌現承諾。不是思路不對,而是實現需要海量算力,去做層層傳遞時的乘法運算,去檢測、理解、儲存模式。如果我們真的能做到,一個大型多層神經網路會非常有價值,甚至能跑起來。Ben:來到2007年,中後期。摩爾定律讓算力增長到足以開始驗證這些理論。於是Geoff來Google做了這場演講。Google的職員,Sebastian、Jeff Dean和我們提到的其他人都非常興奮,因為他們已經在翻譯和語言模型裡做了類似的事情——雖然不是用Geoff的深度神經網路。這裡出現了一個全新的架構思路:如果能跑起來,會讓他們的模型更好地工作、識別更複雜的模式、把資料理解得更深入。非常有前景。David:當然,這一切當時都還只是“理論上”。Ben:Sebastian在這次演講後,把Geoff Hinton帶進了Google,先是顧問,接下來幾年,這件事更有意思:後來Geoff從技術上講成為了Google“實習生”。這是他們繞過兼職/全職政策的方式。(PS:他主要職業是在大學任教)2011或2012年某個夏天,他在Google當了“實習生”。注意這時他大概60歲了。接下來的幾年裡,Sebastian把機器學習學者引進Google、讓他們保留學術職位的模式進行得非常順利。到2009年末,Sebastian、拉里和謝爾蓋決定:我們干脆在Google內部單獨起一個新部門,於是有了Google X“登月工廠”。Google X的第一個項目由Sebastian親自帶隊。我先不說它的名字,稍後會回到它。但對我們的故事至關重要的,是第二個項目,不僅關乎我們這一集,更關乎全世界——它改變了整個AI世界。這個項目叫Google Brain。當Sebastian離開史丹佛全職加入Google後,當然得有人接手SAIL。接手的是另一位電腦科學教授、才華橫溢的人,Andrew Ng。David:這真是“AI全明星”一集。Ben:對,全是AI大咖。那麼Sebastian做了什麼?他把Andrew招來做兼職,每周在Google園區待一天。這恰好跟X的啟動和Sebastian把這個部門正式化的時間點重合。於是2010或2011年的某一天,Andrew來Google“上一天班”,碰到了誰?Jeff Dean。Jeff向Andrew講他和Franz在語言模型上的工作,和Geoff Hinton在深度學習上的推進。當然,Andrew都知道。Andrew也在講他和SAIL在史丹佛做的研究。然後他們決定:也許時機到了,可以在Google內部來一次真正的大跨步,基於Geoff Hinton講的路線,在Google高度可平行的基礎設施上,建一個巨大的深度神經網路模型。要強調一下,Google之前試過兩次,都沒成功。他們試了一個叫“Brains on Borg”的東西(Borg是Google內部用來跑基礎設施的系統),還試了“Cortex”項目,但都沒起來。所以在Google研究組裡,對“大規模神經網路到底能不能在Google基礎設施上跑”是有些疤痕記憶的。於是Andrew Ng和Jeff Dean把Greg Corrado拉進來,他是神經科學博士,出色的研究員,已在Google工作。資訊流公司搶先一步邁入“AI時代”2011年,他們三人啟動了X裡的第二個正式項目,十分貼切地命名為Google Brain。三人開始動手,搭建一個非常非常大的深度神經網路模型。要做這個,你需要一套能跑它的系統。Google擅長把前沿研究“系統化工程化”,讓它真正在生產環境跑起來。Jeff在做這套基礎設施系統,他決定把它命名為“Dist Belief”,既是“分佈式”的諧音,也暗含“懷疑、不信”。因為幾乎沒人相信它能工作。業內大多數人不信,Google內部大多數人也不信。當時的研究都指出,你需要“同步式”的——也就是在一台機器上以很高的平行度進行計算,就像GPU那樣;最好所有計算都在一個地方發生,這樣你在邁出下一步前很容易查到系統裡其他部分的最新計算值。Jeff寫的Dist Belief恰恰相反:它分佈在一大堆CPU核上,可能跨一個資料中心,甚至不同的資料中心。理論上,這很糟,因為這意味著每台機器都要不停地等其他機器同步參數,才能繼續往下算。但Dist Belief實際上以“非同步”方式工作,不去糾結是否拿到了其他核的最新參數。也就是說你在用“過期的資料”更新參數。照理說這應該不行,但瘋狂的是——它能行。Dist Belief有了,接下來幹啥?做研究試試看能不能用上它。於是他們在2011年底發表一篇論文,標題先報一下:《Building high-level features using large-scale unsupervised learning》(用大規模無監督學習建構高層特徵),但大家都叫它“貓論文”。David:“貓論文”?Ben:你去問Google或AI圈裡任何人,他們都會說“哦,對,貓論文”。他們訓練了一個有9層的大型神經網路,用的是YouTube視訊裡的無標籤幀,目標是識別“貓”,用了1,000台機器上的16,000個CPU核心。之後他們又在TGIF上介紹了“貓論文”的結果。你去問Google的人,他們會說:“那次TGIF,天啊,一切都變了。”它證明了大型神經網路在無監督、無標籤資料的情況下,可以學到有意義的模式。不僅如此,它還能在Google自建的分佈式系統上跑起來。這是巨大的進步。Google有龐大的基礎設施資產。我們能否把研究者提出的這個理論電腦科學思路,借助Dist Belief在我們的系統上跑起來?答案是:能。這項驚人的技術成就,帶來的深遠影響,不僅僅是其商業成就。我覺得不誇張地說,“貓論文”在接下來的十年裡,為Google、Facebook、字節跳動帶來了數千億美元的營收。David:這就是資料裡的識別模式。Ben:當時YouTube有個大問題:使用者會不斷上傳視訊,量巨大,但使用者非常不擅長描述自己視訊裡有什麼。YouTube正試圖變成“目的地網站”,讓大家看更多視訊,打造資訊流,提高停留時長。然而推薦系統要決定“喂什麼”,只能看使用者給視訊寫的標題和描述。無論是你在搜尋視訊,還是平台要挑下一個推薦,它都需要知道視訊裡是什麼。“貓論文”證明了,你可以用這項技術——跑在Dist Belief上的深度神經網路——去深入理解YouTube視訊庫裡的視訊內容,然後再用這些資料決定要給使用者推薦什麼視訊。David:如果你能回答“有貓/無貓”,你也能回答很多更多的問題。Ben:這是Jeff Dean的一段話:“我們建構了一套系統,通過模型和資料的平行化,使我們能訓練非常大的神經網路。我們在隨機選取的1000萬張YouTube幀上做了無監督學習。它會基於嘗試用高層表徵來重構幀,從而建構無監督的表徵。我們讓它在2000台機器、16000個核心上訓練。沒過多久,模型在最高層會形成一種表徵:某個神經元會對貓的圖像興奮。”它從來沒被告知什麼是貓,但它在訓練資料裡看到了足夠多“貓臉正面”的樣本,於是那個神經元會對“貓”觸發,而對其他大多數東西不會觸發。這就是無標籤資料、無監督學習裡最瘋狂的部分——系統在從未被明確告知“什麼是貓”的情況下學會了“貓”,而且還出現了“貓神經元”。於是之後就有“iPhone神經元”“舊金山巨人隊神經元”,以及YouTube用來推薦的一切特徵……David:更別提識別版權、以及幫助版權方的分成了。Ben:對,這引向了YouTube的一切。基本上把YouTube放上了通往今天的道路——成為網際網路上最大的內容平台和地球上最大的媒體公司。“貓論文”開啟了2012年到2022年11月30(ChatGPT發佈)的新紀元:AI已經在塑造我們的生活,並帶來數千億美元的收入。它先是在YouTube的資訊流裡,然後被Facebook借鑑。他們挖來了Yann LeCun,創立了FAIR,再帶到Instagram;接著TikTok和字節跳動拿去做,後來又通過Reels和Shorts“回流”到Facebook和YouTube。David:這是我最喜歡的“David Rosenthal主義”。Ben:公眾喜歡把2022年以後叫“AI時代”。事實上,對任何能好好利用推薦和分類系統的公司而言,“AI時代”是從2012年開始的。David:的確,AI時代始於2012年,其中一部分就是“貓論文”。Google買下辛頓的DNN Research 公司Ben:另一部分是黃仁勳在輝達口中的AI“宇宙大霹靂時刻”——AlexNet。我們之前說到Geoff Hinton在多倫多大學。在這段時間他有兩個研究生:Alex Krizhevsky和Ilya Sutskever(後來是OpenAI的聯合創始人兼首席科學家)。三人計畫用Geoff的深度神經網路思路和演算法,去參加電腦視覺領域著名的ImageNet競賽。這是史丹佛的Fei-Fei Li(李飛飛)主導的年度機器視覺演算法競賽。它的競賽規則是:李飛飛收集了一個1400萬張圖片的資料庫,已經有人對這些圖片全部打好了標籤。那個團隊,在不看標籤的前提下,能寫出演算法,僅憑圖片,識別的正確最多(精準率最高)。2012年的比賽結果是,AlexNet橫空出世。它的錯誤率是15%。儘管還是偏高,但從此前25%錯誤率到15%,一年之內下降10個百分點,這在此之前從未發生過。David:比第二名好40%。Ben: Geoff、Alex和Ilya知道,深度神經網路很有潛力,摩爾定律讓你能用CPU堆出幾層。他們有個靈感:如果我們不在CPU上跑,而是改用另一類天生高度平行的計算晶片呢?那就是當時領先公司輝達做的——用於電子遊戲的圖形顯示卡。對當時而言並不顯而易見,尤其是把最前沿的學術電腦科學研究(通常跑在超級電腦上、依賴強大的CPU)搬到這些零售價1000美元的“玩具”顯示卡上——當時還更便宜,只要幾百美元。多倫多團隊跑到本地Best Buy之類的店,買了兩塊輝達頂級遊戲卡GeForce GTX 580。團隊把他們的神經網路演算法用CUDA(輝達的程式語言)重寫,靠這兩塊零售GTX 580訓練出了他們的深度神經網路,在ImageNet比賽裡把第二名甩開40%。所以當黃仁勳說那是AI的“宇宙大霹靂時刻”,他是對的。它向所有人展示:天啊,如果兩塊零售GTX 580就能做到這樣,想像一下更多顯示卡,或者專用晶片能做到什麼。並且,這件事把輝達從一家有些掙扎的PC遊戲配件廠商帶上了AI浪潮的道路,成為今天全球最有價值的公司。這也展示了AI研究的常見模式:某個突破帶來一個大台階躍遷,然後是多年最佳化的過程,收益逐漸遞減:前半截進步一瞬間發生,後半截要花很多年打磨。當你有一個想法,做出來,然後意識到:“天那,我剛剛找到了推動這個領域的下一個大飛躍”,那一定既罕見又酷斃了。David:就像解鎖了下一關。Ben:AlexNet之後,整個電腦科學界都沸騰了。這時人們也開始不再懷疑神經網路。多倫多的三個人——Geoff Hinton、Alex Krizhevsky和Ilya Sutskever——做了很自然的一件事:他們成立了一家公司,叫DNN Research(深度神經網路研究)。這是一家只有AI研究員,沒有產品的公司。如你所料,它幾乎立刻被Google收購了。這裡有件很瘋狂的事,第一個出價其實來自BU公司,出價1200萬美元。Geoff Hinton並不清楚該怎麼給公司估值,也不確定這是否公平。於是他做了任何一位學者會做的事來確定公司的市場價值:他說“非常感謝,我現在要搞一個拍賣”,而且是高度結構化的:每次有人出價,計時器重設,再給其他人一小時出新價。並且,他還諮詢了所有在大公司作研究的學者朋友,問他們: “嘿,我們在那兒繼續做研究會更好?”當時,競價的公司包括BU、Google、微軟,還有另一家…David:Facebook?Ben:哦,等等,不包括Facebook。想想年份,這是2012年。Facebook還沒真正入局AI,他們還在籌建自己的AI實驗室。因為Yann LeCun和FAIR是2013年才開始的。David:OpenAI還要過好幾年才成立。那家公司略早於OpenAI,做幾乎同樣的使命?Ben:就藏在眼皮底下——DeepMind。他們是DNN Research四方競購裡的第四家。當然,競價一開始,DeepMind就不得不退出——他們是初創公司,沒錢買。David:我壓根沒想到會有DeepMind,我第一個問題就是:他們從那弄錢?他們沒錢。Ben:不過Geoff已經認識並尊敬Demis了,儘管他當時“只是在做一家叫DeepMind的初創公司”。David:等等,DeepMind都在競拍裡,Facebook卻不在?Ben:競拍和當年的一個大會同時進行,當時叫NIPS(現在叫NeurIPS)。Geoff在太浩湖的Harrah’s賭場酒店房間裡主持了這場拍賣。我們得感謝Cade Metz,他寫的《Genius Makers》(AI簡史)這本書,我們這集會頻繁引用。出價一路抬升,微軟一度退出,又回來。DeepMind退出。最後剩BU和Google死磕。最後某一刻,三位研究者互相看了看,說:我們真正想去那兒?我們想去Google。於是他們把競價停在4400萬美元,說:“Google,這足夠多了,我們選你們。”David:我知道大概是4000萬,但我不知道整個故事。這簡直像Google自己在IPO裡搞的“荷蘭式拍賣”一樣,對吧?太貼合Google的DNA了。Ben:是的,特別貼合。還有個細節:三個人本該各拿三分之一。但Alex和Ilya去找Geoff說:“我覺得你該多拿一些,你40%,我們各30%。”最後就這麼定了。這讓三人直接加入Google Brain,給那裡的所有工作加上了加速器。劇透一下,幾年後,接替Sebastian管理Google X的Astro Teller,在紐約時報的一篇Google X人物特寫裡說:Google Brain給Google核心業務——搜尋、廣告、YouTube——帶來的收益,遠遠超過他們在Google X及公司其他地方做過的所有“登月”投資。但Google的AI歷史不止於此。還有一塊非常重要的拼圖來自公司外的收購。就像YouTube之於Google的意義在AI領域的對應物。我們剛才提到過的——DeepMind。 (希芙的星空)
中國AI市場過熱了嗎?寒武紀&海光資訊模型更新
過去一個月,中國人工智慧類股備受關注,其中寒武紀的股價自 2025 年 8 月 11 日以來已上漲逾一倍。H20 訂單 / 生產暫停、深度求索計畫轉向本土人工智慧晶片生態、中國人工智慧 + 政策、輝達(NVDA)的黃仁勳關於中國人工智慧市場規模達 500 億美元且年複合增長率為 50% 的言論,以及 B30 許可證及時間線的不確定性 —— 所有這些近期消息都描繪出一個規模更大、且越來越青睞本土人工智慧晶片供應商的中國人工智慧市場,而寒武紀成為了市場最看好的受益者。或許公司也覺得股價漲得有些過熱,寒武紀發佈公告稱,預計 2025 年營收為 50-70 億元人民幣(比本土買方預期的 100 億元以上低 30-50%),且暫無新產品推出計畫。我們認為寒武紀的股價會出現負面反應,這可能引發市場情緒重設,也會對海光資訊、中芯國際等其他人工智慧相關個股產生負面影響。我們還根據海光資訊和寒武紀的業績,以及對中國人工智慧晶片供需的深入研究,更新了中國計算領域相關公司的模型。寒武紀更新:我們上調了營收預測,維持市盈率倍數不變,將目標價從 600 元人民幣上調至 1100 元人民幣,維持 “與市場持平” 評級。2024 年第二季度業績符合預期,營收略低於買方預期的 20 億元人民幣(我們認為這可能是收入確認延遲,因為可能存在合同負債),但令人印象深刻的 38% 以上的淨利潤率,推動股價在業績公佈後創下歷史新高。股價上漲可能主要受情緒推動,但我們也看到,隨著上述催化劑的出現,2026/27 年營收預測存在積極的上行空間。我們將 2025E/2026E/2027E 營收預測上調至 61/152/209 億元人民幣(此前為 61/88/154 億元人民幣),因為預計寒武紀的需求會增加且供應會改善,同時鑑於我們預計今年本土 7 奈米晶片定價可能會更高,所以下調了毛利率假設。維持 “與市場持平” 評級,因為即使在模型更新後,股價仍高於我們的目標價,將 2026E 每股收益上調至 10.00 元人民幣(此前為 5.47 元),維持市盈率倍數為 110 倍,將目標價上調至 1100 元人民幣(原為 600 元)。海光資訊更新:我們上調了營收預測,維持市盈率倍數不變,將目標價從 200 元人民幣上調至 220 元人民幣,維持 “跑贏大盤” 評級。海光資訊 2025 年第二季度淨利潤實際低於買方預期的 8-9 億元,部分原因是新產品推出導致材料成本上升,毛利率下降。海光資訊的 DCU3(BW1000)仍是本土最具競爭力的產品之一,我們預計其明年將為營收做出更多貢獻。但就股價而言,海光資訊在過去一個月僅上漲了 50%,與寒武紀相比漲幅較小,我們認為未來 12 個月可能存在一定的上行潛力。需要注意的是,由於與曙光(603019 CH,未覆蓋)的併購,海光資訊的限售股解禁時間被推遲,因此短期內股價大幅上漲可能會面臨一些壓力。我們將海光資訊的營收預測上調至 2025E/2026E/2027E 為 142/223/294 億元人民幣(此前為 142/198/260 億元人民幣),同時下調毛利率假設,以反映本土先進邏輯代工廠可能帶來的更高晶圓成本,而營運費用基本保持不變。維持 “跑贏大盤” 評級,我們將 2026E 每股收益預估小幅上調 8% 至 2.20 元,維持市盈率倍數為 100 倍,將目標價從 200 元上調至 220 元。投資影響海光資訊:海光是國內領先的 x86 伺服器 CPU 供應商,其技術架構基於 AMD 授權,受益於 x86 伺服器 CPU 的國產替代。海光資訊的人工智慧加速器(稱為 DCU 或深度計算單元)可能成為下一個增長引擎,具有更好的相容性,且在供應鏈方面可能更具韌性,我們認為海光資訊對政府和網際網路客戶都具有吸引力。評級為 “跑贏大盤”,目標價 220 元人民幣。寒武紀:寒武紀是中國領先的人工智慧加速器 ASIC 晶片供應商,是中國本土領先人工智慧晶片企業華為的最佳替代者,受益於人工智慧晶片的國產替代。我們認可該公司的技術基礎,但認為其估值過高。評級為 “與市場持平”,目標價 1100 元人民幣。詳細更新:【寒武紀】【海光資訊】附錄:海光資訊和寒武紀財務預測(有道調研)
觀點 | 麥肯錫:70% 的 AI 市場將來自垂直智能體
前言由於爆米花獨角獸回歸傳統VC就是想投資Vertical Agent,也希望自己可以成為這個領域最好的投資人,所以開始系統轉載一些所看所聞,不得不說,不同文章60%以上的內容是重複的,30%是資訊繭房,只有10%才是真正insight。需要各位看官自己甄別,各取所需。核心觀點2025 年垂直 AI 智能體(Agent)(專用人工智慧)將爆發,融合 AI 能力與行業知識,麥肯錫預測 70% 以上 AI 價值潛力來自此類應用,Gartner 預計 2026 年超 80% 企業採用。垂直 AI 市場規模從 2024 年 51 億美元預計增至 2030 年 471 億美元,2032 年或突破 1000 億美元,聚焦自動化工作流、降本與合規。醫療 PathAI、零售 Vue.ai、金融 Feedzai 等為典型案例,Google雲汽車 AI 智能體(Agent)已助力車企提升智能化體驗。發展面臨系統整合、跨學科人才及倫理治理挑戰,早期佈局企業將在競爭中佔據先機。01.簡介如果說 2024 年是通用人工智慧取得重大進展的一年,那麼 2025 年則有望成為專用人工智慧系統的爆發之年。這類被稱為垂直 AI 智能體(Agent)的定製化解決方案,將先進的 AI 能力與深厚的行業專業知識相結合,以應對特定行業的挑戰。麥肯錫估計,人工智慧總價值潛力的 70% 以上將來自這些垂直 AI 應用。Gartner預測,到 2026 年,超過 80% 的企業將採用垂直 AI。本文將探討垂直 AI 智能體(Agent)如何重塑行業智能,並為商業創新的新時代鋪平道路。02.從通用 AI 到專用 AI回顧技術演進的宏觀圖景,從通用 AI 向行業專用 AI 的轉變並非新鮮事,它反映了我們曾見過的類似趨勢。例如,在企業軟體早期,SAP 和甲骨文等平台提供需要大量定製化才能滿足獨特業務需求的廣泛功能。隨著時間推移,供應商推出了針對特定行業的定製解決方案,如醫療領域的 Salesforce Health Cloud 或零售領域的 Microsoft Dynamics 365,提供為特定行業設計的預建構功能。類似地,AI 最初專注於預訓練模型和開發平台等通用能力,這些為建構高級解決方案提供了基礎,但開發行業特定應用仍需大量定製化。垂直 AI 智能體(Agent)正在填補這一空白。醫療領域的 PathAI、零售領域的 Vue.ai 和金融領域的 Feedzai 等解決方案,為企業提供了高精度、高效率的專用工具。Gartner 預測,使用垂直 AI 的組織相比依賴通用 AI 的組織,投資回報率(ROI)高出 25%。這一資料凸顯了垂直 AI 在解決行業獨特挑戰中的有效性。03.垂直 AI:AI 普及的新高度垂直 AI 智能體(Agent)的興起本質上是讓 AI 更貼近行業的重要一步。早期,由於高昂的成本和專業門檻,開發 AI 僅限於大型企業和研究機構。AWS、微軟 Azure 和Google雲等雲平台降低了可擴展基礎設施的成本。OpenAI 的 GPT 和Google的 Gemini 等預訓練模型使企業無需深厚的技術專長或海量資料,即可針對特定需求微調 AI。Google AutoML 和微軟 Power Platform 等低程式碼 / 無程式碼工具更進一步,使非技術使用者也能使用 AI。垂直 AI 通過提供針對特定行業需求預配置的工具,將這種易用性提升到新水平,減少了定製化工作並交付更高效的結果。04.為何垂直 AI 是百億級市場垂直 AI 有望像過去的軟體即服務(SaaS)一樣重新定義行業。SaaS 實現了軟體的可擴展性和易訪問性,而垂直 AI 則能通過自動化整個工作流更進一步。例如,雖然 Salesforce 等 SaaS 平台改善了客戶關係管理,但垂直 AI 智能體(Agent)可以自主識別銷售機會並推薦個性化互動。通過接管重複性任務,垂直 AI 使企業能更高效地利用資源。在製造業中,垂直 AI 智能體(Agent)可以預測裝置故障、最佳化生產計畫並加強供應鏈管理。這些解決方案不僅提高效率,還能降低勞動力成本。此外,垂直 AI 智能體(Agent)可與企業專有工具和工作流無縫整合,顯著減少整合工作量。例如,零售領域的 Vue.ai 直接與電商平台和 CRM 系統整合,分析客戶行為並推薦個性化產品,在提高效率的同時最大限度減少整合成本。更重要的是,垂直 AI 智能體(Agent)設計時即遵循特定監管框架(如金融領域的巴塞爾協議 III 或醫療領域的 HIPAA),確保企業在不違反行業標準或倫理要求的前提下使用 AI。因此,垂直 AI 市場從 2024 年的 51 億美元,預計到 2030 年將達到 471 億美元,並可能在 2032 年突破 1000 億美元,也就不足為奇了。05.垂直 AI 智能體(Agent)的實踐:汽車行業 AI 智能體(Agent)Google雲最近推出了專為汽車行業設計的垂直 AI 智能體(Agent) ——汽車 AI 智能體(Agent),旨在幫助汽車製造商建立智能、可定製的車載助手。製造商可以通過定義獨特的喚醒詞、整合第三方應用和加入專有功能來定製智能體(Agent)。這些智能體(Agent)與車輛系統和 Android Automotive OS 整合,提供語音控制導航、免提媒體播放和預測性洞察等功能。梅賽德斯 - 奔馳已將Google雲的汽車 AI 智能體(Agent)應用於其 MBUX 虛擬助手,並在新款 CLA 車型中首次亮相。這款增強型助手提供對話式互動、個性化推薦、主動協助和精準導航。通過實現免提操作,這些智能體(Agent)提升了安全性並滿足多樣化的使用者需求,展現了垂直 AI 革新行業的潛力。06.未來之路:挑戰與機遇儘管垂直 AI 智能體(Agent)潛力巨大,但並非沒有挑戰。由於遺留系統、資料孤島和變革阻力,將這些系統整合到企業中可能頗具難度。此外,建構和部署垂直 AI 智能體(Agent)需要兼具 AI 專業知識和行業特定技能的稀缺組合,企業需要同時理解技術層面和行業特定需求的團隊。隨著這些系統在關鍵流程中扮演更重要的角色,倫理使用和人工監督變得至關重要。各行業需要制定倫理準則和治理框架,以跟上技術發展。即便如此,垂直 AI 仍提供了巨大的機會。憑藉先進 AI 與專業知識的結合,這些智能體(Agent)有望成為 2025 年及未來商業創新的基石。07.展望未來垂直 AI 智能體(Agent)的興起是行業智能演進中的關鍵時刻。通過輕鬆且精準地解決行業特定挑戰,這些系統有望重新定義企業的營運方式。然而,其成功採用將取決於克服整合挑戰、建構跨學科專業知識並確保倫理部署。隨著垂直 AI 在 2025 年持續獲得關注,它可能會重塑各個行業並重新定義商業營運。儘早採用這些解決方案的公司將在競爭日益激烈的市場中佔據領先地位。 (爆米花獨角獸)
靠閹割版Blackwell晶片救市?輝達醞釀全新中國特供版產品,抵禦華為昇騰猛攻
面對在中國市場份額的快速流失,AI算力霸主輝達也是有點坐不住了。據TrendForce研究資料顯示,中國AI Server市場預計外購輝達、AMD等晶片比例會從2024年約63%進一步下降至2025年約42%,這一數字跟輝達CEO黃仁勳近期在台北國際電腦展上透露的資訊接近:“四年前,輝達在中國的市場份額高達95%,如今只有50%。”不少中國大模型廠商開始嘗試“去輝達化”,這促使以華為昇騰為代表的國產AI晶片市場佔有率開始攀升,輝達如果再不想辦法,市佔率跌破50%乃至失去中國AI市場都極有可能。隨著H20晶片被限後,輝達拿什麼產品在中國AI市場繼續拚殺成為一個焦點。據路透社最新獨家報導稱,輝達即將為中國推出一款新的AI晶片組,其價格將遠低於最近限售的H20型號,並計畫最早於6月開始量產,消息人士透露,輝達還在為中國開發另一款Blackwell架構晶片,最早將於9月投產,能否挽救市場頹勢在此一舉。夾縫中“搞錢”的輝達作為全球數一數二的AI大國,中國AI市場是輝達難以割捨的一塊肥肉。輝達2025財年財報資料顯示其總營收為1305億美元,來自中國區的營收為171億美元(約合1228億元人民幣),佔比達13%,中國是輝達的第二大銷售額地區:美國佔比47%排第一,中國佔比13%排第二。據悉,H20禁令迫使輝達註銷了55億美元的庫存以及約150億美元的計畫銷售額,短期來看,來自中國AI市場營收縮水會直接對輝達的業績基本盤造成震盪。受美國政府晶片出口限制政策影響,2022年開始,輝達A100、H100被禁止出口中國,2023年美國進一步加強AI晶片禁令,A800、H800、L40、L40S等一系列晶片被列入限制名單,2025年4月,美國叫停輝達向中國出售H20晶片,這讓輝達原本絕對的市場優勢徹底陷入被動局面。此外,中國大模型廠商近幾年在開源領域逐漸處於領跑地位,已成為全球AI生態中的重要一環,如果中國AI模型+AI算力的模式跑通產生廣泛影響力並加速滲透,可能會在全球市場進一步對輝達造成衝擊,短期銷售壓力之外的市場威脅輝達難以視而不見。消息人士透露,輝達計畫推出的最新款中國特供版GPU將屬於輝達最新一代Blackwell架構AI處理器的一部分,預計定價在6500至8000美元之間,遠低於H20型號1萬至1.2萬美元的售價。較低的價格預示著其性能規格較弱,製造要求更簡單。據悉,其中一款晶片將基於輝達的RTX Pro 6000D伺服器級圖形處理器開發,並將使用傳統的GDDR7記憶體,而非更先進的高頻寬記憶體(HBM),也不會使用台積電先進的晶片-晶圓-基板封裝(CoWoS)技術。輝達發言人表示,公司仍在評估其 “有限” 的選項,“在我們確定新產品設計並獲得美國政府批准之前,我們實際上已被排除在中國500億美元的資料中心市場之外。”輝達CEO黃仁勳上周也表示,在當前美國出口限制下,公司較舊的Hopper 架構(H20所使用的架構)已無法進行進一步修改。消息人士稱,為了進一步維繫市場局面,輝達還在為中國開發另一款Blackwell架構晶片,最早或將於9月投產。據悉,美國新規將記憶體頻寬限制在每秒1.7-1.8TB,相比之下,H20的記憶體頻寬可達每秒4TB。Blackwell架構是輝達最新一代晶片架構,單晶片AI性能比上代Hopper H100提升了4倍,目前有多種配置變體包括GB200、HGX B200和HGX B100等。據悉,正常情況下該晶片配備192GB HBM3e記憶體,頻寬高達8TB/s,GPU記憶體頻寬是衡量主處理器與儲存晶片之間資料傳輸速度的關鍵指標,這一能力對於需要大量資料處理的AI工作負載尤為重要,如果被閹割到每秒1.7-1.8TB只是工作站級或旗艦遊戲顯示卡的水平,其整體性能如何尚未可知,可能會更偏向於AI推理或邊緣計算場景。對於輝達來說,打造合規並適合中國市場需求的晶片仍需要一段時間,但市場機會卻不等人。來自華為的進擊挑戰在中國本土的AI晶片廠商中,黃仁勳不止一次重點談到來自華為的競爭,表示美國對晶片的出口管制迫使輝達在中國市場失去了主導地位,而電信裝置巨頭華為這樣的本土企業填補了空白。國際知名半導體研究和諮詢機構SemiAnalysis發佈報告稱,華為基於昇騰910C晶片打造的CloudMatrix 384伺服器系統在多項關鍵指標上的性能超過NVIDIA旗艦系統GB200 NVL72。CloudMatrix 384由384塊昇騰910C晶片組成,雖然每塊GPU性能僅為輝達Blackwell晶片的三分之一,但有著擁有五倍的晶片數量。完整的CloudMatrix系統現在可以提供300 PFLOP的密集BF16計算能力,幾乎是GB200 NVL72的兩倍,雖然美中不足的是需要4.1倍GB200 NVL72的功率,但相比晶片開發來講,電力能耗短板相對更容易補全一些。另有消息稱,華為在2025年5月底之前向選定的中國科技公司分發昇騰910D樣品批次進行測試,目標是讓這款晶片的性能達到或超越NVIDIA H100,進而廣泛用於訓練大型語言模型和其他複雜的AI任務。過去多年,華為一直在低調推進昇騰系列晶片的演進,據DeepSeek團隊的實測資料顯示,昇騰910C的推理性能約為NVIDIA H100的60%,據瞭解,升級版昇騰910D將採用中芯國際 (SMIC) 7nm N+2工藝製造,預計將進一步縮小與輝達主晶片的性能差距。據傳,昇騰920預計也將於2025年下半年開始推進量產,下一代昇騰920將採用6奈米製程,預計單卡計算能力將超過900 TFLOP,並使用HBM3模組實現4TB/s的記憶體頻寬,將比上一代產品提升約30%至40%的效率。由於更具性價比優勢,華為昇騰晶片本來在東南亞、中東地區和部分歐洲國家開始有市場突破,但2025年5月,美國商務部宣佈在全球任何地方使用華為昇騰晶片均違反其出口管制規定,這一禁令涵蓋採購、部署、維修等二十余種行為,試圖通過 “長臂管轄” 阻攔華為在全球AI算力市場的進擊。目前來看,短期內,中國市場仍是華為和輝達AI晶片較量的主戰場。AI算力生態較量展開儘管昇騰晶片開始在性能方面嶄露頭角,但生態系統仍是短板,與輝達成熟的CUDA生態相比,昇騰的AI生態還在發展中,需要吸引更多全球開發者參與,以完善軟體適配和應用開發等方面,提升整體生態競爭力。不過,這對於搞出鴻蒙系統的華為來說可能並不缺乏經驗,需要的是時間和市場磨合。相比輝達,華為的本土優勢在於能和國產AI模型廠商進行更深層的協同匹配,在gitcode開源平台上,華為近期分享的基於昇騰打造超大規模MoE模型推理部署技術報告吸引了不少關注。據瞭解,這些技術報告相關的程式碼也會陸續開源,以此推進建構昇騰超大規模MoE模型推理的開源生態,其中涉及昇騰超大規模MoE模型推理負載平衡技術、投機推理技術與低位元量化技術、通算融合最佳化技術、昇騰親和硬體感知創新算子等等。在日前舉辦的華為KADC2025開發者大會上,華為高管對外表示,截至2025年5月,鯤鵬、昇騰已發展超過665萬開發者,8800多家合作夥伴,其AI算力底座的角色越來越凸顯。在當下的市場環境變遷和管制條件下,輝達想要收回丟失的中國市場份額,挑戰正在變得越來越大,靠減配的Blackwell晶片能否挽救頹勢充滿懸念。 (頭部科技)
紅杉資本:AI市場終局是應用為王,智能體經濟正在到來
在AI的浪潮滾滾向前的時代,紅杉資本再次站上浪潮之巔,洞察未來。這是紅杉合夥人在AI Ascent大會上的一場重量級演講,聚焦當下最核心的問題。從市場邏輯到技術演進,從語音到程式碼智能體的爆發,從智能體協作到智能體經濟的藍圖,紅杉用極具穿透力的洞察,勾勒出AI時代最重要的趨勢、機會與挑戰。圖片源於紅杉資本官網無論你是創業者、投資人還是產品人,這都是一場值得全程閱讀的思維盛宴。01. 建構可持續增長的商業基石這張圖代表的是過去幾十年不斷疊加的技術浪潮,最終引領我們走到了現在這個AI時刻。圖中有兩個要點:1、AI不是也許會來,而是已經到門口了。我們該有的東西幾乎都已經準備好了:海量算力、完善的網路基礎設施、密集的資料流、人才儲備。我們準備好了2、這波浪潮和過去不同,是乘法式的。也就是說,這一波的機會比之前的任何一波都大。同時,它也來得更快。但大多數人都停留在快的表面,沒人去真正想過:為什麼會變快?紅杉資本的合夥人Pat Grady提到了一個不太常被提起的話題--廣泛分發的底層邏輯。就是說如果一個東西想要被廣泛分發,有三個東西是必須的:1、人們需要知道它的存在2、人們想要它3、人們得買得到它2022年11月30日,ChatGPT橫空出世,全世界的注意力都被拉了過來。中間這列柱狀圖顯示的是reddit和X的月活使用者總量。在雲端運算那個年代,它們甚至還沒出生;在移動網際網路初期,也還只是新生兒,但現在,這兩個平台的使用者總和已經飆升到12億-18億。它們不是唯一的資訊分發管道,但是它們足夠吵,這個世界對吵的東西反應很快。什麼意思?鐵軌已經鋪好,你一槍打響,火車就能跑得飛快,幾乎沒有阻力。這不僅是AI的機會,而是整個時代的底層變了。分發的底層邏輯被改寫了。這張圖核心的兩個資訊:1、機會仍然遍地都是。雖然空白地帶比去年少了一點,但整體來看,大部分市場還沒人動,空間依然遼闊。2、圖中代表的是在上一輪技術浪潮中年營收破10億美金的公司我們不在乎什麼獨角獸估值,關注的是實打實的收入和現金流。你會發現,它們大多數紮根在應用層。過去我們堅信,價值最終沉澱在應用上,現在依舊是。時代帶給我們的是你現在要面對的是更激烈的競爭。基礎模型正在向上侵蝕應用層的空間。推理、工具鏈、智能體協同等等,模型正在逐漸承擔原本屬於應用的工作。由此出現了第二條擴展定律:基礎能力不斷往上吃,甚至吃到了應用的核心。那怎麼辦?如果你是一家AI初創公司,不打算做一個從晶片到終端全鏈的重型選手,那你的策略應該是--往後思考,從客戶視角出發。選準一個行業,抓住一個功能,解決一個棘手問題。那怕這個問題需要人機協作也不影響。這是唯一靠譜的賽道,也是你應該優先聚焦的地方。關於AI創業者Pat Grady還提到了以下三個需要注意的點:收入vs氛圍收入很多團隊特別喜歡氛圍收入,什麼是氛圍收入?就是:啊!我們這個月收入太猛了!大家幹得漂亮!聽上去很棒,但你得停下來問一句:這是真正的收入,還是只是氣氛?這些收入,是否伴隨著使用者行為的根本性變化?還是說,他們只是試了試你的產品。就再也沒回來?有些團隊會說:我們沒有使用者行為的資料。其實你是有的,你只是還沒認真看過。以下這三件事,是最起碼的起點:1、他們有沒有真正開始用?2、用的深不深?用的頻率高不高?3、還會不會回來?你要弄清楚你賣出去的是解法還是新鮮感。當然好氛圍本身也是資產,它可以激發關注、吸引人才、加快融資。只是別把它誤當作產品動力。說到底,這一輪AI的節奏不光是拼技術,還拼信任感。只要客戶相信你能讓產品不斷變好,你就有主場優勢。如果他們覺得你不行,你就出局了!毛利率過去一年半里,每個token的成本降了99%。未來這個成本還會繼續走低--儘管推理成本在漲,在整體趨勢依然向下。更重要的是,如果你能從工具提供者向成果交付者轉型,往價值鏈更高的位置走,那你能要的價格也會更高。所以問一句自己:你有沒有一條清晰的路徑,能把這家公司帶到健康的毛利率水平?如果沒有,那你現在就得去想清楚了。資料飛輪資料飛輪的核心不是有沒有資料,而是這些資料有沒有喂回產品,反過來驅動增長或提升體驗?如果沒有,那就不是飛輪。它只是儲存空間裡的死資料。為什麼這個很重要?因為資料飛輪可能是你唯一能夠建構的護城河。02. AI應用領域部分客戶視角ChatGPT的日活和月活大幅攀升,已經接近reddit的水平,這說明越來越多的人正在從AI中獲得真實價值。那些更深層的用法,我們才剛剛觸及表面。廣告:用AI生成讓人滿意的廣告文案教育:用AI意見可視化一些概念醫療:用AI實現更精準的診斷......我們只是剛剛觸摸到這些領域的可能性,隨著模型能力的持續增強,我們能做的事情也會越來越多,越來越深刻。從語音生成到《Her》2024年帶來了Her的時刻,尤其是在語音與語音生成方面。已經可以說是從幾乎可以接受一躍成為真正穿越恐怖谷了。科幻與現實之間的鴻溝,正在飛快縮小。圖靈測試的靈界點,就這樣悄無聲息地被跨越了。程式碼生成Anthropic的claude 3.5 sonnet在去年10月發佈,引發了程式碼領域的快速氛圍轉向。現在,已經開始用AI寫出極具深度的程序。例如有人用AI搭建了一個docsend替代品。這意味著什麼?無論你是10倍工程師,還是完全不會程式設計的人,AI都在徹底改變軟體創作的門檻、速度與經濟性。技術演進壞消息是:預訓練的增量收益正在放緩。所以現在正在努力尋找新的突破方式,最重要的突破當屬推理能力了。但不僅僅是推理,還有合成資料、工具呼叫、AI編排框架。所有這些都正在結合,打造出更強的智能擴展路徑。Anthropic的MCP建構了強大的生態網路,我們也對它如何加速智能體的工具使用充滿期待。所以,我們可以看到:更大的基礎模型更複雜的推理工具能力的提升智能體協作的興起......這些都在共同推動AI執行更高複雜度任務的能力。應用層將是最終的價值沉澱當年ChatGPT的wrappers出來時,很多人其實都懷疑過這有價值嗎?現在看來,它是對的,因為真正的價值會沉澱在應用層。但與此同時,這層的競爭也在加劇,因為基礎模型本身也開始進入應用領域。但我們大家都輸給了真正的堆疊之王:輝達的黃仁勳!很多AI新公司正在快速崛起,這些公司將會是Agent-first。我們能看到兩條技術路徑:1、編排+測試評估驅動路徑2、端到端任務微調路徑垂直智能體這類公司對某一垂直領域有極深的理解,這些智能體將通過端到端訓練,在特定工作流中有出色的表現,強化訓練、合成資料訓練以及使用者行為資料微調也將幫助AI在特定系統上達到極高水平。垂直智能體在特定任務上,確實有潛力超越人類。03. 智能體經濟什麼是智能體經濟?按照合夥人Konstantine的說法:就是一個智能體之間不僅交換資訊,還轉移資源;能夠互相完成交易、建立信任、理解彼此的可靠性;擁有自己的經濟體系。但這不是一個無人的世界,相反,這一切都以人為核心。為了實現這個大浪潮,還有很多技術障礙需要解決。以下三個方向至關重要:1、持續性身份智能體自身要有持續性:就像你不能每天都和變臉的人做生意智能體對你的理解要有持續性:如果一個合作夥伴連你名字都記不住,怎麼建立信任?目前大家都在用RAG、向量資料庫、超長上下文窗口......但真正的記憶和自我學習仍是巨大挑戰!2、無縫通訊協議我們才剛剛開始建構智能體時代的協議層。MCP是個激動人心的開端,大廠們正在合作,共同推進這個標準。這將是一個協議序列,支援資訊傳遞、價值轉移和信任傳遞。3、安全性你無法和智能體面對面接觸,無法握手達成協議。這就讓安全與信任顯得尤為重要。智能體經濟對我們意味著什麼1、改變我們的思維方式我們稱之為隨機性思維模式,這是對確定性邏輯的重大偏離。我們很多人熱愛電腦科學,因為它是確定的,但未來的計算方式,將充滿不確定性。當你問電腦記住某個東西,它能夠一直記得,但問人類或者AI,那就充滿了不確定性了。2、管理思維的轉變你要理解你的智能體能做什麼,不能做什麼。一個好的工程師和一個好的管理者是兩個截然不同的角色。整個經濟正在邁入下一個階段:你不再是那個寫程式碼的人,你變成了調度者、管理者。3、槓桿更大,確定性更小這是一個高槓桿、低確定性的時代。你能做很多事情,但必須具備不確定性管理與風險控制的能力。我們相信,未來整個經濟將達到前所未有的槓桿高點,最終各類流程將融合、智能體將巢狀進更大的神經網路、公司將變成由神經網路組成的神經網路、整個經濟將被重塑! (人工世界Artificial World)
紅杉美國最新分享:人工智慧的兆美元機遇
在近日紅杉資本舉辦的 AI Ascent 2025 演講中,紅杉資本的三位合夥人概述了為什麼人工智慧代表的市場機遇至少是雲端運算的10倍大,初創公司應該在那裡集中精力以取得成功,以及AI代理的崛起將如何創造一個全新的經濟範式。我們針對其演講內容進行了梳理,並進行了編譯:Packer Radio:大家好,我是紅杉資本的合夥人Packer Radio,今天我和紅杉資本的所有合夥人Sonya、Konstantine一起為大家主持我們的主題演講。在進入今天的核心內容之前,我和Sonia、Konstantine想先分享一些我們在過去一年裡的心得體會。昨天,我收到一位與我合作的創始人發來的郵件,他說:“嘿,夥計,我這場活動可能會遲到一會兒,大概 9 點 35 分才能到。”我當時就想,這時間卡得真奇怪,那剛好是黃仁勳出場的時間。所以,我們理解大家的心情,但還是想先分享一些想法,然後再進入正題,沒問題吧?首先,來校準一下認知,我們怎麼看AI領域當下的情況呢?我們過去常用來分析市場的簡單框架是什麼樣的?這就涉及到Don Valentine提出的幾個問題:AI是什麼?他出現了又怎麼樣?我們現在該怎麼辦?我們如何利用它?我們要如何才能勝出?過去幾年我們都討論過這些問題,接下來幾分鐘,我們會更新一下我們的一些想法。說實話,關於 “AI是什麼” 我本來準備了一段精彩的發言,但Konstantine委婉地提醒我,對著一屋子AI領域的人解釋什麼是AI可不是個好主意。所以,我們直接跳到 “那又怎樣” 這個話題。為了活躍下氣氛,有誰還記得去年的這張 PPT嗎?謝謝。太棒了。第一行是雲轉型,第二行是AI轉型,頁面左邊是過去,中間是現在,右邊是未來。這說明了什麼呢?雲轉型開始時,其 4000 億美元的收入規模比全球軟體市場還要大。以此類推,我們在AI服務領域所瞄準的市場,起點規模至少要大一個數量級,從現在起 10 到 20 年後的終點規模,有望變得極其龐大,這一點很關鍵。實際上,我們最近改變了想法。AI所涉足的不只是服務市場,還有軟體市場,這意味著這兩個收益領域都受到了衝擊。我們看到很多公司,一開始做軟體,而隨著功能逐漸智能,軟體變成了某種輔助工具,再進一步發展,成為了能自行處理的全自動化工具。它們實際上已經從依靠軟體預算銷售工具,轉變為按勞動預算銷售成果或服務。這兩個領域都充滿了機遇。還有誰記得去年的這張PPT嗎?哎呀,有點小失落,才 34 個人舉手。好吧,又多了一個。好的,謝謝大家。別害羞,大家都可以舉手。這張分層蛋糕圖展示了過去幾十年裡層層堆疊,將我們帶到當下的技術浪潮。這張圖有兩個要點:第一,投入AI領域不僅是不可避免的,而且迫在眉睫。前提條件已經具備,計算能力、網路、資料、分發管道、人才,我們所需的所有要素都已齊全,萬事俱備。第二,這些技術浪潮往往具有疊加效應。與之前的浪潮相比,這次的機遇要大得多,而且到來的速度也快得多。我不太喜歡這張圖,橫軸是時間,縱軸是某個虛榮指標,人們常用它來為各種觀點找依據。不過觀察到的現像是正確的,事情的發展速度比以往任何時候都要快得多,但沒多少人深入探究過原因,我們來簡單分析一下。從傳播的物理原理來看,只需要三個條件:人們得知道你的產品,得想要你的產品,還得有能力購買你的產品,就這麼簡單。雲轉型剛開始的時候,根本沒人關注。Benioff不得不採用瘋狂的游擊行銷策略,才能吸引到別人的注意。AI則大不相同。2022 年 11 月 30 日,ChatGPT 發佈,全世界都開始關注AI。中間這欄資料顯示的是 Reddit 和前身為推特(Twitter)平台的月活躍使用者總數之和。雲轉型開始的時候,這些平台還不存在,移動網際網路轉型開始的時候,它們也才剛剛起步,如今這些平台的使用者總數在 12 億到 18 億之間。這雖然不是發現新鮮事物的唯一途徑,但卻是個不錯的管道。再看頁面右邊,想想當初貝尼奧夫推廣業務的時候,全球網際網路使用者只有 2 億人,如今已經達到 56 億人,幾乎涵蓋了世界上的每個家庭和企業。這一切意味著什麼呢?意味著基礎條件已經具備。一旦起跑槍響,推廣過程中將不再有障礙。這並非AI特有的現象,而是技術傳播的新現實。傳播機制已經改變,軌道已經鋪好。這是去年的另一張PPT。面對這種情況,我們該怎麼做?該在那些領域發力才能取勝呢?這張PPT有兩個要點:第一,還有很大的發展空間。同樣,這是去年的PPT,現在的空白區域已經少了一些。一些公司開始嶄露頭角,但總體而言,機會仍然很多。第二,這些標識代表收入達到 10 億美元以上的公司。我們關注的不是獨角獸企業,而是收入和自由現金流,收入達到 10 億美元以上才是我們看重的。在之前的技術轉型中,大多數這樣的公司都處於行業頂端,大多集中在應用層。我們一直認為,並且現在依然堅信,AI領域也是如此,價值就存在於應用層。但你猜怎麼著?競爭也很激烈。我們有了第二條縮放定律,即測試時計算。還有結合工具使用和智能體間通訊進行推理的技術,這使得基礎模型在應用層有了很大的發展空間。如果你是一家初創公司,又不打算打造垂直整合的業務,那就從客戶需求出發,專注於特定的垂直領域和功能,去解決複雜的問題。這可能需要人為介入,但這就是競爭所在,也是價值所在。這一點大家一定要牢記於心。我們該如何在競爭中取勝呢?來吧,大家笑一笑,這是個很有趣的話題。我們該如何在競爭中取勝呢?去年我們展示過這部分內容,所以我猜你們沒笑是因為去年看過了。在AI領域創辦一家公司,95% 的工作和創辦其他公司沒什麼兩樣,都是用獨特且有吸引力的方式解決重要問題,吸引優秀人才追隨你,都是這些大家熟知的事情。另外 5% 則是AI領域特有的。在競爭應用層的過程中,有幾個方面需要考慮。這是我們的合夥人Doug Leone打造的行銷周期圖,這位業界傳奇花了 40 年精心打造了這個內容。它展示了你如何把腦海中的想法轉化為客戶手中的產品。首先,想法要變成產品,這需要工程團隊進行開發,然後推向市場,進行銷售和後續支援,這就是完整的價值鏈。頁面底部是從技術出發的視角,頂部是從客戶需求出發的視角。通過這種方式,你可以在整個價值鏈上建立起競爭壁壘。如果你的客戶不確定他們想從AI中獲得什麼,你要有自己的見解。你可以為他們提供端到端的解決方案,直接解決問題,而不是只扔給他們一個工具。你還可以利用自己產品的使用資料建構資料飛輪,這是別人沒有的優勢。你可以深入某個行業,為這個行業服務,就像 Open Evidence 為醫療行業所做的那樣。你要能說行業內的 “行話”,比如 Harvey 會派律師團隊與律師事務所溝通。說實話,我們不太建議派工程師去做這種事,雖然這種方式比較艱難,但也不是不行。你可以用基礎模型可能做不到的方式緊緊 “擁抱” 你的客戶。順便說一句,我們也很喜歡基礎模型,但我們假設在座的大多數人都不是在打造基礎模型,而是在開發應用程式。好了,我還有兩張PPT,講完就交給下一位。我們經常被問到一個問題:在評估AI公司時,你們看重什麼?同樣,95% 的評估標準和評估其他公司是一樣的。下面是AI公司特有的 5% 的標準。第一是收入。收入的 “感覺” 很重要,收入可能會 “迷惑” 你。大家都喜歡高收入,感覺很棒,“我們收入好多啊,快看看”。但這是真正的業務增長,還是僅僅是短期的 “嘗鮮” 行為呢?我沒有具體的衡量指標,這需要你們自己去考察產品的採用率、使用者參與度、留存率。人們到底用你們的產品做什麼?不要在只有表面收入的時候,就誤以為自己有了真正的營收,這會給你帶來麻煩的。另外,“感覺” 良好也很重要。說起來,Andrew Reid在這兒嗎?來做個氛圍檢查。大家感覺怎麼樣?我不是問你個人,我是問大家整體感覺如何?我聽到有人說 “感覺絕佳”,很好。你需要讓客戶也有這種良好的感覺。這意味著什麼呢?意味著客戶必須信任你,而你要努力贏得這份信任。在當前這個發展階段,信任比產品更重要。產品會不斷改進,如果客戶信任你能把產品做得更好,那你就處於有利地位。如果客戶不信任你,那你可就麻煩了。第二點是利潤率。我們不一定關心你現在的毛利率是多少,因為成本中商品銷售成本(COGS)這部分可能會持續下降。在過去 12 到 18 個月裡,每個Token的成本下降了 99%,而且這一成本曲線還會繼續下降。雖然測試時計算等成本會增加,但最終也會下降。如果你能成功從銷售工具轉向銷售成果,沿著價值鏈向上攀升,就能獲取更多價值。你的定價可能也會提高,所以即使你現在的毛利率可能不高,但從長遠來看,你應該有一條實現健康毛利率的清晰路徑。第三點是資料飛輪。資料飛輪能推動那些業務指標增長呢?我看大家不太確定。我有個好消息和一個壞消息。好消息是,如果你回答不上這個問題,我依然支援你。壞消息是,你的資料飛輪可能沒什麼用。要麼你根本就沒有真正的資料飛輪,要麼它與業務指標無關,也就沒有價值。這一點非常重要,因為這是你能建立的最好的競爭壁壘之一。最後一張PPT,有誰能告訴我這兩者是如何關聯的嗎?如果有人能回答出來,我會非常佩服。目前市場對AI有著巨大的需求,所有那些宏觀經濟因素,比如關稅、利率,但這些都是雜音,無關緊要。技術採用率的上升趨勢完全蓋過了市場的任何波動,忽略那些雜音就好。市場上有著巨大的需求,如果你們不搶佔先機,別人就會。因為自然厭惡真空。所以,儘管我們剛剛討論了競爭壁壘、評估指標等內容,但現在你們要做的就是拚命往前衝,以最快的速度前進。好,接下來我將話筒交給Sonya。Sonya Huang:接下來我將重點介紹AI目前的發展情況。我們先從客戶需求和技術發展兩個角度進行快速的年度回顧。先回顧一下 2023 年,我們當時展示了這張圖表,對比了原生AI應用和傳統移動應用的日活躍使用者與月活躍使用者的比例。當時的結論是,AI應用的使用者參與度較低,資料顯示市場的熱度超過了實際情況。現在我們很高興地告訴大家,情況有了巨大的變化。比如,ChatGPT 的日活躍使用者與月活躍使用者比例大幅上升,現在已經接近 Reddit 的水平,這真是個好消息。這意味著越來越多的人從AI中獲得了價值,我們都在共同探索如何將AI融入日常生活。有時候,使用AI的體驗既有趣又有益。我自己就花了大量時間使用 GPT,試圖簡化各種事情,次數多得都有點不好意思說。雖然那些像 “吉卜力時刻”這樣的應用很有趣,也在網路上走紅,但更令人興奮的是,我們才剛剛觸及表面的深層次應用。比如在廣告領域,AI能夠創作出極其精準、精美的廣告文案;在教育領域,能一鍵可視化新的概念;在醫療領域,能更好地診斷病人。以 Open Evidence 這樣的應用為例,我們才剛剛探索到AI的潛力。隨著AI模型的能力越來越強,通過它們我們能實現的事情也越來越意義深遠。在座有誰看過電影《她》(Her)嗎?今天現場也有看過這部電影的觀眾。雖然我們還沒有像電影裡那樣的AI “斯嘉麗・約翰遜”,但 2024 年迎來了我所說的 “《她》時刻”。語音和語音生成技術取得了巨大進步,已經跨越了 “恐怖谷” 效應(uncanny valley,指當機器人或虛擬角色與人類相似度達到一定程度時,人類對其的好感度會突然下降)。有不少人都這麼評價,先不展開細說了。讓我來震撼一下你們的思維。你們看過電影《她》吧,華金・菲尼克斯(Joaquin Phoenix)在裡面把愛上作業系統的情節演繹得非常精彩,這不禁讓人暢想未來會是什麼樣。Sesame 的語音演示太驚豔了,我很期待看到後續的發展。科幻與現實之間的差距正在以驚人的速度縮小,感覺圖靈測試突然就來到了我們身邊。這裡要感謝Jim Fan,我在推特上看到他的觀點,借用過來用於這次演講。最後,去年最熱門的應用領域是程式設計,AI程式設計已經達到了極佳的產品市場契合度。去年秋天,Anthropic 的 Claude 3.5 和 Sonnet 發佈,迅速改變了程式設計領域的格局。現在人們用AI程式設計實現了很多令人驚嘆的事情。比如,有人用AI編寫了自己的軟體,不管你是經驗豐富的高級工程師,還是完全不懂程式設計的新手,都能借助AI程式設計實現很多功能。我們認為,AI正在從根本上改變軟體開發的可及性、速度和經濟性。從技術發展的角度來看,也有壞消息。預訓練的發展似乎在放緩。從 AlexNet 時代以來,我們已經將預訓練的規模擴大了 9 到 10 個數量級,這意味著很多容易實現的成果已經取得。不過,研究界正在尋找新的突破方向。最重要的突破來自 OpenAI 的推理技術。去年,我們很榮幸邀請到了Strawberry team的Noam Brown,在 AI Summit 上為我們提前介紹推理技術的發展趨勢。今年,我們很高興Dan Roberts也來到了現場,他稍後會分享關於 O3 和推理技術的最新進展。除了推理技術,還有合成資料、工具使用、遺傳架構等技術。這些技術相互結合,為我們提升AI的智能水平提供了新途徑。Anthropic 的 MCP建構了強大的生態系統和網路,我們也很期待它如何加速遺傳工具的使用。所有這些,更大的基礎模型、推理時的推理能力、工具使用等,共同推動AI能夠完成越來越複雜的任務。Meter 基準測試是衡量這一發展的一個量化指標,但我認為更有意義的是,和大家交流那些只有借助 O3、Operator、Deep Research 或 Sonnet 等技術才能實現的應用。目前,AI領域很多令人興奮的技術創新都發生在研究和產品的模糊邊界地帶。過去一年裡,有兩個突破性的例子,分別是 Deep Research 和 Notebook LM。今天,這兩個產品的創造者也來到了現場,我們感到非常興奮。Notebook 的Riser和Jason正在創辦一家名為 Hux 的新公司,OpenAI 的Issa Fulford也會探討AI堆疊中價值的產生點。我還記得和紅杉資本的優秀夥伴們討論過這個問題。當時,我在這個問題上還猶豫不決,我不太確定像 GPT 這樣的應用前景,而我的夥伴 Packer 卻堅信價值最終會集中在應用層。我當時還心想,Packer,祝你好運吧。但看看過去幾年的發展,我覺得你是對的,Packer,你眼光真準。從那些創造價值的公司,比如 Harvey 和 Open Evidence 身上,我們看到它們真正從客戶需求出發創造價值。我們堅信,應用層才是價值最終的匯聚地,隨著基礎模型越來越多地在這一層展開競爭,應用層的競爭也日益激烈。順便說一句,其實我們都看走眼了,真正在這個領域賺得盆滿缽滿的是輝達的黃仁勳,我們也很期待馬上聽到他的分享。回到應用層的話題。我們現在認為,第一批AI的殺手級應用已經出現,比如 ChatGPT、Harvey、Glean、Sierra、Cursor、Abridge 等。而且,在眾多豐富多樣的終端市場上,有一大批新公司正在崛起,包括 Listen Labs、Open Evidence,還有 WorkOS 等,今天在座的很多人可能都有所瞭解。我們還有一個預測,未來很多這樣的新公司會以智能體為先,而且這些公司所推出的智能體將從現在拼湊而成的雛形,發展為真正強大的產品。我們看到公司在建構智能體方面主要有兩條路徑:第一條路徑是通過嚴格的測試和評估進行編排;第二條路徑是針對端到端的任務對智能體進行最佳化。今天,我們也很期待 Harrison、Blank Chain 和 OpenAI 的Issa分享更多相關內容。關於 2025 年AI公司的發展形態,我們的下一個預測是垂直領域智能體。對於那些深入瞭解特定領域的初創公司創始人來說,垂直領域智能體是一個絕佳的機會。我們看到一些公司正在打造專門針對特定工作流程進行訓練並表現出色的智能體。它們採用包括在合成資料和使用者資料上進行強化學習等技術,讓AI系統在特定任務上表現得非常出色。目前的一些證據讓我們對這個領域充滿信心,比如 Expo 展示的智能體,其表現已經超越了人類滲透測試人員。在開發維運領域,Traversal 開發的AI故障排查工具比最優秀的人類專家還要厲害。在網路領域,Meter 和網路工程師的相關成果也說明了這一點。雖然這些資料還處於早期階段,但它們讓我們非常樂觀地認為,專註解決特定問題的垂直領域智能體如今能夠超越最優秀的人類。關於 2025 年智能體的最後一個預測是,我們正在進入一個 富足的時代。程式設計領域作為率先發生變革的市場類別,將讓我們初步瞭解這個 富足時代”的真正含義。當勞動力變得廉價且充足時會發生什麼?我們會得到一堆質量參差不齊的AI成果嗎?當審美品味成為稀缺資源時又會怎樣?我們期待看到程式設計智能體的持續進步,以及它對技術格局的影響,同時也把它視為AI將如何改變其他行業的一個預兆。接下來我把時間交給Konstantine。Konstantine Buhler:大家早上好。感謝Sonya,也感謝Paker。我們剛剛討論了非常重大且重要的話題。那麼,為什麼這一切如此重要呢?如今世界局勢如何,AI當下的發展狀況以及它的短期未來走向又是怎樣的呢?現在我們退一步,思考一下對AI中期和長期發展的預測。在這部分內容中,我們將從三個方面展開。我們會先探討下一波主要的發展浪潮,接著研究實現這一浪潮所需的技術,最後談談這對我們每個人的日常生活意味著什麼。一年前,在AI峰會上,我們主要討論的是智能體。那時我們就在探討智能體,而它們才剛剛開始形成商業應用。當時的話題主要圍繞這些機器助手展開,我們曾預測它們最終會形成機器網路。如今,這些機器網路被廣泛稱為智能體叢集。它們在許多公司中發揮著作用,並且正逐漸成為AI體系中至關重要的一部分。智能體之間相互協作、競爭,彼此進行推理交流。在未來幾年,我們認為這一趨勢會進一步成熟,發展成為一個智能體經濟。在智能體經濟中,智能體之間不僅會交流資訊,還會轉移資源、進行交易、相互監督。它們能夠理解信任和可靠性的概念,並且擁有自己的經濟體系。這個經濟體系並非將人類排除在外,而是與人類緊密相關。在智能體經濟中,智能體與人類相互協作。但是,為了實現這一重大且重要的下一波發展浪潮,也就是進入智能體經濟時代,我們面臨著許多重要的技術挑戰,接下來我們將討論其中的三個方面。坦率地說,在座各位在開展業務的過程中都需要應對這三個挑戰。第一個是持久身份問題。當我們談到持久身份時,實際上包含兩個層面。首先,智能體自身需要具備持久性。如果你和某人做生意,對方每天都像是換了個人,你可能不會和他們長期合作。這種巨大的差異會產生負面影響。智能體必須能夠保持自身的個性和認知。第二種持久性是對使用者的理解。同樣地,如果你和一個人做生意,對方卻完全不記得關於你的任何事情,甚至連你的名字都記不住,這也會對信任和可靠性構成巨大挑戰。目前,我們嘗試了各種方法,從基於檢索增強生成(RAG)和向量資料庫,到使用超長的上下文窗口。但在座的各位都清楚,在真正的記憶和自我學習方面,仍然存在重大挑戰。要實現真正的記憶功能,並且讓智能體在關鍵方面保持一致,僅在必要的地方有所差異,這是非常困難的。第二個重大技術變革是我們需要無縫的通訊協議。如今,令人欣喜的是,似乎每個人都在關注這個問題。想像一下,如果個人電腦沒有無縫的通訊協議,沒有 TCP/IP 協議,沒有網際網路,那會是怎樣的情景。我們現在才剛剛開始建構這一協議層。圍繞 MCP(可能是某種通訊協議相關的技術)有很多令人興奮的進展。看到各大企業相互合作,共同推出一系列協議,這真的很棒。這些協議將實現資訊、價值和信任的傳遞。最後一個是安全問題。這是一個關注度日益上升的話題,肯定也在大家的重點關注範圍內。如果你無法與合作夥伴面對面、掌心相對地進行交易,那麼安全和信任的重要性就會進一步提升。在與智能體互動的過程中就是這種情況。圍繞信任和安全,將會形成一整個產業。在智能體經濟中,安全的重要性甚至會比在我們當前的經濟體系中更高。我們討論了實現智能體經濟這一重大發展浪潮所需的技術。現在,我們來談談這對我們每個人意味著什麼。首先,它將改變我們的思維模式。坦率地說,在座各位已經具備了我們所說的 “隨機思維模式”,這與傳統的確定性思維模式截然不同。我們很多人喜歡電腦科學,就是因為它具有確定性。對吧?你給電腦編寫一個程序,它就會按照程序執行任務,即使可能會出現系統錯誤。但現在,我們正進入一個隨機計算的時代。如果你讓電腦記住數字 73,明天、下周、下個月它都能記住。但如果你讓一個人或者AI記住 73,它可能會記住 73,也可能記住 37、72、74、下一個質數 79,甚至什麼都不記得。關鍵在於,這種思維方式與我們過去幾十年的習慣有著本質的區別。第二個改變是管理思維模式。這種管理思維模式要求我們瞭解智能體能夠為我們做什麼,不能做什麼。大家都知道,成為一名優秀的積體電路工程師和成為一名出色的工程經理是有很大差異的。這將是大多數經濟體需要進行的轉變,即做出更複雜的管理決策,比如規劃流程和給予反饋。我真心希望不要發展到對智能體進行年終考核的地步,大家儘量避免這種情況吧。對我們每個人來說,第三個重大改變是前兩者的結合,即我們能夠獲得更多的助力,但同時也要面對更大的不確定性。我們正在進入一個新世界,在這個世界裡,你可以完成更多的事情,但你必須學會應對不確定性和管理風險。在這個世界中,在座的各位都有能力蓬勃發展。一年前在AI峰會上,我們討論過這張圖表,當時談到了助力作用。我們認為組織內部的各個職能部門將開始引入AI智能體。然後我們預測這些職能會逐漸融合、聚集,整項流程都將由AI智能體完成。我們甚至預測會出現第一個 “一人獨角獸” 企業(指由單人創辦且估值達到十億美元的企業)。雖然目前這還沒有成為現實,但我們已經看到一些公司以比以往更快的速度發展壯大,而且所需的人力比以往任何時候都少。我們相信,最終我們將見證經濟發展達到前所未有的高效水平。這些流程和智能體最終會融合。在非常龐大、複雜的神經網路內部會存在子神經網路,進而形成一個神經網路的網路。這將改變一切。它將重塑個人工作模式,重新建構公司架構,並且徹底改變經濟格局。感謝大家的參與。今天的AI峰會一定會非常精彩,我們也很感激大家的到來。 (矽星GenAI)
鮑爾開炮:關稅離譜,淘寶成最大贏家?!台積電漲價,大宗商品全線起飛!
關稅的後果正在逐漸顯現,多家企業上調商品價格。不過消費者也不是木頭,等著被加價,獲得關稅暫時豁免利好的淘寶網迅速躥升至美國下載榜第二。聯準會鮑爾沒有給川普面子,重申滯漲風險,不過反而緩解了市場擔憂,讓美債重新回復避險功能。昨日發生了什麼?誰能想到引發全球商品共振的是台積電上調代工價格。鮑爾的講話引發股市巨震。美國股市:亞盤時段,美股延續了前一天的下跌趨勢,走勢相對低迷。歐盤時段,德國媒體稱台積電已經將其在美國的代工報價提高了30%,令台積電、英偉達股價大漲,連帶大盤一同上揚。有意思的是,這則消息還同一時間衝擊到了外匯和大宗市場。此事稍後再提。美股開盤承壓,但隨後受到超預期房產指數影響,股市上揚。然而特斯拉在關鍵市場美國加州的市占率大幅縮水的消息令其股價暴跌,引領美股大盤同步回檔。不過上述這些都不是昨日最大的波動,關鍵還是聯準會主席鮑爾的講話。美股盤中,鮑爾發表講話,開場就點明——關稅將讓通膨變得更頑固,經濟下行的風險可能高於預期。這番言論與兩周前幾乎如出一轍,但這次不同的是,他毫不留情地批評川普的政策,直言即便按照聯準會最悲觀的假設,川普推動的關稅幅度也已超出預期。他同時警告,關稅相關的市場波動將頻繁出現,並強調聯準會不會因股市下跌而貿然降息。鮑爾還提到,美國聯邦債務水準已經不可持續。不過在尾聲,他略作緩和,稱就業市場依然強勁,長期通膨預期大體穩定。在他的講話期間,美元和美股持續走弱,而美債價格則延續本周的強勁反彈。值得注意的是,通常在通膨預期上升或聯準會釋放鷹派信號時,美元應隨之走強。但這次,鮑爾的表態卻反而引發了美元和長期美債利率的同步下跌,原因主要有兩點:一是,市場此前已高度定價滯漲風險,上周美債遭遇大幅拋售。相比之下,鮑爾此次講話雖重申風險,但語氣略顯緩和,尤其指出長期通膨預期未出現明顯上升,這釋放出聯準會仍有空間運用量化寬鬆應對極端局勢的信號。二是,鮑爾的強硬態度也間接對川普形成掣肘,使其推動新一輪對等關稅的難度上升,進而降低了美國未來面臨的系統性經濟風險。不過,風險結構的轉變意味著:滯漲風險略降,但短期衰退的可能性上升,美債避險需求回暖,美元和美債利率同步下跌,美股跌深反彈。其他股市:美股三大指數中,納指表現最弱,其他國家股指整體走勢相對一致。而在全球股市中,唯一出現明顯分化的是中國AH股,亞市午盤突然同步大漲。這一異動或與“淘寶APP出海爆紅”有關。受川普關稅政策影響,美國、加拿大、英國、法國等多地消費者開始尋找更便宜的購物管道,淘寶因此迅速沖上多國APP下載榜前兩名,在美國僅次於ChatGPT。原因是,川普雖高調加徵關稅,卻暫時豁免了對中國電子產品以及單價低於800美元的小額包裹的進口稅。這直接帶火了淘寶、敦煌網等跨境電商平臺,尤其是在服裝和3C數碼品類上,大量海外消費者在評論區直呼“沒想到差價這麼大”。市場解讀為中國出口仍有韌性,電商平臺迎來流量紅利,從而帶動相關中概股和A股雙雙大幅反彈,扭轉了早盤地產價格報告的不利影響。外匯市場方面,主要受到美元走弱的影響。美元:早盤時段,延續了前一天的下滑。歐市盤中,台積電上調了美國代工價格,這意味著企業已經開始針對川普的關稅政策重新定價,通膨預期上升,令美債利率短暫上漲,引發美元同步上漲,不過這僅僅持續了半小時左右,美元便重回弱勢。尤其在鮑爾講話之後,美元弱勢加劇。最終大幅度收跌。歐系貨幣與日元:在美元被拋售時,歐元與歐債便是最佳的避風港,因此歐元表現極佳。瑞郎同樣呈現避險需求,不過在美股幾波上漲時,瑞郎短暫走弱,但隨著鮑爾講話後美股大跌,瑞郎也因此大幅上漲,表現僅次於歐元。日元的表現與瑞郎相似。不過前兩天強勢的英鎊,昨天反而表現最差。可能是受到低於預期且連續兩月下跌的3月通膨數據影響,市場大幅提高了英國降息預期,同時英國國債避險需求下滑,同時導致英鎊全天走勢不佳。不過在美元大跌的影響下,英鎊最終微微收漲。RMB:在台積電上調價格時,RMB罕見地逆美元大漲,漲勢一直保持到今日早盤。商品貨幣:受到美元和美股的共同影響。整體因美元而上漲。台積電消息令美股上漲時,澳元與紐元逆美元上漲。但在鮑爾讓美股下跌的影響下,澳元與紐元則回吐漲幅。最終表現弱於歐元。大宗商品亞盤與歐盤與美股波動相似,但美盤截然不同。亞盤的行情延續了前一天的走勢,黃金延續上漲,其他商品持續下跌。轉機發生在台積電消息面上,令金價回落。原油與銅等商品開啟上漲趨勢。尤其是美國發佈高於預期的零售業數據後,包括黃金在內的大宗商品集體上漲,最終強勢收漲。今日重要事件(澳洲東部時間):11:30 澳洲3月失業率:預期4.2% 前值4.1%22:15 歐洲央行發佈利率決議:預期2.25% 前置2.5%(降息25基點)22:30 美國3月新屋開工月率:預期-5.4% 前置11.2%*代表更具影響力的先行指標,值得日內交易者重點關注。今日關注行情從鮑爾講話期間的行情(美元與美債利率跌,美股跌深反彈),市場的極端恐懼稍許緩解,減少了對滯漲的押注。其實,市場最擔心的從來不是衰退。只要聯準會仍然保有貨幣政策的靈活性,那麼衰退反倒往往會成為資產定價底部的機會。或者換一個角度來說,美國二戰後的十一次經濟衰退中,美股的底部100%出現在衰退中期。即便是新冠疫情的短暫衰退也是如此。當然,前提是川普能夠取消後續的對等關稅。今早,川普稱和日本代表團取得重大進展,至少說明只要好好談,能夠為美國讓利,川普是有機會撤銷關稅的。這會讓其他還在觀望的國家找到和談的方向。因此短線交易策略還是以美股的低位看漲為主。在看漲大盤的同時,也可以考慮對一些受到消息面利好的個股進行佈局。同時儘量避免近期消息面利空的晶片板塊和特斯拉。消息突破策略 – 那斯達克100指數 NAS100交易策略:(趨勢跟隨)回踩18000或突破19000看漲阻力參考:18300(突破);18400(突破);18600支撐參考:18200(止損)技術面:100均線持續向下,空頭動能強勁,多單要設好止損。不過在利空消息下,納指做出了V型反轉,如果能夠突破關鍵阻力,便有日內跟漲的機會。主要關注現價附近的價格靜區,以及前方低點18400關口。消息面:能夠發現,雖然鮑爾講話期間美股持續下跌,但講話剛結束,美股便開啟反彈並收回了大半跌幅。尤其是美債利率還在不斷下滑,說明美債的避險需求重新得到市場認同。這對於美股後續的表現來說是利好的。因此日內交易可以考慮跟隨看漲。價值背離策略 – 阿里巴巴 Alibaba 9988HK短線交易策略:(趨勢跟隨)105附近逢低看漲阻力參考:120;130支撐參考:100(跌破止損)技術面:現價在100關鍵整數位元關口獲得支撐,該位置也是此前關鍵價格支阻互轉水平線,存在較強的支撐力量。因此在跌破該位置之前,應該以逢低看漲為主。不過價格上方存在跳空缺口以及頸線結構,不容易突破,因此應該以短線波段看漲為主。基本面:受到川普關稅影響,AH股市下跌嚴重,阿里巴巴也遭受重創。不過憑藉自身通義千問AI大模型的優秀表現,以及近期海外電商業務反受關稅利好的影響,短線存在利空出盡,大跌後反彈的機會。本文內容不構成任何投資建議,與個人投資目標,財務狀況或需求無關。如有任何疑問,請您諮詢獨立專業的財務或稅務的意見 。