#演算法
華爾街讓位!全球量化交易新中心誕生……
“在這裡,沒有人願意去高盛和摩根大通”“薪資低於25萬英鎊會覺得可憐”你沒看錯,量化交易圈的新貴們正用程式碼和數學模型把倫敦變成全球最炙手可熱的搞錢勝地01 恭迎倫敦,量化交易界的新王誕生!該說不說,前些年提起量化交易,紐約是當之無愧的全球中心,但這一格局正在被打破!Financial Times一篇報導直接指出:倫敦正在成為全球量化交易的新中心。cr. FT為什麼FT敢拍著胸脯這麼說?先看看幾家倫敦本土量化機構的營收數字就知道了。1 XTX Markets2022年,XTX Markets公佈利潤為11億英鎊,同比增長64%,營收從15億英鎊增至25億英鎊;兩年後,XTX Markets營收增至27億英鎊,稅後利潤13億英鎊,同比增長54%;今年,XTX Markets還在芬蘭投資了超過10億歐元,用於建設一座新的資料中心。XTX Markets是一家總部位於倫敦的英國演算法交易公司,公司由Alexander Gerko於2015年1月創立,是GSA Capital的衍生公司。截至2024年,該公司在全球擁有超過250名員工,他們利用最先進的機器學習技術,對股票、固定收益、貨幣、商品和加密貨幣等5萬多種金融工具進行價格預測。2 Qube Research & Technologies英國實體2024年淨收入約20億英鎊,增長了一倍多,稅前利潤增長近2倍,達到9.14億英鎊;2025年夏季,QRT與多家量化基金一樣遭遇虧損,但全年仍保持盈利;QRT在業績波動期間反而加快擴張步伐,今年7月計畫正式入駐美國,在休斯頓設立辦事處。QRT總部位於倫敦,於2018年初從Credit Suisse分拆出來,當時資本僅為8億美元,現已發展成為價值超過300億美元的多策略巨頭。在CS前員工Pierre-Yves Morlat和Laurent Laizet的領導下,QRT的員工人數已超過1400人,2024年平均薪酬達71.1萬英鎊。WST就有一位來自Imperial的研究生學員,拿下了QRT 2025年暑期實習Offer:Qube Research & TechnologiesLondon OfficeQuant Research Summer Intern3 Quadrature Capital截至2025年1月31日的財報顯示,Quadrature利潤增長了近10倍,達到4.11億英鎊;自2020年以來,營收增長近五倍,達到12億英鎊;Quadrature Capital在倫敦有173名員工,平均薪資為280萬英鎊。很多人甚至都沒聽說過Quadrature Capital,只知道創始人Greg Skinner和Suneil Setiya都曾在DE Shaw和G-Research工作過,而且非常熱衷於辦公室綠化。Quadrature是一家規模小、運作並不透明的倫敦量化自營交易公司,雖然外界能蒐集到的消息不多,但從公司公佈的帳目來看,這毫無疑問是英國最賺錢的金融公司之一。除了這三家之外,還有總部位於倫敦的G-Research也在不斷擴張,通過向附屬投資基金提供研究和技術,從而產生可觀的交易利潤。這些總部位於英國的量化交易公司,不聲不響中已成為倫敦金融圈最賺錢的存在,它們的業績增長曲線完美詮釋了什麼是“量化爆發”,也鞏固了倫敦作為全球金融樞紐的重要地位。就連BlackRock量化投資團隊掌門人Raffaele Savi也堅定表示:There is “absolutely” a quant renaissance in London.02 倫敦憑什麼成為量化新王?倫敦為什麼能成為量化的“淘金勝地”?其底氣來自兩方面:頂尖的人才儲備和領先的技術實力。新時代的金融精英,正在用程式碼和演算法改寫遊戲規則,而倫敦量化圈的底氣,全靠英國精英人才庫撐著。首先,與美國不同,英國大學數學、物理和電腦科學專業的畢業生越來越多地選擇量化公司,而非傳統的銀行或大型科技公司。其次金融工程、金融數學作為新興的交叉學科項目,自帶“高就業率+高薪資”雙重buff,近年來備受留學生們的歡迎。Reddit上一位使用者表示,現在英國大學比如IC、LSE甚至Bristol都非常重視量化分析和人工智慧。去年,QuantNet還發佈了一份獨屬於英國大學的MFE項目排名:cr. QuantNet牛津大學的Mathematical and Computational Finance項目穩坐第一,該項目長度為10個月,為學生提供數學基礎、金融市場最新趨勢與現代數學金融主題的全面培訓,並以強程式設計為支撐,因此對申請者的數學和電腦科學基礎要求較高。該項目畢業就業率高達70%,畢業三個月後就業率高達90%,憑藉優秀的學校聲譽,畢業生平均起薪也高達73,255英鎊。排名第二的是IC的MSc in Mathematics and Finance項目,這個一年制的項目歸於IC的數學系,課程涵蓋數學基礎、金融原理、工具以及實施和資料分析。該項目的學生畢業3個月後的就業率達到了87%,畢業生起薪更是高達8.5w英鎊。cr. QuantNet除了人才,英國在量化交易領域早有積澱,如今的新生代公司更是玩轉了機器學習、統計套利等更複雜的策略。比如XTX Markets的超級電腦能存400PB資料,這相當於80兆張照片,再用機器學習掃數兆個資料點,精準預測資產價格。量化交易在英國蓬勃生長,這對數學和物理專業的畢業生來說是個好消息,Reddit上有網友爆料,開頭提到的三家公司中的一家,今年僱傭了數百名電腦科學/電腦科學+數學專業的畢業生。cr. Reddit為了搶佔優秀的人才,這些量化公司也在瘋狂找“存在感”:贊助英國的學生社團活動和博士項目、舉辦駭客馬拉松……比如帝國理工的Centre of Excellence in Quantitative Finance,外部合作夥伴中就有我們熟悉的G-Research、QRT、Optiver等量化機構。cr. IC再比如LSE、UCL、IC等多所英國大學聯合組織的量化金融俱樂部Beta Sigma Club,主要合作公司為Optiver,活動合作公司還包括Flow Traders、Jane Street、Jump Trading、IMC Trading。cr. betasigmaclub公司與學校緊密結合,就是為了從校園開始鎖定好的量化苗子。與此同時,量化公司還紛紛開設只有在校的低年級才能申請的event/program👇Discover Citadel一年一度的Discover Citadel目前已經在開放申請當中,針對EMEA地區的申請截止時間是2026年2月13日。這個項目只面向畢業時間在2027年12月至2029年6月的本科生,換句話說只面向大一和大二的同學。Citadel會提供往返機票、交通住宿和餐食,讓大家進一步瞭解Citadel London。cr. Citadel2026 Point72 Academy Spring Insight Programme這是Point 72一項為其一周的線下工作見習項目,面向所有計畫於2028年畢業的學生,也就是三年制大一或四年制大二的同學。該項目申請截至時間在2025年11月16日,表現優異者將有資格被考慮參加Point 72 2027年暑期實習項目。cr. Point 7203 英國量化上岸的必看寶典在量化領域,薪資水平一直是行業天花板的存在,英國尤其如此。牛津大學定量金融研究所所長Alvaro Cartea直言,他的幾乎所有學生都在Trading firms工作,薪水從25萬英鎊到80萬英鎊不等。圖為Alvaro Cartea“如果你得到的薪水低於25萬英鎊,你就有點可憐了,”他還補充道:“我認識的人中沒有人面試JPMorgan、Goldman Sachs……我從來沒聽說過有人願意接受這些傳統投行的工作。”WST也通過統計近期拿到倫敦地區offer的學員庫,整理了部分公司Quant崗位目前的薪資水平,以下全部是倫敦辦公室名企的暑期可轉正實習以及全職薪資,可供參考。全球最大的避險基金管理公司之一Marshall Wace,倫敦辦公室Quantitative Researcher Fulltime的基本薪資為:190,000 GBP/年。Cambridge學員Marshall Wace全職Offer提供多策略避險基金的投資管理公司Millennium Management,倫敦辦公室Quantitative崗位的基本薪資為:120,000 GBP/年。Cambridge學員Millennium Management2026年暑期實習Offer英國的大型零售和商業銀行之一NatWest,倫敦辦公室Quantitative Analyst的基本薪資為:100,000 GBP/年。IC學員NatWest暑期實習Offer如何像這些學長學姐一樣斬獲Quant Offer?Quant面試把握好technical skill是求職順利的基石。想要訓練自己的technical skill,就需要反覆練習各種題目。推薦大家多刷紅皮書和綠皮書,已經幫大家準備好了這兩本書的電子版,想要的同學可以掃描小助手二維碼領取~低年級規劃:搶佔量化先機!英國學制相對其他地區少一年,所以留給同學們準備求職的時間更緊張。但英國獨特的Spring Week項目,為同學們提供了絕佳的求職路徑。Spring Week是英國投行、諮詢、四大這些名企專門給本科低年級(三年制本科大一/四年制本科大二)學生設定的“職業體驗營”,也可以叫pre-internship,一般為期時長3天到2周不等。75%左右的公司都會在9月開Spring Week項目申請,剩餘的公司會在11月份-第二年的2月份開申請。但還是建議大家在11月初之前都投遞完。理由顯而易見,你越是拖到後期,越多大公司Spring Week項目都招到人了,你自己可以申請的Headcount就越少。近年來,英國金融圈求職的資訊差壁壘被打破,越來越多的留學生知道Spring Week項目的重要性,也導致Spring Week項目不再像過去的那樣門檻低。申請基數變大了,但實際上Spring Week的headcount比Summer Intern還少。所以Spring Week的Offer並沒有想像中那麼好拿。 (WallStreetTequila)
社交媒體的黃金時代,結束了
社交媒體上,已經沒有社交了。社交媒體曾經是我們日常生活的一部分,人們在上面分享生活,追蹤朋友的動態,吃瓜追熱點,彷彿只要滑動螢幕就能與全世界同頻。但如今,越來越多的人覺得它累人又空洞:一刷就是幾個小時,刷來刷去都是高 P 照片、無處不在的軟廣、批次製造的 AI 內容……越刷越疲憊和焦慮。這不是巧合,而是平台設計和科技變化的結果。Noema 雜誌的文章《社交媒體的最後日子》直指核心:AI 和演算法已經把傳統的「注意力經濟」推到極限,結果不是更好的社交,而是平台的瓦解。使用者們正在逃離巨型平台,轉向更小、更私密的數字空間,回歸到人與人之間的連接。Reddit 上市兩年市值暴漲 485%,Discord 成為新的社群平台,就是最好的證明。這一切是怎麼發生的?「混小圈」為什麼會成為未來社交的主流?01 演算法把平台玩壞了「注意力經濟」並不複雜:社交媒體公司靠抓住你的注意力賺錢。演算法根據你的停留時間、點贊、分享來決定推送什麼。你看得越多,它們賣廣告就越多。起初這像是一場雙贏。你看到朋友的精彩分享,留下評論和贊,平台獲得廣告收益,大家都挺開心。可 AI 的介入改寫了規則。根據 artsmart 的統計資料,2025 年,80% 的內容推薦演算法由 AI 驅動,71% 的圖片是 AI 生成的。社交平台已經 AI 化了。每日生產 3400 萬張 AI 圖|圖源:福布斯外網也不例外,此前我們曾報導過的《他們正在用 AI,瘋狂給網際網路「下毒」》正是這種現像極端化的體現:AI 生成,十秒左右的精神污染風格的視訊,在社交媒體上對演算法進行「暴力破解」。用 AI 生成的驚悚內容去「暴力破解」演算法,以騙取流量|圖源:Instagram這些人用更便宜、更快的 AI 內容,不斷試探流量機制,把演算法「砸暈」,總有一條能爆火。結果就是,你的首頁我的首頁,都離不開 AI。AI 文案、AI 配圖、AI 視訊、AI 主播、AI 寵物甚至 AI 萌寵拍的短劇都在爆火……這些推薦演算法也並不是中立的。它們的唯一目標是讓你停不下來。短影片平台是典型,一刷就是幾小時。結果,使用者的大腦被榨乾,出現「注意力疲憊」。近期在 Facebook 上爆火的 AI 生成圖「耶穌蝦子」|圖源:Facebook2025 年的調查顯示,超過 60% 的年輕人覺得社交媒體讓生活更焦慮,而不是更快樂。一項調查顯示,超過 60% 的年輕人覺得社交媒體讓生活更焦慮,而不是更快樂(practicaltheory.org)。同時,隨著 AI 生成內容愈發擬真,使用者的分辨能力也在下降。在去年「海倫妮」颶風席捲美國南部時,一張 AI 生成照片同時席捲了社交媒體。許多美國政客都親自轉發推文,傳播量過百萬。去年史丹佛網際網路實驗室也在測試中發現,他們用 AI 生成的圖像總共獲得了數億次曝光,而且標題越極端,AI 圖片越能奪人眼球,瀏覽量也會越高。這就是注意力經濟的陰暗面:當注意力能換錢時,資訊真偽已不再重要。中老年人是被 AI 圖「欺騙」的重度受害者|圖源:X正如 Noema 文章作者 James Sullivan 所說:「當代社交媒體的內容是無根的,沒有上下文,沒有文化、沒有真正的對話,就像一坨語義泥漿,看起來像說了什麼,但實際上什麼都沒說。」社交媒體的危機不是因為缺少內容,而是因為 AI 帶來的內容過載,以及過載導致的信任崩塌。Instagram 的互動率過去一年跌了 24%,X(前 Twitter)使用者持續流失。美國成年人中,只有不到一半認為社交媒體資訊可靠,比 2010 年代中期少了三分之一。今年內容行業爆火的新賽道:AI 萌寵短劇|圖源:抖音許多使用者打開社交媒體後,就進入了「下滑-點選」的機械式的回路,大家都不是在真正連接別人,而是在半夢半醒裡滑動螢幕。這种放不下手機,又邊刷邊走神的狀態,作者稱之為「環境性解離」。創作者也同樣疲憊,他們得和 24 小時無休、沒有靈感瓶頸的 AI 競爭,還要想盡辦法製造更能搶佔注意力的內容。演算法推薦機制結合 AI 的低成本生產內容,把平台內容塞爆了,把使用者看累了,把優質創作者擠走了,所以每個人都在說:社交媒體活人感越來越少了。但瓦解不是終點,而是轉折。社交媒體的下一個階段,是從大平台逃離,開始擁抱小圈子。因為「演算法推薦」+「AI 批次製造內容」+「情緒化傳播」三板斧下來,讓人們的注意力變得廉價同時又極度稀缺。大廣場裡刷不完的內容,無法滿足一個人「被理解」的需求時,人們要麼搬進更小的圈子、要麼把情緒寄託給可控的服務。就像從大牌連鎖店的預製菜,轉向你樓下現炒的街邊小店,或是聘請一個燒菜阿姨:規模小,但東西更真,更合你口味。現實中,這已經在發生。02 大平台,小圈子過去一年,比黃金更值得投資的是 Reddit 的股票。2024 年 3 月,在我們報導 Reddit 上市文章時,Reddit 股票是約 50 美元一股,一年半後,Reddit 股價翻了五倍,超過了 250 美元/一股(截稿時已達 266.66 美元/股),市值接近 500 億美元。上市一年半,Reddit 股價翻 5 倍|圖源:GoogleReddit 和 X(前身 Twitter)、Facebook 一樣是老派社交媒體,今年已滿 20 歲。但為什麼只有 Reddit 煥發了第二春呢?因為 Reddit 是小圈子的典範:Reddit 的子版塊讓使用者圍繞興趣聚集,每個版塊都有版主人工管理,內容規則清晰,不依賴演算法喂食。這讓它在 AI 垃圾橫行的時代顯得乾淨,也更有人情味。社交媒體正在從一個大廣場分裂成很多小房間。Reddit 就是把房間分割的最好,打掃最乾淨的一家。在投資者眼中,Reddit 就是「社區模式」的價值回歸。另一個小圈子化做得很好的是 Discord。Discord 是一個社群化的 App,它不依賴任何推薦、匹配演算法,所有的頻道都由使用者自己建立、管理。2025 年,Discord 使用者數破 5 億,許多使用者都是從 Facebook 群遷移過去的「難民」。把群組功能做到極致的 Discord|圖源:Discord付費郵件分發平台 Substack 也火了,創作者可以直接單向和訂閱者發郵件,避開平台的演算法和 AI 內容,小量忠實受眾的長期價值也開始被重估。從追求十億級使用者,到經營高品質小群體,社交的價值正在變化。小圈子減少噪音,讓人們感到被真正「看見」,也不必擔心暴露在大眾面前引來網暴。在各類話題衝突和對立日益嚴重的當下,小圈子就像一個自嗨式的烏托邦,雖然是回音室,但讓人更安心,也更真實,使用者能在其中做自己,也能懂別人,這才是一種網路社交的真·連接。這種趨勢被《福布斯》雜誌稱之為「親密經濟」:使用者的注意力已經渙散了,人們開始渴望被理解、被回應,情緒價值本身成了產品。近年來許多陪伴型 AI 聊天機器人的爆火,就是一種「親密經濟」,大家的表達欲還在,只是從發朋友圈、發微博,轉向了對 AI 傾訴。在親密經濟中,情緒真的就是一種價值,提供情緒價值也變成了一種服務。用大白話來說,大家上網不想再給自己添堵了,甚至無暇去關注「大廣場」上的罵戰,只想躲回自己的小房間。行業分析與社媒監測顯示 Instagram 等平台的平均互動率在 2024–2025 年出現明顯下行|圖源:socialinsider於是,社交的重心開始悄然轉移。越來越多的人選擇走進小型、封閉的數字房間:Discord 的私密伺服器、Telegram 的加密群組、Signal 的邀請制社群都在快速增長。與龐大的公共平台不同,這些社區的邊界不由 AI 和演算法控制,而是由使用者自發決定:誰可以加入、誰能看到什麼內容、不可以說什麼話……明確規則結合人工管理,讓 bot、垃圾內容、噪音、圈外人的評判都被隔絕到了圈子之外,成員間對彼此的期待也更明確,互動更真實。Noema 文章還提出另一種值得關注的趨勢:未來的社交媒體可能會「更慢、更斟酌」,不再以「即時」作為唯一價值。平台設計者也在嘗試讓使用者慢慢思考後表達,比如 Signal App 加入了「發帖延遲」功能:寫完文案,得等幾分鐘才能發,減少沖動發言,讓人有時間思考而不是情緒化輸出。與此同時,演算法的角色也需要重新定義。下一代社交產品很可能會把選擇權交還給使用者:你可以決定資訊流的來源、篩選推薦的方式,甚至一鍵關閉所有 AI 內容。這種「更慢、更小、更可控、更親密」的趨勢,既是當下社交媒體的一種轉向。未來的網路社交,不是更熱鬧,而是更安靜,它可能只存在於不過百人的群組,也可能只存在於你和一個 AI 聊天的對話方塊。 (AIGC新智界)
社交媒體的黃金時代,結束了
社交媒體曾經是我們日常生活的一部分,人們在上面分享生活,追蹤朋友的動態,吃瓜追熱點,彷彿只要滑動螢幕就能與全世界同頻。但如今,越來越多的人覺得它累人又空洞:一刷就是幾個小時,刷來刷去都是高 P 照片、無處不在的軟廣、批次製造的 AI 內容……越刷越疲憊和焦慮。這不是巧合,而是平台設計和科技變化的結果。Noema 雜誌的文章《社交媒體的最後日子》直指核心:AI 和演算法已經把傳統的「注意力經濟」推到極限,結果不是更好的社交,而是平台的瓦解。使用者們正在逃離巨型平台,轉向更小、更私密的數字空間,回歸到人與人之間的連接。Reddit 上市兩年市值暴漲 485%,Discord 成為新的社群平台,就是最好的證明。這一切是怎麼發生的?「混小圈」為什麼會成為未來社交的主流?01 演算法把平台玩壞了「注意力經濟」並不複雜:社交媒體公司靠抓住你的注意力賺錢。演算法根據你的停留時間、點贊、分享來決定推送什麼。你看得越多,它們賣廣告就越多。起初這像是一場雙贏。你看到朋友的精彩分享,留下評論和贊,平台獲得廣告收益,大家都挺開心。可 AI 的介入改寫了規則。根據 artsmart 的統計資料,2025 年,80% 的內容推薦演算法由 AI 驅動,71% 的圖片是 AI 生成的。社交平台已經 AI 化了。每日生產 3400 萬張 AI 圖|圖源:福布斯外網也不例外,此前我們曾報導過的《他們正在用 AI,瘋狂給網際網路「下毒」》正是這種現像極端化的體現:AI 生成,十秒左右的精神污染風格的視訊,在社交媒體上對演算法進行「暴力破解」。用 AI 生成的驚悚內容去「暴力破解」演算法,以騙取流量|圖源:Instagram這些人用更便宜、更快的 AI 內容,不斷試探流量機制,把演算法「砸暈」,總有一條能爆火。結果就是,你的首頁我的首頁,都離不開 AI。AI 文案、AI 配圖、AI 視訊、AI 主播、AI 寵物甚至 AI 萌寵拍的短劇都在爆火……這些推薦演算法也並不是中立的。它們的唯一目標是讓你停不下來。短影片平台是典型,一刷就是幾小時。結果,使用者的大腦被榨乾,出現「注意力疲憊」。近期在 Facebook 上爆火的 AI 生成圖「耶穌蝦子」|圖源:Facebook2025 年的調查顯示,超過 60% 的年輕人覺得社交媒體讓生活更焦慮,而不是更快樂。一項調查顯示,超過 60% 的年輕人覺得社交媒體讓生活更焦慮,而不是更快樂(practicaltheory.org)。同時,隨著 AI 生成內容愈發擬真,使用者的分辨能力也在下降。在去年「海倫妮」颶風席捲美國南部時,一張 AI 生成照片同時席捲了社交媒體。許多美國政客都親自轉發推文,傳播量過百萬。去年史丹佛網際網路實驗室也在測試中發現,他們用 AI 生成的圖像總共獲得了數億次曝光,而且標題越極端,AI 圖片越能奪人眼球,瀏覽量也會越高。這就是注意力經濟的陰暗面:當注意力能換錢時,資訊真偽已不再重要。中老年人是被 AI 圖「欺騙」的重度受害者|圖源:X正如 Noema 文章作者 James Sullivan 所說:「當代社交媒體的內容是無根的,沒有上下文,沒有文化、沒有真正的對話,就像一坨語義泥漿,看起來像說了什麼,但實際上什麼都沒說。」社交媒體的危機不是因為缺少內容,而是因為 AI 帶來的內容過載,以及過載導致的信任崩塌。Instagram 的互動率過去一年跌了 24%,X(前 Twitter)使用者持續流失。美國成年人中,只有不到一半認為社交媒體資訊可靠,比 2010 年代中期少了三分之一。今年內容行業爆火的新賽道:AI 萌寵短劇|圖源:抖音許多使用者打開社交媒體後,就進入了「下滑-點選」的機械式的回路,大家都不是在真正連接別人,而是在半夢半醒裡滑動螢幕。這种放不下手機,又邊刷邊走神的狀態,作者稱之為「環境性解離」。創作者也同樣疲憊,他們得和 24 小時無休、沒有靈感瓶頸的 AI 競爭,還要想盡辦法製造更能搶佔注意力的內容。演算法推薦機制結合 AI 的低成本生產內容,把平台內容塞爆了,把使用者看累了,把優質創作者擠走了,所以每個人都在說:社交媒體活人感越來越少了。但瓦解不是終點,而是轉折。社交媒體的下一個階段,是從大平台逃離,開始擁抱小圈子。因為「演算法推薦」+「AI 批次製造內容」+「情緒化傳播」三板斧下來,讓人們的注意力變得廉價同時又極度稀缺。大廣場裡刷不完的內容,無法滿足一個人「被理解」的需求時,人們要麼搬進更小的圈子、要麼把情緒寄託給可控的服務。就像從大牌連鎖店的預製菜,轉向你樓下現炒的街邊小店,或是聘請一個燒菜阿姨:規模小,但東西更真,更合你口味。現實中,這已經在發生。02 大平台,小圈子過去一年,比黃金更值得投資的是 Reddit 的股票。2024 年 3 月,在我們報導 Reddit 上市文章時,Reddit 股票是約 50 美元一股,一年半後,Reddit 股價翻了五倍,超過了 250 美元/一股(截稿時已達 266.66 美元/股),市值接近 500 億美元。上市一年半,Reddit 股價翻 5 倍|圖源:GoogleReddit 和 X(前身 Twitter)、Facebook 一樣是老派社交媒體,今年已滿 20 歲。但為什麼只有 Reddit 煥發了第二春呢?因為 Reddit 是小圈子的典範:Reddit 的子版塊讓使用者圍繞興趣聚集,每個版塊都有版主人工管理,內容規則清晰,不依賴演算法喂食。這讓它在 AI 垃圾橫行的時代顯得乾淨,也更有人情味。社交媒體正在從一個大廣場分裂成很多小房間。Reddit 就是把房間分割的最好,打掃最乾淨的一家。在投資者眼中,Reddit 就是「社區模式」的價值回歸。另一個小圈子化做得很好的是 Discord。Discord 是一個社群化的 App,它不依賴任何推薦、匹配演算法,所有的頻道都由使用者自己建立、管理。2025 年,Discord 使用者數破 5 億,許多使用者都是從 Facebook 群遷移過去的「難民」。把群組功能做到極致的 Discord|圖源:Discord付費郵件分發平台 Substack 也火了,創作者可以直接單向和訂閱者發郵件,避開平台的演算法和 AI 內容,小量忠實受眾的長期價值也開始被重估。從追求十億級使用者,到經營高品質小群體,社交的價值正在變化。小圈子減少噪音,讓人們感到被真正「看見」,也不必擔心暴露在大眾面前引來網暴。在各類話題衝突和對立日益嚴重的當下,小圈子就像一個自嗨式的烏托邦,雖然是回音室,但讓人更安心,也更真實,使用者能在其中做自己,也能懂別人,這才是一種網路社交的真·連接。這種趨勢被《福布斯》雜誌稱之為「親密經濟」:使用者的注意力已經渙散了,人們開始渴望被理解、被回應,情緒價值本身成了產品。近年來許多陪伴型 AI 聊天機器人的爆火,就是一種「親密經濟」,大家的表達欲還在,只是從發朋友圈、發微博,轉向了對 AI 傾訴。在親密經濟中,情緒真的就是一種價值,提供情緒價值也變成了一種服務。用大白話來說,大家上網不想再給自己添堵了,甚至無暇去關注「大廣場」上的罵戰,只想躲回自己的小房間。 行業分析與社媒監測顯示 Instagram 等平台的平均互動率在 2024–2025 年出現明顯下行|圖源:socialinsider於是,社交的重心開始悄然轉移。越來越多的人選擇走進小型、封閉的數字房間:Discord 的私密伺服器、Telegram 的加密群組、Signal 的邀請制社群都在快速增長。與龐大的公共平台不同,這些社區的邊界不由 AI 和演算法控制,而是由使用者自發決定:誰可以加入、誰能看到什麼內容、不可以說什麼話……明確規則結合人工管理,讓 bot、垃圾內容、噪音、圈外人的評判都被隔絕到了圈子之外,成員間對彼此的期待也更明確,互動更真實。Noema 文章還提出另一種值得關注的趨勢:未來的社交媒體可能會「更慢、更斟酌」,不再以「即時」作為唯一價值。平台設計者也在嘗試讓使用者慢慢思考後表達,比如 Signal App 加入了「發帖延遲」功能:寫完文案,得等幾分鐘才能發,減少沖動發言,讓人有時間思考而不是情緒化輸出。與此同時,演算法的角色也需要重新定義。下一代社交產品很可能會把選擇權交還給使用者:你可以決定資訊流的來源、篩選推薦的方式,甚至一鍵關閉所有 AI 內容。這種「更慢、更小、更可控、更親密」的趨勢,既是當下社交媒體的一種轉向。未來的網路社交,不是更熱鬧,而是更安靜,它可能只存在於不過百人的群組,也可能只存在於你和一個 AI 聊天的對話方塊。 (極客公園)
馬斯克新模型背後演算法來自輝達???
Grok-4-fast最近在降本增效上的表現堪稱一騎絕塵,連有「路由器」傍身的GPT5都給干趴下了。面對如此驚豔的推理效率,很多人第一反應就是:堆卡式的算力scaling又一次大顯神威了。實際上,Grok的背後確實有輝達的影子。但這次立功的,或許不是老黃的顯示卡,而是演算法。沒錯,Grok-4-fast的秘密武器,被和一篇輝達的演算法論文關聯在了一起。讓LLM快53倍的火箭發動機正如Grok-4-fast所表現出來的一樣,這篇論文解決了困擾行業已久的推理成本問題。一味的硬體Scaling只會讓模型廠商帳單上的數字越來越長,使用者耐心也在漫長的推理時間中逐漸被消耗殆盡。為此,輝達研究團隊推出了一種全新「混合結構」模型——Jet-Nemotron。經過一系列全面的基準測試,發現Jet-Nemotron-2B的表現與Qwen3、Qwen2.5、Gemma3和Llama3.2等頂尖開源模型不相上下,還能實現約53倍的速度提升。例如在MMLU-Pro上,Jet-Nemotron-2B不僅精準率比Qwen3-1.7B-Base更高,就連生成速度也要快上47倍。此外,Jet-Nemotron-2B即便遇上參數更大的模型也絲毫不虛,它在MMLU和MMLU-Pro上的精準率甚至可以超過DeepSeek-V3-Small和Moonlight(總參數量15B,啟動參數量2.2B)。改變這一切的關鍵,在於一個叫PortNAS的新框架。不同於以往的方法,PostNAS不是從零開始訓練,而是以一個預訓練的全注意力模型為起點,並凍結其MLP權重,只探索注意力機制的改進。這樣一來,不僅能讓訓練成本直接降低幾個數量級,還能有更多精力用於全面探索模型結構。其流程包括四個核心部分:全注意力層放置、選擇最優的線性注意力模組、設計更優的線性注意力模組、硬體感知架構搜尋。全注意力層放置大多數團隊會在模型的所有層裡統一使用全注意力,但這會浪費算力資源。因此,輝達團隊希望保留少量關鍵的全注意力層,以維持複雜任務的精準性,同時剔除冗餘層以提升效率。PostNAS的做法是:先建構一個同時包含兩種注意力機制的超級網路,再通過特徵蒸餾來訓練子網路,最後用beam search找到最優的注意力層放置方案。事實證明,的確並非所有注意力層都重要,不同任務依賴不同層,少量關鍵層即可覆蓋大部分任務需求。實驗結果顯示,PostNAS優於均勻放置策略——在只使用2層全注意力的情況下,PostNAS的精準率約49%,而均勻放置的精準率約40%。選擇最優的線性注意力模組在確定了全注意力層後,輝達團隊開始進行注意力模組搜尋,旨在找到目前最優的線性注意力模組。論文評估了六種當前最先進的線性注意力模組,包括RWKV7、RetNet、Mamba2、GLA、DeltaNet和Gated DeltaNet。這六個之中,Gated DeltaNet的精準率最高,這主要歸功於兩個因素:1、資料依賴門控機制(Data-Dependent Gating Mechanism):可以理解成一個路由器。模型會根據輸入的內容,決定是更重視新資訊,還是之前的歷史狀態,從而在不同任務裡找到平衡。2、Delta規則(Delta Rule):不是每次都把記憶裡的東西全部覆蓋,而是只更新新變化的部分。這樣能減少不必要的重複儲存,節省記憶體,同時保持資訊的連續性。更優解:JetBlock不過,輝達並不打算止步於Gated DeltaNet,而是設計了一款比它更強的線性注意力模組——JetBlock。摺積對線性注意力模組的精準率至關重要,然而,以往方法大多使用的是靜態摺積核,它們無法根據輸入自動調整特徵提取方式。相比之下,JetBlock使用動態摺積,通過線上性注意力中引入一個摺積核生成器模組,JetBlock能根據輸入特徵動態地產生摺積核。結果顯示,JetBlock在數學推理和檢索任務上的精準率優於Gated DeltaNet,而且仍然保持了不錯的生成效率。要是跟表現最差的Mamba2比起來,JetBlock的優勢就更明顯了。硬體感知架構搜尋在確定了宏觀架構以及選擇了線性注意力模組之後,輝達團隊進一步進行了硬體感知架構搜尋,用於最佳化核心超參數(key/value的維度、注意力頭的數量…)。過去,參數規模通常被作為衡量模型效率的主要指標,用來指導架構設計。但輝達團隊認為這種方法並不理想,因為參數量並不能直接反映真實硬體上的效率。對此,他們改進的方法是:以生成吞吐量作為直接目標來選擇超參數。輝達團隊發現,相比起參數量,KV快取大小才是影響長上下文和長文字生成吞吐量的最關鍵因素。而當KV快取大小固定時,不同參數規模的模型,其生成吞吐量表現相似。基於此,輝達團隊選擇保持KV快取大小與原始設計一致,然後在key維度、value維度和注意力頭數上進行小規模網格搜尋。實驗證明,最佳化後的版本在保持吞吐量不變的情況下,參數量增加(1.84億 vs 1.7億),同時數學精準率得到提升(34.8% vs 32.8%)(藍色行代表實驗組,灰色行代表對照組。)綜上,PortNAS有望為目前的AI行業帶來三點影響。1、推理階段GPU使用時長減少47倍,這讓LLM能夠以更快的速度完成高品質任務。2、更小的記憶體需求,這使得更廉價的硬體部署成為可能。3、更高吞吐量,意味著模型廠商可在現有基礎設施規模下服務更多使用者。而且,PostNAS提供低成本、高效率的架構探索方式,適用於任何預訓練Transformer。所以基本上,任何廠商都可以在不重新訓練模型的情況下嵌入PortNAS,模型的成本可以大幅降低,同時精準率幾乎不會受到影響。此外,Jet-Nemotron居然還是開放原始碼的。通訊作者Han Cai在Github上表示Jet-Nemotron的程式碼和預訓練模型將在法律審查完成後發佈。感興趣的朋友可以查看文末的連結~Grok-4-fast的背後是輝達?同時看到Grok-4-fast和Jet-Nemotron二者同樣驚豔且高度相似的表現,很難不讓人懷疑老馬和老黃這一次是不是聯手了。在Reddit上,有網友推測Grok-4-Fast應該就是基於Jet-Nemotron創造的。Jet-Nemotron可以在不犧牲模型性能的情況下,大幅減少推理所需的計算量,這與Grok-4-fast所展現出來的能力高度相似。這一觀點能從資料上得到支撐——從Grok-4-fast的定價來看,其價格下降水平與NVIDIA對這種架構模型的預測相符(論文預計會便宜20倍到50倍)。更重要的是,如果Jet-Nemotron能夠應用於Grok,那它同樣能被OpenAI、Anthropic、Google等公司部署。也有網友不同意這種說法,認為Grok此次的降價也許只是一種行銷手段,並不能從中推斷出xAI是否採用了什麼新技術。他們可能只是在燒錢獲取市場份額,我不認為你可以從中推斷出是採用了某種特定架構。但是,即便Grok-4-fast沒有採用輝達的技術,這篇論文也是極有價值的,因為Jet-Nemotron同樣可以被用來進一步降低成本。而且,xAI也不太可能在這麼短時間研究出來了另一種和Jet-Nemotron一樣效果顯著的技術。當然,也可能是其他演算法上的突破。如果真是這樣,那仍然是極具突破性的,因為Jet-Nemotron也可以被用來進一步降低成本。但說實話,XAI真的又發現了一個能讓價格再下降20倍以上的演算法改進的可能性有多大呢?不過,上述觀點都只是猜測,目前這些說法都未得到xAI驗證… (量子位)
區塊鏈技術主要的共識機制PoW和PoS
區塊鏈技術依賴於共識演算法來確保交易安全和網路完整性。其中兩種主要演算法,即工作證明(PoW)和股權證明(PoS)。PoW就是跟挖礦有關的共識演算法,我們常說的挖礦、礦池、挖礦能源消耗都是和這個共識機制有關,簡單來說就是多勞多得。PoS就是有錢(權力證明)的人話語權多。具體來說:工作證明(PoW)工作證明是比特幣及許多其他加密貨幣使用的原始共識演算法:• 機制:礦工通過使用計算能力競爭解決複雜的數學難題。• 區塊建立:第一個解決難題的礦工驗證並加入下一個交易區塊到區塊鏈中。• 安全性:PoW通過要求礦工消耗大量的計算資源(電力和硬體)來驗證交易,確保網路安全。這使得攻擊者在經濟上無法篡改區塊鏈。• 激勵:礦工成功挖礦後會獲得加密貨幣獎勵(如比特幣)。股權證明(PoS)股權證明提供了一種替代方法來確保區塊鏈網路的安全性:• 機制:驗證者根據他們持有並願意鎖定的代幣數量來建立和驗證新的區塊。• 選擇過程:驗證者根據他們抵押的代幣數量比例被選中來驗證交易,而不是通過競爭挖礦。• 安全性:PoS通過要求驗證者在網路中擁有財務抵押來確保網路安全。如果驗證者驗證了欺詐交易,他們可能會失去抵押的代幣,從而確保了他們對網路完整性的承諾。• 能源效率:與PoW相比,PoS更加節能,因為它不需要大量的計算資源。主要區別• 資源消耗:PoW消耗大量的計算能力和電力,而PoS更加環保。• 安全模式:PoW依賴於計算工作和外部資源來確保安全性,而PoS利用經濟激勵和驗證者的抵押。• 驗證過程:PoW通過競爭挖礦驗證交易,而PoS根據參與驗證者的抵押量來驗證交易。 (快樂的丁小虎)
區塊鏈開發者面試必備:6種常見共識演算法全解析
說在前面作為一個在區塊鏈搬磚多年的開發者,我發現共識機制是面試中最常被問到的技術問題之一。今天,我想梳理一下6種主流共識機制,為我也為你在面對相關問題時能夠準確、專業地回答。共識機制解決的核心問題在分佈式網路中,節點之間如何在沒有中心權威的情況下對某個值或狀態達成一致?這就是共識機制要解決的根本問題。簡單地來說,解決了三個核心問題:由誰來驗證、由誰來記帳、保障節點資料的一致性。核心概念一覽先給你一個全域視角,6種主流共識機制的關鍵特點:• POW(工作量證明):通過算力競爭達成共識,比特幣的選擇• POS(權益證明):通過持幣權重決定出塊權,以太坊2.0的選擇• PoH(歷史證明):Solana的創新,通過時間戳最佳化性能• DPOS(委託權益證明):代表投票制,EOS等鏈的核心• PBFT(實用拜占庭容錯):容忍惡意節點,聯盟鏈的安全選擇• Raft:強一致性演算法,分佈式系統的經典選擇,私有鏈和企業內部系統常用POW:算力即正義POW(Proof of Work)是最早也是最知名的共識機制,比特幣網路就是基於這個演算法運行的。打個比方:這就像數學搶答賽,誰最快算出答案誰就獲得記帳權。實現原型// POW挖礦核心邏輯func mine(blockData []byte, difficulty int) (uint64, []byte) {    target := make([]byte, 32)    // 設定目標值:前difficulty位為0    var nonce uint64    for {        data := append(blockData, uint64ToBytes(nonce)...)        hash := sha256.Sum256(data)        if bytes.Compare(hash[:], target) < 0 {            return nonce, hash[:]        }        nonce++    }}優缺點:• ✅ 安全性在比特幣網路中經過長期驗證,去中心化程度高• ❌ 能耗巨大,吞吐量低(比特幣約7TPS)POS:持幣即權力POS(Proof of Stake)通過持幣數量而非算力來決定出塊權。打個比方:這就像股東大會,持股多的人有更大發言權。實現原型// POS驗證者選擇演算法type Validator struct {    Address string    Stake   uint64}func selectValidator(validators []Validator, seed []byte)string {    totalStake := uint64(0)    for _, v := range validators {        totalStake += v.Stake    }    // 基於質押權重和隨機數選擇    target := binary.BigEndian.Uint64(seed) % totalStake    current := uint64(0)    for _, v := range validators {        current += v.Stake        if current >= target {            return v.Address        }    }    return""}以太坊2.0的實現要點• 質押要求:最少32 ETH(2025年Pectra升級後單個驗證者最大可質押2048 ETH)• 時間結構:每12秒一個slot,32個slot組成一個epoch• 最終確定性:2個epoch後交易具有最終確定性優缺點:• ✅ 能耗極低,出塊速度快• ❌ "富者愈富"問題,Nothing at Stake攻擊風險DPOS:代議制民主DPOS(Delegated Proof of Stake)通過投票選舉出少數代表來負責出塊,如EOS選出21個超級節點。打個比方:這就像議會制,大家投票選出代表來做決定。實現原型type BlockProducer struct {    Name  string    Votes uint64}func electProducers(candidates []BlockProducer, count int) []BlockProducer {    // 按得票數排序    sort.Slice(candidates, func(i, j int)bool {        return candidates[i].Votes > candidates[j].Votes    })    iflen(candidates) < count {        return candidates    }    return candidates[:count]}優缺點:• ✅ 高性能(EOS約4000 TPS),快速確認• ❌ 去中心化程度低,存在賄選風險PoH:時間排序的創新PoH(Proof of History)是Solana的核心創新,通過可驗證延遲函數建立時間序列,實現高性能。打個比方:像鐘錶,先有了準確的時間,再安排誰做什麼事。通俗理解想像一個場景:你要證明某張照片是在特定時間拍的,但沒有時間戳。傳統方法是找證人,但PoH的做法是:讓你在拍照前做一萬次伏地挺身,每次都拍下來。因為伏地挺身必須一個一個做(無法作弊),所以照片的順序就證明了時間的先後。Solana的PoH就是這個原理:通過SHA256雜湊運算(相當於伏地挺身)建立無法偽造的時間序列。需要注意的是,PoH本身不是完整的共識演算法,而是一種時間排序機制,Solana將其與PoS結合使用。實現原型// PoH條目結構:每個條目包含雜湊值和計數type PoHEntry struct {    Hash  []byte// 當前的雜湊值,作為時間證明    Count uint64// 計數器,表示執行了多少次雜湊運算}// 生成PoH序列的核心函數func generatePoH(initialHash []byte)chan PoHEntry {    // 建立一個緩衝通道,用於傳遞PoH條目    entries := make(chan PoHEntry, 1000)    // 啟動一個goroutine持續生成PoH序列    gofunc() {        hash := initialHash // 從初始雜湊值開始        count := uint64(0)  // 計數器初始化為0        for {            // 關鍵步驟:對當前雜湊值進行SHA256運算            // 這個過程必須序列執行,無法平行加速            hash = sha256Hash(hash)            count++ // 每次雜湊運算後計數器加1            // 將新的PoH條目傳送到通道            // 每個條目都包含當前雜湊值和計數            entries <- PoHEntry{                Hash:  hash,  // 雜湊值作為時間戳的證明                Count: count, // 計數表示從開始到現在的"時間"            }            // 這個循環會持續運行,不斷生成時間證明            // 就像時鐘的滴答聲,為網路提供時間基準        }    }()    return entries}// 驗證PoH序列的函數func verifyPoH(entries []PoHEntry, initialHash []byte)bool {    currentHash := initialHash    for i, entry := range entries {        // 重新計算雜湊值        currentHash = sha256Hash(currentHash)        // 驗證雜湊值是否匹配        if !bytes.Equal(currentHash, entry.Hash) {            returnfalse        }        // 驗證計數是否正確        if entry.Count != uint64(i+1) {            returnfalse        }    }    returntrue}Solana的混合架構Solana = PoH(時間排序)+ PoS(共識安全)性能表現:• 理論TPS:65,000+• 出塊時間:400毫秒• 確認時間:約12.8秒優缺點:• ✅ 極高性能,支援平行處理• ❌ 硬體要求高,相對中心化PBFT:拜占庭容錯PBFT(Practical Byzantine Fault Tolerance)解決拜占庭將軍問題,廣泛用於聯盟鏈。打個比方:這就像軍事會議,將軍們必須達成絕對一致才能行動。實現原型三階段協議type PBFTMessage struct {    Phase     string// "pre-prepare", "prepare", "commit"    View      int    Sequence  int    Digest    []byte    NodeID    string}func (n *Node) handlePBFT(msg PBFTMessage) {    switch msg.Phase {    case"pre-prepare":        // 驗證提案,傳送prepare消息        n.sendPrepare(msg)    case"prepare":        // 收集prepare消息,超過2f+1個則傳送commit        if n.prepareCount >= 2*n.faultCount+1 {            n.sendCommit(msg)        }    case"commit":        // 收集commit消息,超過2f+1個則執行        if n.commitCount >= 2*n.faultCount+1 {            n.executeRequest(msg)        }    }}優缺點:• ✅ 強一致性保證,快速最終確認• ❌ 通訊複雜度高(O(n²)),不適合大規模網路Raft:工程師的簡單選擇Raft將一致性問題分解為領導者選舉、日誌複製、安全性三個子問題。打個比方:像班級選班長,選出一個領導者負責組織大家。type RaftNode struct {    state     string// "follower", "candidate", "leader"    term      int    votedFor  string    log       []LogEntry    commitIndex int}func (n *RaftNode) requestVote() bool {    n.term++    n.state = "candidate"    n.votedFor = n.id    votes := 1// 自己的票    for _, peer := range n.peers {        if peer.vote(n.term, n.id) {            votes++        }    }    if votes > len(n.peers)/2 {        n.state = "leader"        returntrue    }    returnfalse}我在參與一個聯盟鏈BaaS項目時發現,Hyperledger Fabric 1.x使用了PBFT類演算法,而2.x使用Raft作為排序服務的共識機制,實現相對簡單,偵錯和維護都比較容易。優缺點:• ✅ 演算法簡單,易於理解和實現• ❌ 需要奇數個節點,不適合惡意環境不可能三角理論下的技術取捨V神提出的區塊鏈不可能三角理論認為:去中心化、安全性、可擴展性無法同時達到最優。選擇決策框架基於我的實際項目經驗,不同場景下的選擇建議:公鏈場景• 優先去中心化和安全性(數字貨幣):POW或POS• 優先性能(DeFi、遊戲):PoH或DPOS我觀察到Solana生態中的Raydium等DeFi項目,都充分利用了PoH的高性能特性,實現了中心化交易所等級的使用者體驗。聯盟鏈場景• 強一致性需求:PBFT• 簡單可靠:Raft從我的學習調研中發現,國內的聯盟鏈項目廣泛採用了這兩種演算法:• 某蟻鏈:基於PBFT的改進版本,用於支付寶的區塊鏈業務• 騰訊TBaaS:支援PBFT共識,服務於騰訊雲的企業客戶• 某為雲區塊鏈:同時支援PBFT和Raft,根據業務場景選擇私有鏈場景• 企業內部系統:Raft(性能優先,參與者可信)• 需要拜占庭容錯:PBFT(參與者可能惡意)面試要點總結面試中的關鍵答題框架:1. 原理解釋:用打個比方說明演算法核心機制2. 優缺點對比:基於不可能三角分析權衡3. 應用舉例:提及具體區塊鏈項目4. 場景選擇:根據業務需求推薦合適機制常見面試問題示例:• "為什麼以太坊要從POW轉向POS?"• "Solana的PoH機制如何提升性能?"• "聯盟鏈為什麼選擇PBFT而不是POW?"記住,共識機制的選擇沒有標準答案,重要的是理解每種機制的設計理念和適用場景。 (明技術堆疊)
高盛-中國人形機器人實地調研
我們於5月19日至20日在北京/深圳走訪了8家人形機器人企業,並於5月21日在上海舉辦的高盛科技網路會議(GSTechNet)上與3家機器人行業公司(創始人/研發負責人)進行了小組討論(共覆蓋7家私營初創企業、6名高管)。多數行業參與者認為,機器人必須將通用智能與實際應用結合才能實現規模化。實現這一目標依賴四項核心技術:演算法、資料、算力和硬體。儘管中國在硬體供應鏈方面保持強大領先地位,但初創企業已開始致力於開發人形機器人的“大腦”。各公司普遍認為,視覺-語言-動作(VLA)模型是可行解決方案,而高品質的真實世界資料對於實現與物理世界的一致性和任務精準性愈發重要。企業正投資建設“資料工廠”以大規模收集機器人真實互動資料,我們走訪的一家公司估計,達到通用型(L3)能力需要1000萬小時的資料,需投入1億至2億美元。在計算方面,輝達的JetsonOrin仍佔主導地位,但中國企業已開始探索與華為合作。鑑於精細運動控制和攝影機輔助物理資料收集的重要性,硬體開發的重點日益集中在配備觸覺和力反饋感測器的靈巧手上。在實際應用方面,物料搬運和分揀等工業場景常被提及為早期商業機會,而消費級應用因除技術要求外還面臨額外的安全和監管障礙,距離落地仍較遙遠。在定價方面,人形機器人價格因功能規格差異顯著(1.5萬至10萬美元),行業普遍預期規模生產和元件最佳化將推動成本下降。總體而言,我們對人形機器人技術進展和行業長期前景持積極看法,維持行業預測:2025年全球出貨量2萬台,2035年達140萬台。在股票影響方面,我們仍關注零部件供應商,如三花智控(買入)、雷賽智能(中性)、貝斯特(中性)、鳴志電器(中性)。我們認為,資料收集相關供應鏈企業可能成為新增受益者。關鍵觀察事件:8月15日至17日在北京舉辦的世界人形機器人大會,將設定(1)13項運動及表演賽事,如田徑、自由體操、足球比賽、單人/團體舞蹈;(2)6項應用場景賽事,包括工廠環境中的物料搬運與整理、醫療場景中的藥品分揀與拆包、酒店場景中的互動接待與清潔。我們注意到,與2025年4月19日在北京舉辦的主要展示硬體可靠性/耐用性和運動控制能力的人形機器人半程馬拉松相比,此次賽事將更全面地展示人形機器人技術(尤其是智能性、通用性和敏捷性)。詳細要點:人形機器人企業認為,若要實現商業化,人形機器人必須具備通用智能並能夠執行實際任務。為實現這一目標,四項核心技術至關重要:(1)演算法,(2)資料,(3)算力,(4)硬體。硬體和軟體缺一不可,發展通常呈螺旋式迭代——硬體進步推動軟體提升,反之亦然。儘管人們普遍認為中國在硬體供應鏈方面具有強大優勢,但在此次走訪中,我們注意到初創企業正加大研發投入以增強人形機器人的“大腦”。演算法:VLA模型被視為可行解決方案在生成式AI領域,大語言模型(LLM)通過巨量資料分析處理文字並輸出相關文字,而視覺-動作-語言(VLA)的核心架構與標準LLM並無根本差異,不同之處在於輸入變為視覺與動作的融合,輸出為機器人預期執行的動作。VLA架構是多數公司普遍接受的基礎,部分公司還將觸覺資訊作為另一種輸入整合其中。一位企業高管表示,中國在演算法結構的研究質量上可能比美國落後0.5-1年,但正快速追趕。VLA被視為早期成功方向,但某初創企業CEO也指出,它可能並非最終解決方案,並提及深度學習中的早期循環神經網路(RNN)——雖為重要基礎,但隨著架構成熟可能被取代。儘管如此,當前圍繞VLA的工作對未來模型突破至關重要,該領域預計將經歷3-4次重大迭代。資料:高品質資料最為關鍵使用資料訓練模型通常分為三個步驟:人工工作視訊預處理:教授模型常識知識和任務結構,例如教機器人逆時針打開水瓶。監督微調(SFT):使用遠端操作收集的資料或模擬資料對演算法進行微調,提高精度。人類反饋強化學習(RLHF):在真實複雜環境中實際執行預期動作並最佳化行為。儘管存在爭議,但多數觀點認為高品質真實資料最為關鍵:基於上述訓練機制,當前使用三種資料——2D視訊、遠端運算元據和模擬資料。我們的訪談顯示,關於那種資料最有效訓練具身AI系統仍存爭議。有人認為模擬資料因可擴展性和低成本最具優勢,也有人強調真實資料的重要性,因其更能捕捉物理一致性(即遵循真實世界物理規律)。此外,擁有多樣化資料集以測試各種場景下的動作至關重要。在模擬環境中建構多樣化場景未必成本更低。總體而言,多數人認同“資料配方”的必要性,即三種資料的有效融合,而高品質真實資料因以下特性最為關鍵:1)精準性(動作與物理現實的匹配程度);2)多樣性(環境、物體類型和動作的可變性)。規模需求達1000萬小時,催生“資料工廠”:某初創企業CEO估計,要達到L3級通用自主能力,需要1000萬小時的機器人真實資料。這相當於1萬台機器人或操作員持續工作2年的工作量,需投入1億至2億美元,催生了“資料工廠”概念:多家企業已將資料收集基礎設施(“資料工廠”)視為戰略投資。關於硬體特定限制的爭議:對於從一台機器人收集的資料可在多大程度上應用於另一台機器人,存在不同觀點。有人認為“動作輸出”通常易於在機器人間遷移,也有人指出,儘管最終希望建構可跨不同形態機器人擴展的VLA模型,但當前資料仍必須與硬體緊密繫結,因模型尚處於早期階段。即使在遠端運算元據中,也存在多種資料收集方法:基於視覺的系統(攝影機或VR):成本最低、擴展性最強,但精度最低(釐米至分米級)。慣性測量單元(IMU)感測器:安裝於關節處,精度達毫米級,但存在漂移/累積誤差。光學動作捕捉系統(如辰視智能子公司FZMotion提供的解決方案,凌雲光):使用多攝影機和反游標記,精度可低於0.1毫米。政府支援效果有限:某公司提到政府對基礎模型和部分資料提供補貼。關於政府支援的資料收集中心,即使政府共享開源資料集,可能有助於某些預訓練,但不足以實現垂直領域的微調或任務級掌握。算力:輝達佔主導,部分企業與華為合作由於邊緣計算限制,企業正採用“快+慢”系統:訓練或處理更複雜任務時仍需4090/3090等高端GPU,同時使用邊緣裝置Jetson(Orin、Thor)運行VLA模型以實現機載感知、規劃和輕量級推理。但部分本土初創企業正與華為合作,顯示在地緣政治風險下建構國產計算基礎設施的努力。硬體改進重點:靈巧手幾乎所有受訪企業均指出,靈巧手在為近期資料收集做準備及中長期在工廠處理更複雜敏捷任務中至關重要。人形機器人的多數其他元件(如減速器、電機、絲槓)因供應商增多和行業努力已日益普及,儘管這些元件在耐用性、可靠性和散熱方面仍需改進。然而,靈巧手是主要瓶頸,原因包括:(1)不同機械設計難以平衡承重、靈活性和成本;(2)觸覺感測器性能和成本競爭力不足——觸覺感測器通過收集力、扭矩、溫度、紋理、摩擦等物理參數,對訓練和改進機器人AI模型至關重要。我們訪談的一家國內觸覺感測器公司正嘗試:(1)引入明確的資料標準,通過靈巧手簡化資料收集、處理和訓練,並通過設計、演算法和材料創新降低感測器成本,其感測器均價已比海外同類產品低50%以上。工業場景(物料搬運/分揀)可能成為早期應用,消費級應用仍遙遠物料搬運常被人形機器人企業視為工廠中的早期商業機會,因其跨行業需求廣泛且對任務性能(尤其是精準性和效率)的容忍度較高。某公司稱其人形機器人在物料搬運中已達到95%的精準率,另一家公司表示,該任務速度達人類勞動的30%(若機器人每天兩班倒則達60%),小規模應用預計始於2025-2026年。分揀是另一個需求更大的場景(不僅在工廠,還包括藥店等零售場景),儘管對速度的要求比物料搬運更高。企業還提到碼垛/卸垛和裝卸任務的巨大需求(如某大型電動汽車公司有2萬名工人執行此類任務),但仍存在許多技術瓶頸(如識別小物體或顏色相近的物體)。此外,儘管人形機器人製造商對長期消費級應用需求(如家務勞動)持樂觀態度,但他們指出,高度多樣化的消費環境對技術要求極高,更不用說監管和安全/隱私問題。此外,商用機器人已部署在導引和互動接待場景,這些場景對VLA性能要求較低。據某初創企業稱,這些用例今年的出貨量超出預期。不同規格和應用的均價差異大,成本下降潛力顯著我們走訪的企業提供的人形機器人均價在1.5萬至10萬美元之間,主要因規格不同。行業共識表明,目前尚無滿足所有應用的通用設計。低價端產品嵌入的智能/AI能力非常有限,僅具備基本硬體規格(自由度有限,無靈巧手或視覺感測器),能夠快速完成基本動作(如行走、揮手)和預設動作(如跳舞),主要銷售給大學和AI實驗室用於研究,或企業/政府用於接待或娛樂。另一方面,高端產品通常在手臂使用諧波減速器(而非行星減速器)和滾珠絲槓(而非連桿),並配備視覺攝影機、力/扭矩感測器和帶觸覺感測器的靈巧手,旨在通過AI/自主功能在工廠環境中執行精細或重型任務。多數公司預計2025年機器人年出貨量為數百台。展望未來,所有企業均認為人形機器人具備顯著成本下降潛力,驅動力包括生產最佳化(如專用裝置和生產線)和產量提升降低單位折舊及前期開發成本(如研發和模具),這將為製造客戶帶來更好的投資回報率(ROI)。 (有道調研)
GoogleAlphaEvolve引發OpenAI關注:AI原創演算法,正挑戰人類專家界限
GoogleDeepMind這兩天推出的AlphaEvolve的新系統,因其在演算法設計上展現出的超越人類專家的原創能力,引起了業界的廣泛關注,其中也包括來自OpenAI等頂尖研究機構的目光。該系統不僅成功最佳化了沿用數十年的經典演算法,更在多個實際應用中設計出全新解決方案。AlphaEvolve的核心在於其巧妙地結合了GoogleGemini模型的強大程式碼生成能力與一種進化演算法。通過這種機制,系統能夠自主探索、生成並迭代最佳化演算法程式碼。其最引人注目的成就之一,便是針對已存在56年之久的Strassen矩陣乘法演算法提出了更高效的計算方法,減少了產生結果所需的計算量。此外,DeepMind還運用AlphaEvolve在資料中心任務調度、電腦晶片設計以及大型語言模型(如Gemini自身)的最佳化等領域取得了突破,設計出超越現有已知方案的演算法。DeepMind的研究人員強調,AlphaEvolve所發現的演算法並非對現有知識庫的簡單模仿或重組,而是“可被精確證明是全新的、且正確的”,這些成果在訓練資料中並不存在。這標誌著AI在特定任務上,已從學習和複製邁向了真正的創造和發現這種原創能力正是AlphaEvolve引起業內高度關注的關鍵。OpenAI的研究員Jason Wei坦言對AlphaEvolve的進展感到“震撼”:“判別器-生成器差距”可能是AI驅動科學創新的最重要的理念。AlphaEvolve的成功,正是利用了這一點:只要我們能夠清晰地定義問題並建立有效的評估(測量)體系,AI憑藉其強大的算力和搜尋能力,就能在巨大的可能性空間中找到最優解。Jason Wei甚至提出“測量就是你所需要的一切”(Measurement is all you need),只要問題可以被量化和快速驗證,AI就有潛力在該領域取得突破--jason wei這裡大家可能對判別器-生成器差距 (Discriminator-generator gap) 這個概念比較陌生,這通常指的是生成對抗網路(GANs)中的核心概念。在GANs中,生成器(Generator)嘗試建立逼真的資料(例如圖像、文字),而判別器(Discriminator)則努力區分真實資料和生成器建立的虛假資料。兩者在持續的競爭中共同進化和提升,生成器力求“欺騙”判別器,判別器則不斷提高識別能力。“差距”指兩者能力之間的差異,或者通過這種對抗過程驅動的創新潛力AlphaEvolve並非DeepMind在利用AI探索科學邊界方面的首次嘗試。此前的AlphaTensor項目利用強化學習發現了新的矩陣乘法演算法,而FunSearch則使用進化方法為特定問題生成更高效的程式碼。這些項目的共同點在於,它們都旨在讓AI超越模式識別,進入主動發現和創造的領域Google最近一直在放大招,感覺又重回AI領頭羊的角色了,據說Google會在北美5月20號的I/O大會上放出Gemini 2.5超大杯,我們拭目以待,哈哈,OpenAI放出Codex已經提前狙擊Google了 (AI寒武紀)