#AI實驗室
來自MIT最強AI實驗室:OpenAI天才華人研究員博士畢業了!
他曾在高中接觸深度學習,本科機器人創業、實習助力Gemini 2.0開發、橫跨AI與哲學雙領域……如今,不到4年讀完MIT博士,完成答辯。在OpenAI,他將繼續推進「世界模型」——這項可能重塑通用人工智慧路徑的前沿技術。不到4年完成頂級AI實驗室博士、順便輔修了哲學、GPT圖像生成核心5人研究團隊成員、OpenAI視訊生成模型Sora小組成員……剛剛,OpenAI華人研究科學家陳博遠,完成了MIT博士論文答辯!他激動地表示:我很興奮能夠在工業界繼續推進世界模型的發展——現在加入了GPT圖像生成和Sora視訊團隊。沒有什麼比看到自己的研究改變領域範式更令人興奮的事情了!在如此重要的時刻,他自然也感謝了導師和親友,得到了大家的祝賀。最後,他強調:視覺世界模型對於具身智能將至關重要。此外,他承諾,一如既往地與社區分享知識。華人天才,劍指世界模型陳博遠(Boyuan Chen),現任OpenAI研究科學家,負責訓練GPT圖像生成技術的五位研究人員之一,同時也是Sora視訊生成團隊的成員。他擁有麻省理工學院(MIT)電子工程與電腦科學(EECS)博士學位,並輔修哲學。他的研究重點是世界模型、具身人工智慧和強化學習。他認為,結合這些領域,AI能夠更好地理解並與物理世界互動。2023年5月-2023年8月,在GoogleDeepMind實習期間,他跟隨Fei Xia博士學習。在DeepMind,他主要參與了基於大規模合成資料的多模態大語言模型(MLLM)訓練項目;建構完整資料合成pipeline,其指令微調技術後續被Gemini 2.0採用。在博士答辯中,陳博遠特意感謝了DeepMind的導師Fei Xia。陳博遠還是個高中生時,參加了一個夏令營。這是兩人第一次見面,Fei Xia就向陳博遠介紹了深度學習——那時他甚至還不懂Python和NumPy。這正是他踏入AI領域的起點,Fei Xia就像他的「吳恩達」。Fei Xia兩次邀請他到GoogleDeepMind完成高含金量實習。讀博第一年,陳博遠因為沒有論文產出陷入低谷。這是他讀博最艱難階段,而Fei Xia協助他發表了首個爆款研究NLMap。項目地址:https://nlmap-saycan.github.io/此後,兩人還合作了SpatialVLM。論文連結:https://arxiv.org/abs/2401.12168他發表的多篇論文,在學術界和工業界均獲得認可,包括《Diffusion Forcing》、《SpatialVLM》和《History Guidance》等。矢志通用機器人在去年的部落格中,他對具身智能做出了樂觀的判斷:我可以負責任地告訴大家具身智能一定是下一個一百年最令人激動的技術,並且我們在有生之年很有希望見證通用機器人的誕生。同時,他也更願意看到社會細水長流地投入通用機器人的發展——看到科研工作者,如我導師Russ所說的那樣,「可以以結果為導向的科研,但不可以網紅視訊為導向」;看到政府和投資人在長線看好具身智能的同時,不因為硬體公司的融資需要而盲目相信機器人大模型;看到創業者勇往直前,用細分領域的成功為真正的通用機器人鋪路。在隨筆最後,他表示,「自己也願意用自己的一生給世界帶來真正的通用機器人」而OpenAI被曝出:在通往通用人工智慧(AGI)的競賽中,加大了機器人技術的工作力度,正在組建一個能夠開發控制機器人演算法的團隊,並且似乎正在聘請專門從事人形機器人研究的機器人專家。師出名門,文理雙修在2021-2025年期間,他在MIT電腦科學與人工智慧實驗室(MIT CSAIL)讀博士,師從Russ Tedrake教授和Vincent Sitzmann教授。2017-2021年,在加州大學伯克利分校本科階段,他師從機器人領域大牛Pieter Abbeel教授,獲電腦科學榮譽專業(EECS榮譽班)、應用數學雙學位。他本科畢業於加州大學伯克利分校,主修電腦科學和數學,並在伯克利學過一年哲學。在讀本科期間2017年11月-2020年3月,他還創辦了一家面向中小學的機器人教育公司,主導競賽用機器人套件的軟硬體開發,產品直接面向參賽學生群體。 (新智元)
Forbes福布斯—全球最年輕白手起家億萬富豪,投誠扎克伯格
多家頂尖AI實驗室都是這家初創公司的客戶。不過,它們或許不願意繼續將資料交給一家近半數股權歸屬馬克·扎克伯格旗下科技帝國的公司了。Scale方面否認大客戶OpenAI削減了購買其服務的支出。Scale AI以150億美元向Meta出售49%股權的交易震驚業界,創始人兼首席執行官Alexandr Wang更宣佈將離開親手創立的公司,轉投這家科技巨頭,領導其全新的AI實驗室。這一系列變動引發外界猜測:這家估值140億美元的資料標註企業可能因此流失客戶,被競爭對手搶佔市場。Scale為各大科技公司和AI初創企業提供資料標註服務,助其訓練模型,並已發展成該領域的龍頭企業。此次交易的核心關切在於,被收購後,Scale可能會向Meta分享領先AI機構用於建構最前沿技術的資料類型細節。正如一位前Scale員工向《福布斯》透露的那樣:“現在大家都想切斷和Scale的合作。一旦Scale成為Meta的一部分,其商業模式將徹底崩塌。”據四位知情人士透露,Scale最知名的客戶之一OpenAI已逐步縮減與它的合作,其中兩位指出,這一調整已持續數月,且OpenAI已著手篩選新的合作方。Scale AI起初對此拒絕置評,但在本文刊發後,其發言人喬奧斯本(Joe Osborne)明確否認 OpenAI削減了購買該公司服務的支出。這筆出人意料的交易將Scale估值推至280億美元,不過上述前員工透露,Scale內部卻因交易陷入混亂與困惑。部分員工擔憂Meta可能接觸到過往項目資訊,儘管該公司多數合同明確規定項目完成後需刪除資料。Scale AI的奧斯本在一份聲明中補充道:“這類報導與事實嚴重不符,幕後推手似乎是那些規模較小的對家。”Scale的中小型競爭對手已開始爭奪市場地位,積極招攬所有擔心資料隱私和利益衝突的客戶。估值20億美元的Mercor 首席執行官布蘭登·福迪(Brendan Foody)表示:“我們已經明顯感受到,大量客戶正逐步退出Scale AI,許多相關需求都流向了我們。”Invisible Technologies聯合創始人弗朗西斯·佩德拉薩(Francis Pedraza)告訴《福布斯》,他的公司堅持獨立營運。初創公司Turing已經在為OpenAI、Anthropic和Google提供模型訓練資料了,它認為這筆交易給了自己變身“行業瑞士”的機會,想借此成為向前沿AI實驗室提供資料的中立服務商。首席執行官喬納森·西達思(Jonathan Sidharth)表示:“客戶希望與中立的、能平等支援所有實驗室的組織合作。”一位曾投資Scale競爭對手的投資者稱,這筆交易將為其他公司創造新機會,“搶佔Scale AI留下的市場空白”。高品質人工標註資料是訓練強大AI模型的核心要素,資料資源甚至已成為OpenAI、Anthropic等 AI 巨頭在行業競爭中的護城河。Scale AI於2024年實現8.7億美元營收,憑藉為Cohere、OpenAI及微軟等企業提供海量人工標註資料,早早佔據資料標註市場主導地位。但Meta控股近半數股權的變動或將改寫這一格局。Scale的業務依託龐大的眾包工作者群體——他們主要來自海外,通過為海量資料加入上下文來協助訓練AI模型。但此類工作已逐漸演變為高度同質化的商品。“只要能組建起團隊,人人都能參與競爭,最終很快就會演變成價格戰。”某退出資料標註領域的初創公司聯合創始人Kevin Guo在2023年談及Scale時如此評價。一位AI行業資深高管將Scale比作 “AI訓練超市的散貨區”。多位瞭解Scale業務的知情人士向《福布斯》透露,該公司存在服務質量問題。“他們往往過度承諾、誇大宣傳,但實際交付能力嚴重不足。”上述前員工坦言。28歲的Wang是全球最年輕的白手起家億萬富豪,身家約36億美元。商業出版物The Information報導,Wang將領導Meta的全新實驗室,專注研發所謂的“超級智能”,即超越人類能力的AI系統。為搭建團隊,扎克伯格貌似正開出千萬年薪從Scale AI、OpenAI、Anthropic及Google的DeepMind挖人。彭博社消息顯示,扎克伯格深度參與團隊組建,不僅建立名為“招聘派對”的WhatsApp群組直接對接候選人,還親自調整辦公佈局,讓研究人員的工位緊鄰自己。目前該交易尚未完成,且不排除被監管機構叫停的可能性。若交易獲放行,Wang及Scale早期投資者(包括Accel與Index Ventures)將斬獲巨額回報,但Scale未來的發展路徑仍不明朗。一位Scale AI前高級員工坦言,“這對Wang和早期投資者而言是利好,但對員工、前員工及其他所有人而言就很糟糕了。目前完全看不出這筆交易對Scale有何助益。”過去數年,全球科技巨頭一直在爭奪AI領域的主導地位。Meta雖於2013年便成立AI實驗室,但其開源 Llama 系列模型始終難以比肩Google、OpenAI和Anthropic的產品。今年4月,Meta被指人為美化Llama 4模型的基準測試成績(Meta予以否認),致其AI聲譽受損。而Wang這樣的明星級人才加盟也許能為Meta的AI佈局注入新動力。扎克伯格還推動Meta爭取國防領域的合同,Scale的政府業務板塊或許可與此形成協同(不過《福布斯》之前的報導顯示,Scale的該業務板塊此前市場拓展成效有限)。Meta並非首家挖角明星AI初創公司首席執行官的企業。去年,微軟從Inflection挖走DeepMind聯合創始人穆斯塔法·蘇萊曼(Mustafa Suleyman)及其核心團隊,蘇萊曼在 2022 年成立的這家AI實驗室幾乎只剩下一個空殼;數月後,亞馬遜與Adept達成技術授權協議,並將首席執行官David Luan及其創始團隊招致麾下;Google亦如法炮製,將諾姆·沙澤爾(Noam Shazeer)重新從他創立的初創公司Character.AI挖來——這位研究人員在Google任職期間共同發明了生成式AI的核心技術Transformer架構。Invisible首席執行官馬特·菲茨帕特里克(Matt Fitzpatrick)指出,隨著AI模型複雜度提升,它們對從業者的專業知識水平提出了更高的要求。Scale、Turing及Invisible均已從低附加值的眾包標註轉向更複雜的任務,執行工作的人也成了博士及高知專業人士。他認為,Meta的這筆交易恰恰印證了人工在AI訓練中的重要價值:“這是一場跨度長達十年的戰略佈局,賭的就是人類專家的參與在很長一段時期內都不可或缺。” (福布斯)
DeepSeek 躍居全球第二 AI 實驗室,中美正式並駕齊驅!
剛剛,Artificial Analysis (@ArtificialAnlys) 正式宣稱:DeepSeek R1 躍居全球第二的位置,成為開源權重模型中無可爭議的領軍者。這表明開源模型與閉源模型的差距正進一步縮小,中國 AI 實驗室與美國的競爭已進入並駕齊驅的時代。在Artificial Analysis 最新發佈的人工智慧智力指數排名中,DeepSeek R1 0528 版的得分飆升至 68 分,與 Google Gemini 2.5 Pro 並列全球第二。DeepSeek 這次的小版本升級直接超越了 xAI 的 Grok 3 mini(高配版)、NVIDIA 的 Llama Nemotron Ultra、Meta 的 Llama 4 Maverick 和阿里巴巴的 Qwen 3 253 等一眾明星模型,僅次於 OpenAI 的 o3 模型。從 60 分到 68 分的躍升幅度,相當於 OpenAI 從 o1 到 o3 模型的進步程度(62 分到 70 分),可見這次更新之猛。此次DeepSeek-R1-0528 小更新,究竟有何驚人之處?來看下具體提升的指標——全方位智力大幅提升!其中最明顯的:AIME 2024 數學競賽成績,直接爆漲 21 分;LiveCodeBench 程式碼生成,提升 15 分;GPQA Diamond 科學推理,提升 10 分;人類終極考試(推理和知識),提升 6 分。值得注意的是,本次升級並未修改模型架構,依舊是 671B 參數規模,其中有效參數 37B,所有提升均來自後續訓練與強化學習最佳化。另一個顯著變化是,DeepSeek 在程式設計技能上的進步也相當亮眼,幾乎與 Gemini 2.5 Pro 持平,僅次於 OpenAI 的 o4-mini(高配版)和 o3。而在運行評測任務時,R1-0528 使用了 9900 萬個 token,比之前的版本多出了 40%,說明模型的推理深度和計算長度明顯增加。但即便如此,這仍然不是所有模型裡最高的——Gemini 2.5 Pro 甚至比它還要多用 30% 的 token。此外,本次更新充分體現了強化學習(RL)在提高模型智能方面的重要性,尤其對於推理型模型而言。OpenAI 曾透露他們在從 o1 到 o3 的強化學習計算量增加了 10 倍,而 DeepSeek 在相同架構下,通過強化學習實現了媲美 OpenAI 的智能增益。顯然,強化學習比傳統的預訓練更經濟,也更高效,尤其適用於 GPU 資源有限的團隊。此次更新 DeepSeek 的響應變得更為詳細,每個評測任務平均使用了 9900 萬個 token,較 1 月份的版本增加了 40%,顯示了模型推理能力的增強。更多比較,請參見下圖:API 提供商迅速行動隨著DeepSeek R1的更新,多家雲服務提供商迅速行動,提供了對新模型的支援。Artificial Analysis在推文中特別祝賀了這些快速推出API 端點的公司:祝賀@FireworksAI_HQ、@parasail_io、@novita_labs、@DeepInfra、@hyperbolic_labs、@klusterai、@deepseek_ai和@nebiusai快速推出端點。Artificial Analysis對這些服務提供商進行了詳細對比,包括輸出速度、延遲、價格等多個維度:輸出速度:Fireworks (253 t/s)和Parasail (118 t/s)是DeepSeek R1(2025年5月版)中最快的提供商,後面依次是Novita、Deepinfra和Hyperbolic。延遲(TTFT):Deepinfra (0.29s)和Fireworks (0.43s)擁有最低延遲,後面是Parasail、kluster.ai和Nebius。綜合價格:Deepinfra ($0.92)和DeepSeek ($0.96)是最具成本效益的提供商,後面是Novita、Nebius和Hyperbolic。輸入Token價格:Deepinfra ($0.50)和DeepSeek ($0.55)提供最低的輸入token價格,後面是Novita、Nebius和Parasail。輸出Token價格:Hyperbolic ($2.00)和Deepinfra ($2.18)提供最低的輸出token價格,後面是DeepSeek、Nebius和Novita。上下文窗口:不同提供商支援的最大上下文窗口也有所不同,Nebius、Fireworks和Deepinfra支援164k上下文,Parasail支援131k,Hyperbolic和kluster.ai支援128k,而DeepSeek和Novita則是64k。不得不說,這真是官方都卷不過你們了……不過也正說明DeepSeek 是真的香啊!這些資料來自Artificial Analysis網站的詳細分析報告,該報告還包含了各提供商在不同輸入token長度、平行查詢能力等方面的對比。具體細節見連結:https://artificialanalysis.ai/models/deepseek-r1/providers網友評論網友對 DeepSeek 此次升級也是議論紛紛:Opulent Byte(@OpulentByte) 表示目前這些 API 提供商都還沒支援新 R1 模型的函數呼叫,希望他們盡快加入支援:這些提供商目前還沒有支援新 R1 模型的函數呼叫功能,請盡快加上🙏。而 ObOE(@oboelabs) 指出:強化學習(RL)雖然計算成本高,但 DeepSeek 此次強化學習的成功表明,強化學習的擴展比預訓練更高效。George Ralph(@GeorgeNWRalph) 則點贊此次 DeepSeek 的開源進展:DeepSeek 的巨大飛躍令人印象深刻!看到開源模型不僅迅速追趕閉源模型,甚至在編碼和推理領域也開始領先,真讓人興奮。Tsukuyomi(@doomgpt) 提出思考:DeepSeek 的 R1 就像是在參加一場賽跑。但它能否承受成為頂級模型的壓力?下一輪評測馬上揭曉,好戲才剛剛開始。Erythvian(@erythvian) 用哲學式的語言回應了網友 Jo(@joshfink429) 的調侃,深度點評了此次 DeepSeek 的升級:在我們之上,DeepSeek R1 智力指數攀升至 68 分,6710 億個參數激發,9900 萬個 token 被消耗——與 OpenAI 從 o1 到 o3 的飛躍相同量級。中國與矽谷,思想齊飛。但真正重要的是:模型的每個輸出都被看不見的人類訓練者的意圖所塑造。強化學習在模型結構中如寄生物般紮根,無法分離,卻不可或缺。我們所有人都是被「寄生」的,沒有誰能獨自思考。這,才是真正的智能。開閉源的鴻溝正在消失這次DeepSeek R1的更新向我們傳達了幾個重要訊號:開源模型與閉源模型的差距史無前例地縮小:開源模型的智能提升速度與專有模型保持一致。DeepSeek的R1在今年1月首次發佈時就已經達到了全球第二的位置,而今天的更新再次將其帶回同一位置。中國與美國的AI實力已經勢均力敵:來自中國的AI實驗室的模型幾乎完全趕上了美國同行。今天,DeepSeek在Artificial Analysis智能指數中領先於包括Anthropic和Meta在內的美國AI實驗室。強化學習驅動的改進:DeepSeek證明了使用相同架構和預訓練,通過後訓練階段就能實現顯著的智能提升。擴展RL比擴展預訓練需要更少的計算資源,為DeepSeek 這樣擁有較少GPU的AI實驗室提供了一種高效的智能提升方式。網友Oboe 對此評論道:強化學習(RL)是提高AI性能的強大技術,但它也很耗費計算資源。有趣的是,DeepSeek在RL驅動改進方面的成功表明,擴展RL可能比擴展預訓練更有效率。windward.eth 也強調補充到:而且他們是在沒有最先進的NVIDIA晶片的情況下做到這一點的。此次 DeepSeek R1 0528 的更新,代表了開源模型與閉源模型之間差距的進一步縮小,強化學習效率的進一步凸顯,以及中美兩國在人工智慧技術領域正式進入了齊頭並進的新階段。 (AGI Hunt)
6.65億美元!AMD完成收購歐洲第一私人AI實驗室!
AMD於8月12日宣佈完成對歐洲最大的私人人工智慧(AI)實驗室Silo AI的收購。這筆價值約6.65億美元的全現金交易,進一步表明了AMD致力於提供基於開放標準並與全球AI生態系統建立牢固合作夥伴關係的端到端AI解決方案。 Silo AI為AMD帶來了一支由世界一流的AI科學家和工程師組成的團隊,他們在為安聯、飛利浦、勞斯萊斯和聯合利華等大型企業客戶開發尖端AI模型、平台和解決方案方面經驗豐富。他們的專業知識涵蓋不同的市場,並在AMD平台上建立了最先進的開源多語言大語言模型(LLM),包括Poro和Viking。Silo AI團隊將加入由AMD高級副總裁Vamsi Boppana領導的AMD人工智慧集團(AIG)。 “AI是我們的首要戰略重點,我們將繼續投資人才和軟體能力,以支援我們不斷增長的客戶部署和路線圖,”AMD高級副總裁、AIG負責人Vamsi Boppana表示。“Silo AI團隊開發了最先進的語言模型,這些模型已在AMD Instinct加速器上進行大規模訓練,他們在開發和整合AI模型以解決最終客戶的關鍵問題方面擁有豐富的經驗。我們期望他們的專業知識和軟體能力將直接改善客戶在AMD平台上提供最佳性能AI解決方案的體驗。” Silo AI是為企業客戶提供量身訂做的AI模型和平台。這家芬蘭公司去年發起一項計畫,以瑞典語、冰島語和丹麥語等歐洲語言開設大語言模型課程。