#學習
科學家解密午睡“奇蹟”:小憩竟能讓大腦學得更快!
即使是短暫的午睡也能幫助大腦恢復,提高學習能力。2026年1月22日發表在《神經影像》 (NeuroImage )雜誌上的一項研究中,來自德國弗萊堡大學醫學中心、日內瓦大學醫院和日內瓦大學的研究人員發現,即使是小睡也足以重組神經細胞之間的連接,從而更有效地儲存新資訊。科學家雜誌AI繪圖  FLUX 1.1 [pro] Ultra此前人們認為,這些效應只有在睡足一整夜後才會出現。這項新研究表明,短暫的睡眠也能讓大腦得到放鬆,並使其重新進入學習狀態——這一過程對於工作負荷大的情況尤其有益。“我們的研究結果表明,即使是短暫的睡眠也能增強大腦編碼新資訊的能力,”該研究的負責人克里斯托夫·尼森教授說道。尼森教授在擔任德國弗萊堡大學醫學中心精神病學與心理治療系睡眠中心主任期間開展了這項研究。如今,他是日內瓦大學醫學院精神病學系主任醫師、睡眠醫學中心主任,同時也是該校精神病學系的教授。午睡時大腦會發生什麼變化?大腦在白天持續活躍:新的印象、想法和資訊不斷被處理,從而加強神經細胞之間的連接(突觸)。這些加強的突觸連接是學習過程的重要神經基礎。然而,它們也會導致大腦達到飽和狀態,隨著時間的推移,大腦的學習能力會逐漸下降。睡眠有助於調節這種過度活躍的狀態,同時又不丟失重要的資訊。尼森教授說:“研究表明,這種‘突觸重設’只需午睡即可發生,從而為新記憶的形成騰出空間。”“這項研究有助於我們瞭解即使是短暫的睡眠對於精神恢復的重要性,”弗萊堡大學醫學中心精神病學與心理治療系精神睡眠研究與睡眠醫學科主任凱·施皮格爾哈爾德教授說。“短暫的午睡可以幫助你思路更清晰,並讓你能夠更專注地繼續工作。”研究方法該研究調查了20名健康的年輕人,他們在兩個下午分別進行了午睡或保持清醒的狀態。午睡平均持續45分鐘。由於無法直接測量健康人體內突觸的活動,研究團隊採用了成熟的非侵入性方法,例如經顱磁刺激(TMS)和腦電圖(EEG)測量,來推斷突觸的強度和靈活性。研究結果表明,午睡後大腦突觸連接的整體強度有所降低——這表明睡眠具有恢復作用。與此同時,大腦形成新連接的能力顯著提高。因此,與同樣長時間的清醒狀態相比,午睡後的大腦更能適應學習新內容。日常益處和前景這項研究從生物學角度解釋了為什麼人們午睡後往往表現更佳。尤其是在需要高度集中精力或體力的職業或活動中——例如音樂、體育或安全關鍵領域——午睡可以幫助人們保持最佳狀態。“午睡可以維持高強度工作狀態下的表現,”尼森教授說道。然而,研究人員強調,偶爾的睡眠問題並不一定會導致表現下降。尤其是在慢性失眠症中,睡眠-覺醒調節系統基本完好;相反,焦慮和不良的睡眠-覺醒行為佔據主導地位。在這種情況下,失眠認知行為療法(CBT-I)比安眠藥更有效,因為安眠藥會擾亂大腦的自然恢復過程,並導致藥物依賴。點評這項研究為我們揭示了午睡的強大力量。原來,那怕只是短短的45分鐘小憩,也能讓大腦的神經連接得到“重設”,有效緩解學習和工作帶來的“腦力飽和”。它不僅能提升我們吸收新知識的效率,還能讓大腦從疲憊中迅速恢復,保持清晰的思路和專注力。這對於高強度用腦的現代人來說,無疑是一個簡單又高效的“超級能量補給”。下次感到疲憊時,不妨給自己安排一個高品質的午睡,讓大腦重新蓄力,以更佳狀態迎接挑戰! (科學家雜誌)
矽谷新風向:哈佛史丹佛也不香了?一大批00後拒掉MIT、康奈爾,選擇在創業中讀大學…
這屆00後,已經等不及讀完大學,就輟學去創業了。美國《紐約時報》最近在報導中,這樣描繪矽谷現狀:一大批大學生,選擇拋棄哈佛、史丹佛、MIT這樣的名校光環,輟學創業,生怕等從學校畢業,就趕不上時代了。隨著“輟學創業潮”席捲各地,一個頗具爭議的問題也被屢屢提及:在一個時局和技術變化迅猛的時代,四年大學教育換來的文憑,還能有多少價值?言論無意全盤否定傳統大學的價值。畢竟,它提供的知識體系、思維訓練依然是難以替代的。真正的挑戰,在於教育和現實存在的時間差。這也是很多藤校生拋棄名校光環輟學創業的重要原因。如果有大學,能夠讓學生一邊創業一邊學習,而且在世界各地不同的市場環境中鍛鍊,兼顧教育和就業,那無疑戳中了時代痛點。我最近聽說了這樣一個故事:來自新加坡的學生張家寶,在兩個學期的時間裡,入帳12萬美元,賺到了兩年的學費。他不是利用課餘時間創業,學校的要求,就是讓學生“在創業中學習”。這位同學在因為服兵役缺課半學期的情況下,迅速迎頭趕上。先是在迪拜憑藉一個跨境電商項目,靠賣自行車賺到10萬多美元,後來又在印度創辦了一個街頭服飾品牌,利潤率高達61%!如果說一邊學習一邊創業已經足夠吸引人,那麼讓學生在不同地區的商業環境裡摸索就更是把實操屬性拉滿。在張家寶所就讀的Tetr的商學院(Tetr College of Business,以下簡稱Tetr),這就是日常。Tetr沒有固定的校園四年的時間裡,學生將遊歷8個國家/地區。每到一處,不僅能參訪當地著名的企業,還需要落地一個能夠適應本土環境的商業項目。比如在迪拜建立跨境電商,又比如在新加坡為一款產品眾籌2萬美金;Tetr聚焦商科也將人工智慧等前沿的學科納入課程。學校擁有來自哈佛、史丹佛等藤校的講師,以及行業一線大佬的資源。有學生是在拒絕了MIT、康奈爾、賓大等名校offer加入Tetr的Tetr的錄取競爭率非常激烈,低於1%。而且,還有學生是在拒絕了藤校offer後來到這裡的。創業屬性拉滿40%的學生,加入Tetr之前,就已經有創業的經歷了,不乏”風雲人物“,有的是亞馬遜暢銷書作者、還有的用創業網路幫助了上萬名學生創業者。而在Tetr,幾乎學生“人手一個創業項目”。費用親民一年總支出6萬美元左右,包含了學費、管理費、住宿費等,遠低於藤校,還提供了豐厚的獎學金。今年,Tetr還榮獲了QS頒發的商科教育創新獎項。目前,學校有兩屆學生在讀。而在翻看學生的履歷之後,我發現他們都非常不簡單:第一屆招生,Tetr收到了超過9萬份申請,最終錄取110人,錄取率只有0.2%。要知道以哈佛為代表的藤校,競爭最激烈的時候,錄取率是3%。而且,有的學生,是在拒絕了康奈爾、賓大、MIT等名校的offer後來到Tetr的。現如今,Tetr的學生可謂是“人手一個創業項目”,其中不少都經過市場檢驗,實現了盈利。張家寶兩個學期賺到兩年學費的故事,只是一個縮影……01. 四年八個國家地區,在創業中學習有學生兩個學期賺到兩年學費用一句話概括Tetr的理念,那麼就是“在創業中學習”(Learn Business by Doing Business)。學校沒有固定的校園,大學四年的課堂散落在全球八個國家/地區:迪拜、印度、新加坡、馬來西亞、加納、歐洲、美國、以及將於明年增加的上海。Tetr與當地頂尖的學府和企業都有合作,給學生提供了親歷商業第一線的機會。在美國,同學們將前往矽谷,實地探訪Google等科技大廠。在迪拜,他們則會在熱鬧的黃金市集裡感受濃郁的商業談判氛圍,還會前往著名的阿聯航空公司,瞭解民營航空的運作。如果說全球遊歷打開了視野,那麼Tetr在每一個地方都通過PBL落實商業項目的要求,則是把實踐落到了實處。在一個個需要運用跨學科能力且洞察市場的項目中,鍛鍊是實打實的。第一學期在迪拜,同學們的任務是圍繞“直郵代銷”(Dropshipping)的商業模式構思商業項目。來自新加坡的張家寶同學,把自己對騎行的熱愛,發展成了一個收入10萬+的項目“Bike Arena”。他敏銳地洞察到,新加坡的騎行市場存在著巨大的痛點:專業的自行車價格高昂,但送貨周期卻長得驚人(有時竟長達6個月)。在“直郵代銷”的模式下,他通過資料分析和供應鏈最佳化,實現了降本增效:將產品售價降低10%的同時,卻能保證24小時內送達。憑藉著具有競爭力的價格和閃電般的配送速度,Bike Arena創下了超過10萬美元的營收,也刷新了Tetr在迪拜的項目的記錄。隨後在印度創辦D2C消費品牌的項目中,他和團隊成員一起,打造出了一個融合大膽設計的服飾品牌,以超過61%的利潤率,創造了超過1.14萬美元的營收。算下來,兩個學期的營收,相當於Tetr兩年的學費了。像這樣通過市場檢驗的項目,Tetr還有很多:科技品牌Tafflo,專注無線充電器、智能戒指等時尚配件,以63.64% 的高利潤率,創造了1.15萬美元的營收;輔助工具品牌GEN Fidget,用減壓筆、滾輪等專注工具,幫助人們提升效率,尤其對ADHD(注意力缺陷多動障礙)人群提供支援,利潤率超過58%;通過全球實踐與在地項目的結合,Tetr讓學生在真實的商業挑戰中快速成長。這種“邊做邊學”的模式不僅能夠創造收入,更能鍛造出應對複雜市場的能力。02. 學生拒絕了MIT和康奈爾的offer創始人畢業於賓大請哈佛史丹佛教授當導師在瞭解Tetr學生的過程中,有兩點讓我感到非常特別。👉 第一是學生的群體和背景非常多元。Tetr匯聚了來自全球超過50多個國家和地區的學生。首屆學生,來自超過45個國家和地區,語言種類超過35種。👉 第二則是社會參與和實踐屬性拉滿,還有不少在拒絕了藤校offer之後來到Tetr的。首屆招生,申請人數超過9萬,最終錄取率只有0.2%,競爭激烈程度可見一斑。而且,有學生拒絕了包括MIT、康奈爾在內的名校offer。40%的學生在加入Tetr之前就有創業經歷,還有不少學生曾在資管公司實習。很多學生在來到Tetr之前,就已經是明星一般的存在了:有的同學以沙烏地阿拉伯首支F4錦標賽車隊成員的身份,被載入史冊;有的同學是亞馬遜上的暢銷書作家,還曾在NASA發表過演講;有的同學設計出了可生物降解的3D列印鞋,成為了可持續創新領域的一項突破;有的同學建立了卡達最大的青年創業網路,幫助到了當地上萬名學生;有的同學發起了巴西首個NFT慈善項目,成立的一家AI初創公司,吸引到了上千名使用者;擁有如此豐富的履歷背景,拒絕藤校offer也要來Tetr,一個核心的原因在於,Tetr能夠提供藤校等級的教學,與此同時兼顧實操。Tetr的創始人自己就是藤校出身,畢業於著名的賓大沃頓商學院。此外,Tetr背後還有一家歷史悠久且資源豐富的商學院坐鎮,那就是比利時聯合商學院(UBI Business School,以下簡稱UBI)。Tetr畢業,學生將被授予UBI頒發的畢業證書。在QS榜單上,UBI是一所五星商學院。在QS EMBA 2025排行榜上,UBI排名第20。UBI在全球多地設有教育中心,在上海也有獨立的校區:作為學術和商界的橋樑,UBI在世界範圍內擁有眾多資源。Tetr的學生能夠在各地頂尖校園學府學習和參訪企業,正是得益於UBI的牽線搭橋。Tetr的師資陣容非常豪華,既有來自哈佛史丹佛這樣的藤校教授,也有來自行業的大佬:哈佛大學的金融學教授Viney Sawhney,將系統講授私募股權投資、風險投資等前沿金融領域的核心知識,並深度剖析其運作邏輯與實戰案例。前MIT管理學院的Alexis Montecinos博士將親授商業分析相關的課程;來自雅詩蘭黛集團執行總裁Faverie Stephane,將以行業巨擘的視角解讀真實市場;還有來自NASA的前首席知識官(Chief Knowledge Officer )Edward Rogers博士,作為複雜管理的親歷者,分享行業的內幕與知識。需要特別指出的是,老師們並不只是講課,也是學生項目的導師,會幫學生修改商業計畫書、引導參訪企業和學習、甚至給優質項目對接投資資源。03. 如何用教育面對就業焦慮時代?再看開頭“就業焦慮”的問題,可以發現,Tetr通過“教學+實踐+實習”的融合,不僅緩解了焦慮,也在摸索如何在劇變時代培養人才。👉 結合商科和前沿技術運用的教學就業市場的波動,但商科的核心思維始終受用。商科強調的理解價值創造與資源配置的底層邏輯,幾乎滲透於所有行業。即使是時下大熱的AI產業,其技術是否可以成功轉化為產品,也有賴於商業知識的幫助。Tetr的課程中,不僅包含商科向課程(管理與戰略、銷售&行銷等),還與前沿技術結合,設有人工智慧&機器學習這樣的課程,旨在培養的是既懂商業又懂技術的復合人才。👉 學習和創業平行,讓學生具備發現和解決問題的能力從八個國家/地區的實踐項目,都需要調動跨學科的能力,在實際商業環境中,摸索前行。迪拜的電商項目,不僅是學習“代發貨”模式,更需要對電商有全方位的認知,從選品、廣告投放到倉儲環節,都是需要親力親為的。新加坡的眾籌項目,學生不僅要有設計思維,還需要軟硬體結合,才能提出打動市場的方案。而進入美國學期,目標成為了在矽谷創立一家公司。學生們需要直接定義一個問題,並構思用技術方案(如開發一個SaaS平台或一款AI應用)來解決它,完整經歷從技術構思到商業驗證的過程。學習和實踐相結合,培養出的學生不是等待風口的旁觀者,而能夠主動創造價值。這是在任何時代都需要的能力。👉 全球及當地知名企業的實習機會與此同時,在留學的每一站,Tetr為同學們提供了實習的機會。其合作企業不僅限於本地公司,更包括全球性的行業領軍者或新興的垂直領域代表——比如全球規模最大的資產管理集團之一的BlackRock(貝萊德)、知名電商平台ebay、著名媒體《國家地理雜誌》等。Tetr還會介紹各種當地職業發展的導覽並幫助學生投遞簡歷。當然,如果能夠在課堂或者項目中憑藉出色的能力或者項目獲得了教授/業界大咖的青睞,那麼實習更是水到渠成了。在變幻莫測的時代,Tetr給出的回應是:教育不應只是知識的傳遞,更應成為連接現實、解決問題的橋樑。通過學科融合、全球實踐與名企實習,它正重新定義商科教育的可能形態。04. 開始招收中國學生,提供豐厚獎學金從今年開始,Tetr將面向中國學生招生了。這可以用雙向奔赴來形容。Tetr此前就領著學生來到過中國,參訪了阿里巴巴總部以及義烏的小商品城。中國家庭對突破傳統、強調實踐與創業精神的前沿教育模式的期待,也與Tetr“邊做邊學”的理念契合。這裡還需要劃下重點:Tetr設立了種類眾多且豐厚的獎學金。無論是學術成績拔尖、創業經歷突出、或者對社區有特別貢獻,都可以申請。而且,還可以同時申請多項獎學金。如果能夠拿到2-3項獎學金,那麼等同於是半獎入讀了。大家關心的文憑認可度,在Tetr畢業的學生,將獲得經教育部認證的英國大學授予的理學學士(榮譽)學位。 (爸爸真棒)
國外美女來台灣唸書 認中文不是最難的!台語“學到放棄”...
中文被認為是世界上最難的語言之一,不過近日有網友分享,外國朋友實際到台灣來留學,才發現“台語”的難度更在中文之上,且中文至少還有文字可以辨識,台語使用的台羅文卻彷彿天書一樣,文章曝光後讓其他人笑翻,更有人說很多台灣人也不會講台語,可見台語真的比較難。一名網友近日在PTT八卦板表示,外國美女朋友為了學習中文來台灣留學,結果發現台灣還有另一個語言“台語”時,驚覺中文竟然不是世界上最難的語言,因為台語的難度明顯更高!原PO指出,中文只有4個聲調,但台語卻翻了一倍有8個,且中文有文字可以辨識,台語使用的卻是台羅文,根本看不懂在寫什麼東西,讓對方只學了一個月就完全放棄台語了,笑喊“台語是不是真的世界第一難學?”不少網友認同說“台語真的世界最難”、“一堆台灣人也不會台語啊,可見台語比中文難”、“沒有文字真的是大問題”、“其實常用就簡單了”、“我會講台語,但我真的看不懂台羅文”、“台灣人也寫不出來,只能用諧音表達”、“請正名閩南語台灣腔”、“台語本來就只算是一種方言吧”、“台語沒有文字,只能靠口耳相傳,至於台羅文那種神奇的東西還是算了吧”。台羅文為“台語羅馬字拼音”,是教育部以拉丁字母拼寫出台語的讀音,又稱教育部羅馬拼音、台羅拼音,除了方便書寫外,也能與漢字共同使用成為“漢羅文”,方便初學者入門。 (兩岸商匯)
蘋果年度 App 出爐!女兒想學單詞,他直接做了個 AI 神器 | 對話 CapWords
2025 年接近尾聲,蘋果2025 年 App Store Awards 獲獎名單也揭曉了,年度 App 給了《CapWords》這個國產寶藏應用。CapWords 是一款語言學習工具,在今年的蘋果設計獎中它就是獲獎名單上第一個國產應用。它憑什麼呢?你隨手拍張照,AI 就能幫你把身邊的東西變成單詞卡。比如拍個咖啡杯 ,它直接告訴你英文、法文怎麼說,還能生成設計感線上的貼紙。不知道大家有沒有同感,很多時候在 app 上背的單詞總感覺離生活太遠,和自己關係不大,彷彿學的是一個個抽象的英文字母組合而不是一個單詞。而 CapWords 反客為主,讓使用者主動去學習生活中物品的單詞,還能有助於聯想記憶,整個玩法也很有樂趣,頗有《寶可夢》中小智收集寶可夢圖鑑的感覺。APPSO 之前對 CapWords 做過體驗,大家可以感受一下👇除了名詞,現在動詞形容詞都能認,甚至 Live 圖和視訊也能識別。還能列印成實體卡片,儀式感拉滿。APPSO 也專訪了 Capwords 開發者,聊聊語言的門檻被 AI 「踏破」之後,我們和語言之間,究竟還剩下些什麼。這不只關於技術和產品,Capwords 創始人 Ace 最開始是為了幫女兒 Dorothy 學習才做的這個 App,他從生活場景中尋找記憶錨點,這大概就是技術的浪漫。對話 Capwords 開發者:詞彙是和生活「摩擦」這款接連斬獲蘋果設計大獎和 App Store Awards 的產品叫做「英語學習工具」,顯然太過侷限。Capwords 更像是一件關於語言、記憶和生活場景的裝置:拍照即識別,貼紙設計,搭配活潑輕盈的視覺風格,讓人忍不住多看幾眼,也順手就多認識幾個單詞。在 Capwords 近乎直覺般的設計背後,是一個簡單卻深刻的理念:語言的學習回歸生活,它可以從一次指認、一次散步、一次「這個怎麼說」的好奇心開始。APPSO:最早是因為小朋友有一個很簡單的需求,指著東西問「這個用英語怎麼說」,這就是整個靈感的來源和項目開端是吧?DTD:對,我女兒大概三歲左右,不到三歲。我經常在夏天帶她出去玩,我們會去公園,或者一些寫字樓前的廣場上。在玩的過程中,她會問我一些問題,比如「這個植物叫什麼?」「這個路牌怎麼念?」我就會一邊陪她玩,一邊跟她解釋,有時也會用一些識別類的產品幫她查。可能是因為在她好奇心爆發那個階段,這樣的場景其實非常多。印象比較深的一次,是在一個寫字樓的地磚縫裡,長出了一種叫「狗芽根」的植物。她很偶然地指著說:「爸爸,那有個狗芽根!」類似的場景讓我特別觸動。再結合她之前也會問我一些「這個用英文怎麼說」的問題,我就在想:這種「場景 + 圖像 + 資訊「的結合」,可能會讓她的記憶更好。我自己本身也是一個設計師出身,所以對於圖像或者資訊的這種感受會更敏感一點。圖片來自:小紅書@DTD.STUDIOS所以跟女兒互動的這些場景,很多都會給我這樣的感受:語言本身應該是在生活裡的,我們能用什麼辦法能幫助到這件事。大概就是這樣一個過程。APPSO:你們當時有意識到類似的需求,並不只是出現在孩子身上,其實更廣泛的使用者群都有這種需求嗎?DTD:沒有,因為我自己英語就不好,我不太擅長去背,或者把一個個知識點硬塞到腦子裡。我也不是學教育的,所以對於語言學習,我的理解是語言發生在生活裡。如果有一個環境,比如聊天時看到了、聊到了,看到一個東西和圖像時,會有關聯記憶。我會自己總結一些原則,比如為什麼某個圖像會吸引我,或者一個彩色的樓,或者我們城市裡看到的有特點的建築物,引起我注意的可能就是我腦海中圖形的關聯性,這一點非常重要。這也許是我作為設計師的個人總結,不一定完全科學。圖片來自:小紅書@DTD.STUDIOSAPPSO:市面上大部分的查詞軟體都比較臃腫,但 Capwords 把路徑做得非常簡單,一拍就可以完成。但你們擔心過對學習效果的影響嗎?DTD:這個 CLU 要不你來講講。CLU:其實我們在產品立項的時候,出發點並不是語言學習。回到剛剛說的,我們就是為了給我的乾女兒解答問題——這是一切的種子。慢慢我們會意識到,圖像會跟我們的生活形成一種「摩擦」。也就是說,通過與現實世界中的物品產生摩擦,可以強化記憶點。這些記憶點結合當時所處的場景以及全新的單詞或事物進入大腦時,我們對這些資訊的記憶會更加深刻。我們在日常生活中觀察到,人從小時候起就有天然的好奇心,會自然地記住所有新鮮的東西。比如去到日本,儘管我們可能不會說一句日語,但會說「謝謝」這種簡單的話和一些詞。或者描述可愛的事物時,會用到「卡哇伊」這樣的詞,因為這些東西對我們而言有新鮮感。所以,我們在立項開始就沒有定位為一個單純學習英文或者單詞的產品。並且根據我們的觀察、使用者反饋,還有實際落地的情況來看,我們在做的一件事情就是把接觸一個新的語言的這個門檻降低,讓大家會更感興趣。對一個語言的這種感興趣程度提高了,然後慢慢的,大家自己會再去找到一個更加系統化學習的方式。APPSO:目前接到過那些印象特別深刻的使用者反饋嗎?@61:這個我可以來說一下。我之前的一個 mentor 有個上小學的女兒。測試階段我給了他一個兌換碼,他就帶著女兒用 iPad 玩 Capwords,把家裡所有東西都掃了一遍,甚至還掃了他爸的光頭(笑)。第二天,他爸來跟我反饋,說女兒居然把昨天掃到的所有單詞,都寫在了自己的日記本上,還自己開始複習了。接下來幾天,女兒每天放學回家的第一件事,不是玩蛋仔派對,而是拿著 iPad 在家裡到處找「還有什麼沒掃過的」。DTD:有一些使用者的反饋我確實印象很深,我看過一個使用者說這是他用過最不像 AI 的 AI 產品,還有一個說這是他今年用過最溫暖的 AI 產品。這也就是我們想達到的效果。APPSO:確實,模型完全融入到了使用過程中,AI 的存在感並不強。你們在研發的時候碰到過什麼挑戰嗎?CLU:其實我覺得 AI 還是有一些邊界和條件,但是 AI 本身的這種判斷力和我們人本身的一些常識,其實是差不多的。比如我們之前測試過,一杯棕色的液體,AI 會識別成為咖啡,但是如果我親手做的這杯飲料,我就知道它其實是涼茶,那識別結果就跟我的認知不符。但這並不是 AI 的問題,只是誤認確實會出現。所以我們在設計的時候加了調整項,如果系統識別出來的結果和認知不符合,使用者可以輸入調整成正確的物品。DTD:關於識別速度上的問題,其實大模型都需要時間。把圖像傳過去,再回傳資料回來,整個過程其實是有五六秒時間的。去年我們第一個版本發出來,我們一起玩的時候感覺沒什麼問題,大家都覺得非常神奇。尤其是我老婆和女兒都覺得太厲害了。但是我自己在用的時候,還是覺得那個 6 秒鐘很煎熬。後來我們最佳化了一些提示詞,調整了圖片的大小,通過各種互動上的設計來減少使用者的感知,把這個時間藏在不同的互動形式後面。所以我的理解是從體驗層面,去解決一些目前模型本身解決不了的問題。CLU:還有一個是你會看到當一個物品的識別完成之後,會有一個被撕下來的貼紙的效果,我們當時就想說做成一個把現實世界裡的物品,從貼紙上摳下來的效果。在摳的過程中,其實已經在做完整的載入了,只是使用者沒有意識到,最後就可以有一個很絲滑的體驗。圖片來自:小紅書@DTD.STUDIOS我相信到最後,AI 肯定是融入或者變成一個基建,不存在說要體現具體的技術實現,使用者只需要關注 AI 帶來的效果就好了,而且這個結果是使用者所期待的,甚至超出期待的。 (APPSO)
OpenAI,德國人要控告你侵權
“德國法院判定OpenAI訓練資料侵權,形成司法判例標竿。2025年11月11日,德國慕尼黑地方法院裁定OpenAI侵犯GEMA成員作品歌詞版權。這標誌著德國首起“AI訓練階段侵權”司法判決,意味著AI與版權的灰色地帶被法律照亮。AI學習的邊界究竟何在?歐洲會成為AI監管秩序的制定者嗎?中國的AI企業會受到何種影響?對此,本文將以該案件為切入點,梳理美國人工智慧巨頭(OpenAI、Meta、Google、Perplexity、Suno等)在歐洲的一系列糾紛,剖析背後的制度邏輯與地緣經濟動因,並探討這一趨勢對中國人工智慧企業的警示和借鑑意義:當人工智慧的底層邏輯是“學習一切”,而歐洲的規則邏輯是“許可一切”,二者的碰撞勢必引發全球格局的重構。全球首例“訓練侵權”判決為行業敲響警鐘2025年11月,德國慕尼黑地方法院判定OpenAI在訓練與輸出歌詞過程中侵犯音樂版權,成為全球首例AI大模型被判“訓練侵權”的正式案例。這一事件不僅標誌著AI與版權的衝突邁入司法化階段,也預示著歐洲在AI治理、資料主權、版權分配方面展開系統性反攻。法院在判決書中指出,OpenAI的語言模型在訓練過程中存在“記憶行為”。即,將訓練資料完整複製到模型參數中,這導致ChatGPT在輸出中再現了歌詞,從而侵犯了版權。法院強調,當模型訓練不僅從資料集中提取資訊,還在參數中包含訓練資料的完整複製時,這就構成了版權法意義上的“複製”。模型輸出相似歌詞則進一步構成未經授權的“複製與公開傳播”。這一判決,引發了全球關注。值得注意的是,此次判決,明確了AI模型訓練過程中使用受版權保護內容可能構成侵權,即使這些內容在模型中以參數形式存在,該判決給從業者們敲響警鐘,實際上,德國慕尼黑地方法院的判決僅是OpenAI面臨的眾多法律挑戰之一。在過去的3至5年中,隨著ChatGPT的發佈到商業化的快速擴張,OpenAI已陷入多起版權和隱私訴訟的漩渦。從更長遠的時間線來看,以下是資料猿梳理的一些具有代表性的案例:OpenAI被美國作家協會(Authors Guild)集體訴訟。2023年9月20日,OpenAI被美國作家協會(Authors Guild)集體訴訟。美國作家協會聯合17位知名作家,在紐約南區法院提起集體訴訟,原告指控OpenAI從盜版電子書庫批次下載其作品,將這些“專業創作、編輯和出版的書籍”複製到GPT-3.5和GPT-4的模型參數中,使其能夠生成模仿原告風格的內容,直接威脅作家生計。《紐約時報》起訴OpenAI新聞內容侵權。2023年12月,《紐約時報》向紐約南區法院起訴OpenAI和微軟,指控其未經許可使用數百萬篇文章訓練AI模型。《紐約時報》提供了100多個GPT-4輸出內容與時報報導高度相似的例子,證明模型能夠原封不動或模仿風格生成其內容,直接威脅其訂閱和廣告收入。NOYB在奧地利投訴OpenAI違反GDPR。2024年4月29日,歐洲隱私倡導組織NOYB向奧地利資料保護機構正式投訴OpenAI,指控ChatGPT違反歐盟《通用資料保護條例》(GDPR)。原告指出,ChatGPT資料不精準,捏造使用者出生日期等個人資訊。NOYB要求OpenAI糾正某公眾人物的錯誤出生日期。梳理髮現,在上述訴訟案例中,除德國慕尼黑地方法院已作出判決外,截至2025年11月,其餘訴訟仍處於審理階段。2025年就新增10余起!各地針對AI的版權糾紛浪潮此起彼伏除了OpenAI,美國AI巨頭,像Meta、Google、Anthropic等在歐洲同樣面臨著類似的訴訟潮。實際上,近兩年來,各地針對AI的版權糾紛浪潮此起彼伏,僅2025年就新增了十余起相關案件。這些案件大多指控人工智慧開發者在未事先獲得授權的情況下使用受版權保護的作品來訓練大型語言模型。如,Meta在2025年面臨來自法國出版界集體訴訟、Google被處以2.5億歐元天價罰款、Perplexity被BBC與《金融時報》指控抓取新聞內容……具體展開來看:·Meta:面臨來自法國出版界集體訴訟。2025年,Meta公司面臨來自法國出版界集體訴訟。原告指控Meta未經授權通過社交媒體平台非法抓取法語書籍、劇本及音樂作品用於訓練Llama模型。·Google:被處以2.5億歐元天價罰款。2024年,Google因使用新聞訓練被法國罰款2.5億歐元,成為全球首家因AI訓練資料侵權被處以巨額罰款的科技巨頭,開創監管先例。2024年3月,法國競爭管理局(Autorité de la concurrence)對Google處以2.5億歐元(約2.72億美元)罰款。Google未經法國出版商和新聞機構許可,擅自使用其內容訓練Bard基礎模型,違反歐盟智慧財產權規則。實際上,這是Google在同一問題上的第二次重大處罰,2021年已因類似違規被罰款5億歐元。法國監管機構指出,Google不僅侵犯版權,還破壞了與出版商的公平談判機制。·Perplexity:被BBC與《金融時報》指控抓取新聞內容。2025年6月,BBC向Perplexity發出法律警告,要求立即停止抓取BBC內容。Perplexity被指在未授權情況下抓取全球媒體內容建構資料庫,並在輸出中使用這些內容。原告方提供了大量直接複製或高度相似的內容對比,證明Perplexity“系統性剽竊”,BBC在警告信中要求Perplexity立即停止抓取所有內容,刪除所有BBC資料副本,並提供賠償方案。·Suno(美國AI音樂公司):遭丹麥KODA起訴這也是丹麥首次對AI音樂服務提起版權訴訟。2025年11月,丹麥音樂版權組織 Koda向哥本哈根城市法院提起訴訟,指控美國AI音樂公司Suno侵權,核心指控為,Suno未經許可使用Koda會員(約5.2萬名作曲家、詞曲作者和音樂出版商)的作品訓練AI模型,Koda稱這是“音樂史上最大規模的盜竊”,並指責Suno隱瞞訓練資料來源和範圍。這也是丹麥首次對AI音樂服務提起版權訴訟,Koda 要求法院判決Suno停止侵權、賠償損失,並建立透明的授權機制。·Clearview AI:生物識別資料的全球合規圍剿Clearview AI是美國一家專注於臉部辨識技術的公司,主要業務是開發麵部識別軟體,為執法機構和政府部門提供服務,其演算法可將人臉與從網際網路收集的數十億圖像資料庫匹配。2023年4月,法國資料保護機構對其處以520萬歐元罰款;2024年5月,荷蘭監管機構再罰3050萬歐元,疊加其他地區處罰,其全球罰款總額已遠超1500萬歐元。目前該公司在歐洲幾乎被全面禁止提供服務。此外,還有一些AI巨頭被訴訟的案例,如美國公司Midjourney於2025年6月、9月先後遭迪士尼、環球影業及華納兄弟起訴、美國Anthropic公司同年9月以15億美元和解因使用超50萬本版權書籍(含盜版)訓練Claude引發的集體訴訟……AI版權糾紛核心爭議背後:美歐在法律制度、版權理念具有差異綜合上述糾紛案例,我們可以看到,以上糾紛本質上是AI技術創新與傳統智慧財產權保護體系的衝突,背後卻折射出不同法域在法律制度、版權理念上的深層差異。實際上,歐洲對版權的嚴格保護,自有其一套成熟的版權集體管理體系(CMOs)。這一核心機制運轉百年,覆蓋音樂、文學、影視等全內容領域。權利人與CMOs建立委託代理關係後,CMOs可直接以自身名義談判授權、收取費用並行起維權訴訟,形成了高度組織化的保護網路。相比之下,美國AI企業長期依賴“合理使用”原則豁免責任,缺乏歐洲式的透明化合規機制,這本質是美歐版權保護理念的根本區別。上述案例也能看出,美國 AI公司習慣的"先使用後許可"或"合理使用抗辯"在歐洲似乎行不通了。歐洲秉持嚴格保護立場,歐盟《版權指令》要求"全球合規",無論訓練行為發生在何處,只要產品進入歐盟市場就必須遵守。除此之外,還有理念的分野。通過多個典型案例也可印證。如,英國AI公司Stability AI因未經授權使用數百萬版權圖像訓練Stable Diffusion遭起訴,2025年11月英國高等法院以“模型不儲存原作”判其不侵權,而美國法院因更關注訓練資料合法性仍未下判,進一步凸顯不同法域對AI訓練版權邊界的認定差異。值得注意的是,歐盟《人工智慧法案》(AI Act)已於2024年8月生效,並將於2026年全面實施,這意味著AI企業的合規要求將進一步收緊。對於全球化營運的企業而言,提前適配各個區域規則、搭建合規體系已成為必然要求。1.“先使用後驗證”與歐洲版權體系的“事前授權事後問責”形成對立AI技術的核心學習邏輯是“無限抓取、參數化模仿”,這種模式依賴對海量資料的無差別採集與內化。以上述提到的公司Meta舉例,Meta的Llama模型就被曝使用82TB的盜版書籍資料,覆蓋大量法語書籍、劇本及音樂作品,而OpenAI的ChatGPT訓練過程中也納入了未經授權的歌曲歌詞等內容。這種“先使用後驗證”的技術路徑,與歐洲版權體系“事前授權、事後問責”的核心邏輯形成天然對立。歐洲版權制度的根基是“授權方控制使用”,要求任何商業性質的內容使用必須提前獲得權利人許可,而AI的“參數化模仿”並非簡單提取資訊,而是通過模型參數“記憶”內容核心表達,當技術發展到能“近似復現”原作品時,技術邊界與法律邊界完全重疊。德國慕尼黑地方法院對OpenAI的判決正是這一沖突的集中體現:法院明確認定,模型將歌詞“記憶”並在輸出中再現的行為,構成版權法意義上的“複製”,而Suno AI能生成與版權音樂高度相似的旋律,也直接觸發了丹麥KODA 的侵權訴訟,讓技術行為無法再規避法律問責。2、歐洲在內容與法規層擁有主導權,是否會成為AI版權規則的“制定者”?在全球AI產業格局中,歐洲在基礎層明顯處於弱勢。算力核心硬體領域依賴輝達,本土AI巨頭市場影響力遠不及美國的OpenAI、Meta、Google,即便法國培育出Mistral AI等獨角獸,2023年法國AI市場規模也僅佔歐洲的17.3%,與中美差距顯著。但歐洲在內容與法規層擁有絕對主導權。內容端沉澱了全球最豐富的版權文化資源,法規端則建構了全球最嚴格的監管體系。為扭轉被動局面,歐洲通過訴訟、立法、罰款等機制重塑價值分配秩序。比如,在立法上,2024年生效、2026年全面實施的歐盟《人工智慧法案》(AI Act),要求通用目的AI模型在訓練時必須遵守歐盟版權法,並披露訓練資料來源摘要;若在訓練中違規使用受版權保護的內容,不僅違反版權法本身,也可能觸發AI Act下最高可達全球年營業額7%的罰款。司法上,德國法院判定OpenAI訓練侵權、法國法院受理Meta版權訴訟,形成司法判例標竿;罰款上,法國競爭管理局對Google處以2.5億歐元天價罰款,懲罰其未經許可使用新聞內容訓練Bard模型。這一系列動作讓歐洲成功將“被訓練者”的被動地位,轉化為AI版權規則的“制定者”。3.集體管理組織的產業性反攻GEMA、KODA、SNE/SGDL等歐洲版權集體管理組織(CMOs),已成為AI時代的“新版權談判代表團”。這些組織擁有成熟的運作機制和強大的資源整合能力:德國GEMA代表約6萬多名作曲家、作詞家和音樂出版商,2025年預計向全球權利人分配11.33億歐元版權費;法國SNE(國家出版聯盟)聯合SNAC(國家作者與作曲家聯盟)、SGDL(法國作家協會),能快速動員全行業力量發起集體訴訟;丹麥KODA則代表5.2萬名音樂創作者,覆蓋歐洲音樂版權的核心領域。面對AI廠商無償使用版權內容的現狀,這些組織發起系統性反攻。GEMA率先起訴OpenAI並勝訴,為全球AI訓練侵權訴訟樹立標竿;KODA針對Suno AI發起丹麥首例AI音樂版權訴訟,指控其“大規模盜用音樂作品”;SNE聯合多家機構起訴Meta,要求其刪除非法訓練資料集並賠償損失。它們的核心目標明確:通過集體訴訟形成壓力,迫使AI廠商放棄“免費抓取”模式,進入標準化的付費授權體系,Anthropic支付15億美元和解作者集體訴訟的案例,已證明這種產業性反攻的實際效果。4.地緣與輿論的共振在歐洲輿論場中,美國AI公司的“無限抓取”行為被普遍視為“文化掠奪”,這種認知背後是文化主權與科技主權的雙重焦慮。IE大學對歐洲10國3000餘人的調查顯示,歐洲民眾對AI的信任存在明顯邊界,尤其警惕外來科技公司對本土文化的侵蝕。法國出版商聯盟在起訴Meta時明確指責其行為是“版權掠奪”,強調要保護法語文化遺產免受“AI無償侵佔”;德國GEMA的訴訟也被賦予“守護德國音樂創作生態”的意義,反映出歐洲對本土文化內容被美國AI公司無償使用的強烈擔憂。在科技主權層面,歐洲深知自身在AI基礎層的短板,轉而通過版權監管建構“非技術壁壘,比如歐盟《人工智慧法案》的出台、多國對美國AI公司的罰款與訴訟,本質上是通過規則制定權避險美國的技術優勢。這些舉動,試圖讓歐洲民眾、監管機構與版權組織形成共識,推動針對美國AI公司的侵權糾紛集中爆發,而法國總統馬克宏提出的AI“第三極”戰略,更讓這種共振帶上了明確的地緣競爭色彩。從“野蠻生長”轉向“合規競逐”合規調整已箭在弦上基於歐洲AI版權訴訟浪潮與監管框架的成型,可以預見的是,全球AI產業將從“野蠻生長”轉向“合規競逐”。1.從判決到機制:AI版權許可制度成型,各家AI廠商不得不付費入場?如今,美國AI巨頭已被迫開啟“付費入場”模式。如上述提及的多個案例,Anthropic支付15億美元和解作者集體訴訟,成為首個大規範本權補償案例;Meta正與法國SNE聯盟談判法語書籍授權,以規避Llama模型的侵權風險;Google在2.5億歐元罰款後,已與歐洲新聞機構達成年度授權協議,金額超3億歐元。未來幾年內,歐洲將完成判決案、行業標準再到結算機制的落地,拒絕接入該機制的AI廠商將被限制在歐盟4.48億人口市場的商業變現,OpenAI、Perplexity 等依賴歐洲使用者的企業,將不得不每年支付數相關的版權費用。未來歐洲將建立AI訓練資料授權體系,形成類似Spotify的“AI版權結算機制”,各家AI廠商不得不付費入場。2.歐盟的AI Act與GDPR疊加,將形成嚴格的AI監管閉環AI模型須提供資料來源說明、權利人申訴通道、可解釋性文件和透明報告。合規將成為競爭壁壘。歐盟AI Act將於2026年全面實施,這一政策的實施與GDPR的疊加,將形成全球最嚴格的AI監管閉環,例如,未來將要求生成式AI必鬚髮布訓練資料詳細摘要,公開資料來源合法性證明;建立權利人專屬申訴通道,24小時內響應侵權投訴;提供模型決策邏輯的可解釋性文件,接受監管機構的定期合規審計。未來,合規能力將成為企業能否立足歐洲市場的“生死線”,並形成顯著競爭壁壘。從另一方面來說,單模型的合規審計和資料溯源投入,可能達到數十萬歐元甚至更高的等級,對中小企業而言構成不小的成本壓力,這將加速行業“馬太效應”。預計2027年歐洲AI市場前5大廠商將佔據大部分市場份額,大量不合規的中小玩家被淘汰。3.全球溢出效應:亞洲與中國必將被波及中國企業若在模型訓練中使用歌詞、書籍、影視、新聞等受保護內容,也將面臨“歐式合規標準”壓力。歐盟作為全球第二大AI市場,其監管規則將通過“市場准入倒逼”形成全球溢出效應,亞洲國家已率先做出反應:日本多家出版商聯合成立CODA聯盟,要求OpenAI停止使用其作品訓練Sora2,明確反對“默認授權”模式,其訴求與歐洲版權保護邏輯高度一致;韓國正修訂《版權法》,擬將AI訓練資料使用納入“事前授權”框架。這也意味著,像文心一言、通義千問、火山方舟等希望出海的中國模型,在進入歐洲市場時也不得不排查訓練資料中涉及歐洲版權內容的部分。另一方面,國內監管正加速跟進,國務院《關於深入實施“人工智慧+”行動的意見》明確要求完善AI版權制度,北京、江蘇已出現AI生成內容侵權判例,法院認定“人機協作作品受版權保護”,倒逼企業規範訓練資料來源。4.商業化路徑再塑:合規能力將成為AI公司的競爭力之一未來,合規能力將成為AI公司的競爭力之一。AI行業的競爭焦點將從“參數規模”轉向“合規能力”,“可審計訓練”“反覆現檢測”“版權清潔室”三大技術成為破局關鍵,直接決定企業的跨國合作與商業變現能力。頭部企業已率先佈局。Anthropic的Claude3推出“版權過濾”功能,可自動識別並排除訓練資料中的未授權內容,其“版權清潔室”技術吸引美聯社、大英百科全書等內容方合作;Stability AI在英國勝訴後,升級了“反覆現檢測系統”,確保生成圖像不與版權作品高度相似,成為首個獲得歐洲藝術協會授權的AI圖像廠商;Google Gemini則開放“訓練審計介面”,允許監管機構追溯資料使用全流程,合規優勢使其拿下歐洲多個政府項目訂單。商業化模式也隨之重構:一是“合規版模型”溢價銷售,如Meta針對歐洲市場推出Llama3合規版,訂閱費較基礎版高30%,仍吸引大量企業客戶;二是“版權分成”合作,Suno AI與KODA談判達成協議,將AI音樂生成收入的4%分給版權方,成為首個合法落地歐洲的AI音樂平台;三是合規技術輸出,如青鸞印的區塊鏈存證系統已被多家AI公司採用,年服務收入突破億元,催生“AI合規服務商”新賽道。對創作者而言,這一趨勢似乎會帶來新的收入增長點。通過CMOs接入AI版權結算機制,無需直接談判即可獲得訓練授權收入。“AI內容經紀人”等新職業出現,個體創作者可通過批次存證、打包授權實現規模化收益等等。如此看來,合規是挑戰,更是轉型契機。對於未來的AI企業而言,合規不是負擔,而是全球化競爭的入場券和商業模式升級的催化劑。誰能率先建立完善的版權合規體系,誰就能在這場全球AI治理變革中佔據主動,實現從"技術跟隨者" 到"規則參與者"的角色轉變。 (資料猿)
AI向人腦「黃金標準」又近一步,Google發佈巢狀學習,賦予大模型持續學習的能力
剛剛,Google發佈了一項名為“巢狀學習”(Nested Learning)的全新機器學習範式,它將模型視為巢狀最佳化問題,從而增強對長上下文的處理能力。基於巢狀學習的概念驗證模型 Hope 在語言建模方面展現出更優異的性能,Google的野心是緩解乃至徹底解決LLM遺忘問題,實現類似人腦的持續學習能力相關論文《Nested Learning: The Illusion of Deep Learning Architectures》已在NeurIPS 2025上發表在過去十年,機器學習取得了巨大進步,但LLM的成功之下,一些根本性挑戰依然存在,尤其是在持續學習方面。人腦是持續學習的黃金標準,其通過神經可塑性不斷調整自身結構以適應新體驗。相比之下,當前LLM的知識侷限於其輸入窗口的即時上下文或預訓練期間學到的靜態資訊。最直接的解決方法——用新資料持續更新模型參數,往往會導致“災難性遺忘”(Catastrophic Forgetting, CF)。傳統上,研究人員通過調整架構或最佳化規則來對抗CF,但長期以來,模型架構與最佳化演算法被視為兩個獨立部分,阻礙了真正統一高效的學習系統誕生。Google提出的“巢狀學習”則打破了這一壁壘。什麼是巢狀學習?巢狀學習範式提出,一個複雜的ML模型並非單一的連續過程,而是一個由相互關聯、多層次的學習問題組成的系統,這些問題被巢狀或平行地同時最佳化。該理論認為,模型架構和訓練規則(即最佳化演算法)本質上是同一概念,它們只是處於不同“層級”的最佳化問題,每個層級都有其自身的資訊流(“上下文流”)和更新速率通過識別這種內在結構,“巢狀學習”為設計更強大的AI提供了一個全新的、此前不可見的維度,允許建構具有更深計算深度的學習元件,從而最終解決災難性遺忘等問題。為了闡釋這一範式,研究人員以“聯想記憶”(associative memory)為例。他們指出,訓練過程本身(尤其是反向傳播)就可以被建模為一個聯想記憶。模型學習將給定資料點對應到其局部誤差值,該誤差值衡量了資料點的“意外”程度。同樣,像Transformer中的注意力機制等關鍵架構元件,也可以被形式化為學習序列中Token之間對應關係的簡單聯想記憶模組。通過為每個元件定義一個“更新頻率”,即權重調整的頻率,這些相互關聯的最佳化問題就可以被排列成不同的“層級”。這個有序集合構成了巢狀學習範式的心臟。研究人員表示,人腦中統一且可復用的結構以及多時間尺度的更新,是人類持續學習的關鍵。巢狀學習允許模型的每個元件進行多時間尺度更新,並證明了Transformer等知名架構實際上是具有不同更新頻率的線性層。巢狀學習的應用基於“巢狀學習”的視角,可以直接獲得改進現有演算法和架構的原則性方法:1. 深度最佳化器 (Deep optimizers)由於巢狀學習將最佳化器(如動量最佳化器)也視為聯想記憶模組,因此可以將聯想記憶的原理應用於最佳化器設計。研究人員觀察到,許多標準最佳化器依賴於簡單的點積相似度,其更新並未考慮不同資料樣本之間的關聯。通過將最佳化器的底層目標更改為更標準的損失度量,例如L2回歸損失,他們為動量等核心概念推匯出了新的公式,使其對不完美資料更具魯棒性。2. 連續譜記憶系統 (Continuum memory systems, CMS)在標準Transformer中,序列模型充當短期記憶,保存即時上下文;前饋網路則充當長期記憶,儲存預訓練知識。巢狀學習將這一概念擴展為一個“連續譜記憶系統”,其中記憶被視為由一系列模組組成的光譜,每個模組都以特定的不同頻率進行更新,為持續學習創造了更豐富、更有效的記憶系統。Hope:一個自修改的驗證架構作為概念驗證,研究團隊利用巢狀學習原理設計了一款名為“Hope”的自修改架構。Hope是Titans架構的一個變體。Titans架構是一種長期記憶模組,能根據記憶的“意外”程度確定其優先順序,但它只有兩個參數更新層級。而Hope是一個自修改的循環架構,它能夠利用無限層級的上下文學習,並通過CMS模組增強,以擴展到更大的上下文窗口。它本質上可以通過一個自引用過程來最佳化自身的記憶,從而創造出一個具有無限循環學習層級的架構。實驗結果在語言建模、長上下文推理、持續學習和知識整合等一系列任務上的實驗證明了巢狀學習、連續譜記憶系統和自修改Titans架構的有效性。通用性能:在一系列公開的語言建模和常識推理任務上,Hope架構展現出比現代循環模型(如Titans、Samba)和標準Transformer更低的困惑度和更高的精準率長上下文處理:在“大海撈針”(Needle-In-Haystack, NIAH)下游任務中,Hope展示了卓越的記憶管理能力,證明了CMS是處理擴展資訊序列的一種更高效的方式,其性能在不同難度的任務上均優於Titans、TTT和Mamba2結論Google研究團隊認為,“巢狀學習”範式代表了對深度學習理解的一次飛躍。通過將架構和最佳化視為一個統一、連貫的巢狀最佳化問題系統,它為模型設計解鎖了一個新的維度像Hope這樣的模型證明,採用原則性方法統一這些元素,可以帶來表達能力更強、功能更強大、效率更高的學習演算法。團隊相信,“巢狀學習”為彌合當前LLM的遺忘特性與人腦卓越的持續學習能力之間的鴻溝,提供了一個堅實的基礎,並期待研究社區能共同探索這一新維度,以建構下一代自我完善的AI (AI寒武紀)
王興興最新發聲!這將是具身智能的“ChatGPT時刻”
“未來1至2年,誰能實現這個目標,誰將擁有全球最領先的具身智能AI模型。”11月5日,宇樹科技股份有限公司創始人、董事長王興興在第八屆虹橋國際經濟論壇“人形機器人創新發展合作”分論壇上對具身智能的“ChatGPT時刻”何時到來作出前瞻判斷。在他看來,誰能在未來一兩年內實現“在80%的陌生場景中完成80%任務”的突破,誰就是全球最領先的具身智能。“比如到明年這個時候,隨便一台人形機器人到會場,你跟它交代任務,比如說‘幫我拿一杯水’或者說給某位記者朋友拿一份東西過去,它可以直接過去把這個任務完成。這個場景完全沒有預訓練過,你給的東西它也沒有看到過。”王興興舉例說。他認為,在完全陌生場景下,機器人能達到80%左右成功率,就已經掌握突破性技術了。“目前人形機器人(包括具身智能)最關鍵的還是機器人大模型(具身智能模型)的進展速度,我覺得稍微有點慢了。”王興興表示,相對去年來說,今年深度強化學習的全身運控的進步非常明顯,但在具身大模型,“端到端能幹活“的技術進步稍微慢了一點,但總體而言其對人形機器人的前景較樂觀。王興興稱,“具身機器人目前的發展階段類似於ChatGPT發佈前的1-3年左右,大家已經發現了方向,但還沒有做成可以突破臨界點的事情。為了早日實現“ChatGPT時刻”,更應該研究模型,還是收集更多的資料?王興興表示,目前在模型結構上大家做了很多嘗試,但泛化能力不夠,還需要創新。大家也需要收集更大規模的資料、質量更好的資料。但目前,對資料的採集、對資料質量的評判還非常困難。另外,他提出,模型和資料需要相輔相成,而不是一股腦採集大量資料,或者一股腦把模型做大。目前,具身智能主流模型有VLA(視訊語言動作)+RL(強化學習)模型和基於視訊生成的世界模型。王興興表示,前者可以用模擬環境做訓練,或者用真實場景做訓練,但泛化能力相對來說不是特別夠。因此,他更喜歡基於視訊生成的世界模型。然而,王興興也認為,該模型面臨比較大的挑戰。因為基於視訊生成的世界模型對算力的需求非常大,需要的算力卡比較多,所以中小型人形機器人公司往往“跑不動”,反而是一些大型AI公司、網際網路公司視訊模型的資源更加豐富,做出該模型的機率更大。 (金融時報)
矽谷今夜學中文! Cursor被曝「套殼」中國製造,AI頂級人才全是華人
矽谷AI圈最近魔幻事件,不會中文進不了AI核心小組。開完會,全說漢語,老外懵了!連模型在思考時,也在說中文~如果你有在關注最近矽谷的AI圈子,你會發現最近出現一個神奇的現象。當中國都在學英文看文獻的時候,國外的AI圈都說中文了!簡直是倒反天罡。以Meta為例,如果你不會中文,都混不進核心團隊。正式開會說英文,散會後大家集體用中文嘮嗑。現在換老外懵圈了!前幾周OpenAI一個會議,一進門,三百人的會場整個左小半邊都是華人。更有趣的是,當華人成為AI頂尖人才的認證標籤後,連中國的開源模式也被老外偷師。海外模型「偷師」傳說Cursor最近剛發布2.0版本,並推出了他們的第一個自研模型Composer。但很快打臉就來了,網友發現Composer動不動就給他「說中文」。在包裹的思考過程中,Cursor這個所謂的自研模型說的都是中文。這讓老外再一次懵B。最有趣的是Windsurf,直接承認自己拿著GLM-4.6的定製版本進行微調和強化學習。除了「頂級AI人才說中文」和「模型用中國開源大模型微調」這兩個主動選擇,現在連一些大佬都開始放棄OpenAI和Anthropic而被動選擇中國的開源模型。為什麼?因為模型量大管飽,性能還好,還便宜。最近一個消息真的讓我們感覺老外現在不僅不迷信OpenAI等閉源模型,而且紛紛開始選擇中國的模型了。例如Chamath Palihapitiya表示,他的團隊將大量工作負載遷移到了Kimi K2,因為它的效能顯著更好,而且比OpenAI和Anthropic 都便宜得多。這哥們是美國知名的企業家和投資人,他的聲明還是能夠說明一個問題:中國開源大模型,是真的香!不過評論區還是有些冷靜的聲音,說這哥們早期投資了Groq(不是馬斯克那個Grok)。而這次他們團隊從Bedrock(據說是前20大客戶)遷移到Groq上的Kimi K2,因為模型的效能更優!但背後其實可能為了宣傳Groq的服務。這次Cursor為什麼在思考過程頻繁「說中文」,網友們也總結出兩個主要原因:1. 自研難度與成本過高。以Cursor的資源體積,從零預訓練一套強模型的可能性很小,更像是在開源的SOTA智能體模型上做二次訓練;因此出現「說中文」的情況並不奇怪,這更像是底座與訓練資料選擇的結果。2. Composer的滯後與避戰。Composer大機率是用「幾個月前」的開源SOTA做微調,但大模型迭代極快:等推向市場時底層已落後。於是既不願與當下最新的開源SOTA正面對比,又對底層細節諱莫如深;即便融資可觀,仍難擺脫「更多是個殼子」的質疑。總之還是一句話,中國的開源模型,真香。從國外數據網站的統計數據就能看出來。在能力這塊,中國開源穩居第一梯隊在Artificial Analysis Intelligence指數榜單上,除了排在前幾名是閉源的OpenAI的GPT-5、Google的Gemini 2.5、xAI的Grok、Anthropic的Claude 4.5以外,緊隨其後的都是開源模型。而且,大部分都是中國模型:MiniMax-M2、DeepSeek-V3.1、Qwen3-235B-A22B、GLM-4.6、Kimi K2。而開源老祖Meta的Llama,以及相關的微調版本,都得排到他們後邊。而在Coding指數榜單上,依然如此,DeepSeek V3.1要比Google的Gemini 2.5 Pro還要好。智能體榜單上,Kimi、GLM和Qwen也排到了前面。如果按照開源和閉源劃分,全球AI模型的能力中,開源真的很能打。不要忘了,這只是能力榜單,如果再考慮中國開源模型的價格,確實就真香了。在隨著時間,AI能力增長這件事上,雖然OpenAI一直遙遙領先,但MiniMax、DeepSeek、Qwen、GLM、Kimi追改的速度一點都沒有落下。這波AI浪潮,不僅改變了世界科技的走向,甚至對於人才標籤的認知也同樣被改寫。說起來,能把單一頂尖人才的薪水公開喊價到上億美金,也就是前段時間Meta的祖克柏首創的。矽谷頂級華人有那些?首先是Meta。在剛組成幾個月的超級智慧實驗室(Meta Superintelligence Labs)中,最初的44人團隊裡差不多有一半都是華人。其中,趙晟佳和後來加入的宋颺,分別擔任首席科學家和研究負責人。MSL首席科學家,趙晟佳(Shengjia Zhao)。趙晟佳本科畢業於清華大學,史丹佛大學電腦科學博士學位。2022年6月畢業後就加入了OpenAI技術團隊。工作經驗僅有3年的他,履歷上已有了多項輝煌戰果。還在OpenAI時,他是多項里程碑突破背後的關鍵人物。引爆全球AI浪潮的ChatGPT的初始團隊成員GPT-4的核心貢獻者OpenAI首個AI推理模型o1的核心研究員,與OpenAI聯合創始人Ilya Sutskever一同被列為「奠基貢獻者」深度參與mini系列的構建,包括4.1和o3負責OpenAI合成資料團隊作為開啟AI「思考」能力的第一個推理模型,o1的成功,直接推動了整個產業在「思維鏈」技術上的發展熱潮。延伸閱讀:清華校友趙晟佳,出任Meta超級智慧首席科學家! GPT-4核心功臣MSL研究負責人,宋颮(Yang Song)。宋颮本科就讀於清華大學數理基礎科學班,博士畢業於史丹佛電腦科學專業,研究方向聚焦生成模型與多模態推理。在學術界,他以「擴散模型」研究聞名,是該領域的技術奠基者之一。他曾在Google大腦、Uber ATG、微軟研究院等機構實習,擁有豐富的工業與理論背景。2022年加入OpenAI後,他組成「策略探索」團隊,圍繞更大規模、更複雜數據、更高維模態進行方法論探索與系統落地。擴展閱讀:突發! Meta剛從OpenAI挖走了清華校友宋颮比起Meta,OpenAI團隊裡的華人其實更多。每逢重磅發布,從長長的貢獻者名單到直播現場,都少不了華人科學家的身影。不過,擔任高階主管職位的,就只有首席研究官陳信翰(Mark Chen)了。陳信翰的母親邱瀞德是台灣清華大學教授,現任資訊系統與應用研究所所長;父親陳建任曾任亞光電董事長。他高中時曾隨家人從美國回台。在新竹實驗中學的雙語部就讀時,他接連在數學競賽AMC10、AMC12和AIME中取得滿分,並憑此優異成績進入麻省理工學院(MIT)。在MIT獲得數學和電腦科學雙學位後,陳信翰進入一家自營交易公司從事量化投資工作,負責為股票和期貨開發機器學習演算法。在OpenAI的七年時間裡,陳信翰從研究科學家逐步晉升為首席研究官,負責模型開發和公司整體研究工作。在此期間,他領導了多項里程碑式的項目,包括o1系推理模型、文字到圖像模型DALL-E,以及融入視覺感知的GPT-4等等。值得一提的是,剛以突破性進展登上Nature封面的Google量子人工智慧團隊,他們的處理器總監Yu Chen也是華人。Yu Chen先後在中國科學技術大學取得物理學理學士學位,並在明尼蘇達大學取得凝聚態物理學博士學位。在加州大學聖塔芭芭拉分校做了4年博士後研究後,他於2014年加入Google,擔任量子研究科學家。除了這些AI頂尖人才,還有很多耳熟能詳的華人大佬。例如輝達的CEO 黃仁勳、AMD的CEO 蘇姿丰、英特爾的陳立武等等。開源「電廠」,好用又便宜除了人才和模型訓練,許多提供API的平台公司,也紛紛連結中國的開源模型。例如Vercel的老闆Guillermo Rauch就表示,鑑於GLM-4.6的出色表現,「在nextjs.org/evals中排名第三,並且是前五名中唯一的開源模型」。現在,他們不僅提供GLM-4.6的API服務,而且價格也是最低的。10月22日,Airbnb CEO Brian Chesky在訪談中表示,Airbnb的客服AI現在由13個模型組成。關鍵是,他公開承認Airbnb「在很大程度上依賴Qwen來支援AI客服。」甚至表示Qwen比OpenAI的產品更好更便宜。除了這些平台類公司無需開發基礎以外,像Cursor這種一直被喊套殼的公司,想要從零開始預訓練一個模型花費不菲,而且是針對Coding領域的特定模型,純粹預訓練得不償失,那該在怎麼辦?就像網友說的,最好的方法就是找一個開源模型去微調。那現在全世界開源領域最好的模型也就是中國耳熟能詳的那幾家了。而且不僅開源,而且開源選擇的協定都是最友善的。網友們還在Windsurf中直給提問,你是誰,誰開發了你?Windsurf的模型直接回答我就是「GLM」~如果說AI是新時代的電力,那麼以上這些跡象正在表明,我們正在從「世界工廠」轉變為AI的「世界電廠」。透過開源,我們正在搶佔全球AI時代的基礎設施定義權。當一個開源的中國模型能提供80%的效能,而成本只有20%時,選擇是顯而易見的。當這個模型能提供100%甚至110%的效能(如DeepSeek-V3.1在編碼上的表現),而成本依然低廉時,它就從「備選項」變成「最優解」。Cursor被網友抓包時的尷尬,恰恰揭露了矽谷開發者的一種矛盾心態:身體可能很誠實地擁抱中國模型,但在宣傳上仍試圖維持「矽谷原創」的政治正確。最後總結一下,「倒反天罡」的不僅是AI人才中華人的佔比,更重要的技術流向。當矽谷的工程師們為了優化成本和性能,不得不開始研究GLM和Qwen的文檔時,這場關於下一代AI技術浪潮的牌局,才算真正進入了最精彩的下半場。One More Thing不過我們也不能「高興」太早,在AI領域的人才上,華人現在一種標籤。但是,如果看看各大科技公司的CEO,你會發現,印度老哥們也不甘示弱。例如Google的CEO劈柴哥,Sundar Pichai。例如微軟的CEO,納德拉Satya Nadella。例如IBM的CEO,Arvind Krishna。例如Adobe的CEO,Shantanu Narayen。例如霍尼韋爾的CEO,Vimal Kapur。以上這些CEO們都是印度老哥,其中不乏AI科技領域的掌舵人,例如劈柴哥和納德拉。參考資料:https://x.com/FuSheng_0306/status/1983894938669433044https://x.com/auchenberg/status/1983901551048470974https://x.com/AI_Whisper_X/status/1983819229737652336https://x.com/artificialanlys/status/1983915999998230932 (新智元)