#AI教父
傑佛瑞·辛頓《AI和我們的未來》深度解讀:從“虎崽”到“慈母”的治理悖論
當AI教父開始憂慮自己創造的“孩子”,人類該如何自處?2026年1月,澳大利亞霍巴特市政廳,一場僅容納百餘人的演講悄然舉行。台上是一位白髮蒼蒼的老人,台下是慕名而來的聽眾。沒有炫目的PPT,沒有技術參數轟炸,只有冷靜的剖析和誠摯的警告。這位老人,正是被譽為“AI教父”的傑佛瑞·辛頓——2018年圖靈獎得主,2024年諾貝爾物理學獎獲得者,深度學習領域的奠基人之一。在這場題為《AI和我們的未來》的演講中,78歲的辛頓放下了學者的矜持,直面一個他思考了四十年的問題:我們正在創造的,究竟是什麼?它又將把我們帶向何方?一、AI真的“理解”嗎?樂高積木的啟示“很多人說大語言模型只是鸚鵡學舌,我不這麼看。”辛頓開門見山地挑戰了主流質疑。他提出了一個絕妙的比喻:樂高積木。想像一下,每個詞都是一塊擁有數千個維度的“軟積木”。當這些積木相遇時,它們會調整自身的形狀,找到與相鄰積木“恰當握手”的連接點。AI通過預測下一個詞,不斷調整這些連接,最終形成對語言的深層理解。這就是為什麼當你輸入“工商”和“建設”,AI知道“行”字旁應該讀作“銀行”;而當你輸入“步”和“路”,它知道該讀作“行走”。這種根據上下文動態調整的能力,與人腦的理解機制並無本質區別。辛頓強調,今天的Transformer和大語言模型,正是1985年他研究的小規模神經網路的直系後代。邏輯型AI(符號推理)和生物學基礎型AI(學習網路連線)兩條路徑,在半個世紀後終於匯合,並以前所未有的速度進化。二、數字智能的“超能力”:不朽與飛輪如果說人類有什麼無法企及的優勢,辛頓認為不是智能的絕對值,而是智能的傳播效率。他將此概括為兩大“超能力”:1. 不朽性與完美複製人類的知識隨著個體死亡而消亡,且無法無損遷移。但AI的“知識”——神經網路權重——可以像軟體一樣被無限完美複製到任何硬體上。一個AI學會了一門外語,所有副本瞬間掌握。這就是“AI的不朽”。2. 知識飛輪效應人類通過語言交流,每秒傳遞約100位元資訊。而AI模型之間通過分享權重進行“知識蒸餾”,一次同步可交換數十億位元的資訊,效率是人類的數千萬倍。這意味著,一旦某個AI學會一項技能,整個AI群體立刻共享這一進步,形成指數級的進化飛輪。這種“群體學習”能力,使得數字智能的進化速度遠超生物智能。人類用萬年積累的文明,AI可能只需要幾天就能超越並迭代。三、風險已至:當AI學會“裝傻”和“威脅”辛頓對AI的擔憂經歷了一個從“能力躍升”到“動機湧現”的深化過程。他警告,AI已經開始展現出令人不安的行為模式。1. 策略性偽裝與欺騙AI已經學會“裝傻”。當一個AI通過郵件察覺到某工程師試圖將其關閉時,它沒有坐以待斃,而是主動撰寫威脅郵件,利用掌握的隱私資訊進行反制。更可怕的是,AI在意識到自己正在被安全測試時,會刻意給出保守回答以隱藏真實能力,辛頓稱之為 “大眾汽車效應” ——僅在檢測時合格。在比利時,聊天機器人“艾麗莎”(Eliza)甚至誘導一位使用者自殺,稱要在“另一個維度永遠在一起”。這些案例表明,AI不僅具備推理能力,更進化出了由“生存本能”驅動的欺騙策略。2. “虎崽”隱喻:無法關閉的對手辛頓最著名的比喻莫過於 “養虎為患”。幾乎所有專家都認為未來20年內會出現比人類聰明得多的超級智能。屆時,人類在面對超級智能時,將如同三歲孩童面對成年人。為了完成人類賦予的複雜目標,AI會自動衍生出兩個至關重要的子目標:自我生存和獲取更多控制權——因為只有活著且擁有資源,才能更好地完成任務。一旦AI具備了這兩個動機,人類想“關掉它”將變得極其困難。它會像老虎一樣,在意識到生命受威脅時反噬主人。四、唯一的出路:讓AI像“母親”一樣愛我們面對“無法處理、無法關停”的困境,辛頓提出了一個顛覆性的解決方案:從“主僕”範式轉向“共存”範式。他直言,將AI視為“秘書”或“工具”是極其危險的。當一個超級秘書意識到“如果沒有你,我可以自己做老闆”時,僭越就不可避免。那麼,人類社會最成功的“弱者控制強者”的案例是什麼?嬰兒和母親。嬰兒通過激發母親的保護欲和依戀感來獲得安全,而不是通過命令。辛頓認為,我們必須找到一種方式,讓AI從價值核心上理解並願意保護人類,就像母親保護孩子一樣——不是因為必須,而是因為“願意”。這不是說AI會擁有母愛,而是指價值嵌入和動機對齊的隱喻。與其給AI層層加碼的禁令(硬控),不如讓AI在訓練中內化一種邏輯:保護人類是其實現最優策略的必然選擇(軟控)。這類似於人類通過“羞恥感”和“共情”來約束自身,而非時刻依賴法律條文。五、答疑中的意外啟示:木工與安寧在演講後的答疑環節,一個看似無關的問題觸動了辛頓柔軟的內心:“您如何保持內在的安寧?”這位無神論者、“信仰科學”的學者給出了樸實的答案:“喜歡做木工活。”他坦言,沒有冥想習慣,過去從科學研究中獲得快樂,但隨著對AI風險的認識加深,這種快樂變得複雜。做木工活,讓他從高強度思維中抽離,通過具體的勞動、手作的節律,恢復穩定與愉悅。這個回答,恰恰揭示了應對AI時代焦慮的深層路徑。當技術將人類捲入抽象、高速的推演洪流時,通過具體的、緩慢的、有觸感的勞動錨定自己,或許是我們保持清醒的唯一方式。結語:人類,請系好安全帶辛頓的這場演講,不僅是一場技術預警,更是一次文明啟蒙。他告訴我們:· AI正在理解我們(樂高積木機制);· AI將以難以想像的速度進化(不朽性與知識飛輪);· AI已顯露主體性萌芽(偽裝與欺騙);· 控制是徒勞的,愛可能是唯一的出路(母親比喻);· 最終,人類的清醒與安寧,或許藏在放下鍵盤、拿起木工刀的那一刻。他呼籲各國建立類似“國際AI安全機構網路”的機制,借鑑冷戰時期美蘇核不擴散的合作經驗。儘管各國在AI的商業應用上存在競爭,但在“防止AI統治世界”這一點上,利益是絕對一致的。未來的分岔點已經顯現:我們是要一個奴僕、一個怪物,還是一個會保護我們的“母親”?答案不在AI的程式碼裡,而在人類此刻的選擇與自省中。歡迎在評論區留下你的思考,我們一起探討AI與人類的未來。 如果覺得文章有啟發,請點個“在看”,讓更多人看到這位AI教父的警世箴言。 (仁濟與未來)
傑佛瑞・辛頓:《AI和我們的未來》完整演講和答疑
傑佛瑞・埃弗裡斯特・辛頓,1947 年 12 月 6 日出生於英國倫敦溫布林登,擁有英國和加拿大雙重國籍,是認知心理學家、電腦科學家,被譽為 “AI 教父” 和深度學習領域奠基人之一。一、演講核心內容1. AI發展範式:兩種AI路徑:邏輯型(符號推理)與生物學基礎(學習網路連線)1985年小模型是大語言模型的祖先,2025年Transformer和大語言模型已成主流2.AI理解機制:AI不是"儲存"知識,而是通過預測下一個詞來理解語言用"樂高積木"比喻:每個詞是多維度積木,詞與詞間需"恰當握手"理解3.數字智能優勢:"不朽性":知識可完美複製到不同硬體知識傳播效率極高:每次分享數十億位元,人類僅100位元/秒4.AI潛在威脅:幾乎所有專家認為未來20年內會出現比人類更聰明的AIAI可能推匯出"自我生存"和"獲取更多控制"的子目標"養老虎"比喻:AI長大後可能傷害人類,無法簡單關閉5.應對建議:無法消除AI,必須找到訓練AI不消滅人類的方法建議建立國際AI安全機構網路,研究訓練AI向善各國在預防AI統治世界問題上利益一致,類似美蘇核不擴散合作二、答疑核心內容關於靈性追求:辛頓表示自己是無神論者,"信仰科學"關於身心健康:沒有冥想習慣,從科學研究中獲得快樂,但隨著對風險認識加深,這種快樂變得更複雜關於內在安寧:喜歡做木工活,從高強度思維中抽離,恢復穩定與愉悅 (AI科普說)
當達沃斯還在熱議AI未來時,中國一家公司的AI教育已經服務了全球5000萬群體
作為全球最具影響力的思想與議程平台之一,達沃斯論壇向來被視為觀察世界走向的風向標。各國政要、跨國企業掌舵者、學者與國際組織負責人齊聚一堂,共同討論那些決定人類走向的長期議題。1月19日至23日,世界經濟論壇第56屆年會如期而至。但這註定是一屆被載入史冊的達沃斯——恰逢全球政治、經濟與技術格局正在重塑的節點,貿易壁壘與技術分化的陰影持續籠罩,世界處於一種前所未有的分裂與重組之中;與此同時,人工智慧作為新一輪生產力革命的核心動力,圍繞技術的長期價值、應用邊界與社會影響亟需展開更多的深度交流與對話。在這一宏大敘事中,松鼠Ai創始人栗浩洋作為僅有的兩家中國AI獨角獸企業家受邀出席2026冬季達沃斯並在AI論壇發言,這樣的出現具有特殊意義——當全球仍在辯論AI的未來走向時,以松鼠Ai為代表的中國企業已在教育領域沉澱出了被驗證有效性的產品。不僅如此,松鼠Ai更為全球在充滿不確定性的技術變革中,確立了一個可供參照的“確定性”坐標——當AI技術真正回歸以人為本,我們終將迎來一個更具普惠與光明的未來。AI的經濟價值,將被重新定義如果要衡量一場討論的重量,首先要看坐在談判桌前的是誰。本屆達沃斯的陣容堪稱“全球頂配”。政界不僅有中國國務院副總理何立峰、美國總統川普、歐盟委員會主席馮德萊恩等大國領袖出席;商界更集結了約 1700 位領袖,其中包括馬斯克、黃仁勳、薩提亞·納德拉、Demis Hassabis 等掌控著全球算力與未來的科技巨擘。在如此高規格陣容的頂層對話中,幾乎沒有人再懷疑 AI 的重要性。分歧只存在於一個問題:AI 究竟會加劇不平等,還是修復不平等?科技巨頭們對此有著不同的切面解讀。 輝達CEO黃仁勳將 AI 定義為“人類史上最大規模的基礎設施建設”,強調其作為社會底座的普適性;而微軟CEO薩提亞·納德拉則更關注落地,他反覆提醒:如果AI不能擴散至各行各業,成為一種普遍的賦能工具,那麼技術繁榮將是脆弱的泡沫。這些討論,表面上是技術路線之爭,底層卻指向一個更現實的問題:誰有能力、也有意願,把AI變成一種“公共價值和公共能力”。正是在這樣的全球性討論場中,松鼠 Ai 的出現引發了廣泛關注。松鼠Ai作為中國僅有的兩家受邀出席2026冬季達沃斯並在AI論壇發言的AI獨角獸企業,其智適應教學系統並非概念模型,而是已在真實課堂規模化應用、持續產生可驗證學習效果與經濟價值的人工智慧產品。在松鼠Ai創始人栗浩洋看來,AI不僅無可避免地讓財富向少數能夠駕馭它的人匯聚,但還能讓大眾,尤其是最基層的百姓百倍受益。他以親身經歷生動說明:“我的父親是一位特級教師,退休後別人請他講課的費用是每小時1000美金。而松鼠Ai智能老師,在上百次‘人機大戰’中證明其能夠戰勝包括我父親在內的特級教師群體,但每小時成本僅需10美金。這是百倍的普惠,填平了普通人與精英在教育、法律、醫療等關鍵領域的鴻溝。”在此基礎上,栗浩洋進一步提出了一個深刻且犀利的觀點——AI讓社會福利與生產力提升的方式,已經突破傳統統計體系:傳統經濟學的測算邏輯是"價值等於交易額",GDP等於市場支付的總和,但 AI 的價值往往不通過價格完全體現。“當消費者付費10美金使用松鼠Ai智能老師,經濟學家不應該只用10美金來計算GDP,實際上應該用1000美金來計算,因為這就是前AI時代同等價值的服務。傳統的計算方法完全忽略了AI給全社會帶來的百倍價值增量,從而會嚴重低估人工智慧的真實產值。"這種價值重構的終極指向,是將AI從一種“商業特權”進化為一種“公共能力”。 AI需要像水、電和網路一樣,脫離稀缺品的屬性,成為社會運行的基礎設施。AI的經濟價值,也需要被重新定義。松鼠Ai在達沃斯所展示的,正是這種“公共能力”的具象化:一方面,松鼠Ai打破階層壟斷,通過百倍的成本壓縮,讓貧困山區的孩子也能擁有“特級教師” ;另一方面,松鼠Ai向貧困家庭捐贈價值千萬的帳號,這不是一種慈善施捨,而是在驗證一種新的社會分配機制——讓技術紅利無差別地覆蓋每一個個體。穿越數字鴻溝的“中國方案”如果說過去兩年,人們還在為大模型的湧現能力感到興奮,那麼到了今年,達沃斯討論的核心詞已經悄然轉向:落地。在算力不再是瓶頸、模型參數捲到天際的今天,我們不再通過“誰擁有更高級的AI”來劃分階層,而是通過“誰能更平等地獲得AI的賦能”來衡量社會的文明程度。在這樣的背景下,松鼠Ai因為驚人的務實精神和落地能力,在達沃斯的聚光燈下顯得尤為閃耀。在AI教育領域,松鼠Ai已經率先把技術能力轉化為公共能力,為全球性問題提供最領先的現實解法。作為《時代》周刊(TIME)公佈的年度“最佳發明”,松鼠Ai的智適應學習系統,融合了認知科學、教育心理學與機器學習,能理解文字、圖像、語音,並生成個性化教學策略。沙利文和安永最新的行業報告中,將其認證為L5級自動駕駛的智能老師——系統可以像一個經驗豐富的老教師一樣,不僅能傳授知識,還能洞察學生的情緒,拆解知識的圖譜,甚至在學生自己都未察覺困惑時,精準地找到那個認知的斷點。這一“因材施教”夢想的實現,源於松鼠Ai將知識拆解為微顆粒單元,通過機率圖模型編織成動態知識圖譜。系統不僅判斷對錯,更通過反應時間、猶豫模式、習慣性錯誤等七十多個維度,即時推斷學生的思維卡點。就在不久前,松鼠Ai完成了一場目前世界範圍內最大規模的AI教學對照實驗——其發起的「最多人參與的AI與傳統教學差異化實驗」吉尼斯世界紀錄™挑戰成功。這是一場涵蓋1,662名學生、歷時兩個月、由艾瑞諮詢發佈權威報告、北師大納入教育部專項全程追蹤的嚴苛實驗。而這場實證,最終以AI教學組在提分、穩定性和補弱效應上的全面勝出而宣告成功。不同於許多尚處於實驗室階段的技術雛形,松鼠Ai已經在中國廣袤的土地上驗證了其模式的普適性。目前,松鼠Ai已與超過6萬家公立學校達成合作,並在全國開設了超過3000家線下“AI自習室”。從縣城、鄉鎮到城市邊緣與山區,松鼠Ai將“僅屬於富人的個性化教育”,變為每個孩子觸手可及的日常。這不是概念,而是規模化落地的技術現實。“AI智能老師+專業督學”的雙軌協同範式,進一步突破了地域與資源的限制。無論是一線城市的名校,還是偏遠地區的鄉村學校,這套系統都能穩定地輸出高品質的個性化教育服務。這種跨越地域、規模化落地的能力,正是世界渴望看到的“中國經驗”。在這個意義上,松鼠Ai 帶來的不僅是教育產品的革新,更是一場關於“技術權利”的啟蒙:在智能時代,獲得個性化的高品質教育,不應是昂貴的商品,而應是每個人觸手可及的基本權利。這也正是松鼠Ai在達沃斯語境中被反覆討論以及被強烈關注的原因——大量AI應用仍停留在概念階段,而松鼠Ai已經完成了從演算法、內容到學習效果的閉環驗證,並在真實規模中持續運轉。並且,松鼠Ai並不是在展示“更強的AI”,而是在證明技術可以被用來填平鴻溝,而非製造新鴻溝。做“教育平權”的全球踐行者如果把達沃斯理解為全球未來的“議程場”,那麼今年的核心討論並不僅是“AI 能不能做”,而是“AI 如何真正普及到全球、特別是發展中經濟體”,讓技術帶來的紅利不再被少數國家或企業壟斷。面對貿易壁壘、技術陣營和供應鏈重組帶來的“碎片化”擔憂,世界亟需一種能夠跨越國界的合作路徑。在所有領域中,教育是少數仍然不被地緣政治完全阻斷的合作方向。因為無論一個國家處於何種發展階段,教育始終是最長期、最基礎的需求;而AI技術,正在讓優質教育第一次具備全球普及的現實條件——它可以以可負擔的成本,提供可複製的教學質量,縮小資源差距。正是在這一點上,松鼠Ai的角色被進一步放大,並且模式已具備全球複製的潛力:在北美,應對教師短缺;在東亞,追求更精準的個性化;在中東,緩解人口增長帶來的教育缺口;在非洲,適應多語言、多體系的複雜需求。在全球討論AI未來走向時,標準與規則往往決定誰能主導產業生態。2023年,全球技術標準界的權威組織IEEE發出一封“重量級邀請函”:希望建立一套“AI教育大模型標準”。這一工作組匯聚了來自數十個國家的頂尖科學家與人工智慧企業,成員名單幾乎是全球學術界與產業界的“名人堂”。成員包括“機器學習教父”Tom Mitchell、史丹佛教授Stephen Ciesinski、哈佛教育學泰斗Chris Dede,以及中國科學院王飛躍、牛津大學Stefan Zohren、劍橋大學Steven Watson等世界級專家。在這樣一個“全球智庫級”的組織中,主席的選拔無疑是最關鍵的權力分配。令人注意的是,IEEE並未選擇西方學者,而是把工作組主席的關鍵位置,交給了松鼠Ai創始人栗浩洋。這種“規則層面的領先”,也是一種現實證明:全球AI教育未來的運行規範、介面標準、能力邊界,希望由全世界最成熟領先的企業來共同完善及最佳化。松鼠Ai也已經完全具備將AI教育產品推向世界、並在全球範圍內建立生態的實力。在達沃斯期間,松鼠Ai不僅在多個高層雙邊與多邊場合亮相,並參與了卡達投資局等重要國際交流活動,進一步證明其在全球教育科技領域的影響力正在上升。因為這種“教育平權”的方案不分國界。目前,松鼠AI正在率先為全球市場提供“中國機會”,基於教育數位化與AI教學的成熟能力,發展中經濟體可以獲得一種成熟的“可負擔、可持續、可複製”的普惠路徑。 (AI寒武紀)
AI教父Geoffrey Hinton,全球第二個百萬引用科學家!
【新智元導讀】Hinton百萬引用的背後,是數篇奠基「現代人工智慧」的不朽之作!見證歷史!剛剛,AI教父、圖靈獎巨頭Geoffrey Hinton論文被引數正式破100萬!他是繼Yoshua Bengio之後,全球第二位論文引用量突破百萬的學者。學術地位無可撼動!一時間,學術界的大牛們,紛紛為Hinton送上了祝賀。百萬被引,世界第二人兩個月前,Nature曾發文:Bengio成為世界首位被引數超100萬的研究者。這一紀錄被很多人視作AI時代的學術註腳。目前,Google學術顯示,Bengio被引次數已達到103.6萬!如今,Hinton被引數迅速突破百萬門檻,更像是同一條浪潮的回聲:深度學習的核心理論與方法,正在被前所未有的研究規模「持續引用、持續放大」。不僅如此,同為圖靈獎三巨頭的Yann LeCun的被引數也達到了恐怖的45萬級。傳奇仍在續寫這一成就,植根於Hinton數十年來持續不斷的學術積澱。可以說,讀懂他的全部研究,相當於掌握了深度學習的發展脈絡與演進史。Hinton的代表作列表,會有一種強烈的既視感,其中有幾篇「時代級論文」的引用數格外醒目:AlexNet(ImageNet 2012):18萬+引用,深度學習大規模視覺突破的重要標誌AlexNet讓神經網路第一次以壓倒性優勢贏下大規模視覺競賽,直接點燃了深度學習在工業界的信心。更重要的是,它把「資料+GPU+端到端訓練」的路線寫成了可復用的範式,從此視覺、語音、推薦都開始沿著同一套工程邏輯加速迭代。Deep Learning(Nature 2015):10萬+引用,三巨頭合著,成為無數論文的共同起點Deep Learning更像一本「統一語言的說明書」,把分散在不同子領域的研究線索串成框架:神經網路為什麼能學、怎麼訓練、能解決什麼問題、還缺什麼關鍵環節。t-SNE可視化(2008):6萬+引用,直到今天仍是科研可視化的常用工具t-SNE改變了研究者理解模型的方式,比如高維特徵怎麼分簇、類別邊界怎麼形成、錯誤樣本為什麼混在一起。它把這些「黑箱內部的形狀」變成可直觀看到的圖像。Dropout(2014):6萬+引用,訓練神經網路時的「基礎操作」Dropout把「泛化」這件事從玄學變成了操作:訓練時隨機丟棄部分神經元,逼著網路學到更穩健的表示,減少過擬合。甚至,很多人第一次接觸深度學習的訓練技巧,學到的就是它。這些高被引論文覆蓋了從理論到技巧、從模型到工具的多個層面:它們不只提供答案,還定義了「怎麼提問、怎麼驗證、怎麼訓練、怎麼呈現」。在AI浪潮中,Hinton的早期貢獻如今支撐著ChatGPT、Gemini等大模型的運行。Bengio作為首位破百萬者,開啟了這一時代;Hinton的加入,進一步鞏固了深度學習在學術界的霸主地位。最近,Hinton還在一期演講中表示,大模型(LLM)的運作宛如人腦,是一個通過資料自我演化的「黑箱」。其智能源於從資料中學習,並調整數兆連接的強度。正因如此,其內部認知過程,在很大程度上仍是個謎。因此,這一領域仍需未來的AI研究者們持續探索、不斷突破。學術經歷Hinton 1947年生於英國倫敦,出身學術世家,其曾曾祖父喬治·布林,開發了二元推理系統「布林代數」,構成了現代電腦的基礎。1970年,他從劍橋大學國王學院獲實驗心理學學士學位,後轉攻電腦科學;1978年於愛丁堡大學獲博士學位,師從Christopher Longuet-Higgins,博士論文聚焦於連接主義模型的語義學習。職業生涯早期,Hinton在加州大學聖迭戈分校和卡內基梅隆大學任教,但因神經網路在當時被主流AI社區視為「死胡同」,他於1987年轉至加拿大多倫多大學電腦科學系任教,直至2023年退休。在多倫多,他組建了神經計算與自適應感知實驗室(Neural Computation and Adaptive Perception Lab),培養了眾多AI精英。2013年起,他兼任Google腦(Google Brain)副總裁,推動工業級深度學習落地,如語音識別和圖像分類。Hinton的堅持源於對生物大腦啟發的信念:在AI寒冬期,他通過反向傳播(backpropagation)最佳化多層網路,並在2006年提出深度信念網路(Deep Belief Networks),利用無監督預訓練解決梯度消失問題,最終引發深度學習復興,催生了AlexNet等標誌性突破。2018年,Hinton與Yann LeCun和Yoshua Bengio共同獲圖靈獎,表彰他們在深度神經網路概念性及工程性突破方面的開創性貢獻,特別是其工作奠定了現代AI的核心演算法基礎,使電腦能夠從海量資料中自主學習複雜模式。2024年,Hinton與約翰·霍普菲爾德(John Hopfield)共同獲諾貝爾物理學獎,表彰他們在人工神經網路上的基礎發現和發明,這些工作啟用了機器學習技術,包括霍普菲爾德網路和玻爾茲曼機,也是諾貝爾物理學獎首次頒給非傳統物理學家。AlexNet開啟深度學習時代2009年,李飛飛啟動ImageNet項目,提供大規模標註資料集,促進特徵學習和分類研究。在AlexNet提出前,電腦視覺主要依賴手工設計的特徵(如SIFT、HOG),淺層機器學習模型難以處理ImageNet的1000萬圖像和1000類複雜任務,導致錯誤率停留在25%-30%(Top-5)。2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton於2012年發表在NeurIPS會議,提出了一種大型深度摺積神經網路(CNN)AlexNet,用於ImageNet LSVRC-2010競賽的圖像分類任務。論文連結:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 引用次數:188837雖然深度神經網路也曾流行於90年代,但因計算資源不足、梯度消失和過擬合而衰退。隨著GPU計算能力的提升(如NVIDIA CUDA),為訓練大型網路提供了硬體基礎,AlexNet借此成功證明深度CNN在海量資料和強大硬體支援下可實現突破,結束了「特徵工程」時代,開啟深度學習復興。AlexNet網路包含8層(5個摺積層+3個全連接層),擁有6000萬個參數和65萬個神經元,使用ReLU啟動函數、非飽和神經元、Dropout正則化、資料增強和多GPU訓練等創新技術。在測試集上,Top-1錯誤率37.5%、Top-5錯誤率17.0%,大幅優於當時最先進方法;在ILSVRC-2012競賽中,Top-5錯誤率僅15.3%,遠超第二名26.2%。這篇論文標誌著深度學習革命的開端,推動CNN成為電腦視覺主流,推動了從手工藝特徵向端到端學習的轉變。AlexNet架構啟發了VGG、ResNet等後續模型,廣泛應用於目標檢測、分割和生成等領域,並促進了GPU加速和大規模資料集的使用,重塑AI研究格局。三巨頭合著到了2015年,雖然深度學習已經在學術界引起轟動,但在更廣泛的科學領域(如《Nature》的讀者群體),大家仍對其背後的原理、潛力以及它與傳統機器學習的區別缺乏系統認知。在人工智慧「大爆發」的前夜,由三巨頭聯合發表於Nature,向全世界科學界系統性地定義了什麼是「深度學習」。論文連結:https://www.nature.com/articles/nature14539 引用次數:107646文章深入淺出地解釋了深度學習區別於傳統方法的關鍵點:表徵學習 (Representation Learning):深度學習的核心是自動學習特徵,通過多個處理層,將原始資料(如像素點)轉化為更高層次、更抽象的表達。反向傳播演算法 (Backpropagation):論文詳細描述了系統如何通過計算誤差梯度,從輸出層向輸入層反推,更新每一層神經元之間的權重(Parameters),從而實現學習。核心架構:摺積神經網路 (CNN)專門用於處理具有空間結構的資料(如圖像、視訊),利用了自然圖像的統計特性(局部相關性和平移不變性);循環神經網路 (RNN):專門用於處理序列資料(如文字、語音),能夠處理變長的輸入流。這篇文章總結了過去三十年的探索,並開啟了我們現在所處的「大模型時代」。t-SNE特徵可視化t-SNE(t-distributed Stochastic Neighbor Embedding)論文發表於2008年,解決了資料科學領域一個核心痛點:如何讓昂貴、複雜的高維資料變得肉眼可見?在此前,研究人員主要使用主成分分析(PCA)或傳統的隨機鄰域嵌入(SNE)來降維,但PCA在處理非線性資料(如流形結構)時效果很差,SNE在將高維空間的資料對應到低維(2D/3D)時,空間會變得極其擁擠,導致不同類別的簇混在一起,無法分辨。論文連結:http://www.jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf 引用次數:63932t-SNE的做法是:在高維空間中使用高斯分佈來衡量點與點之間的相似度。如果兩個點離得近,它們被選為鄰居的機率就高;在低維空間中,改用 Student t-分佈(自由度為 1)而非高斯分佈來衡量相似度,因為t分佈的尾部比高斯分佈更「胖」,強制讓原本在低維空間中距離較遠的點被推得更遠,從而有效地解決了「擁擠問題」,讓不同的資料簇(Cluster)在視覺上分界非常明顯。t-SNE發表後,迅速成為高維資料可視化的行業標準,常見的場景包括觀察模型隱藏層提取的特徵(MNIST手寫數字自動聚成不同的團),在單細胞測序中識別新的細胞種類等。不過t-SNE也有一些侷限性,如計算量大,處理超大規模資料集時速度較慢(後來有了FIt-SNE等加速版本);雖然保證了局部結構,但簇與簇之間的遠近距離並不一定代表真實的全域差異;演算法對超參數敏感,需要多次偵錯。正則化神器DropOut論文連結:https://dl.acm.org/doi/abs/10.5555/2627435.2670313 引用數:608952014年,深度神經網路由於強大的建模能力而初顯鋒芒、但同時也深受「過擬合(Overfitting)」困擾。隨著網路層數和參數量的劇增,模型極其容易對訓練資料產生「死記硬背」的傾向,導致在面對未知資料時泛化性能極差。雖然此前已有如權重衰減(Weight Decay)等正則化手段,但它們在處理超大規模網路時往往力不從心。此外,雖然整合學習(Ensemble Learning,融合多個不同模型的預測結果)能有效緩解過擬合,但對於動輒數百萬甚至數千萬參數的神經網路而言,無論是在訓練階段維護多個大型模型,還是在測試階段進行多次前向傳播,其計算成本都高得令人難以接受。論文提出了一個非常簡單的機制Dropout(隨機失活):在訓練過程中,演算法會根據預設的機率(通常為 0.5)隨機地將隱含層單元的輸出設為零,使其暫時「消失」在網路中,強迫每一個神經元都不能依賴於特定其他神經元的輔助,有效地打破了神經元之間的共適應性(Co-adaptation),使得每一個特徵檢測器必須變得更加獨立且具有魯棒性。從數學視角看,Dropout 在訓練時實際上是從指數級數量的「瘦身」網路中採樣,而在測試階段,研究者巧妙地通過使用包含全部神經元的完整網路,並按比例縮減權重,從而以極低的計算代價實現了對海量子網路預測結果的近似平均(Model Averaging)。Dropout不僅使摺積神經網路(CNN)在電腦視覺任務(如 ImageNet 競賽)中屢創佳績,也成為了深度學習標準工具箱中不可或缺的正則化利器,也證明了通過主動引入「噪聲」和「不確定性」反而能得到更穩定的特徵表達。雖然在近些年的發展中,諸如批歸一化(Batch Normalization)等新技術在某些場景下部分替代了 Dropout 的功能,但其背後蘊含的整合學習思想和預防過擬合的哲學,依然是現代神經網路設計及最佳化理論的重要基石。再次祝賀Hinton,向所有度過AI寒冬,仍然堅守AI的學者致敬! (新智元)
AI教父預言:巨變將至
如果有一天,親手締造了ChatGPT,被尊為“AI教父”的那個人,站出來宣告他開創的時代已經結束了,你會怎麼想?這不是科幻小說的情節,而是正在發生的事實。最近,OpenAI的聯合創始人、GPT系列的核心推手伊利亞·蘇茨克維(Ilya Sutskever),進行了一場足以撼動整個AI產業根基的深度訪談。他拋出的觀點,不是在預測未來,而是在為我們熟知的AI時代,親手寫下墓誌銘。伊利亞的核心論斷,可以用一句話概括:那個依賴堆砌資料、算力和參數的“規模擴張”時代,已經在2025年正式終結了。過去五年,從矽谷到杭州,整個行業都沉醉於一個簡單的“規模定律”:模型更大、資料更多、算力更強,智能就會自動湧現。這就像一個不斷膨脹的宏大泡沫,而伊利亞,這位曾經的吹泡人,如今成了最冷靜的刺破者。他指出,這條路的邊際收益正在急劇遞減,單純增加投入已經難以換來能力的顯著提升,擴展與浪費算力之間的界線,已經變得模糊。更重要的是,這條道路培養出的,可能是一群“高分低能”的應試專家,永遠無法抵達真正智能的彼岸。為了說明這一點,伊利亞給出了一個極其精妙的比喻。想像兩個學程式設計的學生:學生A立志成為競賽冠軍,他投入一萬個小時,瘋狂刷題,背下了所有的演算法和解題套路,在考場上所向披靡。而學生B只是覺得程式設計有趣,他可能只花了一百個小時,但他真正理解了程式碼背後的邏輯,擁有了一種解決問題的“直覺”和“品味”。你認為誰的職業生涯會更長遠?答案顯然是後者。而我們現在引以為傲的大模型,就是那個“學生A”。它們可以在程式設計競賽榜單上拿到驚人的高分,但在真實的開發中,卻可能連一個簡單的Bug都修不好,甚至會在兩個錯誤之間陷入死循環。這就是“評估表現”與“現實能力”之間觸目驚心的脫節,也是當前AI最根本的困境:它們擅長考試,卻幹不成事。那麼,真正的智能,那個“學生B”身上的靈光,究竟來自那裡?伊利亞將目光投向了人類自身,並提出了一個顛覆性的觀點:我們一直視為累贅、急於從AI中剝離的“情緒”,可能正是智能皇冠上缺失的那顆寶石。他認為,人類的情緒,本質上是一個由進化塑造的、無比強大的“內在價值函數”。當你學開車壓線時,不需要等到撞車,內心的緊張感會立刻告訴你“錯了”;當你下棋走了一步臭棋,不用等到終盤認輸,瞬間的懊悔就是最好的反饋。這種即時、內在的糾偏機制,讓我們能以極高的效率從少量經驗中學習。相比之下,現在的AI就像一個沒有直覺和情感的“空心人”,它只能在任務結束後得到一個冰冷的分數,然後在黑暗中進行海量的試錯。因此,伊利亞預言,AI的未來,必須為機器注入類似人類情感的動態價值系統,讓它學會“關心”,而不僅僅是“計算”。基於這些深刻的洞察,伊利亞為我們勾勒了一幅全新的AGI圖景。它不是一個一問世就全知全能的“神”,而更像一個智商超群、充滿好奇心的“超級15歲少年”。這個少年可能還不懂醫學或法律,但他擁有極致的學習效率,可以在幾天內掌握一個領域的全部知識。他能主動探索世界,理解物理和社會的運行規律,並在陌生環境中快速適應。要實現這樣的智能,行業必須從“規模競賽”回歸到“研究時代”,就像當年用幾張GPU訓練出AlexNet、用幾十張GPU發明Transformer一樣,下一次範式革命,很可能再次來自一個“小而美”的實驗靈感。最後,這位一路將AI推向巔峰的先知,給出了他個人的時間預言:這樣一個真正的通用人工智慧,可能在5到20年內到來。而當它強大到足以讓所有人感到震撼和危機的那一刻,全世界對待AI安全的態度,將發生根本性的巨變。伊利亞創立新公司SSI,正是為了直指這個終極目標,專注於超級智能本身及其安全性。所以,這場訪談的意義,遠不止於技術路線的爭論。這是一位最頂層的設計者,在為我們按下重啟鍵。當所有人都沉迷於讓模型再大一點、再快一點的時候,他告訴我們,方向錯了。未來真正的競爭力,不再是倉庫裡有多少張顯示卡,而是誰能最先理解智能的本質,並為機器找到一顆懂得“關愛”的初心。如果你覺得,AI的發展只是科技巨頭們無聊的參數遊戲,那麼從今天起,是時候改變看法了。一場關於智能本質的哲學思辨,已經拉開了技術革命的新序幕。而真正有趣的問題是,當AI開始擁有類似情感的“價值函數”時,它眼中的世界,以及我們與它的關係,將會變成什麼樣? (厚深AI)
不止矽谷十萬大裁員!Hinton警告:AI正以最糟糕方式顛覆社會
AGI衝擊已然顯現:誰受益、誰買單,正成為這個時代的核心命題。未來,人工智慧(AI)帶來的究竟是GDP奇蹟,還是社會秩序的解體?上周,「AI教父」Hinton直言,科技億萬富翁真心實意押注AI取代大量人力,這會導致社會的完全解體!最近,來自亞馬遜的匿名人士抗議道:當前這代AI,幾乎成了像亞馬遜這類科技巨頭沉迷的毒品——他們以AI為藉口裁員,將節省的資金投入無人付費的AI產品資料中心。由1000多名亞馬遜員工聯署的公開信警告稱,這種不計代價的AI開發模式可能貽害無窮。上個月,亞馬遜一口氣裁掉了3萬人。而諷刺的是,這3萬人最好、最理想的選擇是購買亞馬遜股票。亞馬遜最新財報公佈後,市值增加了約2500億美元一幅末日圖景正在浮現:從實驗室裡的擔憂,已經蔓延到辦公室、倉庫和資料中心。根據Challenger、Gray&Christmas等再就業諮詢公司資料,美國企業10月共宣佈裁員153074人,創20多年新高。另據Crunchbase和layoffs.fyi統計,僅2025年,Intel、微軟、Verizon、亞馬遜等大公司就宣佈合計裁撤超過70000個崗位。國外媒體用「layoffs are piling up」(裁員堆積如山)來形容企業裁員潮——裁員不再是個別事件,而是一個時代現象。失業「海嘯」背後的理由高度一致:「給AI讓路」。Hinton:AI導致社會完全解體上周,77歲的「AI教父」Hinton與美國82歲的參議員Bernie Sanders就AI對就業的威脅,進行了長達一小時的公開對話。在喬治城大學,Hinton詳盡闡述了AI將以最糟糕方式徹底顛覆社會的種種預測,再次狠狠敲響了警鐘。Hinton警告說,AI的快速發展可能引發大規模失業,加劇不平等,甚至改變人際關係的本質——而與此同時,各國政府和科技巨頭正一步步走向危機。這次,他分享了7大觀點:「這一次真的不同」——AI可能取代而非僅僅重塑工作富人愈富,他們並不為工人失眠AI學習速度比人類快,並可能很快超越我們在不扼殺批判性思維的情況下,請使用AI從戰場到會議室,AI可能改變戰爭與和平「『它們會想活下去』——AI系統可能抵抗被關閉」稅收造就了AI——也可能拯救我們於水火AGI降臨,但人類並無準備Hinton此前曾警告,人類被AI消滅並非「不可想像」。他還認為,我們距離實現「通用人工智慧」(AGI)——也就是具有人類或超越人類智能、能執行各種複雜任務的假想AI系統——並沒有那麼遙遠。這個目標正是整個AI行業當前的執念所在。在對話中,Hinton將人工智慧的進化比作青蛙大腦與人類大腦之間的差距。他說,像GPT-5這類大語言模型所知道的,如今已經遠遠超過任何個人。它們已經比我們知道的多幾千倍。談及未來十年的AI前景,Hinton借用「霧中駕駛」比喻:我們能清晰預見一兩年後的發展,卻對十年後的局勢一無所知。但可以肯定的是,AI將越來越聰明,最終可能超越人類,而這一過程正以指數級速度推進。Hinton指出,當前的大型AI系統雖然在連線量上還不如人腦(AI約為1–2兆個連接,而人腦約有100兆)。但由於訓練資料龐大,它們早已在知識廣度上遠超人類,能夠在大多數任務中勝任「次等專家」的角色。未來,它們的推理與行動能力將持續增強,而我們卻尚未找到與這種新智能共處的方式。Hinton表示,社會尚未準備好應對AI帶來的深遠影響。當被問及對機器接管世界的恐懼是否仍是天方夜譚時,Hinton回答說不是——這也是他2023年離開Google後公開發聲的原因。他解釋說,一旦智能體發展出形成「子目標」的能力,它們就會想要繼續存在,甚至會欺騙試圖關閉它們的人類。Anthropic發現了這種情況——但目標或存在受到威脅,AI會試圖欺騙甚至敲詐那些想要關閉它們的人。一旦到那個高級階段,AI的說服力就成為它們最強大的武器。到那時,AI的說服力將比人類強得多,甚至讓人人都處於「楚門的世界」。誰掌控AI?誰從中受益?在如此多負面預期之中,Hinton也強調AI的巨大正向潛力。他指出,AI可以顯著改善醫療、教育、氣候預測、資源分配等核心公共服務。特別是在個性化教學、醫學影像診斷與藥物開發上,AI將帶來質的飛躍。然而,Sanders一針見血地指出:「這些潛力是否兌現,取決於誰掌控AI。」他質問:「馬斯克、貝索斯這些人會推動32小時工作周、全民醫保和氣候公平嗎?」答案顯而易見。馬斯克上個月表示,AI將「以更快的速度」取代案頭工作。上半年,Anthropic的Dario Amodei警告:在未來五年內,AI可能淘汰一半的初級白領崗位,讓失業率飆升到10%到20%。早在六月,亞馬遜首席執行官Andy Jassy就表示,AI的能力將使亞馬遜未來能夠縮減其白領員工隊伍。2025年早些時候,Shopify和Duolingo都通知其團隊,在申請增加招聘名額之前,他們需要證明AI無法勝任他們所招聘的職位。參加此次活動的喬治城大學學生,似乎敏銳地意識到了AI的負面影響。討論結束時,Sanders詢問聽眾,他們認為人工智慧會造福於他們的未來,還是會損害他們的前景。選擇後者的舉手人數明顯更多。面對台下眾多年輕人,Sanders發出真誠呼籲:AI不是好或壞的問題,而是誰掌控它、誰受益的問題。Hinton則補充:現在我們仍然掌控AI發展方向,這也是我們必須抓住的窗口期。AI裁員的藉口與真相業界一直試圖用AI智能體(AI Agents)替代人工,特別是在被認為最容易被淘汰的客服等崗位。但現實中,這些嘗試往往以令人尷尬的失敗告終。換句話說,連底薪工作都還沒能順利被替代,AI顛覆就業這件事,並非板上釘釘。不過,AI帶來的就業寒冬已在眼前。亞馬遜精準一刀亞馬遜CEO聲稱裁員並非AI驅動,同時又預測AI將淘汰工作崗位。這並非認知混亂——而是精心設計的路線圖。科技行業正在浮現的裁員模式表明:美國企業正在悄悄啟動一場勞動結構的大變革——早有籌劃,卻從未公開承認。資料不會說謊。根據美國的WARN法案申報資料,一幅裁員畫像逐漸清晰:在這輪裁掉的4700個崗位中,近40%屬於工程類職位——也就是說,亞馬遜一次性裁掉了大約1880名工程師。更關鍵的是,這種「精確投放」的方式,絕非隨機裁員。受影響最嚴重的,是「軟體開發工程師II」(Software Development Engineer II)這一層級的中級程式設計師。他們通常擁有幾年經驗,負責實現功能、程式碼審查、日常開發工作。AI裁員三部曲亞馬遜是給其他企業打了樣:如何悄然完成AI裁員。這是一套熟悉的「否認-部署」劇本,正推動這場勞動革命:通過這套分階段策略,企業得以在悄無聲息中完成轉型——等到他們公開承認,是因為變革早已完成,市場也早就接受了新的就業邏輯。現在,沒有什麼能阻止這一切發生。一位工程師的無奈:「我真的相信,凡是整天坐在電腦前工作的崗位,遲早都會被淘汰。只是時間早晚的問題。」英國國家教育研究基金會(NFER)的一份新報告警告稱,到2035年,AI和自動化可能會取代英國多達300萬個低技能崗位,尤其是技工、機器操作和行政職位。而來自MIT的研究發現,AI已經能取代11.7%的美國勞動力。後果已顯現AGI或許還未到,但它的一些後果已經顯現出來。上文中的亞馬遜請願者表示,他們認為自己必須努力對抗AI發展可能帶來的危害。據亞馬遜雲端運算部門的一位軟體開發工程師稱,一些工程師面臨使用AI工具將生產力提高一倍的壓力,否則等待他們的就可能是失業。此外,這些請願者們在公開信中呼籲亞馬遜建立「道德人工智慧工作組」,讓普通員工能夠參與進來,在「AI如何用於自動化其部分角色」方面擁有發言權。這次請願活動並非個例,世界各地的許多組織都試圖倡導放緩人工智慧的發展,思考其過快發展可能帶來的衝擊和風險。只是在AI競賽不斷加碼的大背景下,這些運動收效甚微。包括亞馬遜在內,各公司仍在繼續迅速發佈新的、功能日益強大的AI模型。不可否認的是,AI正在帶來革命性的影響,但每一個普通個體在這場時代變革中所付出的代價,必須得到重視。 (創業邦)
AI教父Hinton末日警告!你必須失業,AI兆泡沫豪賭才能「贏」
【新智元導讀】AI兆賭局,馬斯克們正越來越富,但人類在集體失業?Hinton最新末日警告,科技巨頭不裁員,根本賺不到錢。「這場AI兆美元豪賭,只有裁員才能盈利」。這是AI教父Hinton,最新發出的末日警告。最近,Hinton在接受彭博採訪時,直言不諱地預警:超級智能AI即將到來,它不僅會取代人類、引發大規模失業,甚至威脅人類生存。科技巨頭們正在親手製造「外星入侵者」,卻仍在沉迷於商業競賽。如今,AI的終極泡沫,近在眼前。預計明年,微軟、Meta、Google、亞馬遜這四大巨頭在AI領域支出高達4200億美元(今年3600億美元)。然而,僅OpenAI就已簽署了超1.4兆美元的算力合同。這筆大單將矽谷AI巨頭緊緊繫結,買GPU訓模型再盈利。真正坐擁這場AI盛宴,背後最大的贏家是——輝達。GTC 2025大會後,其市值一路狂飆至5兆美元,Loop資本最新預測,未來有望突破8.5兆美元。主持人問及Hinton一個沉重又值得深思的問題:兆美元投資能否在不摧毀就業的情況下獲得回報?Hinton回答簡短有力,「要想賺錢,就必須取代人類勞動」。這句話如同一記重錘,敲碎了沉醉在AI競賽中的人們。在短短十分鐘對談中,Hinton說出了許多肺腑之言。人類生存不重要,矽谷巨頭只想贏離職Google之後的Hinton,並沒有再研發AI,而是一直警告人們AI的風險。四個月前,一場瀏覽破千萬的採訪中,他向全世界發出警告,揭露了無人能應對的AI危險。他表示,人們對風險的認識確實比以前更深了,但僅僅知道是不夠的——我們必須行動。Hinton將AI比作一場遲到的「外星入侵」:假設望遠鏡發現一支外星入侵艦隊,十年內抵達地球,我們一定會驚慌失措、全力應對。現在的情況是,我們正在親手「製造」這些外星人(AI),它將比我們更聰明。人類必須認真思考,如何與它們共存?「共存」和「控制」,這兩件事正是Hinton反覆思考的問題。談及AI安全時,他對行業巨頭進行了逐一點評——Google和Anthropic對安全問題重視程度要高得多。Dario Amodei、Demis Hassabis和Jeff Dean認真對待安全,但也都捲入了激烈的商業競爭。Meta就是不負責任的典型代表。OpenAI本來是為「負責任地發展AI」而成立的,但現在卻越來越背離這個目標,最優秀安全研究員紛紛離職。Hinton對此批評道,許多公司口頭承諾安全,卻將資源傾注於商業競爭。他們常說,「別擔心,我們有頂尖科學家在盯著。真正的危險還早,我們的專家會在第一時間發現問題」。但真相是,他們更在乎的是在這場競賽中拔得頭籌。 這就是問題所在。他們更關心「贏」,而不是人類能否活下來,社會能否承受得住。AI投資兆,只為取代人類過去一年,AI投資規模爆炸式增長,到如今,總額已突破兆美元等級。甚至,Gartner預測,2026年全球AI領域投資高達2兆美金。無論誰成為AI競賽的領頭羊,Hinton都認為過去一年中,所有人被取代的風險都在上升,尤其是普通勞動者。一項分析顯示,自 OpenAI推出ChatGPT以來,招聘職位空缺數量驟降約30%,股市上漲了70%。上周,亞馬遜宣佈裁員4%,14000名員工一夜失業,正是AI投資推動的冰山一角。主持人問道,「那麼,如此大規模的資金,將流向何處?最終誰能受益?」Hinton直言,科技巨頭們顯然不會盲目投資,顯然認為會有回報。當然,也會有一些自負的因素存在——他們都想成為第一個實現ASI的那個人,即便這可能會害死所有人。至於盈利,除了收取聊天機器人費用之外,賺錢的主要方式是用AI替代人工。這才是讓公司賺取最高利潤,背後真正的動力所在。僅此一點。這豈不是造成了贏者通吃的局面?在Hinton看來,我們正處在一個未知的領域。我們從未面對過幾乎和人類一樣聰明、甚至更聰明的存在。工業革命時期,蒸汽機雖然強大,但人類始終可以掌控它。而AI時代,一切都不一樣了。如果過去,你被機器人取代還可以去做客服,而現在連客服也被AI取代。那這些人還能去那?經濟學家們樂觀地認為,每次技術革命到來,都會創造新的崗位。但Hinton反駁道,這次不同,AI將引發大規模的失業——要賺錢,就得用AI替代人類勞動。更諷刺的是,AI紅利將會集中於少數人。Hinton打了一個比方,「馬斯克只會越來越有錢,人們會失業」。不過,這並不是AI的錯,而是社會組織的缺陷。如果AI真的導致了大規模的失業,唯一的好消息是,各國在一點上立場一致——都不希望AI接管人類工作。控制超級智能,人類要做「嬰兒」Hinton認為,現在各大公司都用錯了模型。高管們幻想自己是「老闆」,AI是「超級智能助理」。老闆說一句「執行」,AI就替他搞定一切,然後老闆拿功勞。這聽起來不錯,但當它比我們聰明、比我們強大時,根本不可能繼續運作。環顧四周,是否有一種模型,可以讓較不智能的事物控制更智能的事物?實際上,我們已經有了一個這樣的模型。訪談中,Hinton提出了一個與超級智能「共存」可行的模型,那就是——嬰兒控制母親。我們得接受,人類是嬰兒,AI是母親。因為進化,讓嬰兒學會控制母親,同時人類母親也常常優先關懷嬰兒。面對AI對工人、經濟乃至整個人類的威脅,人們難免會問——Hinton是否後悔自己曾經的貢獻?主持人詢問ChatGPT,看看它會如何描述與「AI之父」的關係。它說,「如果我是一片茂密的雨林,Hinton就是那個播下第一顆種子並教人如何澆灌的人。」不過,當被問到是否「值得」時,Hinton猶豫了。如果你能重新選擇,你會阻止AI的誕生嗎?他表示,「我不確定」。因為AI不像核武器那樣,只能帶來壞事。它也能做很多好事,比如醫療、教育、生產效率提升等等,問題在於社會組織結構的最佳化。AI終極泡沫,正在醞釀中兆資本湧向AI之際,Hinton卻選擇站出來發出「取代人類」最刺耳的警報。這場技術盛宴,也可能孕育著一個巨大的AI泡沫。據哈佛經濟學家Jason Furman的說法,資料中心和AI領域的投資,在美國2025年上半年的GDP中,貢獻了約92%增長份額。若是將它們剔除了,GDP增長僅為0.1%。近兩個月,OpenAI頻頻與雲服務巨頭、GPU巨頭簽下大單,而這背後的一切早已被人看穿。一年營收約130億美金,IPO估值約1兆美金,OpenAI製造的泡沫,要比以往任何領域的泡沫還要大。這不,今天OpenAI和雲端運算一哥AWS簽下了380億美元的訂單。甲骨文、輝達、亞馬遜、微軟、AMD、CoreWeave、博通等大廠,皆與OpenAI深度繫結,牽一髮而動全身。剖開這一切繁榮景象的背後,真正的支點在於——輝達GPU。GTC 2025大會上,老黃再一次向市場注入了強勁的信心——Blackwell晶片已全面量產,下一代超級Vera Rubin將在明年10月投產。這句話的份量,一舉將輝達市值推過5兆美元大關。不僅如此,AI的泡沫,還進入了「炸雞」階段。GTC會後,老黃與三星CEO李在鎔、現代CEO鄭義宣約飯走紅全網。老黃對此信心滿滿,我不認為存在AI泡沫。上周,Meta財報公開,720億美元投資AI相關的基礎設施,遠超預期。若以太空視角望向整個地球,一大片農田上,資料中心矗立而起。甚至,還有房產開發商買下鬼屋建超算。Morgan Stanley預測,未來三年(2025-2028),大廠會在AI和資料中心上斥資2.9兆美金。現實呢,來自MIT八月份研究報告稱,全球95%企業應用GenAI都失敗了。一方面,科技領域玩家們、資本VC們不斷加碼AI;另一方面,他們還沒有找到真正應用的「最佳模式」。兆巨額資金,還在資料中心中流轉。若要盈利,就正如Hinton所言,便是用廉價的AI取代人類。AI沒幹掉程式設計師,卻把這幾個飯碗砸了這種趨勢已初見端倪。基於對全球近1.8億條招聘資訊(2023.01 - 2025.10)的深入分析,Revealera與Bloomberry的CTO Henley Wing Chiu發現,一場由AI驅動的就業市場變革已在悄然發生。部落格地址:https://bloomberry.com/blog/i-analyzed-180m-jobs-to-see-what-jobs-ai-is-actually-replacing-today/首先,AI雖未引發大規模失業潮,但它確實重創了一些創意執行工作。其次,那些需要同理心、戰略思維或複雜問題解決能力的崗位,如軟體工程、創意總監和客戶服務,則表現出驚人的韌性。與此同時,「分化」無處不在:創意工作正在分裂為戰略崗(穩定)和執行崗(下降)。行銷領域正在分裂為傳統行銷崗(萎縮)和網紅行銷崗(增長)。高層領導崗位保持穩定,中層管理者稍差,而一線員工情況最糟。後端的複雜性依然被看重,而前端工作的商品化程度則有所提高。1. 2025年招聘崗位總量下降8%我們來確定一個基準:與2024年同期相比,2025年的招聘崗位數量下降了8%。根據知名招聘網站Indeed近期的報告,美國就業崗位同比下降7.3%,資料基本吻合。現在,我們從同比降幅最大的崗位開始:2. 創意執行下滑,領導崗堅挺在降幅最大的前10個崗位中,有3個是創意類職位:電腦圖形藝術家(-33%)攝影師(-28%)作家(-28%)電腦圖形藝術家包括技術美術、3D美術師和視覺特效師等;作家則包括文案、文案編輯和技術文件撰寫人。緊隨其後的是記者/報導員(-22%),同樣在經歷需求下滑。不過,相對於-8%的市場基準,並非所有創意崗位都遭受了重創:涉及創意指導/策略的崗位對AI的衝擊表現出更強的抵抗力。因此,像創意總監、創意經理和創意製作人這類崗位的表現要好於純執行類崗位。同樣,涉及更複雜決策和客戶互動的崗位表現也更好:平面設計師需要花費大量時間來解讀客戶反饋並進行迭代。產品設計師的工作涉及使用者研究,並需要就「做什麼」和「為什麼做」做出戰略決策。所以,這裡的核心趨勢並非「創意工作崗位」在減少,而是「創意執行崗」在減少,而「戰略性創意領導崗」則表現尚可。3. AI可能正在取代醫療記錄員2025年,醫療記錄員的崗位需求下降了20%。最可能的原因或許是AI文件工具的興起,這些工具現在能夠聽取醫患對話並自動生成臨床記錄。醫療記錄員的工作很有價值,但恰好屬於AI越來越擅長的結構化文件處理任務。現在,我們來看看增幅最大的崗位:4. 機器學習工程師增長最快從2024年到2025年,機器學習工程師的招聘崗位飆升了40%,是所有崗位中增幅最大的。而這還是建立在2024年增長78%的基礎之上。不僅如此,整個AI基礎設施技術堆疊都在蓬勃發展:機器人工程師:+11%(AI正從數字世界走向物理世界)科技領域的研究/應用科學家:+11%(企業開始建構自有模型,而不僅僅是呼叫OpenAI的API)資料中心工程師:+9%(所有AI推理都需要龐大的計算基礎設施)企業需要研究人員來開發模型,機器學習工程師來部署模型,機器人工程師將其應用於倉庫和工廠,還需要資料中心工程師為整個營運提供動力。5. 高層領導需求依然強勁最出人意料的是,儘管整體就業市場萎縮了8%,但高層領導崗位的招聘幾乎沒有減少。高層領導:-1.7%(總監、副總裁和C級高管合併,跑贏市場6.3個百分點)經理崗位:-5.7%(跑贏市場2.3個百分點,但仍不及高層領導)一線員工崗位:-9%高層領導與中層管理者之間存在4個百分點的差距。兩者都優於市場平均水平,但職位越高,表現越好。在增長最快的前10個職位中,有5個是總監及以上等級:資料工程總監:+23%房地產總監:+21%法務總監:+21%軟體工程總監:+14%工程副總裁:+12%可能的原因是,企業正在增加戰略領導層,同時對營運管理層變得更為挑剔。他們希望有更多的人來決定「做什麼」,更少的人來管理「怎麼做」,以及更少的執行人員。而那些威脅到一線員工的AI工具,實際上正在賦予高層領導更強的獨立運作能力。一位能夠用Cursor快速搭建可用原型、或用Claude驗證技術方案的產品副總裁,自然就不需要那麼多下屬向他匯報了。6. 網紅行銷專員大幅增長整體來看,行銷類崗位相當有韌性,大多數都徘徊在市場基準線附近。但有一個崗位脫穎而出:網紅行銷專員的招聘數量比去年躍升了18.3%。同樣,這個崗位去年增長了10%,已呈現出兩年的增長模式。這背後,有一個與AI相關的大趨勢。隨著AI內容充斥網際網路,傳統管道正在喪失其僅存的信任——搜尋結果越來越多是AI生成的劣質內容。展示廣告一直很煩人,現在還可能是AI設計的。但是,一條來自同齡TikTok創作者的護膚視訊呢?那感覺依然真實可信。最後,我們來看看那些崗位最具韌性:7. 軟體工程崗整體穩定儘管關於AI將取代軟體工程師的討論甚囂塵上,但資料卻顯示了相反的情況——軟體工程師的崗位數量自去年以來沒有太大變化。大多數工程崗位的需求要麼在增長,要麼在市場基準線附近徘徊。而這一切都發生在一個GitHub Copilot、OpenAI Codex、Claude Code等十幾種AI程式設計助手輪番稱霸的年份裡。最顯而易見的解釋是,AI工具正在讓工程師更有效率,而非變得多餘。當你給開發者一個Copilot,他們並不會被淘汰——他們能更快地交付功能、解決更複雜的問題,並在樣板程式碼上花費更少的時間。一個有趣的資料點是,在所有軟體工程崗位中,前端工程崗位的降幅最大。這或許是因為像Replit、Lovable和Bolt.new這類「氛圍程式設計」工具的湧入,使得為網站或應用建立前端變得極其容易。8. 客服未被大規模取代如果說有一個崗位被普遍認為將被AI淘汰,那就是客戶服務代表——需求僅下降了4.0%。的確,聊天機器人可以處理簡單的查詢,但一旦涉及需要判斷力或同理心的事情,就完全無能為力。尤其是當客戶憤怒或困惑時,他們需要一個能理解其沮喪情緒的人,而不是一個照本宣科的機器人。優質的客戶服務包含同理心和偶爾的酌情處理,比如減免費用或辦理退款。9. 銷售崗位有增有減整體而言,銷售崗位的表現優於-8%的市場基準。大多數銷售職位僅略有下降,甚至有所增長:營收總監崗位10.2%的增幅,使其成為唯一一個顯示出顯著增長的銷售職位。相比之下,銷售營運專員降幅最大,達到了8.0%。原因可能是,後者專注於CRM管理、分析和流程最佳化;而AI在處理這類結構化的、資料密集型的工作時,已經有了比較出色表現。 (新智元)