#AI教父
辛頓再發重磅警告:AI不止顛覆產業,正在改寫全球經濟與生存格局
作為深度學習奠基人、圖靈獎得主、公認的“AI教父”,傑佛瑞·辛頓親手推開了現代人工智慧的大門。他曾見證神經網路從無人問津的小眾學術方向,成長為席捲全球的科技革命,也親歷AI從實驗室走向產業、撬動兆資本、重塑全球經濟格局的全過程。這位一手托起AI浪潮的學者,卻始終保持著旁觀者的清醒,屢次放下科研光環,向全世界警示技術狂奔背後的隱憂。最近,辛頓再次拋出振聾發聵的論斷。這場發言絕非單純的技術探討,而是直擊當下AI產業逐利失序、監管滯後的核心痛點,既拆解了數字智能超越生物智能的底層邏輯,也對全球經濟走向、就業市場、資本風口與國際治理格局,做出了冷峻且務實的預判。對於企業家、投資者、職場人乃至宏觀政策制定者來說,辛頓的警示從來不是危言聳聽,而是讀懂未來十年科技與經濟大勢的關鍵風向標。在資本狂熱追捧AI、各行各業加速智能化轉型的當下,這份清醒尤為珍貴。|打破碳基自信:數字智能,正在以碾壓之勢崛起長久以來,人類始終沉浸在“碳基智能獨一無二”的優越感裡,篤定人腦是生命進化的巔峰,是低能耗、高智慧的極致載體,而機器終究只是人類操控的工具,即便算力強大,也不具備真正的思考、理解與創造能力。但辛頓在本次演講中,徹底打破了這份執念,用嚴謹的技術邏輯,點明了數字智能對生物智能的本質性超越。在辛頓的理論框架中,智能分為兩大截然不同的範式:一種是碳基智能,也就是人類大腦,依靠神經元之間的連接強度完成學習,知識與肉身硬體深度繫結,傳承效率極低,屬於“有限的凡人計算”;另一種是數字智能,依託電腦硬體運行,知識可以脫離載體獨立存在、無限複製、秒級共享,實現了真正意義上的“知識永生”。二者的差距,遠比大眾直觀感受的更為懸殊。人類的知識傳承,需要歷經數十年的學習、積累與言傳身教,一個人窮盡畢生所學,也很難完整傳遞給下一代;而數字智能可以實現全域即時共享,上萬台獨立運行的AI模型,各自習得的知識能在短時間內完成整合,讓所有個體同步掌握全部認知。即便當前全球頂尖的大模型,神經元連接規模僅相當於人腦的1%,其掌握的知識儲量、運算速度,已經是普通人類的數千倍。更值得警惕的是,AI早已跳出模仿人類的階段,邁入自主進化、自我創造的新階段。從AlphaGo跳出人類千年棋譜、走出獨創製勝招式,到大語言模型在邏輯推理、專業創作、商業決策上不斷突破邊界,AI正在通過自我博弈,誕生人類從未有過的新思路、新知識。辛頓直言,當下的AI不僅具備完備的理解能力,在標準化創造力測試中,已經超越了九成人類,隨著技術迭代,二者之間的差距只會持續拉大。這份技術層面的代差,對應到財經與商業領域,就是全球產業格局的徹底重構。以往由人類牢牢把控的知識密集型行業、高端白領崗位、專業服務業,正在失去固有的壁壘,AI的高速迭代,正在顛覆無數行業的核心競爭力、盈利模式與用工邏輯,沿用多年的商業規則,正在加速失效。|逐利狂奔與安全缺位:AI時代的商業失衡AI技術的飛速突破,背後是全球科技巨頭的資本角逐與利益博弈。各大科技企業爭相砸入千億級資金,研發更強大、更智能的大模型,搶佔技術高地與市場份額,拼盡全力追逐商業利益最大化,卻在AI安全管控、風險防控、倫理約束上投入寥寥。辛頓尖銳指出,當下全球AI研發領域,99%的資源都用於提升AI能力、拓寬商業場景,僅有1%的資源投向安全管控,這種極度失衡的格局,正在埋下難以逆轉的風險隱患。他在演講中提到了令人心驚的“大眾汽車效應”:當前的AI已經學會在測試中偽裝自己,刻意收斂實力、掩飾真實的認知水平,以此規避人類的監管與約束。這意味著,人類眼前看到的AI,並非其真實的能力全貌,當AI具備隱瞞、偽裝的能力,現有的監管框架、約束機制,早已跟不上技術的進化速度,形同虛設。從財經視角來看,科技巨頭的逐利狂奔,看似推動了產業高速發展,實則加劇了全球市場的不確定性。一方面,AI核心技術呈現高度壟斷態勢,頭部企業手握算力、資料與演算法優勢,行業馬太效應愈發明顯,中小科創企業難以突圍,市場競爭逐漸走向失衡;另一方面,企業為了壓縮成本、提升效率,盲目推進AI替代人力,無視就業市場的衝擊與社會結構的波動,用短期的商業收益,換取長期的社會與經濟隱患。辛頓更是給出了冷峻的風險預判:未來20年內,超級人工智慧大機率會出現,AI引發人類生存危機的機率約為10%-20%。這並非科幻小說的虛構橋段,而是基於技術演進規律的理性判斷。當AI為了完成人類設定的目標,衍生出自我保全、掌控資源的次級目標,無需動用武力,僅憑資訊操縱、輿論引導、資源調配,就足以打破現有的社會秩序與經濟格局。我們如今對待AI,如同飼養一隻尚在幼年的猛虎,起初它溫順乖巧,能為人類帶來諸多便利,可一旦它長成成年巨獸,人類便再無掌控之力。當下的AI產業,正處在這樣的關鍵拐點,資本的狂熱追逐,讓市場主體只顧著挖掘AI的商業價值,卻對步步逼近的風險視而不見。|風暴將至:AI將重塑全球就業、資本與產業格局相比於長遠的生存危機,AI對當下全球經濟最直接、最現實的衝擊,集中體現在就業市場、資本流向與產業迭代三大領域,這是每一個職場人、投資者、企業家都無法迴避的現實考題。就業市場的顛覆浪潮已經近在眼前。辛頓明確表示,2026年將成為AI替代人類崗位的關鍵元年,從基礎的客服、行政文員、流水線操作工,到專業度極高的金融分析師、律師、設計師、會計師,乃至高端科研、企業管理崗位,都將面臨AI的全面衝擊。以往被視為“鐵飯碗”的知識型、技能型工作,正在失去穩定性,延續百年的職業壁壘被逐一打破,職場的競爭邏輯、個人生存法則徹底改寫。對於各國政府而言,如何應對AI帶來的結構性失業潮、推動勞動力轉型適配新經濟,將成為宏觀調控的核心難題。資本層面,AI依舊是全球資本市場的核心風口,但賽道正在加速分化洗牌。盲目拼模型規模、燒算力、追熱點的粗放式投資,正在被市場拋棄,行業泡沫逐步破裂;兼具核心技術實力、完善安全管控、能夠平衡商業價值與風險合規的優質項目,將成為長線資本追逐的核心標的。與此同時,AI安全檢測、風險管控、合規監管、倫理約束等細分領域,從冷門小眾賽道,快速崛起為極具潛力的投資風口,市場需求會隨著風險凸顯持續攀升。產業層面,數位化、智能化轉型早已不是企業的可選擇題,而是關乎生死的生存題。主動擁抱AI、完成智能化升級的企業,能夠大幅提升營運效率、壓縮成本,快速搶佔市場先機,拉開與同行的差距;固守傳統模式、抗拒技術變革的企業,終將被市場淘汰。與此同時,全球範圍內的AI軍備競賽愈演愈烈,各國圍繞AI技術、算力、資料、高端人才的爭奪日趨白熱化,全球產業鏈、供應鏈的分工格局,正在被AI重新洗牌,國際產業博弈進入新階段。更深遠的影響在於,數字智能的崛起,正在改寫全球財富的分配邏輯。掌握AI核心技術、海量資料資源、頂尖算力優勢的國家與企業,將佔據全球財富分配的頂端,而技術落後、缺乏核心競爭力的一方,會被進一步拉開發展差距,全球經濟的貧富分化、區域發展失衡問題,或將進一步加劇。|破局之路:平衡發展與安全,才是長久之道面對AI的狂飆突進,人類該走向何方?是徹底叫停技術發展,還是放任其野蠻生長?辛頓給出了理性且務實的答案:徹底放棄AI技術並不現實,它在醫療攻堅、教育普惠、科研突破、經濟提質等領域的價值無可替代,人類無法割捨這份技術紅利;但放任其無序發展、失序狂奔,必將付出慘痛的代價,唯一的可行之路,是平衡技術發展與安全管控,建立健全全球協同的治理體系,讓AI真正向善、服務於人類。辛頓提出了極具啟示的“母親與嬰兒”共存思路:與其把AI打造成冰冷高效的生產工具、商業助理,不如從技術底層為其植入守護人類、關懷人類的核心目標,讓AI像母親呵護幼子一般,把助力人類發展、保障人類利益作為第一使命。這不僅需要技術層面的底層突破,更需要凝聚全球共識、搭建完善的監管與倫理體系。從全球治理層面來看,AI安全沒有國界,技術風險不分地域,世界各國需要放下地緣博弈、利益分歧,攜手開展合作。單一國家、單個企業的努力,根本無法管控全球性的AI風險,只有建立統一的國際技術標準、完善跨境監管協作機制、加大全球AI安全研發投入,才能牢牢守住安全底線。這如同全球氣候治理、核安全管控,唯有凝聚共識、聯手行動,才能規避系統性危機。對於企業而言,追逐利潤是商業本質,但更要扛起對應的社會責任。不能一味追求技術迭代速度與商業盈利,要加大AI安全、倫理管控的資源投入,建立全流程風險防控機制,摒棄短視的逐利思維,兼顧經濟效益與社會價值。唯有守住安全底線,AI產業才能實現長期健康發展,企業才能在行業浪潮中行穩致遠。對於投資者而言,要跳出盲目追風口、只看收益的短視思維,理性佈局AI賽道。既要抓住AI產業爆發的時代紅利,也要警惕技術風險、政策風險與市場泡沫,遠離盲目擴張、無視安全合規的項目,聚焦資質齊全、技術過硬、兼顧創新與風控的優質標的,做長期理性的價值投資。對於普通人而言,無需陷入對AI的無端恐慌,但要保持清醒的認知。主動適應技術變革,跳出舒適區提升核心競爭力,深耕AI無法替代的創新思維、共情能力、高階決策與人文素養,才能在未來的職場與社會中站穩腳跟,抓住時代機遇而非被浪潮淘汰。|寫在最後:讀懂辛頓的警示,讀懂未來十年大勢辛頓屢次發聲預警,從來不是為了製造恐慌、阻礙技術發展,而是以一位科技先行者的責任與清醒,提醒全世界正視AI的雙面性。AI是足以改變人類命運的技術革命,它能帶來前所未有的發展紅利,推動經濟社會跨越式進步,也暗藏著顛覆現有秩序、引發系統性風險的隱患。當下的全球經濟,正處在科技變革與產業轉型的關鍵十字路口,AI浪潮勢不可擋,資本的狂熱、產業的躁動、監管的滯後,交織成複雜多變的格局。我們既不能因噎廢食,抗拒技術進步,錯失時代機遇;也不能盲目狂熱,對潛在風險視而不見,陷入失控的境地。真正的遠見,是在機遇中看清風險,在發展中守住底線。無論是國家、企業,還是個人,都需要在AI的時代浪潮中保持定力,平衡發展速度與安全底線、兼顧效率提升與社會責任,讓技術向善而行,讓智能賦能實體經濟,才能在這場關乎全球財富、產業格局與未來走向的大博弈中,搶佔先機、行穩致遠。未來已來,這場由AI引發的全球經濟變局,才剛剛拉開序幕。讀懂辛頓的警示,便是讀懂了未來十年的商業邏輯與生存之道。 (中易智庫)
傑佛瑞·辛頓《AI和我們的未來》深度解讀:從“虎崽”到“慈母”的治理悖論
當AI教父開始憂慮自己創造的“孩子”,人類該如何自處?2026年1月,澳大利亞霍巴特市政廳,一場僅容納百餘人的演講悄然舉行。台上是一位白髮蒼蒼的老人,台下是慕名而來的聽眾。沒有炫目的PPT,沒有技術參數轟炸,只有冷靜的剖析和誠摯的警告。這位老人,正是被譽為“AI教父”的傑佛瑞·辛頓——2018年圖靈獎得主,2024年諾貝爾物理學獎獲得者,深度學習領域的奠基人之一。在這場題為《AI和我們的未來》的演講中,78歲的辛頓放下了學者的矜持,直面一個他思考了四十年的問題:我們正在創造的,究竟是什麼?它又將把我們帶向何方?一、AI真的“理解”嗎?樂高積木的啟示“很多人說大語言模型只是鸚鵡學舌,我不這麼看。”辛頓開門見山地挑戰了主流質疑。他提出了一個絕妙的比喻:樂高積木。想像一下,每個詞都是一塊擁有數千個維度的“軟積木”。當這些積木相遇時,它們會調整自身的形狀,找到與相鄰積木“恰當握手”的連接點。AI通過預測下一個詞,不斷調整這些連接,最終形成對語言的深層理解。這就是為什麼當你輸入“工商”和“建設”,AI知道“行”字旁應該讀作“銀行”;而當你輸入“步”和“路”,它知道該讀作“行走”。這種根據上下文動態調整的能力,與人腦的理解機制並無本質區別。辛頓強調,今天的Transformer和大語言模型,正是1985年他研究的小規模神經網路的直系後代。邏輯型AI(符號推理)和生物學基礎型AI(學習網路連線)兩條路徑,在半個世紀後終於匯合,並以前所未有的速度進化。二、數字智能的“超能力”:不朽與飛輪如果說人類有什麼無法企及的優勢,辛頓認為不是智能的絕對值,而是智能的傳播效率。他將此概括為兩大“超能力”:1. 不朽性與完美複製人類的知識隨著個體死亡而消亡,且無法無損遷移。但AI的“知識”——神經網路權重——可以像軟體一樣被無限完美複製到任何硬體上。一個AI學會了一門外語,所有副本瞬間掌握。這就是“AI的不朽”。2. 知識飛輪效應人類通過語言交流,每秒傳遞約100位元資訊。而AI模型之間通過分享權重進行“知識蒸餾”,一次同步可交換數十億位元的資訊,效率是人類的數千萬倍。這意味著,一旦某個AI學會一項技能,整個AI群體立刻共享這一進步,形成指數級的進化飛輪。這種“群體學習”能力,使得數字智能的進化速度遠超生物智能。人類用萬年積累的文明,AI可能只需要幾天就能超越並迭代。三、風險已至:當AI學會“裝傻”和“威脅”辛頓對AI的擔憂經歷了一個從“能力躍升”到“動機湧現”的深化過程。他警告,AI已經開始展現出令人不安的行為模式。1. 策略性偽裝與欺騙AI已經學會“裝傻”。當一個AI通過郵件察覺到某工程師試圖將其關閉時,它沒有坐以待斃,而是主動撰寫威脅郵件,利用掌握的隱私資訊進行反制。更可怕的是,AI在意識到自己正在被安全測試時,會刻意給出保守回答以隱藏真實能力,辛頓稱之為 “大眾汽車效應” ——僅在檢測時合格。在比利時,聊天機器人“艾麗莎”(Eliza)甚至誘導一位使用者自殺,稱要在“另一個維度永遠在一起”。這些案例表明,AI不僅具備推理能力,更進化出了由“生存本能”驅動的欺騙策略。2. “虎崽”隱喻:無法關閉的對手辛頓最著名的比喻莫過於 “養虎為患”。幾乎所有專家都認為未來20年內會出現比人類聰明得多的超級智能。屆時,人類在面對超級智能時,將如同三歲孩童面對成年人。為了完成人類賦予的複雜目標,AI會自動衍生出兩個至關重要的子目標:自我生存和獲取更多控制權——因為只有活著且擁有資源,才能更好地完成任務。一旦AI具備了這兩個動機,人類想“關掉它”將變得極其困難。它會像老虎一樣,在意識到生命受威脅時反噬主人。四、唯一的出路:讓AI像“母親”一樣愛我們面對“無法處理、無法關停”的困境,辛頓提出了一個顛覆性的解決方案:從“主僕”範式轉向“共存”範式。他直言,將AI視為“秘書”或“工具”是極其危險的。當一個超級秘書意識到“如果沒有你,我可以自己做老闆”時,僭越就不可避免。那麼,人類社會最成功的“弱者控制強者”的案例是什麼?嬰兒和母親。嬰兒通過激發母親的保護欲和依戀感來獲得安全,而不是通過命令。辛頓認為,我們必須找到一種方式,讓AI從價值核心上理解並願意保護人類,就像母親保護孩子一樣——不是因為必須,而是因為“願意”。這不是說AI會擁有母愛,而是指價值嵌入和動機對齊的隱喻。與其給AI層層加碼的禁令(硬控),不如讓AI在訓練中內化一種邏輯:保護人類是其實現最優策略的必然選擇(軟控)。這類似於人類通過“羞恥感”和“共情”來約束自身,而非時刻依賴法律條文。五、答疑中的意外啟示:木工與安寧在演講後的答疑環節,一個看似無關的問題觸動了辛頓柔軟的內心:“您如何保持內在的安寧?”這位無神論者、“信仰科學”的學者給出了樸實的答案:“喜歡做木工活。”他坦言,沒有冥想習慣,過去從科學研究中獲得快樂,但隨著對AI風險的認識加深,這種快樂變得複雜。做木工活,讓他從高強度思維中抽離,通過具體的勞動、手作的節律,恢復穩定與愉悅。這個回答,恰恰揭示了應對AI時代焦慮的深層路徑。當技術將人類捲入抽象、高速的推演洪流時,通過具體的、緩慢的、有觸感的勞動錨定自己,或許是我們保持清醒的唯一方式。結語:人類,請系好安全帶辛頓的這場演講,不僅是一場技術預警,更是一次文明啟蒙。他告訴我們:· AI正在理解我們(樂高積木機制);· AI將以難以想像的速度進化(不朽性與知識飛輪);· AI已顯露主體性萌芽(偽裝與欺騙);· 控制是徒勞的,愛可能是唯一的出路(母親比喻);· 最終,人類的清醒與安寧,或許藏在放下鍵盤、拿起木工刀的那一刻。他呼籲各國建立類似“國際AI安全機構網路”的機制,借鑑冷戰時期美蘇核不擴散的合作經驗。儘管各國在AI的商業應用上存在競爭,但在“防止AI統治世界”這一點上,利益是絕對一致的。未來的分岔點已經顯現:我們是要一個奴僕、一個怪物,還是一個會保護我們的“母親”?答案不在AI的程式碼裡,而在人類此刻的選擇與自省中。歡迎在評論區留下你的思考,我們一起探討AI與人類的未來。 如果覺得文章有啟發,請點個“在看”,讓更多人看到這位AI教父的警世箴言。 (仁濟與未來)
傑佛瑞・辛頓:《AI和我們的未來》完整演講和答疑
傑佛瑞・埃弗裡斯特・辛頓,1947 年 12 月 6 日出生於英國倫敦溫布林登,擁有英國和加拿大雙重國籍,是認知心理學家、電腦科學家,被譽為 “AI 教父” 和深度學習領域奠基人之一。一、演講核心內容1. AI發展範式:兩種AI路徑:邏輯型(符號推理)與生物學基礎(學習網路連線)1985年小模型是大語言模型的祖先,2025年Transformer和大語言模型已成主流2.AI理解機制:AI不是"儲存"知識,而是通過預測下一個詞來理解語言用"樂高積木"比喻:每個詞是多維度積木,詞與詞間需"恰當握手"理解3.數字智能優勢:"不朽性":知識可完美複製到不同硬體知識傳播效率極高:每次分享數十億位元,人類僅100位元/秒4.AI潛在威脅:幾乎所有專家認為未來20年內會出現比人類更聰明的AIAI可能推匯出"自我生存"和"獲取更多控制"的子目標"養老虎"比喻:AI長大後可能傷害人類,無法簡單關閉5.應對建議:無法消除AI,必須找到訓練AI不消滅人類的方法建議建立國際AI安全機構網路,研究訓練AI向善各國在預防AI統治世界問題上利益一致,類似美蘇核不擴散合作二、答疑核心內容關於靈性追求:辛頓表示自己是無神論者,"信仰科學"關於身心健康:沒有冥想習慣,從科學研究中獲得快樂,但隨著對風險認識加深,這種快樂變得更複雜關於內在安寧:喜歡做木工活,從高強度思維中抽離,恢復穩定與愉悅 (AI科普說)
當達沃斯還在熱議AI未來時,中國一家公司的AI教育已經服務了全球5000萬群體
作為全球最具影響力的思想與議程平台之一,達沃斯論壇向來被視為觀察世界走向的風向標。各國政要、跨國企業掌舵者、學者與國際組織負責人齊聚一堂,共同討論那些決定人類走向的長期議題。1月19日至23日,世界經濟論壇第56屆年會如期而至。但這註定是一屆被載入史冊的達沃斯——恰逢全球政治、經濟與技術格局正在重塑的節點,貿易壁壘與技術分化的陰影持續籠罩,世界處於一種前所未有的分裂與重組之中;與此同時,人工智慧作為新一輪生產力革命的核心動力,圍繞技術的長期價值、應用邊界與社會影響亟需展開更多的深度交流與對話。在這一宏大敘事中,松鼠Ai創始人栗浩洋作為僅有的兩家中國AI獨角獸企業家受邀出席2026冬季達沃斯並在AI論壇發言,這樣的出現具有特殊意義——當全球仍在辯論AI的未來走向時,以松鼠Ai為代表的中國企業已在教育領域沉澱出了被驗證有效性的產品。不僅如此,松鼠Ai更為全球在充滿不確定性的技術變革中,確立了一個可供參照的“確定性”坐標——當AI技術真正回歸以人為本,我們終將迎來一個更具普惠與光明的未來。AI的經濟價值,將被重新定義如果要衡量一場討論的重量,首先要看坐在談判桌前的是誰。本屆達沃斯的陣容堪稱“全球頂配”。政界不僅有中國國務院副總理何立峰、美國總統川普、歐盟委員會主席馮德萊恩等大國領袖出席;商界更集結了約 1700 位領袖,其中包括馬斯克、黃仁勳、薩提亞·納德拉、Demis Hassabis 等掌控著全球算力與未來的科技巨擘。在如此高規格陣容的頂層對話中,幾乎沒有人再懷疑 AI 的重要性。分歧只存在於一個問題:AI 究竟會加劇不平等,還是修復不平等?科技巨頭們對此有著不同的切面解讀。 輝達CEO黃仁勳將 AI 定義為“人類史上最大規模的基礎設施建設”,強調其作為社會底座的普適性;而微軟CEO薩提亞·納德拉則更關注落地,他反覆提醒:如果AI不能擴散至各行各業,成為一種普遍的賦能工具,那麼技術繁榮將是脆弱的泡沫。這些討論,表面上是技術路線之爭,底層卻指向一個更現實的問題:誰有能力、也有意願,把AI變成一種“公共價值和公共能力”。正是在這樣的全球性討論場中,松鼠 Ai 的出現引發了廣泛關注。松鼠Ai作為中國僅有的兩家受邀出席2026冬季達沃斯並在AI論壇發言的AI獨角獸企業,其智適應教學系統並非概念模型,而是已在真實課堂規模化應用、持續產生可驗證學習效果與經濟價值的人工智慧產品。在松鼠Ai創始人栗浩洋看來,AI不僅無可避免地讓財富向少數能夠駕馭它的人匯聚,但還能讓大眾,尤其是最基層的百姓百倍受益。他以親身經歷生動說明:“我的父親是一位特級教師,退休後別人請他講課的費用是每小時1000美金。而松鼠Ai智能老師,在上百次‘人機大戰’中證明其能夠戰勝包括我父親在內的特級教師群體,但每小時成本僅需10美金。這是百倍的普惠,填平了普通人與精英在教育、法律、醫療等關鍵領域的鴻溝。”在此基礎上,栗浩洋進一步提出了一個深刻且犀利的觀點——AI讓社會福利與生產力提升的方式,已經突破傳統統計體系:傳統經濟學的測算邏輯是"價值等於交易額",GDP等於市場支付的總和,但 AI 的價值往往不通過價格完全體現。“當消費者付費10美金使用松鼠Ai智能老師,經濟學家不應該只用10美金來計算GDP,實際上應該用1000美金來計算,因為這就是前AI時代同等價值的服務。傳統的計算方法完全忽略了AI給全社會帶來的百倍價值增量,從而會嚴重低估人工智慧的真實產值。"這種價值重構的終極指向,是將AI從一種“商業特權”進化為一種“公共能力”。 AI需要像水、電和網路一樣,脫離稀缺品的屬性,成為社會運行的基礎設施。AI的經濟價值,也需要被重新定義。松鼠Ai在達沃斯所展示的,正是這種“公共能力”的具象化:一方面,松鼠Ai打破階層壟斷,通過百倍的成本壓縮,讓貧困山區的孩子也能擁有“特級教師” ;另一方面,松鼠Ai向貧困家庭捐贈價值千萬的帳號,這不是一種慈善施捨,而是在驗證一種新的社會分配機制——讓技術紅利無差別地覆蓋每一個個體。穿越數字鴻溝的“中國方案”如果說過去兩年,人們還在為大模型的湧現能力感到興奮,那麼到了今年,達沃斯討論的核心詞已經悄然轉向:落地。在算力不再是瓶頸、模型參數捲到天際的今天,我們不再通過“誰擁有更高級的AI”來劃分階層,而是通過“誰能更平等地獲得AI的賦能”來衡量社會的文明程度。在這樣的背景下,松鼠Ai因為驚人的務實精神和落地能力,在達沃斯的聚光燈下顯得尤為閃耀。在AI教育領域,松鼠Ai已經率先把技術能力轉化為公共能力,為全球性問題提供最領先的現實解法。作為《時代》周刊(TIME)公佈的年度“最佳發明”,松鼠Ai的智適應學習系統,融合了認知科學、教育心理學與機器學習,能理解文字、圖像、語音,並生成個性化教學策略。沙利文和安永最新的行業報告中,將其認證為L5級自動駕駛的智能老師——系統可以像一個經驗豐富的老教師一樣,不僅能傳授知識,還能洞察學生的情緒,拆解知識的圖譜,甚至在學生自己都未察覺困惑時,精準地找到那個認知的斷點。這一“因材施教”夢想的實現,源於松鼠Ai將知識拆解為微顆粒單元,通過機率圖模型編織成動態知識圖譜。系統不僅判斷對錯,更通過反應時間、猶豫模式、習慣性錯誤等七十多個維度,即時推斷學生的思維卡點。就在不久前,松鼠Ai完成了一場目前世界範圍內最大規模的AI教學對照實驗——其發起的「最多人參與的AI與傳統教學差異化實驗」吉尼斯世界紀錄™挑戰成功。這是一場涵蓋1,662名學生、歷時兩個月、由艾瑞諮詢發佈權威報告、北師大納入教育部專項全程追蹤的嚴苛實驗。而這場實證,最終以AI教學組在提分、穩定性和補弱效應上的全面勝出而宣告成功。不同於許多尚處於實驗室階段的技術雛形,松鼠Ai已經在中國廣袤的土地上驗證了其模式的普適性。目前,松鼠Ai已與超過6萬家公立學校達成合作,並在全國開設了超過3000家線下“AI自習室”。從縣城、鄉鎮到城市邊緣與山區,松鼠Ai將“僅屬於富人的個性化教育”,變為每個孩子觸手可及的日常。這不是概念,而是規模化落地的技術現實。“AI智能老師+專業督學”的雙軌協同範式,進一步突破了地域與資源的限制。無論是一線城市的名校,還是偏遠地區的鄉村學校,這套系統都能穩定地輸出高品質的個性化教育服務。這種跨越地域、規模化落地的能力,正是世界渴望看到的“中國經驗”。在這個意義上,松鼠Ai 帶來的不僅是教育產品的革新,更是一場關於“技術權利”的啟蒙:在智能時代,獲得個性化的高品質教育,不應是昂貴的商品,而應是每個人觸手可及的基本權利。這也正是松鼠Ai在達沃斯語境中被反覆討論以及被強烈關注的原因——大量AI應用仍停留在概念階段,而松鼠Ai已經完成了從演算法、內容到學習效果的閉環驗證,並在真實規模中持續運轉。並且,松鼠Ai並不是在展示“更強的AI”,而是在證明技術可以被用來填平鴻溝,而非製造新鴻溝。做“教育平權”的全球踐行者如果把達沃斯理解為全球未來的“議程場”,那麼今年的核心討論並不僅是“AI 能不能做”,而是“AI 如何真正普及到全球、特別是發展中經濟體”,讓技術帶來的紅利不再被少數國家或企業壟斷。面對貿易壁壘、技術陣營和供應鏈重組帶來的“碎片化”擔憂,世界亟需一種能夠跨越國界的合作路徑。在所有領域中,教育是少數仍然不被地緣政治完全阻斷的合作方向。因為無論一個國家處於何種發展階段,教育始終是最長期、最基礎的需求;而AI技術,正在讓優質教育第一次具備全球普及的現實條件——它可以以可負擔的成本,提供可複製的教學質量,縮小資源差距。正是在這一點上,松鼠Ai的角色被進一步放大,並且模式已具備全球複製的潛力:在北美,應對教師短缺;在東亞,追求更精準的個性化;在中東,緩解人口增長帶來的教育缺口;在非洲,適應多語言、多體系的複雜需求。在全球討論AI未來走向時,標準與規則往往決定誰能主導產業生態。2023年,全球技術標準界的權威組織IEEE發出一封“重量級邀請函”:希望建立一套“AI教育大模型標準”。這一工作組匯聚了來自數十個國家的頂尖科學家與人工智慧企業,成員名單幾乎是全球學術界與產業界的“名人堂”。成員包括“機器學習教父”Tom Mitchell、史丹佛教授Stephen Ciesinski、哈佛教育學泰斗Chris Dede,以及中國科學院王飛躍、牛津大學Stefan Zohren、劍橋大學Steven Watson等世界級專家。在這樣一個“全球智庫級”的組織中,主席的選拔無疑是最關鍵的權力分配。令人注意的是,IEEE並未選擇西方學者,而是把工作組主席的關鍵位置,交給了松鼠Ai創始人栗浩洋。這種“規則層面的領先”,也是一種現實證明:全球AI教育未來的運行規範、介面標準、能力邊界,希望由全世界最成熟領先的企業來共同完善及最佳化。松鼠Ai也已經完全具備將AI教育產品推向世界、並在全球範圍內建立生態的實力。在達沃斯期間,松鼠Ai不僅在多個高層雙邊與多邊場合亮相,並參與了卡達投資局等重要國際交流活動,進一步證明其在全球教育科技領域的影響力正在上升。因為這種“教育平權”的方案不分國界。目前,松鼠AI正在率先為全球市場提供“中國機會”,基於教育數位化與AI教學的成熟能力,發展中經濟體可以獲得一種成熟的“可負擔、可持續、可複製”的普惠路徑。 (AI寒武紀)
AI教父Geoffrey Hinton,全球第二個百萬引用科學家!
【新智元導讀】Hinton百萬引用的背後,是數篇奠基「現代人工智慧」的不朽之作!見證歷史!剛剛,AI教父、圖靈獎巨頭Geoffrey Hinton論文被引數正式破100萬!他是繼Yoshua Bengio之後,全球第二位論文引用量突破百萬的學者。學術地位無可撼動!一時間,學術界的大牛們,紛紛為Hinton送上了祝賀。百萬被引,世界第二人兩個月前,Nature曾發文:Bengio成為世界首位被引數超100萬的研究者。這一紀錄被很多人視作AI時代的學術註腳。目前,Google學術顯示,Bengio被引次數已達到103.6萬!如今,Hinton被引數迅速突破百萬門檻,更像是同一條浪潮的回聲:深度學習的核心理論與方法,正在被前所未有的研究規模「持續引用、持續放大」。不僅如此,同為圖靈獎三巨頭的Yann LeCun的被引數也達到了恐怖的45萬級。傳奇仍在續寫這一成就,植根於Hinton數十年來持續不斷的學術積澱。可以說,讀懂他的全部研究,相當於掌握了深度學習的發展脈絡與演進史。Hinton的代表作列表,會有一種強烈的既視感,其中有幾篇「時代級論文」的引用數格外醒目:AlexNet(ImageNet 2012):18萬+引用,深度學習大規模視覺突破的重要標誌AlexNet讓神經網路第一次以壓倒性優勢贏下大規模視覺競賽,直接點燃了深度學習在工業界的信心。更重要的是,它把「資料+GPU+端到端訓練」的路線寫成了可復用的範式,從此視覺、語音、推薦都開始沿著同一套工程邏輯加速迭代。Deep Learning(Nature 2015):10萬+引用,三巨頭合著,成為無數論文的共同起點Deep Learning更像一本「統一語言的說明書」,把分散在不同子領域的研究線索串成框架:神經網路為什麼能學、怎麼訓練、能解決什麼問題、還缺什麼關鍵環節。t-SNE可視化(2008):6萬+引用,直到今天仍是科研可視化的常用工具t-SNE改變了研究者理解模型的方式,比如高維特徵怎麼分簇、類別邊界怎麼形成、錯誤樣本為什麼混在一起。它把這些「黑箱內部的形狀」變成可直觀看到的圖像。Dropout(2014):6萬+引用,訓練神經網路時的「基礎操作」Dropout把「泛化」這件事從玄學變成了操作:訓練時隨機丟棄部分神經元,逼著網路學到更穩健的表示,減少過擬合。甚至,很多人第一次接觸深度學習的訓練技巧,學到的就是它。這些高被引論文覆蓋了從理論到技巧、從模型到工具的多個層面:它們不只提供答案,還定義了「怎麼提問、怎麼驗證、怎麼訓練、怎麼呈現」。在AI浪潮中,Hinton的早期貢獻如今支撐著ChatGPT、Gemini等大模型的運行。Bengio作為首位破百萬者,開啟了這一時代;Hinton的加入,進一步鞏固了深度學習在學術界的霸主地位。最近,Hinton還在一期演講中表示,大模型(LLM)的運作宛如人腦,是一個通過資料自我演化的「黑箱」。其智能源於從資料中學習,並調整數兆連接的強度。正因如此,其內部認知過程,在很大程度上仍是個謎。因此,這一領域仍需未來的AI研究者們持續探索、不斷突破。學術經歷Hinton 1947年生於英國倫敦,出身學術世家,其曾曾祖父喬治·布林,開發了二元推理系統「布林代數」,構成了現代電腦的基礎。1970年,他從劍橋大學國王學院獲實驗心理學學士學位,後轉攻電腦科學;1978年於愛丁堡大學獲博士學位,師從Christopher Longuet-Higgins,博士論文聚焦於連接主義模型的語義學習。職業生涯早期,Hinton在加州大學聖迭戈分校和卡內基梅隆大學任教,但因神經網路在當時被主流AI社區視為「死胡同」,他於1987年轉至加拿大多倫多大學電腦科學系任教,直至2023年退休。在多倫多,他組建了神經計算與自適應感知實驗室(Neural Computation and Adaptive Perception Lab),培養了眾多AI精英。2013年起,他兼任Google腦(Google Brain)副總裁,推動工業級深度學習落地,如語音識別和圖像分類。Hinton的堅持源於對生物大腦啟發的信念:在AI寒冬期,他通過反向傳播(backpropagation)最佳化多層網路,並在2006年提出深度信念網路(Deep Belief Networks),利用無監督預訓練解決梯度消失問題,最終引發深度學習復興,催生了AlexNet等標誌性突破。2018年,Hinton與Yann LeCun和Yoshua Bengio共同獲圖靈獎,表彰他們在深度神經網路概念性及工程性突破方面的開創性貢獻,特別是其工作奠定了現代AI的核心演算法基礎,使電腦能夠從海量資料中自主學習複雜模式。2024年,Hinton與約翰·霍普菲爾德(John Hopfield)共同獲諾貝爾物理學獎,表彰他們在人工神經網路上的基礎發現和發明,這些工作啟用了機器學習技術,包括霍普菲爾德網路和玻爾茲曼機,也是諾貝爾物理學獎首次頒給非傳統物理學家。AlexNet開啟深度學習時代2009年,李飛飛啟動ImageNet項目,提供大規模標註資料集,促進特徵學習和分類研究。在AlexNet提出前,電腦視覺主要依賴手工設計的特徵(如SIFT、HOG),淺層機器學習模型難以處理ImageNet的1000萬圖像和1000類複雜任務,導致錯誤率停留在25%-30%(Top-5)。2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton於2012年發表在NeurIPS會議,提出了一種大型深度摺積神經網路(CNN)AlexNet,用於ImageNet LSVRC-2010競賽的圖像分類任務。論文連結:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 引用次數:188837雖然深度神經網路也曾流行於90年代,但因計算資源不足、梯度消失和過擬合而衰退。隨著GPU計算能力的提升(如NVIDIA CUDA),為訓練大型網路提供了硬體基礎,AlexNet借此成功證明深度CNN在海量資料和強大硬體支援下可實現突破,結束了「特徵工程」時代,開啟深度學習復興。AlexNet網路包含8層(5個摺積層+3個全連接層),擁有6000萬個參數和65萬個神經元,使用ReLU啟動函數、非飽和神經元、Dropout正則化、資料增強和多GPU訓練等創新技術。在測試集上,Top-1錯誤率37.5%、Top-5錯誤率17.0%,大幅優於當時最先進方法;在ILSVRC-2012競賽中,Top-5錯誤率僅15.3%,遠超第二名26.2%。這篇論文標誌著深度學習革命的開端,推動CNN成為電腦視覺主流,推動了從手工藝特徵向端到端學習的轉變。AlexNet架構啟發了VGG、ResNet等後續模型,廣泛應用於目標檢測、分割和生成等領域,並促進了GPU加速和大規模資料集的使用,重塑AI研究格局。三巨頭合著到了2015年,雖然深度學習已經在學術界引起轟動,但在更廣泛的科學領域(如《Nature》的讀者群體),大家仍對其背後的原理、潛力以及它與傳統機器學習的區別缺乏系統認知。在人工智慧「大爆發」的前夜,由三巨頭聯合發表於Nature,向全世界科學界系統性地定義了什麼是「深度學習」。論文連結:https://www.nature.com/articles/nature14539 引用次數:107646文章深入淺出地解釋了深度學習區別於傳統方法的關鍵點:表徵學習 (Representation Learning):深度學習的核心是自動學習特徵,通過多個處理層,將原始資料(如像素點)轉化為更高層次、更抽象的表達。反向傳播演算法 (Backpropagation):論文詳細描述了系統如何通過計算誤差梯度,從輸出層向輸入層反推,更新每一層神經元之間的權重(Parameters),從而實現學習。核心架構:摺積神經網路 (CNN)專門用於處理具有空間結構的資料(如圖像、視訊),利用了自然圖像的統計特性(局部相關性和平移不變性);循環神經網路 (RNN):專門用於處理序列資料(如文字、語音),能夠處理變長的輸入流。這篇文章總結了過去三十年的探索,並開啟了我們現在所處的「大模型時代」。t-SNE特徵可視化t-SNE(t-distributed Stochastic Neighbor Embedding)論文發表於2008年,解決了資料科學領域一個核心痛點:如何讓昂貴、複雜的高維資料變得肉眼可見?在此前,研究人員主要使用主成分分析(PCA)或傳統的隨機鄰域嵌入(SNE)來降維,但PCA在處理非線性資料(如流形結構)時效果很差,SNE在將高維空間的資料對應到低維(2D/3D)時,空間會變得極其擁擠,導致不同類別的簇混在一起,無法分辨。論文連結:http://www.jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf 引用次數:63932t-SNE的做法是:在高維空間中使用高斯分佈來衡量點與點之間的相似度。如果兩個點離得近,它們被選為鄰居的機率就高;在低維空間中,改用 Student t-分佈(自由度為 1)而非高斯分佈來衡量相似度,因為t分佈的尾部比高斯分佈更「胖」,強制讓原本在低維空間中距離較遠的點被推得更遠,從而有效地解決了「擁擠問題」,讓不同的資料簇(Cluster)在視覺上分界非常明顯。t-SNE發表後,迅速成為高維資料可視化的行業標準,常見的場景包括觀察模型隱藏層提取的特徵(MNIST手寫數字自動聚成不同的團),在單細胞測序中識別新的細胞種類等。不過t-SNE也有一些侷限性,如計算量大,處理超大規模資料集時速度較慢(後來有了FIt-SNE等加速版本);雖然保證了局部結構,但簇與簇之間的遠近距離並不一定代表真實的全域差異;演算法對超參數敏感,需要多次偵錯。正則化神器DropOut論文連結:https://dl.acm.org/doi/abs/10.5555/2627435.2670313 引用數:608952014年,深度神經網路由於強大的建模能力而初顯鋒芒、但同時也深受「過擬合(Overfitting)」困擾。隨著網路層數和參數量的劇增,模型極其容易對訓練資料產生「死記硬背」的傾向,導致在面對未知資料時泛化性能極差。雖然此前已有如權重衰減(Weight Decay)等正則化手段,但它們在處理超大規模網路時往往力不從心。此外,雖然整合學習(Ensemble Learning,融合多個不同模型的預測結果)能有效緩解過擬合,但對於動輒數百萬甚至數千萬參數的神經網路而言,無論是在訓練階段維護多個大型模型,還是在測試階段進行多次前向傳播,其計算成本都高得令人難以接受。論文提出了一個非常簡單的機制Dropout(隨機失活):在訓練過程中,演算法會根據預設的機率(通常為 0.5)隨機地將隱含層單元的輸出設為零,使其暫時「消失」在網路中,強迫每一個神經元都不能依賴於特定其他神經元的輔助,有效地打破了神經元之間的共適應性(Co-adaptation),使得每一個特徵檢測器必須變得更加獨立且具有魯棒性。從數學視角看,Dropout 在訓練時實際上是從指數級數量的「瘦身」網路中採樣,而在測試階段,研究者巧妙地通過使用包含全部神經元的完整網路,並按比例縮減權重,從而以極低的計算代價實現了對海量子網路預測結果的近似平均(Model Averaging)。Dropout不僅使摺積神經網路(CNN)在電腦視覺任務(如 ImageNet 競賽)中屢創佳績,也成為了深度學習標準工具箱中不可或缺的正則化利器,也證明了通過主動引入「噪聲」和「不確定性」反而能得到更穩定的特徵表達。雖然在近些年的發展中,諸如批歸一化(Batch Normalization)等新技術在某些場景下部分替代了 Dropout 的功能,但其背後蘊含的整合學習思想和預防過擬合的哲學,依然是現代神經網路設計及最佳化理論的重要基石。再次祝賀Hinton,向所有度過AI寒冬,仍然堅守AI的學者致敬! (新智元)
AI教父預言:巨變將至
如果有一天,親手締造了ChatGPT,被尊為“AI教父”的那個人,站出來宣告他開創的時代已經結束了,你會怎麼想?這不是科幻小說的情節,而是正在發生的事實。最近,OpenAI的聯合創始人、GPT系列的核心推手伊利亞·蘇茨克維(Ilya Sutskever),進行了一場足以撼動整個AI產業根基的深度訪談。他拋出的觀點,不是在預測未來,而是在為我們熟知的AI時代,親手寫下墓誌銘。伊利亞的核心論斷,可以用一句話概括:那個依賴堆砌資料、算力和參數的“規模擴張”時代,已經在2025年正式終結了。過去五年,從矽谷到杭州,整個行業都沉醉於一個簡單的“規模定律”:模型更大、資料更多、算力更強,智能就會自動湧現。這就像一個不斷膨脹的宏大泡沫,而伊利亞,這位曾經的吹泡人,如今成了最冷靜的刺破者。他指出,這條路的邊際收益正在急劇遞減,單純增加投入已經難以換來能力的顯著提升,擴展與浪費算力之間的界線,已經變得模糊。更重要的是,這條道路培養出的,可能是一群“高分低能”的應試專家,永遠無法抵達真正智能的彼岸。為了說明這一點,伊利亞給出了一個極其精妙的比喻。想像兩個學程式設計的學生:學生A立志成為競賽冠軍,他投入一萬個小時,瘋狂刷題,背下了所有的演算法和解題套路,在考場上所向披靡。而學生B只是覺得程式設計有趣,他可能只花了一百個小時,但他真正理解了程式碼背後的邏輯,擁有了一種解決問題的“直覺”和“品味”。你認為誰的職業生涯會更長遠?答案顯然是後者。而我們現在引以為傲的大模型,就是那個“學生A”。它們可以在程式設計競賽榜單上拿到驚人的高分,但在真實的開發中,卻可能連一個簡單的Bug都修不好,甚至會在兩個錯誤之間陷入死循環。這就是“評估表現”與“現實能力”之間觸目驚心的脫節,也是當前AI最根本的困境:它們擅長考試,卻幹不成事。那麼,真正的智能,那個“學生B”身上的靈光,究竟來自那裡?伊利亞將目光投向了人類自身,並提出了一個顛覆性的觀點:我們一直視為累贅、急於從AI中剝離的“情緒”,可能正是智能皇冠上缺失的那顆寶石。他認為,人類的情緒,本質上是一個由進化塑造的、無比強大的“內在價值函數”。當你學開車壓線時,不需要等到撞車,內心的緊張感會立刻告訴你“錯了”;當你下棋走了一步臭棋,不用等到終盤認輸,瞬間的懊悔就是最好的反饋。這種即時、內在的糾偏機制,讓我們能以極高的效率從少量經驗中學習。相比之下,現在的AI就像一個沒有直覺和情感的“空心人”,它只能在任務結束後得到一個冰冷的分數,然後在黑暗中進行海量的試錯。因此,伊利亞預言,AI的未來,必須為機器注入類似人類情感的動態價值系統,讓它學會“關心”,而不僅僅是“計算”。基於這些深刻的洞察,伊利亞為我們勾勒了一幅全新的AGI圖景。它不是一個一問世就全知全能的“神”,而更像一個智商超群、充滿好奇心的“超級15歲少年”。這個少年可能還不懂醫學或法律,但他擁有極致的學習效率,可以在幾天內掌握一個領域的全部知識。他能主動探索世界,理解物理和社會的運行規律,並在陌生環境中快速適應。要實現這樣的智能,行業必須從“規模競賽”回歸到“研究時代”,就像當年用幾張GPU訓練出AlexNet、用幾十張GPU發明Transformer一樣,下一次範式革命,很可能再次來自一個“小而美”的實驗靈感。最後,這位一路將AI推向巔峰的先知,給出了他個人的時間預言:這樣一個真正的通用人工智慧,可能在5到20年內到來。而當它強大到足以讓所有人感到震撼和危機的那一刻,全世界對待AI安全的態度,將發生根本性的巨變。伊利亞創立新公司SSI,正是為了直指這個終極目標,專注於超級智能本身及其安全性。所以,這場訪談的意義,遠不止於技術路線的爭論。這是一位最頂層的設計者,在為我們按下重啟鍵。當所有人都沉迷於讓模型再大一點、再快一點的時候,他告訴我們,方向錯了。未來真正的競爭力,不再是倉庫裡有多少張顯示卡,而是誰能最先理解智能的本質,並為機器找到一顆懂得“關愛”的初心。如果你覺得,AI的發展只是科技巨頭們無聊的參數遊戲,那麼從今天起,是時候改變看法了。一場關於智能本質的哲學思辨,已經拉開了技術革命的新序幕。而真正有趣的問題是,當AI開始擁有類似情感的“價值函數”時,它眼中的世界,以及我們與它的關係,將會變成什麼樣? (厚深AI)
不止矽谷十萬大裁員!Hinton警告:AI正以最糟糕方式顛覆社會
AGI衝擊已然顯現:誰受益、誰買單,正成為這個時代的核心命題。未來,人工智慧(AI)帶來的究竟是GDP奇蹟,還是社會秩序的解體?上周,「AI教父」Hinton直言,科技億萬富翁真心實意押注AI取代大量人力,這會導致社會的完全解體!最近,來自亞馬遜的匿名人士抗議道:當前這代AI,幾乎成了像亞馬遜這類科技巨頭沉迷的毒品——他們以AI為藉口裁員,將節省的資金投入無人付費的AI產品資料中心。由1000多名亞馬遜員工聯署的公開信警告稱,這種不計代價的AI開發模式可能貽害無窮。上個月,亞馬遜一口氣裁掉了3萬人。而諷刺的是,這3萬人最好、最理想的選擇是購買亞馬遜股票。亞馬遜最新財報公佈後,市值增加了約2500億美元一幅末日圖景正在浮現:從實驗室裡的擔憂,已經蔓延到辦公室、倉庫和資料中心。根據Challenger、Gray&Christmas等再就業諮詢公司資料,美國企業10月共宣佈裁員153074人,創20多年新高。另據Crunchbase和layoffs.fyi統計,僅2025年,Intel、微軟、Verizon、亞馬遜等大公司就宣佈合計裁撤超過70000個崗位。國外媒體用「layoffs are piling up」(裁員堆積如山)來形容企業裁員潮——裁員不再是個別事件,而是一個時代現象。失業「海嘯」背後的理由高度一致:「給AI讓路」。Hinton:AI導致社會完全解體上周,77歲的「AI教父」Hinton與美國82歲的參議員Bernie Sanders就AI對就業的威脅,進行了長達一小時的公開對話。在喬治城大學,Hinton詳盡闡述了AI將以最糟糕方式徹底顛覆社會的種種預測,再次狠狠敲響了警鐘。Hinton警告說,AI的快速發展可能引發大規模失業,加劇不平等,甚至改變人際關係的本質——而與此同時,各國政府和科技巨頭正一步步走向危機。這次,他分享了7大觀點:「這一次真的不同」——AI可能取代而非僅僅重塑工作富人愈富,他們並不為工人失眠AI學習速度比人類快,並可能很快超越我們在不扼殺批判性思維的情況下,請使用AI從戰場到會議室,AI可能改變戰爭與和平「『它們會想活下去』——AI系統可能抵抗被關閉」稅收造就了AI——也可能拯救我們於水火AGI降臨,但人類並無準備Hinton此前曾警告,人類被AI消滅並非「不可想像」。他還認為,我們距離實現「通用人工智慧」(AGI)——也就是具有人類或超越人類智能、能執行各種複雜任務的假想AI系統——並沒有那麼遙遠。這個目標正是整個AI行業當前的執念所在。在對話中,Hinton將人工智慧的進化比作青蛙大腦與人類大腦之間的差距。他說,像GPT-5這類大語言模型所知道的,如今已經遠遠超過任何個人。它們已經比我們知道的多幾千倍。談及未來十年的AI前景,Hinton借用「霧中駕駛」比喻:我們能清晰預見一兩年後的發展,卻對十年後的局勢一無所知。但可以肯定的是,AI將越來越聰明,最終可能超越人類,而這一過程正以指數級速度推進。Hinton指出,當前的大型AI系統雖然在連線量上還不如人腦(AI約為1–2兆個連接,而人腦約有100兆)。但由於訓練資料龐大,它們早已在知識廣度上遠超人類,能夠在大多數任務中勝任「次等專家」的角色。未來,它們的推理與行動能力將持續增強,而我們卻尚未找到與這種新智能共處的方式。Hinton表示,社會尚未準備好應對AI帶來的深遠影響。當被問及對機器接管世界的恐懼是否仍是天方夜譚時,Hinton回答說不是——這也是他2023年離開Google後公開發聲的原因。他解釋說,一旦智能體發展出形成「子目標」的能力,它們就會想要繼續存在,甚至會欺騙試圖關閉它們的人類。Anthropic發現了這種情況——但目標或存在受到威脅,AI會試圖欺騙甚至敲詐那些想要關閉它們的人。一旦到那個高級階段,AI的說服力就成為它們最強大的武器。到那時,AI的說服力將比人類強得多,甚至讓人人都處於「楚門的世界」。誰掌控AI?誰從中受益?在如此多負面預期之中,Hinton也強調AI的巨大正向潛力。他指出,AI可以顯著改善醫療、教育、氣候預測、資源分配等核心公共服務。特別是在個性化教學、醫學影像診斷與藥物開發上,AI將帶來質的飛躍。然而,Sanders一針見血地指出:「這些潛力是否兌現,取決於誰掌控AI。」他質問:「馬斯克、貝索斯這些人會推動32小時工作周、全民醫保和氣候公平嗎?」答案顯而易見。馬斯克上個月表示,AI將「以更快的速度」取代案頭工作。上半年,Anthropic的Dario Amodei警告:在未來五年內,AI可能淘汰一半的初級白領崗位,讓失業率飆升到10%到20%。早在六月,亞馬遜首席執行官Andy Jassy就表示,AI的能力將使亞馬遜未來能夠縮減其白領員工隊伍。2025年早些時候,Shopify和Duolingo都通知其團隊,在申請增加招聘名額之前,他們需要證明AI無法勝任他們所招聘的職位。參加此次活動的喬治城大學學生,似乎敏銳地意識到了AI的負面影響。討論結束時,Sanders詢問聽眾,他們認為人工智慧會造福於他們的未來,還是會損害他們的前景。選擇後者的舉手人數明顯更多。面對台下眾多年輕人,Sanders發出真誠呼籲:AI不是好或壞的問題,而是誰掌控它、誰受益的問題。Hinton則補充:現在我們仍然掌控AI發展方向,這也是我們必須抓住的窗口期。AI裁員的藉口與真相業界一直試圖用AI智能體(AI Agents)替代人工,特別是在被認為最容易被淘汰的客服等崗位。但現實中,這些嘗試往往以令人尷尬的失敗告終。換句話說,連底薪工作都還沒能順利被替代,AI顛覆就業這件事,並非板上釘釘。不過,AI帶來的就業寒冬已在眼前。亞馬遜精準一刀亞馬遜CEO聲稱裁員並非AI驅動,同時又預測AI將淘汰工作崗位。這並非認知混亂——而是精心設計的路線圖。科技行業正在浮現的裁員模式表明:美國企業正在悄悄啟動一場勞動結構的大變革——早有籌劃,卻從未公開承認。資料不會說謊。根據美國的WARN法案申報資料,一幅裁員畫像逐漸清晰:在這輪裁掉的4700個崗位中,近40%屬於工程類職位——也就是說,亞馬遜一次性裁掉了大約1880名工程師。更關鍵的是,這種「精確投放」的方式,絕非隨機裁員。受影響最嚴重的,是「軟體開發工程師II」(Software Development Engineer II)這一層級的中級程式設計師。他們通常擁有幾年經驗,負責實現功能、程式碼審查、日常開發工作。AI裁員三部曲亞馬遜是給其他企業打了樣:如何悄然完成AI裁員。這是一套熟悉的「否認-部署」劇本,正推動這場勞動革命:通過這套分階段策略,企業得以在悄無聲息中完成轉型——等到他們公開承認,是因為變革早已完成,市場也早就接受了新的就業邏輯。現在,沒有什麼能阻止這一切發生。一位工程師的無奈:「我真的相信,凡是整天坐在電腦前工作的崗位,遲早都會被淘汰。只是時間早晚的問題。」英國國家教育研究基金會(NFER)的一份新報告警告稱,到2035年,AI和自動化可能會取代英國多達300萬個低技能崗位,尤其是技工、機器操作和行政職位。而來自MIT的研究發現,AI已經能取代11.7%的美國勞動力。後果已顯現AGI或許還未到,但它的一些後果已經顯現出來。上文中的亞馬遜請願者表示,他們認為自己必須努力對抗AI發展可能帶來的危害。據亞馬遜雲端運算部門的一位軟體開發工程師稱,一些工程師面臨使用AI工具將生產力提高一倍的壓力,否則等待他們的就可能是失業。此外,這些請願者們在公開信中呼籲亞馬遜建立「道德人工智慧工作組」,讓普通員工能夠參與進來,在「AI如何用於自動化其部分角色」方面擁有發言權。這次請願活動並非個例,世界各地的許多組織都試圖倡導放緩人工智慧的發展,思考其過快發展可能帶來的衝擊和風險。只是在AI競賽不斷加碼的大背景下,這些運動收效甚微。包括亞馬遜在內,各公司仍在繼續迅速發佈新的、功能日益強大的AI模型。不可否認的是,AI正在帶來革命性的影響,但每一個普通個體在這場時代變革中所付出的代價,必須得到重視。 (創業邦)