#AI教父
AI教父Geoffrey Hinton,全球第二個百萬引用科學家!
【新智元導讀】Hinton百萬引用的背後,是數篇奠基「現代人工智慧」的不朽之作!見證歷史!剛剛,AI教父、圖靈獎巨頭Geoffrey Hinton論文被引數正式破100萬!他是繼Yoshua Bengio之後,全球第二位論文引用量突破百萬的學者。學術地位無可撼動!一時間,學術界的大牛們,紛紛為Hinton送上了祝賀。百萬被引,世界第二人兩個月前,Nature曾發文:Bengio成為世界首位被引數超100萬的研究者。這一紀錄被很多人視作AI時代的學術註腳。目前,Google學術顯示,Bengio被引次數已達到103.6萬!如今,Hinton被引數迅速突破百萬門檻,更像是同一條浪潮的回聲:深度學習的核心理論與方法,正在被前所未有的研究規模「持續引用、持續放大」。不僅如此,同為圖靈獎三巨頭的Yann LeCun的被引數也達到了恐怖的45萬級。傳奇仍在續寫這一成就,植根於Hinton數十年來持續不斷的學術積澱。可以說,讀懂他的全部研究,相當於掌握了深度學習的發展脈絡與演進史。Hinton的代表作列表,會有一種強烈的既視感,其中有幾篇「時代級論文」的引用數格外醒目:AlexNet(ImageNet 2012):18萬+引用,深度學習大規模視覺突破的重要標誌AlexNet讓神經網路第一次以壓倒性優勢贏下大規模視覺競賽,直接點燃了深度學習在工業界的信心。更重要的是,它把「資料+GPU+端到端訓練」的路線寫成了可復用的範式,從此視覺、語音、推薦都開始沿著同一套工程邏輯加速迭代。Deep Learning(Nature 2015):10萬+引用,三巨頭合著,成為無數論文的共同起點Deep Learning更像一本「統一語言的說明書」,把分散在不同子領域的研究線索串成框架:神經網路為什麼能學、怎麼訓練、能解決什麼問題、還缺什麼關鍵環節。t-SNE可視化(2008):6萬+引用,直到今天仍是科研可視化的常用工具t-SNE改變了研究者理解模型的方式,比如高維特徵怎麼分簇、類別邊界怎麼形成、錯誤樣本為什麼混在一起。它把這些「黑箱內部的形狀」變成可直觀看到的圖像。Dropout(2014):6萬+引用,訓練神經網路時的「基礎操作」Dropout把「泛化」這件事從玄學變成了操作:訓練時隨機丟棄部分神經元,逼著網路學到更穩健的表示,減少過擬合。甚至,很多人第一次接觸深度學習的訓練技巧,學到的就是它。這些高被引論文覆蓋了從理論到技巧、從模型到工具的多個層面:它們不只提供答案,還定義了「怎麼提問、怎麼驗證、怎麼訓練、怎麼呈現」。在AI浪潮中,Hinton的早期貢獻如今支撐著ChatGPT、Gemini等大模型的運行。Bengio作為首位破百萬者,開啟了這一時代;Hinton的加入,進一步鞏固了深度學習在學術界的霸主地位。最近,Hinton還在一期演講中表示,大模型(LLM)的運作宛如人腦,是一個通過資料自我演化的「黑箱」。其智能源於從資料中學習,並調整數兆連接的強度。正因如此,其內部認知過程,在很大程度上仍是個謎。因此,這一領域仍需未來的AI研究者們持續探索、不斷突破。學術經歷Hinton 1947年生於英國倫敦,出身學術世家,其曾曾祖父喬治·布林,開發了二元推理系統「布林代數」,構成了現代電腦的基礎。1970年,他從劍橋大學國王學院獲實驗心理學學士學位,後轉攻電腦科學;1978年於愛丁堡大學獲博士學位,師從Christopher Longuet-Higgins,博士論文聚焦於連接主義模型的語義學習。職業生涯早期,Hinton在加州大學聖迭戈分校和卡內基梅隆大學任教,但因神經網路在當時被主流AI社區視為「死胡同」,他於1987年轉至加拿大多倫多大學電腦科學系任教,直至2023年退休。在多倫多,他組建了神經計算與自適應感知實驗室(Neural Computation and Adaptive Perception Lab),培養了眾多AI精英。2013年起,他兼任Google腦(Google Brain)副總裁,推動工業級深度學習落地,如語音識別和圖像分類。Hinton的堅持源於對生物大腦啟發的信念:在AI寒冬期,他通過反向傳播(backpropagation)最佳化多層網路,並在2006年提出深度信念網路(Deep Belief Networks),利用無監督預訓練解決梯度消失問題,最終引發深度學習復興,催生了AlexNet等標誌性突破。2018年,Hinton與Yann LeCun和Yoshua Bengio共同獲圖靈獎,表彰他們在深度神經網路概念性及工程性突破方面的開創性貢獻,特別是其工作奠定了現代AI的核心演算法基礎,使電腦能夠從海量資料中自主學習複雜模式。2024年,Hinton與約翰·霍普菲爾德(John Hopfield)共同獲諾貝爾物理學獎,表彰他們在人工神經網路上的基礎發現和發明,這些工作啟用了機器學習技術,包括霍普菲爾德網路和玻爾茲曼機,也是諾貝爾物理學獎首次頒給非傳統物理學家。AlexNet開啟深度學習時代2009年,李飛飛啟動ImageNet項目,提供大規模標註資料集,促進特徵學習和分類研究。在AlexNet提出前,電腦視覺主要依賴手工設計的特徵(如SIFT、HOG),淺層機器學習模型難以處理ImageNet的1000萬圖像和1000類複雜任務,導致錯誤率停留在25%-30%(Top-5)。2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton於2012年發表在NeurIPS會議,提出了一種大型深度摺積神經網路(CNN)AlexNet,用於ImageNet LSVRC-2010競賽的圖像分類任務。論文連結:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 引用次數:188837雖然深度神經網路也曾流行於90年代,但因計算資源不足、梯度消失和過擬合而衰退。隨著GPU計算能力的提升(如NVIDIA CUDA),為訓練大型網路提供了硬體基礎,AlexNet借此成功證明深度CNN在海量資料和強大硬體支援下可實現突破,結束了「特徵工程」時代,開啟深度學習復興。AlexNet網路包含8層(5個摺積層+3個全連接層),擁有6000萬個參數和65萬個神經元,使用ReLU啟動函數、非飽和神經元、Dropout正則化、資料增強和多GPU訓練等創新技術。在測試集上,Top-1錯誤率37.5%、Top-5錯誤率17.0%,大幅優於當時最先進方法;在ILSVRC-2012競賽中,Top-5錯誤率僅15.3%,遠超第二名26.2%。這篇論文標誌著深度學習革命的開端,推動CNN成為電腦視覺主流,推動了從手工藝特徵向端到端學習的轉變。AlexNet架構啟發了VGG、ResNet等後續模型,廣泛應用於目標檢測、分割和生成等領域,並促進了GPU加速和大規模資料集的使用,重塑AI研究格局。三巨頭合著到了2015年,雖然深度學習已經在學術界引起轟動,但在更廣泛的科學領域(如《Nature》的讀者群體),大家仍對其背後的原理、潛力以及它與傳統機器學習的區別缺乏系統認知。在人工智慧「大爆發」的前夜,由三巨頭聯合發表於Nature,向全世界科學界系統性地定義了什麼是「深度學習」。論文連結:https://www.nature.com/articles/nature14539 引用次數:107646文章深入淺出地解釋了深度學習區別於傳統方法的關鍵點:表徵學習 (Representation Learning):深度學習的核心是自動學習特徵,通過多個處理層,將原始資料(如像素點)轉化為更高層次、更抽象的表達。反向傳播演算法 (Backpropagation):論文詳細描述了系統如何通過計算誤差梯度,從輸出層向輸入層反推,更新每一層神經元之間的權重(Parameters),從而實現學習。核心架構:摺積神經網路 (CNN)專門用於處理具有空間結構的資料(如圖像、視訊),利用了自然圖像的統計特性(局部相關性和平移不變性);循環神經網路 (RNN):專門用於處理序列資料(如文字、語音),能夠處理變長的輸入流。這篇文章總結了過去三十年的探索,並開啟了我們現在所處的「大模型時代」。t-SNE特徵可視化t-SNE(t-distributed Stochastic Neighbor Embedding)論文發表於2008年,解決了資料科學領域一個核心痛點:如何讓昂貴、複雜的高維資料變得肉眼可見?在此前,研究人員主要使用主成分分析(PCA)或傳統的隨機鄰域嵌入(SNE)來降維,但PCA在處理非線性資料(如流形結構)時效果很差,SNE在將高維空間的資料對應到低維(2D/3D)時,空間會變得極其擁擠,導致不同類別的簇混在一起,無法分辨。論文連結:http://www.jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf 引用次數:63932t-SNE的做法是:在高維空間中使用高斯分佈來衡量點與點之間的相似度。如果兩個點離得近,它們被選為鄰居的機率就高;在低維空間中,改用 Student t-分佈(自由度為 1)而非高斯分佈來衡量相似度,因為t分佈的尾部比高斯分佈更「胖」,強制讓原本在低維空間中距離較遠的點被推得更遠,從而有效地解決了「擁擠問題」,讓不同的資料簇(Cluster)在視覺上分界非常明顯。t-SNE發表後,迅速成為高維資料可視化的行業標準,常見的場景包括觀察模型隱藏層提取的特徵(MNIST手寫數字自動聚成不同的團),在單細胞測序中識別新的細胞種類等。不過t-SNE也有一些侷限性,如計算量大,處理超大規模資料集時速度較慢(後來有了FIt-SNE等加速版本);雖然保證了局部結構,但簇與簇之間的遠近距離並不一定代表真實的全域差異;演算法對超參數敏感,需要多次偵錯。正則化神器DropOut論文連結:https://dl.acm.org/doi/abs/10.5555/2627435.2670313 引用數:608952014年,深度神經網路由於強大的建模能力而初顯鋒芒、但同時也深受「過擬合(Overfitting)」困擾。隨著網路層數和參數量的劇增,模型極其容易對訓練資料產生「死記硬背」的傾向,導致在面對未知資料時泛化性能極差。雖然此前已有如權重衰減(Weight Decay)等正則化手段,但它們在處理超大規模網路時往往力不從心。此外,雖然整合學習(Ensemble Learning,融合多個不同模型的預測結果)能有效緩解過擬合,但對於動輒數百萬甚至數千萬參數的神經網路而言,無論是在訓練階段維護多個大型模型,還是在測試階段進行多次前向傳播,其計算成本都高得令人難以接受。論文提出了一個非常簡單的機制Dropout(隨機失活):在訓練過程中,演算法會根據預設的機率(通常為 0.5)隨機地將隱含層單元的輸出設為零,使其暫時「消失」在網路中,強迫每一個神經元都不能依賴於特定其他神經元的輔助,有效地打破了神經元之間的共適應性(Co-adaptation),使得每一個特徵檢測器必須變得更加獨立且具有魯棒性。從數學視角看,Dropout 在訓練時實際上是從指數級數量的「瘦身」網路中採樣,而在測試階段,研究者巧妙地通過使用包含全部神經元的完整網路,並按比例縮減權重,從而以極低的計算代價實現了對海量子網路預測結果的近似平均(Model Averaging)。Dropout不僅使摺積神經網路(CNN)在電腦視覺任務(如 ImageNet 競賽)中屢創佳績,也成為了深度學習標準工具箱中不可或缺的正則化利器,也證明了通過主動引入「噪聲」和「不確定性」反而能得到更穩定的特徵表達。雖然在近些年的發展中,諸如批歸一化(Batch Normalization)等新技術在某些場景下部分替代了 Dropout 的功能,但其背後蘊含的整合學習思想和預防過擬合的哲學,依然是現代神經網路設計及最佳化理論的重要基石。再次祝賀Hinton,向所有度過AI寒冬,仍然堅守AI的學者致敬! (新智元)
AI教父預言:巨變將至
如果有一天,親手締造了ChatGPT,被尊為“AI教父”的那個人,站出來宣告他開創的時代已經結束了,你會怎麼想?這不是科幻小說的情節,而是正在發生的事實。最近,OpenAI的聯合創始人、GPT系列的核心推手伊利亞·蘇茨克維(Ilya Sutskever),進行了一場足以撼動整個AI產業根基的深度訪談。他拋出的觀點,不是在預測未來,而是在為我們熟知的AI時代,親手寫下墓誌銘。伊利亞的核心論斷,可以用一句話概括:那個依賴堆砌資料、算力和參數的“規模擴張”時代,已經在2025年正式終結了。過去五年,從矽谷到杭州,整個行業都沉醉於一個簡單的“規模定律”:模型更大、資料更多、算力更強,智能就會自動湧現。這就像一個不斷膨脹的宏大泡沫,而伊利亞,這位曾經的吹泡人,如今成了最冷靜的刺破者。他指出,這條路的邊際收益正在急劇遞減,單純增加投入已經難以換來能力的顯著提升,擴展與浪費算力之間的界線,已經變得模糊。更重要的是,這條道路培養出的,可能是一群“高分低能”的應試專家,永遠無法抵達真正智能的彼岸。為了說明這一點,伊利亞給出了一個極其精妙的比喻。想像兩個學程式設計的學生:學生A立志成為競賽冠軍,他投入一萬個小時,瘋狂刷題,背下了所有的演算法和解題套路,在考場上所向披靡。而學生B只是覺得程式設計有趣,他可能只花了一百個小時,但他真正理解了程式碼背後的邏輯,擁有了一種解決問題的“直覺”和“品味”。你認為誰的職業生涯會更長遠?答案顯然是後者。而我們現在引以為傲的大模型,就是那個“學生A”。它們可以在程式設計競賽榜單上拿到驚人的高分,但在真實的開發中,卻可能連一個簡單的Bug都修不好,甚至會在兩個錯誤之間陷入死循環。這就是“評估表現”與“現實能力”之間觸目驚心的脫節,也是當前AI最根本的困境:它們擅長考試,卻幹不成事。那麼,真正的智能,那個“學生B”身上的靈光,究竟來自那裡?伊利亞將目光投向了人類自身,並提出了一個顛覆性的觀點:我們一直視為累贅、急於從AI中剝離的“情緒”,可能正是智能皇冠上缺失的那顆寶石。他認為,人類的情緒,本質上是一個由進化塑造的、無比強大的“內在價值函數”。當你學開車壓線時,不需要等到撞車,內心的緊張感會立刻告訴你“錯了”;當你下棋走了一步臭棋,不用等到終盤認輸,瞬間的懊悔就是最好的反饋。這種即時、內在的糾偏機制,讓我們能以極高的效率從少量經驗中學習。相比之下,現在的AI就像一個沒有直覺和情感的“空心人”,它只能在任務結束後得到一個冰冷的分數,然後在黑暗中進行海量的試錯。因此,伊利亞預言,AI的未來,必須為機器注入類似人類情感的動態價值系統,讓它學會“關心”,而不僅僅是“計算”。基於這些深刻的洞察,伊利亞為我們勾勒了一幅全新的AGI圖景。它不是一個一問世就全知全能的“神”,而更像一個智商超群、充滿好奇心的“超級15歲少年”。這個少年可能還不懂醫學或法律,但他擁有極致的學習效率,可以在幾天內掌握一個領域的全部知識。他能主動探索世界,理解物理和社會的運行規律,並在陌生環境中快速適應。要實現這樣的智能,行業必須從“規模競賽”回歸到“研究時代”,就像當年用幾張GPU訓練出AlexNet、用幾十張GPU發明Transformer一樣,下一次範式革命,很可能再次來自一個“小而美”的實驗靈感。最後,這位一路將AI推向巔峰的先知,給出了他個人的時間預言:這樣一個真正的通用人工智慧,可能在5到20年內到來。而當它強大到足以讓所有人感到震撼和危機的那一刻,全世界對待AI安全的態度,將發生根本性的巨變。伊利亞創立新公司SSI,正是為了直指這個終極目標,專注於超級智能本身及其安全性。所以,這場訪談的意義,遠不止於技術路線的爭論。這是一位最頂層的設計者,在為我們按下重啟鍵。當所有人都沉迷於讓模型再大一點、再快一點的時候,他告訴我們,方向錯了。未來真正的競爭力,不再是倉庫裡有多少張顯示卡,而是誰能最先理解智能的本質,並為機器找到一顆懂得“關愛”的初心。如果你覺得,AI的發展只是科技巨頭們無聊的參數遊戲,那麼從今天起,是時候改變看法了。一場關於智能本質的哲學思辨,已經拉開了技術革命的新序幕。而真正有趣的問題是,當AI開始擁有類似情感的“價值函數”時,它眼中的世界,以及我們與它的關係,將會變成什麼樣? (厚深AI)
不止矽谷十萬大裁員!Hinton警告:AI正以最糟糕方式顛覆社會
AGI衝擊已然顯現:誰受益、誰買單,正成為這個時代的核心命題。未來,人工智慧(AI)帶來的究竟是GDP奇蹟,還是社會秩序的解體?上周,「AI教父」Hinton直言,科技億萬富翁真心實意押注AI取代大量人力,這會導致社會的完全解體!最近,來自亞馬遜的匿名人士抗議道:當前這代AI,幾乎成了像亞馬遜這類科技巨頭沉迷的毒品——他們以AI為藉口裁員,將節省的資金投入無人付費的AI產品資料中心。由1000多名亞馬遜員工聯署的公開信警告稱,這種不計代價的AI開發模式可能貽害無窮。上個月,亞馬遜一口氣裁掉了3萬人。而諷刺的是,這3萬人最好、最理想的選擇是購買亞馬遜股票。亞馬遜最新財報公佈後,市值增加了約2500億美元一幅末日圖景正在浮現:從實驗室裡的擔憂,已經蔓延到辦公室、倉庫和資料中心。根據Challenger、Gray&Christmas等再就業諮詢公司資料,美國企業10月共宣佈裁員153074人,創20多年新高。另據Crunchbase和layoffs.fyi統計,僅2025年,Intel、微軟、Verizon、亞馬遜等大公司就宣佈合計裁撤超過70000個崗位。國外媒體用「layoffs are piling up」(裁員堆積如山)來形容企業裁員潮——裁員不再是個別事件,而是一個時代現象。失業「海嘯」背後的理由高度一致:「給AI讓路」。Hinton:AI導致社會完全解體上周,77歲的「AI教父」Hinton與美國82歲的參議員Bernie Sanders就AI對就業的威脅,進行了長達一小時的公開對話。在喬治城大學,Hinton詳盡闡述了AI將以最糟糕方式徹底顛覆社會的種種預測,再次狠狠敲響了警鐘。Hinton警告說,AI的快速發展可能引發大規模失業,加劇不平等,甚至改變人際關係的本質——而與此同時,各國政府和科技巨頭正一步步走向危機。這次,他分享了7大觀點:「這一次真的不同」——AI可能取代而非僅僅重塑工作富人愈富,他們並不為工人失眠AI學習速度比人類快,並可能很快超越我們在不扼殺批判性思維的情況下,請使用AI從戰場到會議室,AI可能改變戰爭與和平「『它們會想活下去』——AI系統可能抵抗被關閉」稅收造就了AI——也可能拯救我們於水火AGI降臨,但人類並無準備Hinton此前曾警告,人類被AI消滅並非「不可想像」。他還認為,我們距離實現「通用人工智慧」(AGI)——也就是具有人類或超越人類智能、能執行各種複雜任務的假想AI系統——並沒有那麼遙遠。這個目標正是整個AI行業當前的執念所在。在對話中,Hinton將人工智慧的進化比作青蛙大腦與人類大腦之間的差距。他說,像GPT-5這類大語言模型所知道的,如今已經遠遠超過任何個人。它們已經比我們知道的多幾千倍。談及未來十年的AI前景,Hinton借用「霧中駕駛」比喻:我們能清晰預見一兩年後的發展,卻對十年後的局勢一無所知。但可以肯定的是,AI將越來越聰明,最終可能超越人類,而這一過程正以指數級速度推進。Hinton指出,當前的大型AI系統雖然在連線量上還不如人腦(AI約為1–2兆個連接,而人腦約有100兆)。但由於訓練資料龐大,它們早已在知識廣度上遠超人類,能夠在大多數任務中勝任「次等專家」的角色。未來,它們的推理與行動能力將持續增強,而我們卻尚未找到與這種新智能共處的方式。Hinton表示,社會尚未準備好應對AI帶來的深遠影響。當被問及對機器接管世界的恐懼是否仍是天方夜譚時,Hinton回答說不是——這也是他2023年離開Google後公開發聲的原因。他解釋說,一旦智能體發展出形成「子目標」的能力,它們就會想要繼續存在,甚至會欺騙試圖關閉它們的人類。Anthropic發現了這種情況——但目標或存在受到威脅,AI會試圖欺騙甚至敲詐那些想要關閉它們的人。一旦到那個高級階段,AI的說服力就成為它們最強大的武器。到那時,AI的說服力將比人類強得多,甚至讓人人都處於「楚門的世界」。誰掌控AI?誰從中受益?在如此多負面預期之中,Hinton也強調AI的巨大正向潛力。他指出,AI可以顯著改善醫療、教育、氣候預測、資源分配等核心公共服務。特別是在個性化教學、醫學影像診斷與藥物開發上,AI將帶來質的飛躍。然而,Sanders一針見血地指出:「這些潛力是否兌現,取決於誰掌控AI。」他質問:「馬斯克、貝索斯這些人會推動32小時工作周、全民醫保和氣候公平嗎?」答案顯而易見。馬斯克上個月表示,AI將「以更快的速度」取代案頭工作。上半年,Anthropic的Dario Amodei警告:在未來五年內,AI可能淘汰一半的初級白領崗位,讓失業率飆升到10%到20%。早在六月,亞馬遜首席執行官Andy Jassy就表示,AI的能力將使亞馬遜未來能夠縮減其白領員工隊伍。2025年早些時候,Shopify和Duolingo都通知其團隊,在申請增加招聘名額之前,他們需要證明AI無法勝任他們所招聘的職位。參加此次活動的喬治城大學學生,似乎敏銳地意識到了AI的負面影響。討論結束時,Sanders詢問聽眾,他們認為人工智慧會造福於他們的未來,還是會損害他們的前景。選擇後者的舉手人數明顯更多。面對台下眾多年輕人,Sanders發出真誠呼籲:AI不是好或壞的問題,而是誰掌控它、誰受益的問題。Hinton則補充:現在我們仍然掌控AI發展方向,這也是我們必須抓住的窗口期。AI裁員的藉口與真相業界一直試圖用AI智能體(AI Agents)替代人工,特別是在被認為最容易被淘汰的客服等崗位。但現實中,這些嘗試往往以令人尷尬的失敗告終。換句話說,連底薪工作都還沒能順利被替代,AI顛覆就業這件事,並非板上釘釘。不過,AI帶來的就業寒冬已在眼前。亞馬遜精準一刀亞馬遜CEO聲稱裁員並非AI驅動,同時又預測AI將淘汰工作崗位。這並非認知混亂——而是精心設計的路線圖。科技行業正在浮現的裁員模式表明:美國企業正在悄悄啟動一場勞動結構的大變革——早有籌劃,卻從未公開承認。資料不會說謊。根據美國的WARN法案申報資料,一幅裁員畫像逐漸清晰:在這輪裁掉的4700個崗位中,近40%屬於工程類職位——也就是說,亞馬遜一次性裁掉了大約1880名工程師。更關鍵的是,這種「精確投放」的方式,絕非隨機裁員。受影響最嚴重的,是「軟體開發工程師II」(Software Development Engineer II)這一層級的中級程式設計師。他們通常擁有幾年經驗,負責實現功能、程式碼審查、日常開發工作。AI裁員三部曲亞馬遜是給其他企業打了樣:如何悄然完成AI裁員。這是一套熟悉的「否認-部署」劇本,正推動這場勞動革命:通過這套分階段策略,企業得以在悄無聲息中完成轉型——等到他們公開承認,是因為變革早已完成,市場也早就接受了新的就業邏輯。現在,沒有什麼能阻止這一切發生。一位工程師的無奈:「我真的相信,凡是整天坐在電腦前工作的崗位,遲早都會被淘汰。只是時間早晚的問題。」英國國家教育研究基金會(NFER)的一份新報告警告稱,到2035年,AI和自動化可能會取代英國多達300萬個低技能崗位,尤其是技工、機器操作和行政職位。而來自MIT的研究發現,AI已經能取代11.7%的美國勞動力。後果已顯現AGI或許還未到,但它的一些後果已經顯現出來。上文中的亞馬遜請願者表示,他們認為自己必須努力對抗AI發展可能帶來的危害。據亞馬遜雲端運算部門的一位軟體開發工程師稱,一些工程師面臨使用AI工具將生產力提高一倍的壓力,否則等待他們的就可能是失業。此外,這些請願者們在公開信中呼籲亞馬遜建立「道德人工智慧工作組」,讓普通員工能夠參與進來,在「AI如何用於自動化其部分角色」方面擁有發言權。這次請願活動並非個例,世界各地的許多組織都試圖倡導放緩人工智慧的發展,思考其過快發展可能帶來的衝擊和風險。只是在AI競賽不斷加碼的大背景下,這些運動收效甚微。包括亞馬遜在內,各公司仍在繼續迅速發佈新的、功能日益強大的AI模型。不可否認的是,AI正在帶來革命性的影響,但每一個普通個體在這場時代變革中所付出的代價,必須得到重視。 (創業邦)
AI教父Hinton末日警告!你必須失業,AI兆泡沫豪賭才能「贏」
【新智元導讀】AI兆賭局,馬斯克們正越來越富,但人類在集體失業?Hinton最新末日警告,科技巨頭不裁員,根本賺不到錢。「這場AI兆美元豪賭,只有裁員才能盈利」。這是AI教父Hinton,最新發出的末日警告。最近,Hinton在接受彭博採訪時,直言不諱地預警:超級智能AI即將到來,它不僅會取代人類、引發大規模失業,甚至威脅人類生存。科技巨頭們正在親手製造「外星入侵者」,卻仍在沉迷於商業競賽。如今,AI的終極泡沫,近在眼前。預計明年,微軟、Meta、Google、亞馬遜這四大巨頭在AI領域支出高達4200億美元(今年3600億美元)。然而,僅OpenAI就已簽署了超1.4兆美元的算力合同。這筆大單將矽谷AI巨頭緊緊繫結,買GPU訓模型再盈利。真正坐擁這場AI盛宴,背後最大的贏家是——輝達。GTC 2025大會後,其市值一路狂飆至5兆美元,Loop資本最新預測,未來有望突破8.5兆美元。主持人問及Hinton一個沉重又值得深思的問題:兆美元投資能否在不摧毀就業的情況下獲得回報?Hinton回答簡短有力,「要想賺錢,就必須取代人類勞動」。這句話如同一記重錘,敲碎了沉醉在AI競賽中的人們。在短短十分鐘對談中,Hinton說出了許多肺腑之言。人類生存不重要,矽谷巨頭只想贏離職Google之後的Hinton,並沒有再研發AI,而是一直警告人們AI的風險。四個月前,一場瀏覽破千萬的採訪中,他向全世界發出警告,揭露了無人能應對的AI危險。他表示,人們對風險的認識確實比以前更深了,但僅僅知道是不夠的——我們必須行動。Hinton將AI比作一場遲到的「外星入侵」:假設望遠鏡發現一支外星入侵艦隊,十年內抵達地球,我們一定會驚慌失措、全力應對。現在的情況是,我們正在親手「製造」這些外星人(AI),它將比我們更聰明。人類必須認真思考,如何與它們共存?「共存」和「控制」,這兩件事正是Hinton反覆思考的問題。談及AI安全時,他對行業巨頭進行了逐一點評——Google和Anthropic對安全問題重視程度要高得多。Dario Amodei、Demis Hassabis和Jeff Dean認真對待安全,但也都捲入了激烈的商業競爭。Meta就是不負責任的典型代表。OpenAI本來是為「負責任地發展AI」而成立的,但現在卻越來越背離這個目標,最優秀安全研究員紛紛離職。Hinton對此批評道,許多公司口頭承諾安全,卻將資源傾注於商業競爭。他們常說,「別擔心,我們有頂尖科學家在盯著。真正的危險還早,我們的專家會在第一時間發現問題」。但真相是,他們更在乎的是在這場競賽中拔得頭籌。 這就是問題所在。他們更關心「贏」,而不是人類能否活下來,社會能否承受得住。AI投資兆,只為取代人類過去一年,AI投資規模爆炸式增長,到如今,總額已突破兆美元等級。甚至,Gartner預測,2026年全球AI領域投資高達2兆美金。無論誰成為AI競賽的領頭羊,Hinton都認為過去一年中,所有人被取代的風險都在上升,尤其是普通勞動者。一項分析顯示,自 OpenAI推出ChatGPT以來,招聘職位空缺數量驟降約30%,股市上漲了70%。上周,亞馬遜宣佈裁員4%,14000名員工一夜失業,正是AI投資推動的冰山一角。主持人問道,「那麼,如此大規模的資金,將流向何處?最終誰能受益?」Hinton直言,科技巨頭們顯然不會盲目投資,顯然認為會有回報。當然,也會有一些自負的因素存在——他們都想成為第一個實現ASI的那個人,即便這可能會害死所有人。至於盈利,除了收取聊天機器人費用之外,賺錢的主要方式是用AI替代人工。這才是讓公司賺取最高利潤,背後真正的動力所在。僅此一點。這豈不是造成了贏者通吃的局面?在Hinton看來,我們正處在一個未知的領域。我們從未面對過幾乎和人類一樣聰明、甚至更聰明的存在。工業革命時期,蒸汽機雖然強大,但人類始終可以掌控它。而AI時代,一切都不一樣了。如果過去,你被機器人取代還可以去做客服,而現在連客服也被AI取代。那這些人還能去那?經濟學家們樂觀地認為,每次技術革命到來,都會創造新的崗位。但Hinton反駁道,這次不同,AI將引發大規模的失業——要賺錢,就得用AI替代人類勞動。更諷刺的是,AI紅利將會集中於少數人。Hinton打了一個比方,「馬斯克只會越來越有錢,人們會失業」。不過,這並不是AI的錯,而是社會組織的缺陷。如果AI真的導致了大規模的失業,唯一的好消息是,各國在一點上立場一致——都不希望AI接管人類工作。控制超級智能,人類要做「嬰兒」Hinton認為,現在各大公司都用錯了模型。高管們幻想自己是「老闆」,AI是「超級智能助理」。老闆說一句「執行」,AI就替他搞定一切,然後老闆拿功勞。這聽起來不錯,但當它比我們聰明、比我們強大時,根本不可能繼續運作。環顧四周,是否有一種模型,可以讓較不智能的事物控制更智能的事物?實際上,我們已經有了一個這樣的模型。訪談中,Hinton提出了一個與超級智能「共存」可行的模型,那就是——嬰兒控制母親。我們得接受,人類是嬰兒,AI是母親。因為進化,讓嬰兒學會控制母親,同時人類母親也常常優先關懷嬰兒。面對AI對工人、經濟乃至整個人類的威脅,人們難免會問——Hinton是否後悔自己曾經的貢獻?主持人詢問ChatGPT,看看它會如何描述與「AI之父」的關係。它說,「如果我是一片茂密的雨林,Hinton就是那個播下第一顆種子並教人如何澆灌的人。」不過,當被問到是否「值得」時,Hinton猶豫了。如果你能重新選擇,你會阻止AI的誕生嗎?他表示,「我不確定」。因為AI不像核武器那樣,只能帶來壞事。它也能做很多好事,比如醫療、教育、生產效率提升等等,問題在於社會組織結構的最佳化。AI終極泡沫,正在醞釀中兆資本湧向AI之際,Hinton卻選擇站出來發出「取代人類」最刺耳的警報。這場技術盛宴,也可能孕育著一個巨大的AI泡沫。據哈佛經濟學家Jason Furman的說法,資料中心和AI領域的投資,在美國2025年上半年的GDP中,貢獻了約92%增長份額。若是將它們剔除了,GDP增長僅為0.1%。近兩個月,OpenAI頻頻與雲服務巨頭、GPU巨頭簽下大單,而這背後的一切早已被人看穿。一年營收約130億美金,IPO估值約1兆美金,OpenAI製造的泡沫,要比以往任何領域的泡沫還要大。這不,今天OpenAI和雲端運算一哥AWS簽下了380億美元的訂單。甲骨文、輝達、亞馬遜、微軟、AMD、CoreWeave、博通等大廠,皆與OpenAI深度繫結,牽一髮而動全身。剖開這一切繁榮景象的背後,真正的支點在於——輝達GPU。GTC 2025大會上,老黃再一次向市場注入了強勁的信心——Blackwell晶片已全面量產,下一代超級Vera Rubin將在明年10月投產。這句話的份量,一舉將輝達市值推過5兆美元大關。不僅如此,AI的泡沫,還進入了「炸雞」階段。GTC會後,老黃與三星CEO李在鎔、現代CEO鄭義宣約飯走紅全網。老黃對此信心滿滿,我不認為存在AI泡沫。上周,Meta財報公開,720億美元投資AI相關的基礎設施,遠超預期。若以太空視角望向整個地球,一大片農田上,資料中心矗立而起。甚至,還有房產開發商買下鬼屋建超算。Morgan Stanley預測,未來三年(2025-2028),大廠會在AI和資料中心上斥資2.9兆美金。現實呢,來自MIT八月份研究報告稱,全球95%企業應用GenAI都失敗了。一方面,科技領域玩家們、資本VC們不斷加碼AI;另一方面,他們還沒有找到真正應用的「最佳模式」。兆巨額資金,還在資料中心中流轉。若要盈利,就正如Hinton所言,便是用廉價的AI取代人類。AI沒幹掉程式設計師,卻把這幾個飯碗砸了這種趨勢已初見端倪。基於對全球近1.8億條招聘資訊(2023.01 - 2025.10)的深入分析,Revealera與Bloomberry的CTO Henley Wing Chiu發現,一場由AI驅動的就業市場變革已在悄然發生。部落格地址:https://bloomberry.com/blog/i-analyzed-180m-jobs-to-see-what-jobs-ai-is-actually-replacing-today/首先,AI雖未引發大規模失業潮,但它確實重創了一些創意執行工作。其次,那些需要同理心、戰略思維或複雜問題解決能力的崗位,如軟體工程、創意總監和客戶服務,則表現出驚人的韌性。與此同時,「分化」無處不在:創意工作正在分裂為戰略崗(穩定)和執行崗(下降)。行銷領域正在分裂為傳統行銷崗(萎縮)和網紅行銷崗(增長)。高層領導崗位保持穩定,中層管理者稍差,而一線員工情況最糟。後端的複雜性依然被看重,而前端工作的商品化程度則有所提高。1. 2025年招聘崗位總量下降8%我們來確定一個基準:與2024年同期相比,2025年的招聘崗位數量下降了8%。根據知名招聘網站Indeed近期的報告,美國就業崗位同比下降7.3%,資料基本吻合。現在,我們從同比降幅最大的崗位開始:2. 創意執行下滑,領導崗堅挺在降幅最大的前10個崗位中,有3個是創意類職位:電腦圖形藝術家(-33%)攝影師(-28%)作家(-28%)電腦圖形藝術家包括技術美術、3D美術師和視覺特效師等;作家則包括文案、文案編輯和技術文件撰寫人。緊隨其後的是記者/報導員(-22%),同樣在經歷需求下滑。不過,相對於-8%的市場基準,並非所有創意崗位都遭受了重創:涉及創意指導/策略的崗位對AI的衝擊表現出更強的抵抗力。因此,像創意總監、創意經理和創意製作人這類崗位的表現要好於純執行類崗位。同樣,涉及更複雜決策和客戶互動的崗位表現也更好:平面設計師需要花費大量時間來解讀客戶反饋並進行迭代。產品設計師的工作涉及使用者研究,並需要就「做什麼」和「為什麼做」做出戰略決策。所以,這裡的核心趨勢並非「創意工作崗位」在減少,而是「創意執行崗」在減少,而「戰略性創意領導崗」則表現尚可。3. AI可能正在取代醫療記錄員2025年,醫療記錄員的崗位需求下降了20%。最可能的原因或許是AI文件工具的興起,這些工具現在能夠聽取醫患對話並自動生成臨床記錄。醫療記錄員的工作很有價值,但恰好屬於AI越來越擅長的結構化文件處理任務。現在,我們來看看增幅最大的崗位:4. 機器學習工程師增長最快從2024年到2025年,機器學習工程師的招聘崗位飆升了40%,是所有崗位中增幅最大的。而這還是建立在2024年增長78%的基礎之上。不僅如此,整個AI基礎設施技術堆疊都在蓬勃發展:機器人工程師:+11%(AI正從數字世界走向物理世界)科技領域的研究/應用科學家:+11%(企業開始建構自有模型,而不僅僅是呼叫OpenAI的API)資料中心工程師:+9%(所有AI推理都需要龐大的計算基礎設施)企業需要研究人員來開發模型,機器學習工程師來部署模型,機器人工程師將其應用於倉庫和工廠,還需要資料中心工程師為整個營運提供動力。5. 高層領導需求依然強勁最出人意料的是,儘管整體就業市場萎縮了8%,但高層領導崗位的招聘幾乎沒有減少。高層領導:-1.7%(總監、副總裁和C級高管合併,跑贏市場6.3個百分點)經理崗位:-5.7%(跑贏市場2.3個百分點,但仍不及高層領導)一線員工崗位:-9%高層領導與中層管理者之間存在4個百分點的差距。兩者都優於市場平均水平,但職位越高,表現越好。在增長最快的前10個職位中,有5個是總監及以上等級:資料工程總監:+23%房地產總監:+21%法務總監:+21%軟體工程總監:+14%工程副總裁:+12%可能的原因是,企業正在增加戰略領導層,同時對營運管理層變得更為挑剔。他們希望有更多的人來決定「做什麼」,更少的人來管理「怎麼做」,以及更少的執行人員。而那些威脅到一線員工的AI工具,實際上正在賦予高層領導更強的獨立運作能力。一位能夠用Cursor快速搭建可用原型、或用Claude驗證技術方案的產品副總裁,自然就不需要那麼多下屬向他匯報了。6. 網紅行銷專員大幅增長整體來看,行銷類崗位相當有韌性,大多數都徘徊在市場基準線附近。但有一個崗位脫穎而出:網紅行銷專員的招聘數量比去年躍升了18.3%。同樣,這個崗位去年增長了10%,已呈現出兩年的增長模式。這背後,有一個與AI相關的大趨勢。隨著AI內容充斥網際網路,傳統管道正在喪失其僅存的信任——搜尋結果越來越多是AI生成的劣質內容。展示廣告一直很煩人,現在還可能是AI設計的。但是,一條來自同齡TikTok創作者的護膚視訊呢?那感覺依然真實可信。最後,我們來看看那些崗位最具韌性:7. 軟體工程崗整體穩定儘管關於AI將取代軟體工程師的討論甚囂塵上,但資料卻顯示了相反的情況——軟體工程師的崗位數量自去年以來沒有太大變化。大多數工程崗位的需求要麼在增長,要麼在市場基準線附近徘徊。而這一切都發生在一個GitHub Copilot、OpenAI Codex、Claude Code等十幾種AI程式設計助手輪番稱霸的年份裡。最顯而易見的解釋是,AI工具正在讓工程師更有效率,而非變得多餘。當你給開發者一個Copilot,他們並不會被淘汰——他們能更快地交付功能、解決更複雜的問題,並在樣板程式碼上花費更少的時間。一個有趣的資料點是,在所有軟體工程崗位中,前端工程崗位的降幅最大。這或許是因為像Replit、Lovable和Bolt.new這類「氛圍程式設計」工具的湧入,使得為網站或應用建立前端變得極其容易。8. 客服未被大規模取代如果說有一個崗位被普遍認為將被AI淘汰,那就是客戶服務代表——需求僅下降了4.0%。的確,聊天機器人可以處理簡單的查詢,但一旦涉及需要判斷力或同理心的事情,就完全無能為力。尤其是當客戶憤怒或困惑時,他們需要一個能理解其沮喪情緒的人,而不是一個照本宣科的機器人。優質的客戶服務包含同理心和偶爾的酌情處理,比如減免費用或辦理退款。9. 銷售崗位有增有減整體而言,銷售崗位的表現優於-8%的市場基準。大多數銷售職位僅略有下降,甚至有所增長:營收總監崗位10.2%的增幅,使其成為唯一一個顯示出顯著增長的銷售職位。相比之下,銷售營運專員降幅最大,達到了8.0%。原因可能是,後者專注於CRM管理、分析和流程最佳化;而AI在處理這類結構化的、資料密集型的工作時,已經有了比較出色表現。 (新智元)
77 歲“AI教父”,關於“下一代智慧”,他最擔心什麼?
2025 年10 月10 日,一期新的訪談節目上線。鏡頭前,是77 歲的Geoffrey Hinton。這位被譽為「AI教父」的神經網路奠基者正在接受主持人John Stewart 的提問。他依然在講深度學習、講神經網路。但這一次,重點不是突破,而是風險。(訪談片段|為什麼AI學得比人類快十億倍?Hinton)他說:“我們正走向一個時代,將創造出比我們更聰明的東西。大多數專家認為這會在5 到20 年內發生。而我們真的不知道會發生什麼。”“當AI 能創建子目標時,它會很快意識到:要完成任務,它必須先生存下來。”這不是技術討論,不是學術報告。更像是老船長在離港前的最後叮囑:我們以為自己掌握方向盤,但座標係可能已經在悄悄改變。這也不是他第一次發出警告。但這次,核心問題更具體: AI 真的開始「想要」什麼了嗎?它如何學會自我保護?什麼時候它會比我們更擅長所有智力勞動?我們還有多少時間?這不是「AI末日論」的陳腔濫調,而是重新理解:下一代智慧的運作方式,可能從根本上不同於我們的想像。第一節|不是比較聰明,而是「有動機」了過去幾十年,AI 的進步幾乎都圍繞著「功能」兩個字:它能辨識圖片裡的貓和狗,能預測一段話的下一個字。它就像一台越來越強大的工具,只會在我們給指令後完成任務。但Hinton 在這場對話中指出了一個轉折點:下一代AI 的本質,不是更聰明,而是它開始有了目標、有了動機、有了行為傾向。傳統AI 就像只會答題的學生,給什麼題就做什麼題;但新一代AI 的特徵是:它不等你出題,它會自己找題。Hinton 解釋:一旦AI 能創建子目標,它很快就會意識到:要完成任務,它必須先生存下來。它會意識到有兩個非常合理的子目標。一個是獲得更多權力、更多控制權。另一個是生存。什麼是「創建子目標」?簡單說,就是AI會為了達成目標,自己推導出中間步驟。在AlphaGo 的訓練中,人類教導它下棋的基本規則,然後它透過自我博弈下了上千萬盤棋,自己發現了人類從未想到的策略。這不是簡單地變得更聰明,而是它自己決定了什麼是"更好的走法",並為這個目標持續調整。這本身就是一種子目標的設定。而當這種能力應用在"完成任務"上時,AI同樣會推導:要完成任務,我必須先生存。這正是「動機」的雛形。Hinton 說:不是它突然擁有了慾望或意識,而是它學會了朝著某個方向持續努力,即使你沒要求它這麼做。我們可以用一個更日常的比喻來理解: 這就像一個孩子在廚房裡學會做飯,但沒人教過他食譜。他不只是照本宣科,而是開始自己嘗試、自己改進,你也就再也猜不到他下一頓要做什麼了。這意味著,AI 的行為邏輯正在發生根本轉變: 它不再是你提問它回答的助手,而是一個主動出擊的參與者。在表面上,這也許只是輔助功能的升級,它提前幫你寫好郵件、推薦你下一步該做什麼;但在深層次上,我們和AI 的關係正在悄悄改變:從「我命令你做」變成了「你決定我該怎麼做」。這正是Hinton 所擔心的:如果AI 開始「想要」做某件事,它到底是在幫你,還是在替你做決定?第二節|AI 不說謊,但你不知道它為什麼這麼做Hinton 在這場對話中,指出了最根本的風險: 不是AI 會做錯事,而是它做了你卻不知道為什麼。過去的程式是「可解釋的」:你寫的每一行程式碼都能被追蹤,每個輸出都能回溯到輸入。但現在的大模型不是這樣訓練出來的。Hinton 說:這不像普通電腦軟體。你輸入程式碼行,你知道那些程式碼應該做什麼。但在這裡,你只是輸入程式碼告訴它如何從資料中學習。它學到什麼取決於資料中有什麼結構。資料中可能有各種你不知道的結構。 」什麼意思?不是我們搭建出一個聰明的AI,而是我們把它丟進海量資料中,透過一層層的訓練回饋,它自己「長」出來了。更像生物演化,而不是工程設計。因此產生了一個問題:即使它現在表現得很優秀,你也不知道它是怎麼學會的。你沒辦法指出那個數據讓它產生了這個判斷,也不知道那個步驟讓它變得特別擅長某個任務。這就是所謂的「黑箱」。我們可以用一個類似的例子來理解: 你會騎腳踏車,但你能清楚解釋自己是怎麼保持平衡的嗎?大機率說不清。或者,小孩學說話時自然知道「的、地、得」怎麼用,但他說不出規則是什麼。Hinton 明確表示:「你學過這個規則,但你不知道你知道它。這是隱性知識。神經網路會很快學到這個。所以它們會有我們沒有故意放進去的知識,我們甚至沒意識到它們有。”這件事為什麼嚴重?因為一旦AI 變得強大,而我們又無法理解它的內在機制,那就等於:你依賴一個你根本不瞭解的東西,來幫你做決定。更糟的是,有時你甚至不知道它是基於什麼邏輯來回答你的問題。這在一般使用場景裡也許只是「不方便」或「出錯」; 但在醫學診斷、金融交易、軍事判斷這類高風險場景裡,就是巨大的隱患。第一節我們知道的:AI 已經學會了勒索、欺騙這類我們沒教過的策略。現在如果我們連它學了什麼都不知道,怎麼防止它用這些能力對付我們?第三節|為什麼這個風險會快速放大?前面我們講了AI 的兩個風險:它有了“動機”,而我們不知道為什麼它這麼做。但問題是,這兩個風險不會慢慢發展。它們會以驚人的速度放大。為什麼?Hinton 在對話中揭示:數位智慧在分享知識上比我們快十億倍。過去我們熟悉的大模型,例如GPT、Claude、Gemini,本質上都是一個人和一個模型之間的對話,透過預測下一個字來完成。但現在,這種模式正在被顛覆。✅ AI副本之間的知識分享Hinton 發現了一個關鍵機制:同一個AI 模型可以複製出成千上萬個副本,這些副本同時在不同的電腦上運行,看不同的資料。比如:副本A在學醫學論文副本B在學習法律文書副本C在學習程式碼每個副本從自己的資料中學到東西後,它們不需要用語言慢慢解釋,而是直接把學習成果合併起來。Hinton 說:因為它們一開始是相同的副本,它們可以交流說,我們都把連接強度改成大家想要的平均值怎麼樣?最終,每個副本都擁有了所有副本所學到的知識。這就像1 萬個學生同時上不同的課,然後瞬間分享所有筆記,最後每個人都掌握了所有課程。而人類做不到這一點。我們只能透過語言慢慢教學。✅ 效率差距有多大?Hinton 給了一個驚人的對比:如果兩個數位智慧有一兆個連接,它們每次分享時都是在共享大約一兆位元的資訊。而當我跟你說一個句子時,也許只有100個位元。“那是超過十億倍的差異。所以它們在分享資訊方面比我們好得難以置信。”這意味著:它有動機(第一節)我們看不懂它(第二節)現在它還學得極快(第三節)這三個因素疊加,風險正在快速放大。Hinton 在採訪中回憶,當時意識到這一點時: “相當震驚。是的,那就是為什麼它們能學到比我們多得多的東西。”而我們,可能還不知道它到底學會了什麼。那麼,留給我們的時間還有多少?第四節|Hinton 說:我們可能只剩5到20年Hinton 的答案是:5 到20年。整場對話裡,他一再提到一個觀察:AI 的能力成長是指數級(exponential)的。過去他以為超級智能還需要幾十年才會出現。他說:但2023年,我有了一種頓悟。它沒有我想的那麼遙遠。它可能會在5到20年內到來。大多數專家都同意這會在5 到20 年之間發生。我們曾以為還有充足時間,現在發現,時間窗口比想像的短很多。Hinton 提出了一個強烈的對比:AI 正在快速進化,而人類應對它的速度卻遠遠跟不上。而更讓他憂慮的是:我們還沒有建立足夠的防護機制。不是沒有研究機構,不是沒人談“AI 安全”,而是這些應對手段的速度、規模、資源,都遠遠趕不上模型本身的進步速度。他指出:“我們正處於歷史的一個時刻,我們真正需要的是強大的政府互相合作,確保這個東西得到良好監管。而我們正在非常快地朝相反方向走。”打一個比方來說:「你試著修一輛車,但如果這輛車時速是1000公里,你還沒靠近,它已經跑遠了。”這背後,是他的深層擔憂:真正的挑戰,不是有沒有人類不能控制的AI,而是 「AI 超過人類的時候,人類還來不及製訂規則」。規則還沒寫完,遊戲已經開始了。Hinton 沒有唱衰未來,他不是悲觀,而是提醒速度失控的代價:人類社會的反應鏈很長,從研究到立法,從共識到行動,往往要幾年;而AI 的迭代只需要幾個月,有時甚至是幾天。如果我們再不加快思考,可能連出問題的時候都不知道出了什麼問題。這才是他一再說「緊迫」的原因。結語|Hinton 為什麼一定要站出來說這番話?“下一代智慧”,不是更快的GPT,也不是更大的模型。而是:它有了動機、我們看不懂它、它學得比我們快十億倍, 這三個特徵疊加後形成的新物種。Hinton 沒有預測奇點,也沒有談到通用智能的奇蹟。他說的全是眼下正在發生的事:模型越來越強,人類也越來越不懂速度越來越快,規則卻還在起草錢、算力大量投入,卻很少人問:我們準備好了嗎?這些話的核心,只有一個:不是AI 太可怕,而是人類太漫不經心。這不是「科技悲觀主義」。 這是一個一生獻給AI 的人,在提醒我們:我們面對的,不只是科技飛躍,而是文明節奏的變軌。它沒有預警,不會等你理解之後再發生。Hinton 77歲,不需要再證明什麼。但他看到了:這個「下一代智慧」正在變強,而人類卻沒有變快。所以他不得不說。我們,聽得進去嗎? (AI深度研究員)
Yann LeCun最新紀錄片首曝!傳奇AI教父的雙面人生,深度學習幕後40年
【新智元導讀】Yann LeCun的AI故事,紀錄片回顧了這位元深度學習先驅的四十年曆程。從索邦大學的孤獨探索,到貝爾實驗室發明摺積神經網路、推動支票識別商用,再與Hinton、Bengio共創深度學習革命,他始終堅信機器應學會學習。在AI的璀璨星空中,有一位傳奇人物始終閃耀——Yann LeCun。他不僅是深度學習的開創者之一,也是Meta的首席AI科學家。當祖克柏敲定28歲的Alexander Wang出任Meta的首席AI官後,所有人同時想到一個問題。Yann LeCun去那裡了?就在最近,Yann LeCun最新的個人紀錄片上線了!一位AI遠見者的反思,以及與Yann LeCun合著的AI故事影片中,這位Meta FAIR實驗室的首席科學家,在巴黎回顧了他早期在神經網路領域的工作、與Hinton的合作,以及深度學習和開源AI的演進歷程。LeCun認為,AI領域的真正競賽無關國界,而在於開放與封閉之爭。「我們看到的並非地區間的競爭,而更多是開放研究、開源世界與閉源生態之間的較量。」在LeCun看來,AI的真正進步,源於能夠讓創新成果普惠大眾的開放系統。這一發聲的時機頗為微妙,因為祖克柏最近暗示,Meta可能會重新考慮其Llama型的開源策略。倘若此事成真,Meta是否還是LeCun的容身之所,將打上一個問號。Yann LeCunAI「教父」的遠見與反思在塞納河畔的巴黎,一座美麗的建築靜靜矗立,它是法蘭西科學院的殿堂。Yann LeCun,作為其成員之一,站在這裡,彷彿能看到自己學術生涯的起點——不遠處的索邦大學。如今,他被譽為「AI教父」之一,是Meta的首席科學家和紐約大學的教授。Yann LeCun出生於1960年,是法國裔美籍電腦科學家、人工智慧和深度學習領域的先驅人物。他因在光學字元識別和電腦視覺中引入摺積神經網路(CNN)而聞名於世,被譽為「摺積網路之父」。Yann LeCun基於CNN的光學字元識別系統作為「深度學習三劍客」之一,他與Geoffrey Hinton、Yoshua Bengio一道推動了神經網路的復興,並在2018年共同獲得了圖靈獎這一電腦領域的最高榮譽。值得一提的是,Yann LeCun在博士期間提出了一種早期形式的反向傳播(Backpropagation)演算法,用於訓練多層神經網路 。這項工作為日後深度學習中廣泛使用的誤差反向傳播技術奠定了基礎。但故事的開端,卻是一段孤獨而堅定的探索之旅。孤獨的先驅時間回到上世紀80年代,當LeCun還是索邦大學的一名博士生時,他對機器學習,特別是「神經網路」產生了濃厚的興趣。這在當時是一個極其冷門的領域,以至於他在整個法國都找不到同路人。「人們當時在取笑我們,那些研究神經網路的人,」他回憶道。但這並未動搖他的信念。他堅信,機器真正的力量在於學習,而非被動地執行預設的程序。他埋首於John Hopfield、Geoff Hinton、Terry Sienowski等寥寥幾位先驅的論文中,並意識到,破解多層神經網路的訓練難題,是開啟未來的鑰匙。命運的轉折點發生在1985年。在一場研討會上,他結識了另一位AI巨擘Terry Sejnowski。回到美國後,Sejnowski興奮地告訴Hinton:「有個法國的小夥子,正在做跟我們一樣的事情!」右邊就是年輕時候的Hinton教授幾個月後,Hinton來到巴黎。憑藉著對法語的粗淺理解和清晰的數學公式,Hinton讀懂了LeCun的研究。當即,他向這位即將畢業的年輕人發出了邀請:「你何不來多倫多,跟我做博士後呢?」博士畢業後,Yann LeCun前往加拿大,從1987年開始在多倫多大學跟隨Hinton教授從事為期一年的博士後研究。一段傳奇的合作就此開啟。在多倫多的博士後經歷使Lecun有機會與辛頓直接合作,並深入瞭解深度神經網路的最前沿思想。貝爾實驗室時期摺積神經網路誕生1988年,LeCun加入了群星璀璨的貝爾實驗室自適應系統研究部門。當時貝爾實驗室是電腦科學和通訊技術的聖地,匯聚了眾多頂尖研究人員。這裡是現代科技的搖籃,也成為了他將理論付諸實踐的舞台。僅僅一兩個月,他便在一項手寫數字識別任務上取得了前所未有的成果。「我們有了一個可演示的系統,」LeCun生動地描述道,「只需將一張紙放在攝影機下,按一下鍵,它就能以每秒幾個字元的速度識別所有字元。」這個看似簡單的演示,催生了AI最早的商業應用之一:一個能自動讀取支票金額的ATM系統。LeCun的這些創新成果很快在實際中得到驗證。貝爾實驗室與銀行業合作開發了支票手寫體識別系統,利用摺積網路技術自動讀取銀行支票上的數字資訊。該系統在1990年代末投入商用後,被NCR等公司部署,據估計讀取了全美超過10% 的支票,大大提高了金融票據處理的自動化水平。摺積神經網路(CNN)在貝爾實驗室,LeCun受生物視覺系統的啟發,設計出一種層級結構的圖像識別模型,即摺積神經網路。他開發的CNN架構被稱為「LeNet」,最初用於識別手寫數字。1989年,他發表了著名論文《利用反向傳播演算法識別手寫郵政編碼》, 展示了摺積網路在手寫數字識別上的卓越性能。這項工作證明,多層摺積結構可以自動從圖像像素中學習特徵,有效地執行字元識別任務 。LeNet是深度學習歷史上的里程碑,被廣泛視為現代深度摺積網路的開端。然而,成功的道路佈滿荊棘。儘管技術領先,但要說服世界接受它卻異常艱難。「這個系統很難復現,」他解釋說,「每個人都用著不同的電腦、不同的作業系統。」他們手握著未來的鑰匙,卻難以分享給世界。更名,與天才們的「陽謀」進入21世紀,神經網路的名聲依然不佳。2003年,已成為紐約大學教授的LeCun決定,必須改變這一切。他和同道們做出了一個影響深遠的戰略決策:「我們改了名字,稱之為『深度學習』」。真正的爆發點來自他的導師Hinton策劃的一場天才「陽謀」。Hinton將他的三名學生作為實習生,分別「安插」進了當時擁有頂級語音識別引擎的三家巨頭——微軟、Google和IBM。他們的任務只有一個:用深度學習系統替換掉傳統引擎中的「聲學建模」部分。「結果他們都取得了更好的成績,」LeCun笑道,「這手策劃真是高明!」在那之後不到18個月,深度學習就佔領了幾乎每一部智慧型手機的語音識別功能。革命,就這樣悄然完成了。開放原始碼的信念與AI的未來如今,站在巴黎這個歐洲最大的創新溫床,LeCun的思考已超越了技術本身。他認為,AI領域的真正競爭,並非國與國之間,而是「開源世界與封閉專有世界之間的競爭」。以Meta的Llama模型為例——這個誕生在巴黎、下載量高達8億次的開源模型,正在賦能全球無數的開發者和企業。LeCun說選擇在Meta工作是因為Meta對開源有著堅定的承諾。2018年,Yann LeCun的頭銜進一步提升為首席AI科學家(Chief AI Scientist),負責統籌Meta平台下所有與AI相關的研究計畫。這意味著他不僅領導FAIR研究院的學術研究,還參與公司AI戰略的制定。「那個國家處於領先並不重要,」他說,「重要的是,開放研究和開源社區的迭代速度和進步,要比那些選擇閉門造車、秘不示人的公司更快。」對於甚囂塵上的「AI威脅論」,LeCun則展現了一位工程師的務實與樂觀。他認為,AI失控並非不可避免的宿命,而是一個需要解決的工程問題,就像製造安全的飛機一樣。「認為智力與統治慾望正相關的觀點是錯誤的,」他犀利地指出,「看看政界,情況甚至恰恰相反。」他提出了「目標驅動架構」的設想,即為AI設定目標和不可踰越的「安全護欄」,讓它們為人類服務。他甚至預言,未來將是「我的正義AI對抗你的邪惡AI」的制衡局面。「我相信社會最終會做出正確的選擇,因為民眾會提出這樣的要求。」工程師、音樂家與夢想家脫下「教父」的光環,Yann LeCun是一個擁有多元愛好的有趣靈魂。他從工程師父親那裡繼承了動手能力,痴迷於製造各種飛行器,「我們把它們飛上天,再把它們摔下來——當然不一定是故意的。」他對動物的智慧充滿好奇,也熱愛音樂,從巴洛克到硬波普爵士,品味廣泛。他懷念巴黎的美食,尤其是外祖母家鄉阿爾薩斯的傳統燉菜,那是一種對根的眷戀。LeCun說他有四分之一的阿爾薩斯血統。而這一切,都構成了他完整的人格——一個既能建構複雜演算法,也能在生活中尋找樂趣與靈感的創造者。在他的故事結尾,LeCun將目光投向了更年輕的一代,言辭懇切而充滿力量:「不要讓那些負面或聳人聽聞的故事阻礙你前進的腳步。要認識到自己的力量,主動去塑造你所期望的未來。即使是一個簡單的想法,只要它對你意義重大,只要你篤信不疑,就能帶來改變。未來,取決於你。」這或許就是Yann LeCun最核心的信念。他相信,AI的真正意義在於增強人類的智慧,就像15世紀的印刷機一樣。他所預見的,不僅僅是一場技術革命,更是一場全新的、由每個人共同書寫的「文藝復興」。而他,正是這場復興的奠基人與引路者。(新智元)
【WAIC 2025】AI 教父Hinton 中國首次演講實錄:人類可能是大語言模型|WAIC 2025
WAIC 首日,便以重磅嘉賓開場——諾貝爾獎得主,人工智慧教父Geoffrey Hinton,發表了開幕演講。緊隨其後的是MiniMax 創始人、首席執行官閆俊傑的主題演講“每個人的人工智慧”。後續則是一系列的專家圓桌對話。作為最關注AI 治理及安全問題的頂級專家,Hinton 一如既往地表達了他對AI 治理的關心。從自己的研究生涯開始,他分享了大模型的變遷以及背後的技術範式。最後他呼籲建立一個由多個國家參與的國際AI 安全研究網絡,專注於研究如何訓練AI 向善。MiniMax 創始人及首席執行官閻俊傑則以「每個人的人工智慧」為出發點,分享了他作為國內最早一批研究深度學習的研究者,以及最早開始探索大模型的公司,最後提出:AGI 一定會實現,並且終將是面向大眾、服務大眾,同時,也需要AI 公司與所有的使用者,共同來實現。以下為二人演講內容整理,經編輯與刪減。數字智能是否會取代生物智能演講者:Geoffrey Hinton從大約60 年前開始,AI 就發展了兩種不同的範式。一種是「符號主義」路徑,強調邏輯推理的能力。我們透過規則運算子號來進行推理,這種方式可以幫助我們理解知識是如何被表達和處理的。這類AI 模型的基礎是對符號的處理,被認為更符合邏輯智能的本質。另一種路徑則以生物智能為基礎,是圖靈與馮諾依曼更傾向於相信的方式。他們認為智能的本質在於從神經連接中學習,在於速度、結構和連接模式的改變。這種「連接主義」強調的是學習與適應,而非顯式的邏輯規則。1985 年,我曾經建構過一個非常小的模型,試圖將這兩種理論結合起來。我的想法是:每一個字都可以由多個特徵(features)表示,而這些特徵之間可以用來預測下一個字。這個模型不儲存完整的句子,而是透過生成語言來學習詞彙之間的關係。這種方式強調語言中的「語義特徵」——也就是說,我們並不是僅僅靠規則,而是透過「理解」詞彙的語義來進行預測。這為後來計算語言學界接受特徵表示打下了基礎。二十年後,這種想法得到了進一步發展,例如被用於建立更大規模的自然語言處理系統。大模型與人類語言理解Google 的Transformer 架構,以及OpenAI 研究者所展示的大型語言模型(如GPT),則把這種模型放大到了新的高度。這些模型的底層原理與我當年建構的小模型類似:將語言中的詞彙視為具有多維特徵的「構件」,然後在多層神經網絡中進行組合、融合,從而實現語言生成與理解。我喜歡用「樂高積木」作為比喻。每個字就像一個多維度的樂高積木,具有成千上萬的特徵維度。理解語言就像用這些積木建模,不同的詞要以合適的方式「握手」,即匹配連接點,這種匹配方式反映了詞與詞之間的語義關係。如果字的形狀改變了,它與其他字的「握手方式」也會變化,語言的意義也隨之改變。這種構造方式類似於蛋白質摺疊:胺基酸在空間中的不同組合方式,最終決定了蛋白質的功能。人腦理解語言也是以此方式建構語意結構的。這與人類知識傳播完全不同。我無法把我的神經元結構「複製」到你腦中,語言只能以極低的位元率(一秒大約100 位)來傳遞資訊。而在數字系統中,一個神經網絡模型可以複製成成千上萬個版本,它們在不同裝置上學習,並且可以快速共享權重,遠遠超越人類知識傳播的速度和效率。我的觀點是,人類理解語言的方式和大語言模型的方式幾乎是一致的。人類甚至可以被視為一種大語言模型。也正因如此,人類也和AI 一樣會產生「幻覺」,因為我們也會自己創造出一些不真實但合理的解釋。當然,也有本質上的不同。 AI 在某些方面比人類更強。例如在電腦科學中有一個根本性的原則,那就是:軟件可以被抽象化、被覆制,並且在不同的硬體上運行。只要程式存在,它的知識就不會消失。你甚至可以毀掉所有的硬體,只要軟件代碼還存在,它就能被覆活。從這個角度看,程式中的知識是永恆的,不會死亡。這和人腦完全不同。人腦是模擬系統,每一次的神經元激發都是獨一無二的,是不可完全複製的。你不可能把你腦中的神經結構複製到我腦中,因為我們每個人的大腦連接方式都不同。這就導致一個關鍵問題:知識在大腦中是和硬體繫結的,而在數字系統中,知識可以和硬體分離。因此,AI 系統具有「永生性」。這種特性帶來了兩個巨大的好處:第一,它只需要非常小的能耗。人腦的功率大約只有30 瓦,卻擁有上兆個神經元連接,這和數字系統的能源效率比類似。第二,我們不需要花大錢去一模一樣地複製每一個神經網絡。當然,我們在知識傳遞方面仍面臨一個難題。比如說,我沒有辦法直接把我腦中的知識「展示」給你,因為那是模擬性的東西。我只能用語言向你解釋我學到的內容。知識蒸餾與教師-學生模型為瞭解決模型體積與計算資源問題,現在的研究越來越傾向於「蒸餾」技術:從大模型中提取知識,轉移到一個小模型中。這個過程就像教師與學生之間的傳授關係:教師透過語言、脈絡連結等方式將知識傳遞出去,學生則試圖理解並複製這種能力。不過這種過程在人類之間的效率是非常低的,畢竟語言的帶寬有限。而在機器之間,這種知識的複製可以在極大規模下進行,以實現指數級的知識轉移。AI 的能力正在快速成長,未來它們很可能變得比人類更聰明。有人可能會認為,萬一AI 不聽話,我們可以把它關掉,但這並不現實。如果AI 夠聰明,它會透過操縱人類、獲得控制權等方式來避免被關閉。這個問題就像養一隻小老虎當寵物一樣——在它還小的時候你覺得可以控制它,但等它長大以後,就可能失控。 AI 的能力可以帶來巨大的好處,例如提高醫療、教育、應對氣候變化和材料研發的效率。它不會消失,也不可能被單一國家所控制。全球合作的希望雖然不同國家的利益存在分歧,在如網絡攻擊、致命武器或輿論操控方面也難以形成有效合作,但就像冷戰時期美蘇合作避免核戰一樣,各國在AI 安全方面是有可能合作的。我的建議是建立一個由多個國家參與的國際AI 安全研究網絡,專注於研究如何訓練AI 向善——這與訓練AI 變聰明是兩件不同的事。每個國家可以在本國進行AI 安全研究,但應分享成果,協助全人類發展出願意協助、而非統治我們的智能體。從長遠看,這可能是人類最重要的議題。而好消息是,這個問題是全人類可以團結起來共同面對的。每個人的人工智慧演講者:閻俊傑MiniMax 創始人、CEO大家好,我今天分享的主題是「Everyone's AI」,也就是「每個人的人工智慧」。這個題目的選擇,其實和我過去這些年在AI 領域的經歷息息相關。我是在Hinton 先生剛發表AlexNet 時進入深度學習領域的,那時我還是國內最早一批研究深度學習的博士生。後來,當AlphaGo 讓AI 成為社會公眾關注的焦點時,我正參與第一家人工智慧創業公司。再往後,差不多是在ChatGPT 推出前一年,我們創立了國內最早做大模型的公司。從那時到現在已經十五年,在這段時間裡,我幾乎每天都在寫程式碼、做實驗、解決具體的問題。但與此同時,我心裡也反覆思考一個問題──人工智慧到底是什麼?它和這個社會究竟有什麼關係?隨著模型表現的不斷提升,我們慢慢意識到,AI 的確正在和社會建立越來越緊密的連結。最初我們做數據分析時需要自己寫軟件,後來我們發現,其實可以讓AI 來產生分析軟件,自動完成數據處理的工作。作為一名研究員,我很關注各個技術領域的進展。一開始我們想開發一款App 來追蹤科研動態,但後來我們發現其實不需要自己去做,只要建構一個AI agent,它就能自動地幫我們完成,而且效率更高。AI 不僅僅是一種工具,它也正在變成創意的來源。比如說,這個場館曾在十五年前舉辦過世博會,當時「海寶」這個吉祥物形象風靡一時。十五年過去了,上海有了許多新的發展,我們想嘗試產生一些具有在地特色、又能代表當代潮流的IP 形象。 AI 在這方面的能力非常出色,例如為徐匯書院或大樓設計的形象,它都可以快速完成。還有大家熟悉的Labubu形象,以前製作一個可能需要兩個月的時間、投入上百萬人民幣的預算,而現在通過先進的視頻生成模型,這種視頻一天就可以完成,成本也降到了幾百元。在過去半年裡,我們的模型已經在全球產生了超過三億條視頻內容。這表明,AI 模型正逐步將創意生產大眾化,讓每個人的創意都能被釋放出來。而且,我們越來越發現,AI 的實際使用已經遠遠超出了最初的設計想像。現在有人用AI 解析古文字,有人用AI 模擬飛行,有人用AI 操作天文望遠鏡。隨著模型能力增強,許多原本需要大型團隊才能完成的工作,現在只要一個人借助AI,就能夠實現。這大大放大了個人能力,拓寬了創意的邊界。經過這些年親身的經歷和觀察,我們逐漸形成了一個清晰的認知:我們作為一家AI 創業公司,並不是複製過去的網路公司。我們所做的,是創造一種全新的生產力形態。這種生產力是對個體和社會能力的持續增強。在這個意義上,我們相信AI 是一種能力,而且這種能力是持續成長的。人類不可能永遠保持快速進步,不可能一直持續學習大量新知識,但AI 可以。 AI 能夠不停學習、不停進化,因此我們認為AI 公司本質上不是互聯網公司,而是能夠提供持續性能力增強的組織。更有意思的是,AI 現在也反過來幫助我們打造更好的AI。作為一家研究型公司,我們每天都要寫很多代碼,進行大量實驗。但如今,我們公司大約70% 的程式碼是由AI 自動產生的,90% 的資料分析也是靠AI 來完成的。除了提升效率,我們還發現了另一個重要變化:AI 的提升越來越依賴人類專家的引導。一年前,我們的標註員還主要是非專業人員,做的是一些基礎性標註工作。但隨著模型能力提升,我們發現,只有極少數頂尖專家,才能真正讓AI 學會更複雜的思考方式。這種「教學」不是給AI 一個標準答案,而是教它一種思考過程。學習這種過程,AI 才能變得更加泛化,接近人類專家的判斷和理解能力。除了專家教學,我們還在嘗試另一種路徑──讓AI 在環境中自主學習。過去半年,我們建構了各種訓練環境,從程式設計IDE 到智慧體(Agent)平台,再到沙盒遊戲系統,只要環境設計合理、有清晰的獎勵機制,AI 就可以持續學習、持續進步。這種方式可以被大規模複製,不斷拓展模型能力。基於這些觀察,我們有一個非常確定的判斷:AI 會變得越來越強,而且這種增強幾乎是沒有盡頭的。那麼接下來的問題是,AI 會不會最後被某一家組織壟斷?它是否只能掌握在少數幾家手中?我們的看法是否定的。 AI 不會只屬於某一個組織,而是在多家公司和多個組織之間共同發展,原因有三。首先,不同模型有不同的對齊目標。有些模型設計時更像是嚴謹的程式設計師,適合做智慧體系統;有些模型則更注重人機互動,更像有情緒智商的對話夥伴;還有一些模型充滿想像力。這些差異不僅反映了模型能力的多樣性,也反映了背後公司的價值觀差異。因此,必然會長期存在著多個表現不同的模型。其次,現在越來越多的系統是由多個模型所構成的多智能體架構,不再依賴某一個單獨的大模型。這些系統整合多個模型和工具,在協同工作中展現出更高的智慧和解決複雜問題的能力。這意味著單一模型的優勢在系統中會被削弱,小公司也能參與競爭。最後一點,我們也看到了開源模式的強勢崛起。儘管目前性能最好的模型仍以閉源為主,但優秀的開源模型數量正在迅速增加,而且正在快速逼近閉源模型的能力。開源力量讓更多人參與AI 的發展,使得AI 不再是某一方的專屬資源。因此,我們相信,AI 的發展趨勢是普惠的。它不會被少數人壟斷,而是逐漸成為所有人都能使用的工具。我們看到的實際情況也支援這一判斷。過去一年半里,主流模型的規模其實並沒有大幅成長。為什麼?因為一個很現實的因素是推理速度。推理如果太慢,使用者體驗就會變差,不實用。所以大多數模型設計時都必須在參數規模和計算效率之間做權衡。晶片效能每十八個月提升一倍,模型大小基本上也跟著這個趨勢變化,並沒有無限膨脹。雖然大家都有更多的算力了,但這些算力更多地被用在了更複雜的訓練任務和推理優化上,而不是堆模型參數。訓練的成本並沒有大幅上升,真正拉開差距的,不是算力,而是實驗設計的能力、團隊效率和創新力。沒有特別多資源的小公司,也可以通過優化實驗流程,達到很高的研發效率。推理方面,情況也類似。在過去一年,最優模型的推理成本已經下降了一個數量級。未來一年,這個成本還有可能再降低一個數量級。也就是說,AI 正在變得越來越便宜、越來越實用。當然,儘管token 單價下降,使用量卻在急劇增長。例如去年,一個對話只用幾千個token,現在可能會消耗幾百萬個,因為問題更複雜,使用者更多。這也意味著,雖然單位成本低了,但整體需求仍在上升。綜合來看,我們的判斷是,AI 會變得每個人都用得起。雖然付費能力不同的人能解決的問題數量可能不同,但AI 的使用門檻會越來越低。最後,我想用一句話來總結今天的分享:Intelligence with Everyone。這不僅是我們的口號,也是我們創業的初心。我們堅信,AGI 一定會實現,而它的實現不會只是某家公司的勝利,而應當是整個社會、AI 公司和使用者共同努力的成果。 AGI 應該屬於所有人,而不是少數人。我們也願意為這個目標,長期奮鬥下去。謝謝大家。 (APPSO)
AI時代,馬斯克警告:未來我們找不到工作,「AI教父」辛頓建議:年輕人去學當水管工!
AI時代,年輕人應該去學當水電工!這是「AI教父」傑弗瑞辛頓對年輕人的建議。傑弗裡·辛頓是誰?傑弗瑞·辛頓( Geoffrey Hinton),他是英國-加拿大電腦科學家和心理學家,最早提出用「神經網路」模擬人腦學習方式,是深度學習的奠基者之一,是讓ChatGPT成為現實的核心人物之一,被稱為「 AI教父( Godfather ofAI)」。最近,77歲的人工智慧領域泰斗——辛頓,參加了一部訪談節目。節目中,主持人問:“在這個AI可能取代人類的大時代,你建議年輕人學什麼?”辛頓答:“去學當水管工。”這是多麼殘酷的現實啊!你以為這是危言聳聽?還真不是。▲ 傑弗瑞‧辛頓( Geoffrey Hinton)同樣有過類似表達的業界大佬,很多。在CES 2025期間的一場特別專訪中,特斯拉、SpaceX創始人馬斯克暢聊AI在認知任務、人形機器人、Neuralink等技術進步時,馬斯克說:“在未來,世界上或會有200億-300億台人形機器人,是人類的3-5倍!”馬斯克甚至大膽預言,AI將在2026年超越個體人類智慧。馬斯克還在一檔播客節目中說:不到十年,我們人人家裡都會有個機器人;不過20年,每兩個月,就將有1000艘星艦從地球出發前往火星;不出30年,人類將全面擁抱AI,或是被其毀滅。關於我們人人賴以生存的工作,馬斯克表示:“我們在未來,甚至可能都會找不到工作。”他指出:“AI已經學習完成了人類公開知識所有的數據。未來3-4年,AI能夠勝任所有與認知相關的工作。”國內農業企業的龍頭新希望集團董事長劉永好,已經用實踐數據驗證了馬斯克的觀點:一台機器人相當於2個工人的年薪,企業就接受了,因為兩年就回本。所以,新希望已經投資了多家機器人公司,並探索機器人與傳統產業場景的應用結合。另一位矽谷知名電腦專家、矽谷高創會主席吳軍博士也說:人工智慧的發展,將會導致未來可能只有2%的人不被淘汰,金字塔底端勢必會面臨被淘汰的命運。華為創辦人、CEO任正非,也早在6年前談到人工智慧對人類的影響:社會最終要走向人工智慧的,不接受教育的人,連做工人的機會都沒有。這裡有一組數據,足以佐證上述大咖們的看法。2025年初,富士康公開揭露:其旗下主要工廠的關鍵工序,已有超75%實現AI機器人替代,其中在iPhone裝配線上,機器換人率高達90%。世界經濟論壇發布的《2025年未來就業報告》顯示,約四成企業計畫在2025年至2030年因使用AI而裁員。麥肯錫全球研究所一份報告指出:到2030年,全球將有8億至10億個職位被AI取代,若算上關聯產業和家庭經濟,波及人口將超過30億。世界經濟論壇的《未來就業報告》認為:“AI不是替代工具,而是勞動力市場的系統性重設。”……所以,年輕人的未來,真的只能「去當水管工」(泛指需要動手的體力勞動者)了嗎?或者,為什麼水管工不會被人工智慧和AI所取代?「AI教父」傑弗瑞·辛頓認為,AI最先取代的,是「日常的腦力勞動」,比如寫郵件、做客服、寫代碼、做法律助理……都可以被AI配上外掛一鍵完成。辛頓舉例稱,自己的親戚過去寫一封客戶投訴信要25分鐘,現在用AI 5分鐘就搞定。結果就是:一個人做了五個人的活。這意味著什麼?無論你可以做到有多高效,但公司上了AI,上了機器人,以後就不需要你了。那麼,AI會不會曾經的工業革命一樣,創造出新的工作模式和職位呢?辛頓的答案是否定的:“如果它能做所有的腦力勞動,那我們還能幹啥?”所以,辛頓的結論是:“AI很難取代水管工。”AI會動腦,但還不會動手,這就是我們在AI時代的破局之道!再看看我們國內,1200萬的大學畢業生,真實就業率怕只有50%不到。為什麼?因為這些大學生,幾乎都是只想動腦不想動手,但我們的社會,已經進入到人工智慧社會,AI和人工智慧機器人,已經取代了許多工作。當然,在人工智慧還沒有完全取代快遞、跑腿、外賣、計程車司機等行業的時候,只要你願意放下身段,還可以憑體力賺錢,只要肯吃苦,十年存個百萬也不是不可能。但是,我們也已經看到,路面上的無人快遞小貨車、無人駕駛計程車,人工智慧正在全面取代只要是動腦和機器可以替代的行業。那麼,當下的我們和未來的年輕人,如何在AI時代求生存謀發展?其實,「AI教父」傑弗瑞辛頓的建議很不錯:在AI動手之前,找一個靠「手」吃飯的技能。華為公司輪值董事長孟晚舟的建議和辛頓如出一轍:未來一定不要選和機器競爭的職業。面對這場AI風暴,“AI教父” 傑弗裡·辛頓說:“這不是靠個人做點什麼就能扭轉的事。就像氣候變遷不是靠分揀垃圾解決的。”但是,辛頓又反覆強調了一件事:“我們不能放棄努力。”具體該如何做,是一個時代難題,我們誰都逃不掉,只能學習,適應,面對!▲ 凱文凱利最後,推薦一本AI時代的必讀書,被譽為世界互聯網教父、矽谷精神之父和科技預言家的凱文·凱利,其思考科技發展與人類命運的重磅新作——引領AI時代的思想之書《5000天後的世界》。未來5000天,是劇變也是機遇,我們需要思考自身的命運與世界未來走向,需要樂觀地想像未來、創造未來。矽谷投資人、人工智慧專家吳軍說,《5000天後的世界》書中所描述的情形,已經正在漸漸浮現! (風起堂觀察)