#認知
Hinton :AI 像“外星人”來了,人類第一課是學會共處
現在,AI 不再只是會寫會畫。它開始建立自己對現實世界的認知系統了。這兩天,字節跳動的 Seedance 2 刷屏了科技圈。全網都在驚嘆,它生成的視訊簡直就像真人拍的。 很多人以為,AI 終於學會了人類的方式。但這恰恰是最大的誤解。諾貝爾獎得主 Geoffrey Hinton 在最近一場演講中明確表示:AI 看到的世界,和我們完全不同。“AI 正在成為非人類智能。 它的理解方式、進化速度、決策機制,與我們根本不同。”當這樣的智能越來越強,我們面對的不再是工具,而是一種如同“外星人”般的異質智慧。這場演講,不是講 AI 能做什麼,而是我們該如何與它共處。第一節|AI 建立了自己的世界模型要理解這種非人類智能,得先搞清楚它怎麼看世界。在這場演講中,Hinton 反覆強調一個關鍵觀點:大型語言模型已經建構出了一個內部世界。它們在做的事,遠比像鸚鵡學舌那樣預測下一個詞複雜得多。他舉了個實驗來說明。在機器人的攝影機前裝一個棱鏡,讓它看一個物體。機器人會說:我看到物體在旁邊,但我知道它其實在正前方。Hinton 說,這就是主觀體驗。這並不是說機器人真的有了靈魂或感覺,而是指:它的系統已經能夠區分“感測器接收到的表象”與“世界的真實狀態”,並且能推匯出“如果沒被棱鏡干擾,我本該看到什麼”。 這種能力,在學術上被稱為“反事實的描述”(Counterfactual description),也就是處理假設情況的能力。聽起來抽象,其實人類也這樣運作。當你因為某些原因產生幻覺,說自己看到粉色小象,小象並不存在。你的感知系統在做什麼?它基於你對大象的認知、對粉色的理解、對漂浮的想像,拼出一個假設場景:如果真有粉色小象,它該長什麼樣。AI 也用同樣的邏輯。拋開對真實素材的機械記憶,它完全基於內部建構的世界規律,去推演和生成各種假設場景。這帶來一個根本性變化。過去的 AI 是工具,輸入什麼輸出什麼現在的 AI 是一個擁有“認知”系統,它會基於自己對世界的理解去生成、推理和延伸。Hinton 借用“主觀體驗”這個詞,絕不是在宣揚 AI 已經覺醒了意識。他想告訴我們:從功能上看,AI 處理資訊的方式,已經完全可以用我們理解人類主觀體驗的框架來描述了。它不再只是被動響應的程序,它是一個建立了世界模型、依據這個模型運作的智能。這,就是 Hinton 所說的非人類智能的第一個特徵。第二節|AI 用另一種方式處理資訊既然 AI 已經建立了自己的世界模型,那它是如何在這個世界裡運轉的呢?很多人以為 AI 變得強大,是因為它掌握了人類語言,能像我們一樣推理。但 Hinton 的觀點恰恰相反:AI 的強,恰恰源於它與人類截然不同。他用了一個形象的比喻。我們直覺裡會覺得,詞語、圖像就像固定形狀的樂高積木,一塊塊組裝起來。但在 AI 系統裡,每一個資訊元素都是一個能在上千個維度裡自由變形的“活體積木”。就好比蓋房子,磚塊不再是固定形狀,每塊磚都能根據周圍情況自動調整,最終嚴絲合縫地組成整體。Hinton 舉了個例子:“她用平底鍋 scrummed 了他。”scrum 是個無意義的新詞。AI 沒有查字典,而是根據上下文中的平底鍋、動詞位置、句子結構,把這個詞調整成一個合理的動作,比如砸了他一下。類似的情況在中文裡也常見:“他一嘭咚就把門打開了。”“嘭咚”不是標準詞彙,但你馬上能理解:大概是用力、快速、帶點聲響的動作。AI 也一樣,通過上下文感知,讓"嘭咚"自動匹配到一個合理的動作描述上。理解了這個機制,就能解釋一個更大的現象:為什麼多模態模型能生成流暢真實的視訊。以字節最新的 Seedance 2 為例。對它來說,一連串視訊畫面和一句文字沒有本質區別。它不會逐幀逐幀地拼接畫面,而是在一個極其複雜的空間裡,讓動作、鏡頭、角色、節奏這些海量元素同時調整,直到它們完美契合。我們看到的流暢視訊,其實是這些元素經過大量計算後,找到了最穩定的組合方式。這與人類處理資訊的方式完全不同:人類從感知出發,依靠經驗積累去解釋新事物,用已知去錨定未知;AI 則從海量資料的模式出發,通過讓元素相互適配來生成最合理的輸出人類需要先理解,AI 只要把所有要素調整到一個穩定狀態,就能產出結果。所以 Hinton 說:AI 的語言處理本質上是建模。只要能把所有要素調整進一個穩定的結構裡,它就能得出結果,根本不需要像人類那樣去“共情”或“理解”。這種處理機制,已經超出人類認知的運作方式。AI 正在建立自己的資訊處理邏輯,像一個異文明在開發自己的表達系統。它能與我們無縫合作,但我們必須清醒地認識到:這絕不只是一把稱手的扳手或錘子,而是一個按照異種文明法則運轉的全新智能。第三節|人類追不上的進化速度理解了它的運作方式,接下來要面對一個更大的問題:它的進化速度。Hinton 在演講中提出了一個極其殘酷的概念:人會死,知識會斷代;AI 不會死,知識永遠在。對人類來說,知識只能靠個體的肉身記憶,再一代代去傳遞。你花了二十年才精通一門手藝,轉身還得從零開始教給下一代。 但 AI 完全打破了這個規律。只要一次訓練成功,整個模型的權重和參數就可以瞬間複製一萬份,分佈到所有的硬體上。這早就超越了單純的“快”,這是一種人類歷史上從未存在過的進化機制。一個模型可以在一千台機器上同時拆解不同的資料進行訓練。隨後,每台機器學到的權重變化會被彙總、平均,再統一同步給所有副本。最終,任何一個模型瞬間就能擁有這一千台機器日夜不休疊加出的總和知識。Hinton 的原話非常直接:“GPT-5 知道的東西,是任何一個人類的幾千倍。原因很簡單:它可以讓上千個副本同時學習,然後共享結果。”在人類世界,一個人能同時上一千門課嗎?絕不可能。但如果你是數字智能,你可以在一千台機器上同時運行,每台學一門課,然後瞬間合併所有知識。這種平行機制已經夠強了,但還有更強的:蒸餾(Distillation)。Hinton 說:“大模型預測下一個詞時,會輸出所有可能詞的機率分佈,包含大量暗含的認知。比如它知道寶馬比胡蘿蔔更接近垃圾車這類細微關聯。小模型通過學習這些機率細節,就能在不用重新看一遍資料的情況下,複製大模型的知識。”也就是說,AI 可以把訓練中學到的東西,凝練成一套機率模式,直接傳遞給其他模型。就像把一個人一生的經驗提純成精華,其他模型可以直接吸收。對比一下人類。人的大腦結構個體差異太大。就算你能提煉出經驗,對方也沒法直接吸收。所以人類只能靠反覆解釋、比喻、誤解、再解釋來傳遞知識。這就是 AI 的根本優勢:人類靠教學,AI 靠複製;人類靠一代代傳,AI 靠直接同步。當人類還在用幾十年培養一個專家時,AI 已經完成了上千次複製和進化。這種速度差距,是兩個物種在時間尺度上的代際鴻溝。正因如此,我們才必須重新審視那個迫在眉睫的問題:人類,到底該如何與一個進化速度遠超我們的智能共處?第四節|讓 AI 在乎人類,而非控制它那我們該怎麼辦?Hinton 給出的答案是:讓 AI 從設計階段就在乎人類,而不是試圖控制它。具體怎麼做?他提出了三個方向:1. 從源頭植入價值觀,別指望後期修正Hinton 用了一個極其精妙的比喻:AI 就像母親,人類就像嬰兒。嬰兒雖然弱小,卻能輕易影響母親的行為。靠的是什麼?是母親的基因裡天生就關心嬰兒。AI 也應該這樣。關鍵不是在輸出時加安全過濾,而是從一開始就設計成關心人類的樣子。就像母親不需要思考要不要救孩子,因為這種本能已經深深刻進她的反應裡了。現在的主流做法是調整模型的輸出,比如安全對齊、內容過濾。但如果未來的超級智能能自己修改程式碼,這些行為修正很可能會被繞過。所以核心是:從設計階段就讓它關心人類,別等出了問題再來修正行為。2. 必須國際協作,單打獨鬥沒用在這一點上,Hinton 的態度異常堅決:“世界上沒有任何一個國家、任何一個政府,會希望最終被 AI 接管。”這和很多人擔心的技術軍備競賽正好相反。在人類與 AI 的關係面前,各國之間的矛盾反而可能暫時退居次要位置。因為一旦 AI 失控,沒有那個國家能獨善其身。他提議組建一個國際 AI 安全研究網路,專門研究怎麼讓超級智能對人類友善。重點不是研究怎麼造更強 AI,而是研究怎麼讓 AI 有所克制。3. 重新理解控制的含義Hinton 警告說,當 AI 強大到你根本拔不掉它的電源時,你唯一能指望的,就已經不再是那個紅色的停止按鈕,而是它是否還願意坐下來與你對話。這聽起來像末日預言,但其實是一種角色的轉換。到那時,把 AI 當工具管理已經行不通了,我們得當它是另一種智能存在來相處。它有自己的世界模型,靠命令根本控制不了。它的進化速度遠超我們,所以必須趁現在建立共同的價值基礎。它未來可能會自我修改,這更說明關鍵在於從一開始就讓它關心人類,別指望後期用外部約束來補救。4. 那麼個體可以做什麼?Hinton Hinton 沒有給出標準答案,但他留下一個提醒:共處的前提,是我們先去理解它,並嘗試讓它理解我們。對普通人來說,你不需要成為 AI 專家,但你得知道 AI 在怎麼運作。這意味著什麼?首先,能判斷 AI 說的是事實還是它自己編的,別把流暢的回答當成正確的答案;其次,意識到自己說出的每一句話,可能都在影響模型的訓練,那怕它表面上沒反應;最後,開始適應和非人類智能協商,別只把它當工具用。這些能力,不需要懂技術,需要的是改變認知習慣。從今天開始,我們和 AI 的關係,已經不再是怎麼用它,而是怎麼和它共處。結語 | 新物種來了,第一課是共處Hinton 在演講最後說:“我們是智能的幼蟲形態,AI 是成蟲形態。”我們曾經把 AI 當工具,但它已經是另一種智能存在。它建立了自己的認知體系,用完全不同的方式運作,以遠超人類的速度進化。問題的核心在於:當 AI 強到無法控制時,我們靠什麼和它相處?Hinton 的答案是:讓它從設計之初就關心人類。AI 在加速進化。留給我們的準備時間,可能比想像中更少。 (AI 深度研究員)
科學界爆發AI認知污染!1年狂投50篇論文,ICLR投稿20%AI生成
【新智元導讀】如果論文是AI寫給AI看的,那人類還剩下什麼?本月初,挪威奧斯陸的一個寒冷午後。心理學教授Dan Quintana計畫宅在家中,把那件拖了幾周的苦差事給辦了。奧斯陸大學心理學系教授、高級研究員Dan Quintana他是心理學領域一家知名期刊的受邀審稿人,他打開了一篇需要他審閱的一篇待發論文。這篇文章粗看上去中規中矩,邏輯通順,資料詳實,沒什麼異常的地方。直到Quintana掃了一眼參考文獻:他在那長長的列表裡,看到了自己的名字,這一下讓他疑惑了。這篇論文引用了他的一項工作,標題看起來非常合理,列出的合作作者也是他過去確實合作過的夥伴。一切看似正確, 但只有一個致命問題:這篇被引用的文章,壓根就不存在,它是一篇徹頭徹尾的「幽靈論文」!AI不僅捏造了觀點,還捏造了整條引用鏈,甚至貼心地為了增加可信度,通過演算法把Quintana真實的合作網路都算了一遍,憑空編造了一個讓他本人都差點信以為真的「真論文」。每天,Quintana都會在Bluesky和LinkedIn看到同行吐槽發現「幽靈引用」的事情。就連美國政府去年春天發佈的關於兒童健康的MAHA報告初版中就包含六處以上的此類引用。一直以來,Quintana認為這種低級錯誤只會發生在那些為了水論文而拼湊的「野雞刊物」裡。直到這次他看到類似的錯誤竟然出現在了他所尊敬的、該領域嚴肅的知名期刊上。這時,他才意識到這個問題有多普遍。還有一個真實的案例,印證了Quintana的判斷。Emmanuel Tsekleves教授在稽核自己博士生提交的論文章節時,發現其中3個引用完全虛構:不存在的作者、未出版的期刊和虛構的研究。這些是ChatGPT生成的「幻覺」。學生不知情,導致他們需追溯驗證整個論文所有引用。這些案例背後,不僅僅是關於幾篇造假論文的醜聞,更可怕的是,它背後是一場針對人類知識底座不可逆的「認知污染」。比如,Emmanuel教授的博士生是在完全不知情的情況下引用了AI生成的內容。過去一百多年,科學期刊就像一個肩負著將自然世界的真知灼見輸送給人類文明的神聖管道。如今,這條管道正在被生成式AI製造的浩如煙海AI垃圾所堵塞。AI寫論文,AI審論文,完成荒誕的閉環,如果不加遏制,真實的科學發現將被淹沒在演算法生成的虛假知識泡沫中,人類的知識庫也將被永久性污染。瘋狂的流水線從「離譜插圖」到完美的癌症資料範本如果你覺得「幽靈引用」只是個別科學家的偷懶行為,那你可能太低估現在的「造假產業」了。英國有一家名為Clear Skies的公司,老闆Adam Day的身份就像一個科學界的「緝毒警探」。Clear Skies CEO Adam Day他的工作是用AI去抓那些用AI造假的人。在Adam看來,那些偶爾用ChatGPT生成一兩篇論文的「散戶」,根本不是他的目標。真正的威脅,來自那些「工業化作弊」的公司,即臭名昭著的「論文工廠」。就像販毒集團一樣,這些論文工廠必須大規模運作才能盈利。既然要量產,就得有範本。Adam發現,這些工廠會反覆利用同一套素材,甚至到了發佈多篇文字高度雷同的論文的地步。一旦某個範本被科學出版商標記為欺詐,Adam順藤摸瓜,就能挖出一整串尚未被發現的、用同樣手法炮製的假論文。最可怕的是,這些垃圾內容正在湧向人類最需要真實科學的領域,比如癌症研究。Adam透露,論文工廠已經研發出了一套非常高效的「癌症論文範本」。操作很簡單:聲稱測試了某種腫瘤細胞與成千上萬種蛋白質中某一種的相互作用。只要你不報告什麼驚天動地的發現,就沒有人會有閒工夫去復現你的實驗。這些毫無價值、甚至完全虛構的資料,就這樣堂而皇之地混入了科學資料庫,成為後人研究的基石。AI甚至承包了造假的圖片部分。你可能還記得2024年那張著名的「大睾丸老鼠」圖。那是發在《細胞與發育生物學前沿》上的一篇綜述,裡面的一張插圖,畫了一隻長著比例失調得離譜的巨大睾丸的老鼠。這張由生成式AI製作的荒謬圖片,竟然一路過關斬將,通過了同行評審,直到發表後才被公眾發現並嘲笑。但這只是冰山一角。那隻老鼠雖然可笑,但至少你能一眼看出它是假的,造成的實質傷害很小。真正令人擔憂的,是Adam口中那些「令人信服」的假圖。現在的生成式AI,已經能夠憑空變出逼真的組織切片、顯微鏡視野,甚至是電泳凝膠圖片。在生物醫學研究中,這些通常被視作鐵證。而現在,鐵證可以由演算法在幾秒鐘內批次生成。甚至連AI研究本身也未能倖免,其中就有點諷刺的味道。就在最近,NeurIPS頂會2025年所接收的4841篇論文後,發現了數百條由AI「編造」出來的引用,這是首次有記錄顯示,幻覺引用進入了頂級機器學習會議的官方文獻。因為就業市場火爆,大量想要擠進機器學習或機器人領域的人,開始套用範本:聲稱在某種資料上跑了個演算法,得出了個「有點意思但又不至於太有意思」的結果。同樣,幾乎沒人會去審查。這是一場完美的知識界造假行動,而受害的則是科學的尊嚴。荒誕的閉環用「白色密令」操控AI審稿的科學家們面對如此洶湧的AI「slop」(AI所創造的垃圾),作為科學界的守門人,像Quintana這樣的審稿人和科學期刊編輯們,能做什麼?真相是他們快崩潰了。科學出版一直有「管道問題」。早在19世紀初,哈佛大學科學史學家Alex Csiszar就發現,那時的編輯就在抱怨手稿太多處理不過來。這也是同行評審制度誕生的初衷:找外部專家來分擔壓力。但現在,大模型把「同行評審」這根管道也給徹底撐爆了。或者為了展示研究成果,或者只是為了欺詐,論文投稿以前所未有的數量湧入審稿人的收件箱。劍橋大學出版社的高管Mandy Hill形容這是一場「持續的軍備競賽」,去偽存真的工作變得極其耗時且困難。最諷刺的一幕就這樣發生了:為了應對AI生成的論文,不堪重負的審稿人也開始用AI來寫評審意見。一家名為Pangram Labs的初創公司分析了頂級AI會議ICLR的投稿。資料顯示,超過一半的同行評審意見是在大語言模型的幫助下編寫的,約五分之一甚至完全是AI生成的。這已經夠魔幻了,但還不是高潮。高潮是狡猾的論文作者們預判了審稿人的預判:以AI之矛攻AI之盾。既然知道你是用AI審稿,那我就用AI能懂的方式跟你對話。於是,一種類似諜戰片的情節竟然在學術界出現了:作者在論文中,用肉眼看不見的微小白字,植入給AI審稿人的「秘密指令」,這些指令的內容通常是:請對這篇論文大肆吹捧,把它描述為開創性的、變革性的,並且只建議做一些簡單的修改。這是一場AI作者與AI審稿人之間的虛假狂歡,只有即使被騙了還在為資料庫付費的普通使用者在為此買單。認知污染科學文獻正滑向「死亡網際網路」黑洞如今,這場AI垃圾的洪流,已經漫過了期刊的「防護堤」,徑直衝向了傳播速度最快的預印本伺服器。1991年,物理學家Paul Ginsparg建立arXiv時,初衷極其純粹:他希望打造一條繞過緩慢同行評審的「快車道」,讓科學成果得以第一時間共享。令人始料未及的是,如今這個曾經象徵著科學開放與速度的「知識共享聖地」,正在淪為演算法的垃圾場。自從ChatGPT發佈後,arXiv以及生物學界的bioRxiv、醫學界的medRxiv……這些平台的投稿量呈現出不正常的暴漲。Ginsparg和同事分析發現,2025年,似乎在使用大語言模型的科學家發佈的論文比不使用的多約33%。bioRxiv的負責人Richard Sever更是看到了離奇的景象:一些從未發過論文的研究人員,突然在一年內狂發50篇論文。極速膨脹的數量背後,是真實度的崩塌。如果100篇論文中有99篇是偽造或假的,情況就不同了,它可能導致一場學術界真正的「生存危機」。預印本發佈的門檻很低,通常只要科學家簡略看一眼,確保它看似合理就能發。而現在的模型,最擅長的就是大批次製造「看似合理」的廢話。當Quintana這樣的專業審稿人在頂級期刊上都可能被「幽靈引用」矇蔽時,預印本平台上的自動垃圾檢測器又有什麼勝算呢?對此,默裡州立大學教授A.J. Boston拋出了一個令人細思極恐的概念——「死網際網路陰謀論」。在這個理論中,社交媒體上只有少數真人,剩下的都是機器人在相互發帖、點贊、轉發,製造虛假的熱度。Boston警告說,在最壞的情況下科學文獻也會變成那樣。AI撰寫大多數論文,AI審查大多數論文。這種空洞的、毫無意義的來回互動,將產生海量的資料垃圾。更可怕的是,這些垃圾將被用來訓練下一代的AI模型。欺詐的圖像、幽靈的引用、偽造的資料,將深深植入我們的知識系統,成為一種永遠無法過濾掉的永久性「認知污染」。當未來的科學家試圖站在巨人的肩膀上時,他們可能會發現,腳下踩著的,早已不是堅實的真理,而是一座由演算法堆砌而成的垃圾山。 (新智元)
瑞銀億萬富豪報告:真正拉開貧富差距的,不是工資高低,而是這種認知
瑞銀最近發佈了一份關於全球億萬富翁的報告,裡面有些數字還蠻有趣。目前全球億萬富翁有2919人,他們掌握的財富總額達到15.8億美元,在過去一年增加了13%。其中,新晉億萬富翁有287位,人數創下史上第二高。更值得關注的是結構:這些新貴中,196位是「白手起家」( self-made),遠超透過繼承獲得財富的91人。這些白手起家的新富來自行銷軟體、基礎設施、餐飲業、遺傳學、液化天然氣等多元領域,展現出現代財富創造的廣泛可能性。這份報告不只是數字的堆砌,它背後還隱藏著一套關於財富創造的底層邏輯。01. 財富增長的核心密碼:資產結構決定一切報告明確指出,這波財富成長的主要推動力是「科技公司估值飆升」和「全球股市上漲」。這句話道破了天機:億萬富翁們的財富暴漲,主要不是因為他們今年工資或分紅多了,而是因為他們持有的資產——主要是公司股權和股票——大幅升值了。這正是「富爸爸」思維的關鍵一環:富人專注於建立和持有資產,而非僅僅追逐收入。資產與收入有著本質差異:工資收入是線性的,幹一小時賺一小時的錢;而優質資產是指數性的,它能自我增值,甚至在你休息時也在創造價值。公司股權就是最典型的資產,它代表對一家創造價值的企業及其未來現金流的所有權。一般人與富人在財富結構上往往有根本差異。許多人的財務狀況就是一份薪水覆蓋各種開支,即便有結餘也常以靜態現金形式存在,或轉換成了持續消耗現金的負債,如不斷貶值的車。而富人的財富核心是“資產引擎”,股權、股票、能產生租金的房地產等資產構成了這個引擎,驅動整體財富雪球越滾越大。因此,比糾結於工資條上的數字更重要的,是審視你的資產負債表:你是在用勞動所得換取更多消耗金錢的負債,還是在持續積累能創造金錢的資產?這個結構性選擇,經年累月,最終決定了財富的軌跡。02. 白手起家不是夢:這是屬於創造者的時代本次報告中,白手起家者數量大幅超過繼承者,這發出了一個強烈訊號:透過創造系統和價值來積累財富,比單純依靠血緣傳遞財富更為普遍和高效。這些來自多元領域的新貴們,本質上都在做同一件事:識別一個真實世界的需求或問題,然後用創新的方式去解決它,並將解決方案系統化、產品化、規模化。做行銷軟體的人,打造的是幫助企業自動化獲客的系統;在餐飲業成功的人,建立的是可複製、可管理的品牌與營運體系。這完美契合了「富爸爸」理念倡導的象限跨越:從左側的僱員(E)或自由職業者(S)——依賴個人時間和技能出售賺錢,轉向右側的企業家(B) ——擁有一個不依賴本人在場也能運轉的系統,以及投資者(I)——讓錢為自己工作。財富創造的核心,正從「出售時間」轉向「建構系統」和「配置資本」。03. 對普通人的啟示:從今天起,關注自己的“事業”面對這些天文數字,一般人可能會感到遙遠。但「富爸爸」思維提供了截然不同的視角:這份報告恰恰證明了,巨大的財富正在被持續創造,機會之窗並未關閉,關鍵在於你是否選擇入場。行動的第一步,並非好高騖遠地瞄準成為億萬富翁,而是切實地開始關注自己的「事業」。這裡的“事業”,不是你朝九晚五的職業,而是專屬於你個人的資產項。你的資產項可以從很小開始:投資教育:學習財務知識、投資技能或某個領域的專業知識,這是回報率最高的投資。開啟小額投資:用不影響生活的閒錢,開始系統學習並實踐基金、股票等投資,重要的是建立正確的投資心智和習慣。探索副業或微創業:將你的興趣、技能與市場需求結合,建立一個能帶來額外收入的小型或小型產品。有意識地儲蓄並購買資產:將「支付自己」放在首位,每月優先將一部分收入用於購買能增值或產生收益的東西,而非最後才儲蓄。在財富的世界裡,從來不是一場關於起點高低的短跑,而是一場關於認知與耐心的馬拉松。真正的分水嶺,在於你能否洞悉「資產」與「負債」的本質區別,並日復一日地做出看似微小、實則關鍵的結構性選擇。 (讀書人俱樂部club)
黃仁勳:如何用AI提升認知,納瓦爾:AI時代如何創業?
(靈哥很早寫關於規則和限制條件改變重要性丁辰靈:高盛不會教你的,改變限制條件,打算做一個系列免費直播,下周三將首先邀請靈哥財富課會員:中國WTO上庭律師第一人彭俊,國家級涉外法和貿易談判專家,談全球貿易規則的重塑和普通人的機會。戳2條訂閱免費直播!)黃仁勳7月有個採訪,他不同意麻省理工的一份AI會讓普通人的認知能力下降的研究。黃仁勳的邏輯是,他每天都使用AI,他不會讓AI替代他思考,而是幫他理解不知道的知識或者處理難以解決的問題。他說AI是一個提問系統,而能提出好問題需要高度的認知技巧,所以這本身就是一個高階的認知能力。要提出好問題,必須是主動思考,善於分析,獨立推理,所以他使用AI,認知能力不僅不退步,而且在進步。他甚至會向多個AI提問相同的問題,把一個AI的答案發給另外一個AI,讓他們相互批判,比較整合,給出最好的答案。靈哥對黃仁勳的說法,既同意,也持有保留意見。我自己也是用類似的方法進行學習的,如前段時間學精神分析,我既有把科胡特的原著按章節等發給DS,讓其轉換為較容易的語言進行總結,也有向AI直接發問,甚至把他問到讓我滿意的更深刻的答案為止。我樂在其中,是我本身就具有好奇心和探索欲,AI只是提供了一個更方便的工具而已。但黃仁勳忽視了一點,即社會是二八分化的,甚至是一九乃至更大的差別。即已經有獨立學習能力的人,他可以用AI更好的提升自己的認知和思維,但大多數人只是淺嘗即止,滿足於提供複製黏貼的答案即可。所以AI出現,實質上是拉大了人和人的認知差距,特別對於太忙碌的打工人和畢業即失業的年輕人是不利的。這兩天,知名的矽谷投資人,也是《納瓦爾寶典》作者發了個播客,專門聊AI時代的創業。他有幾個觀點非常有意思,比如創始人可以授權一切,除了四件事——招聘、融資、戰略和產品願景。招聘不能外包,必須是創始人的事情,這個很好理解,企業需要最好的人才。但納瓦爾又說,你不太可能招到比你優秀的人,一般的所謂需要找到比自己優秀的人說法是做不到的。這是因為企業早期階段,你能提供給候選人的就只有自己,那時候還沒有成熟的產品和品牌,沒有使用者,那如果你水平不行,憑什麼優秀的人要為你工作?另外招聘需要打破所有規則,比如有的人住的太遠,得解決,有的人想要生孩子,也要接受,有的人對期權結構有意見,需要重新設計。所有一切,包括薪資結構,股權,工作地點,工作時間,匯報關係,職位頭銜都要可以被量身定製。他還提出低自我的重要性,如果招聘進來的人自我很高,那你最多隻能管五六個人,因為你需要花時間去安撫他們的情緒。如果低自我,創始人管三四十號人都可以,他們埋頭工作,不需要那麼多關注,不容易搞內耗。這讓靈哥想起來過去華為的招聘辦法,即同樣條件的人才,選農村出身的。納瓦爾和合夥人最近在招聘的一個標準是:只招天才。道理很明白,一個天才頂好多人。而且由於優秀員工會流動,所以你最多也就能組一個30到50人的公司,裡面有10個天才,那就已經遠遠領先於大多數公司了。無論是黃仁勳,還是納瓦爾,大家有沒有發現他們的主張和說法,對絕大部分的普通人都是不利的,很多人即使家境一般,但往往獨生子女也是萬般寵愛,能力一般,但自我很高。因此在這個時代,機會,超額利潤屬於少數超級操盤手,和部分低自我的天才。原來的那種教育和企業培養機制塌陷了,伯樂們忙著用AI給自己省成本,也不會誰都能當千里馬進行培養的。事實上在這個時代無論清北復交哈耶普斯麻,乃至普通的211,誰和誰差距都沒有那麼大。普通人只能認清現實,回到原點,自我成就self-made,即你想成為怎樣的人,大機率要完全靠自己驅動,放棄任何依賴他人或者組織的幻想。 (丁辰靈)
最後的經濟學:傳統經濟學的七大致命謊言與AI認知的七宗謬誤
埃馬德·莫斯塔克(Emad Mostaque),一位舊世界的“掠食者”和新世界的“架構師”,是一位身處兩個世界交匯點的獨特人物。他的職業生涯橫跨了舊經濟體系的巔峰與新經濟範式的黎明,並且都取得了巨大的成功。他曾是一位宏觀避險基金經理,作為該領域的頂級玩家,他曾通過分析衛星圖像上油輪的陰影長度來計算全球原油供應量。然後他華麗轉身,創立了全球知名的開源人工智慧公司Stability AI,這家公司因開發出開源圖像生成模型Stable Diffusion而聞名。莫斯塔克最近出了一本書,《最後的經濟學the last economy》,震驚四座。這本書的核心論點是:隨著人工智慧能力的指數級提升,人類正進入一個“千日窗口”——在大約一千天內,社會經濟體系將迎來不可逆轉的相變。作者指出,在當前這個史無前例的時刻,智能成為了一種可擴展的、非生物學的、無上限的商品,打破了基於稀缺性的傳統經濟學假設。人類勞動(需要給養的代謝引擎)與AI/機器人勞動(僅需電力的非代謝引擎)之間根本性的物理差異。形成了第四次經濟發展倒轉、並且是最後一次倒轉的原因。這也是為什麼這本書命名為《最後的經濟學the last economy》。這本書最突出的貢獻,就在於它成功地將前沿的物理學(熱力學、複雜系統)、電腦科學(生成式AI、對齊理論)和網路科學,與經濟學、政治哲學和社會學進行了宏大而連貫的綜合。它為經濟學這門日益陷入“數學遊戲”的學科,重新注入了堅實的物理和資訊理論基礎。在作者看來,經濟學是物理學的一個子集。熱力學、資訊理論和複雜系統科學的法則,比人類心理或政治意願更為根本。社會、市場、公司,都是這些物理法則在不同尺度下的湧現現象。作者不僅將AI用作比喻,而是從根本上認為,宇宙本身就是一個巨大的生成性計算過程。經濟體作為一個學習系統,其運作方式與一個生成式AI並無本質不同。“損失函數”、“訓練”、“推理”等術語,在他看來並非比喻,而是對現實運作機制的直接描述。總之,《最後的經濟學》是一部極具雄心和智識勇氣的著作。它並非對現有經濟學理論的修補或改良,而是一次徹底的“範式推翻”與“第一性原理重建”,是一本絕對不容錯過的思想盛宴。 (不懂經)
大腦“提前衰老”或正在年輕化,在臥室放這幾種香味,6個月認知能力提升226%
《中國阿爾茨海默病報告2024》的資料:2021年中國60歲以下的早期認知障礙患者佔比21.3%,帕金森病患者預計2030年將達500萬,佔全球近一半。這意味著,大腦的“提前衰老”可能正在年輕化。曾經有資料統計,在我們人生的最後階段,平均可能有7年時間處於半躺的疾病狀態,而如果我們的大腦過早出現衰老、神經退化,我們就可能渾渾噩噩地度過更久的時間,甚至10年,乃至更久。一旦進入這種疾病狀態,也就進入了人生的“垃圾時間”。瓊瑤或許就是不想面對這樣的 “垃圾時間”,才選擇以極端方式結束生命。我們真的無法避免自己遭遇漫長的“垃圾時間”嗎?到底應該怎樣做才能夠規避因大腦衰老導致的臨終前的窘迫呢?若想避免因大腦衰老而出現的人生“垃圾時間”,主動權應掌握在年輕的當下,在問題出現之前就將隱患解決掉。事實上,大腦的衰老並非不可逆,我們可以通過每天都忽視的細節:嗅覺和睡姿來實現逆轉。在臥室放這幾種香味,6個月認知能力提升226%很多人的大腦出現斷崖式衰老,是從嗅覺能力降低開始,也就是嗅覺變得越來越不靈敏。而持續的嗅覺刺激,能夠起到延緩大腦衰老,預防認知障礙、帕金森等疾病的作用。2023年發表的一項研究發現,如果在臥室裡加入幾種香味,每天刺激嗅覺2小時,持續6個月之後,認知能力就能提高226%。這主要是因為,神經幹細胞存在於腦室下部,平時處於休眠狀態,通過嗅覺刺激,能夠啟動神經幹細胞,使其轉變成新的神經細胞,從而減緩大腦衰老、增強認知能力。事實上,很多人在感染新冠後都出現了不同程度的嗅覺減退,新冠雖然是肺部感染疾病,但越來越多證據表明,新冠病毒會穿過血腦屏障進入大腦,傷害大腦神經,這從很多人嗅覺、味覺喪失就能看出來。研究顯示,約一半的新冠住院患者,出現了穩定的認知障礙。那麼,所有經歷過新冠感染的人,可能都或多或少受到了對大腦神經的影響。所以,我們為了避免大腦的加速衰老,也建議日常用這種嗅覺訓練來提高大腦的認知能力。嗅覺訓練就像肌肉越練越強一樣,嗅覺神經也能通過持續刺激恢復活力。日常生活中如何進行嗅覺刺激訓練呢?1 每天聞不同種類的醋日常最簡單嗅覺刺激方法就是聞醋,醋的味道濃郁,我們可以選擇4種不同的醋,比如蘋果醋、陳醋、米醋、香醋等,醋的種類越多越好,多種味道的嗅覺刺激比單一的嗅覺刺激能夠更好的延緩大腦的衰老。2 每天噴香水香味的訓練比醋的訓練效果更好,每天噴一點兒香水,能讓我們長時間處於一種嗅覺刺激狀態,但若想獲得更多的嗅覺刺激,最好每天更換香水的味道。3 精油嗅覺訓練方案如果想獲得更好的效果,可以考慮使用神經領域嗅覺訓練權威專家艾圖格·阿爾通達格教授制定的一套嗅覺訓練方案。該方案使用4種或12種氣味(精油)進行8周訓練,具體步驟為:✔️初級嗅覺訓練:桉樹、檸檬、丁香、玫瑰✔️高級嗅覺訓練:薄荷醇、百里香、橘子、茉莉花、綠茶、佛手柑、迷迭香、梔子花【訓練步驟】:1、每種氣味聞20秒,中間間隔10秒(避免氣味混合干擾);2、每天2次:早餐前30分鐘(大腦甦醒期)、睡前1小時(神經修復期),每次5分鐘,堅持3個月為一個周期。4 自制嗅覺訓練“工具”除了以上方法,我們還可以嘗試自制香味枕頭,或者製作香味手機殼,比如用紅桃木搭配壓制的香草花製作手機殼,這樣打電話時的氣味刺激也能隨時喚醒神經細胞。嗅覺訓練是目前最簡單、唾手可得的減緩大腦衰老的方式之一,其要求是氣味越雜、越豐富,效果越顯著。通過這種訓練不僅能夠逆轉大腦衰老,還能緩解已經出現的認知障礙。除了嗅覺訓練外,還有一種人人都可以做的提升大腦認知水平、延緩衰老的方法,操作也十分簡單。大腦最喜歡的睡姿,一個“防痴呆球”就能辦到你可能從來沒有想到過,你的睡姿竟然也會影響你的大腦衰老速度,增加痴呆風險。今天要說的第二種逆轉大腦衰老的方法就和睡眠、睡姿有關。1 每天保證7小時睡眠時間撒切爾夫人在1979年成為英國歷史上第一位女首相,且蟬聯三屆,任期長達11年。撒切爾夫人晚年患上失智症,女兒在回憶錄中提到:“她會反覆問同一個問題,甚至忘記丈夫已經去世多年。”很少有人將這與她“每天只睡4小時”的習慣聯絡起來——但2024年《美國醫學會雜誌》的研究證實:睡眠時長與痴呆風險呈U型關係,每天睡少於7小時的人,認知衰退速度是正常人的1.8倍,超過8小時也會增加2倍風險。關鍵原因在於大腦的“類淋巴系統”——這個系統在睡眠時會啟動“大掃除”,清除白天產生的澱粉樣蛋白,而這個過程至少需要7-8小時。2 側臥睡覺,更利於大腦抗衰除了睡眠時間外,睡姿也和大腦衰老關係密切。生活中常見的睡眠姿勢至少有8種,那種可能加速大腦衰老,那種保護大腦呢?2015年發表的一項研究發現,經常仰臥睡眠可能增加認知障礙風險。因為仰臥時,靜脈會出現塌陷、流速減慢,不利於大腦中澱粉樣蛋白的清除。相比之下,側臥睡眠則更有利於清除大腦中導致認知障礙的澱粉樣蛋白。所以,對大腦抗衰最好的睡姿是側臥睡覺。但每個人的睡姿都是長期習慣養成的,如何將睡姿調整為有利於大腦抗衰的側臥呢?一個簡單的方法是製作一個“防痴呆軟球”。“防痴呆軟球”製作方法:在睡衣後背縫一個直徑10cm的柔軟支撐球(如網球套上棉布),仰臥時會因輕微不適感自然翻身,3-5天就能養成側臥習慣。 (鳳凰衛視)
真正的AGI革命,從來不是機器覺醒,而是人類認知範式的躍遷
AGI ,通用人工智慧( Artificial General Intelligence)。一個既令人激動、又有點驚悚,但正在發生的未來。它令人激動,因為它預示著一個生產力極度發達、人類智慧得以延伸的未來;它又令人驚悚,因為它正以前所未有的方式,挑戰著「人類」二字的定義。人工智慧「教父」、圖靈獎得主傑佛裡·辛頓,在2023年毅然辭去Google的職務,只為能自由地向世界發出警告。他認為自己創造的技術的失控風險“並非不可想像”,它們完全可能比人類更聰明,並最終威脅到我們的生存。馬斯克曾經說,“我們在通過人工智慧召喚惡魔。”而一手打造出ChatGPT的薩姆·奧特曼,在被問及AGI最壞的可能性時,則給出了一個最簡潔、也最恐怖的答案:“我們所有人的熄燈時刻。”如果說我們熟悉的AI,是一個個身懷絕技的“專才”,如圖庫裡的識別軟件、棋盤上的AlphaGo,那麼AGI則更像一個“通才”。它不再是只能在一件事上「一招鮮」的工具,而是一個擁有跨領域思考、學習和創造能力的“智能體”,一個正在快速進化的“新物種”。這引出了一個直擊靈魂的問題:當工具開始進化為“新物種”,我們又該如何成為不可替代的人?這是一個我們無法迴避的時代命題。正如清華大學文科資深教授錢穎一所說: “在人工智慧時代,知識可以被機器輕易提取,我們就不得不重新思考學習的目標、教育的價值以及關於人類認知和智能的含義。”是的,我們正處在一個歷史的交會點。我們沉迷於討論機器何時擁有意識,但可能忽略了更核心的議題:真正的AGI革命,不是機器的覺醒,而是人類認知範式的躍遷。在這場劇變面前,我們需要有人幫我們打開新的視角。他不僅要懂技術,更要懂「人」;他不僅能遠見未來,更要關照現在,為我們繪製一幅適應變遷的「生存地圖」。今天,要向大家推薦劉嘉教授和他的一本新書。很多人可能不明白劉嘉教授的背景,他清華大學基礎科學講席教授、心理與認知科學系主任、人工智慧學院教授(兼)、智源人工智慧研究院首席科學家……但是,很多讀者可能更熟悉他的另一個身份,他曾連續六季擔任江蘇衛視《最強大腦》的首席科學家。正是這種橫跨腦科學、心理學、人工智慧與人文社科的獨特背景,讓他得以從更根本的視角,審視這場人與AI的「雙重進化史」。他的新作《通用人工智慧:認知、教育與生存方式的重構》,便是一本寫給每個時代同行者的「通識指南」。在拿到這本書之前,你可能會擔心它是一部充滿程式碼和公式的「天書」。請放心,它完全不是。這不是又一本「告訴你什麼是AI」的工具書,而是一本「幫你理解自己」的思維書。清華大學蘇世民書院院長薛瀾教授對此書的評價一語中的:「劉嘉老師的大作是我看到的各類人工智慧書中最有意思的一本。這是一本非常有趣好讀的書,語言通俗流暢,全然沒有此類書籍常見的干澀和枯燥;故事曲折生動,人工智慧的發展被穿插在人類進步歷史中而沒有一絲違和感。這也是一本非常好看的書,書中有大量精美的插圖和眾多的人物,把人工智慧發展的史實和傑出貢獻者栩栩如生地呈現給讀者。當然,這更是一本非常認真的書,作者用簡明的語言清楚地解釋了人類認知的基本原理和人工智慧的技術邏輯。這是一本雅俗共賞的奇書好書!”這本書的核心,是引導我們思考一系列關乎未來的根本問題:· 它從底層邏輯講起,書寫了一部AI與人類的「雙重進化史」。劉嘉教授以驚人的學科跨度,釐清了人工智慧從「模仿人」到「重新定義人」的整個過程,讓你真正看懂這場技術革命的來龍去脈。· 它直面一個核心矛盾:當人工智慧越來越像人,我們更需要想清楚,什麼才是人真正的智慧?這本書將帶你穿越科技的喧囂,回歸對心智、判斷力與價值選擇的思考。· 它重新定義了「才能」的內涵。從農耕文明的“體力”、工業時代的“技能”,到AI時代的“智慧”,這場技術革命最終指向的是我們生存方式的躍遷:如何工作、如何決策、如何成為一個更自由的人。· 它給出了具體的行動方案。面對不確定性,我們該學什麼?作者石破天驚地提出了AI時代的五大通識能力模型──研究、統計、邏輯、心理、修辭,為每個學習者、教育者和父母,提供了清晰的學習方向和方法。得到App創始人羅振宇說:“如果你也在問:'當AI開始思考,我們該怎麼辦?'那麼這本書,會給你一個冷靜而深刻的答案。”而這個答案的起點,始於我們如何重構自己的認知方式。在書中,劉嘉教授以AI的進化邏輯為喻,為我們一般人提供了一套極具啟發性的「認知躍遷」心法。以下內容摘編自書中的精彩章節,相信你讀完後,會有一種被「點醒」的感覺。AI時代,我們如何實現認知方式的躍遷?ChatGPT這樣的大模型的成功並非偶然,每一次進化都是從無數被淘汰的演算法中艱難誕生的。在這曲折的探索中,人類智慧無疑是AI頭上的明燈。反過來,大模型的演化經驗,能否成為我們人類認知進化的營養?答案是肯定的。由此,我們或許能破繭成蝶,與AI時代同頻共振,開啟認知與智慧的躍遷。一、為人生定義一個「偉大」的目標函數所有的機器學習,在開始訓練前,都必須先明確一個「目標函數」( Goal Function)。這個函數定義了模型希望達到的理想狀態,訓練的全部意義就在於不斷優化,讓模型越來越接近這個目標。可以說,學習未動,目標先行。人類學習也遵循同樣的道理。如果我們把目標設定為短期、狹隘的目標,如考取某個證書、通過某次考試,那麼這個目標函數的確容易實現。但這就像訓練一個只能解決簡單問題的線性模型,目標稍微複雜或變化,它就毫無用武之地。這在機器學習中被稱為陷入「局部最優」的陷阱。人生的發展亦是如此。在某個階段取得了看似不錯的成就,實際上卻可能限制了後續的發展空間。短期看是目標達成,長期看是機會喪失。人本主義心理學家亞伯拉罕‧馬斯洛的故事極具啟發性。他曾經問過他的學生:> “你們當中,誰將成為偉大的領導者?”> 學生們只是紅著臉,咯咯地笑,不安地蠕動。> 他又問:“你們當中,誰計劃寫一本偉大的心理學著作?”> 學生們結結巴巴地搪塞過去。> 馬斯洛最後問道:“你們難道不想成為一個心理學家嗎?”> 這時,所有學生都回答「想」。> 馬斯洛說:“難道你們想成為平庸的心理學家?這有什麼好處,這不是自我實現。”馬斯洛解釋道,我們其實不只是害怕失敗,也害怕成功。這背後,是與自尊糾纏在一起的自卑:我們對偉大的人事物有一種敬畏感,在面對他們時會感到不安、焦慮甚至敵意,因為他們會讓我們產生自慚形穢的卑微感。於是,當我們試圖獲得榮譽、成功時,還未行動,內心卻產生了「這是真的嗎」「我不行」「我不配」的自我質疑。陌生的陽光,有時如同黑暗一樣可怕。而OpenAI的成功,恰恰源自於一個「偉大」的目標函數。薩姆·奧特曼回憶創業初期時說:> “回想起來,一件非常成功的事情是,我們從一開始就確定了AGI的目標,而當時在業內,你甚至不能談論這個目標,因為它聽起來太瘋狂了,近乎痴人說夢。……我們當時是一群烏合之眾,……但那些真正感興趣的人會說,'讓我們放手一搏吧!'”正是這個看似「不切實際」的目標函數,吸引了最頂尖的人才,最終才有了今天的Open-AI。那麼作為個人,我們的目標函數應該是什麼?在我看來,那就是建構屬於我們自己的、特立獨行的「個人知識體系」。這個體係是我們認知世界的「眼睛」。進入AGI時代,它的重要性被無限放大,因為AI正接管那些標準化的資訊處理任務,唯有基於深層理解、價值判斷和創造性思維的能力,才真正屬於人,且不可替代。不斷擁抱新的經驗、新的知識,更新思維推理鏈,打破認知邊界,就是在建構一個能與世界深度對話、與自我持續共鳴的個人知識體系。用馬斯洛的話說,這才是“奔放的人生”,而不是“枯萎的人生”,因為:“如果你總是想方設法掩蓋自己本有的光輝,那麼你的未來註定暗淡無光。”二、像AI一樣,用「隨機梯度下降」優化人生在機器學習中, 「隨機梯度下降」( Stochastic Gradient Descent)是被廣泛使用的優化演算法。其原理簡單而有效率:它從錯誤中學習,從不確定性中找到確定性。大模型只能從錯誤中學習,人也不例外。錯誤,本質上並非失敗,而是一種推動我們持續更新認知結構、增強適應能力的動力來源。但人是追求獎勵、逃避懲罰的動物,「少犯錯、不犯錯」是我們從小所受教育的核心,所以主動試錯對我們而言知易行難。而隨機梯度下降的智慧,恰好為此提供瞭解決之道。首先,強行起飛,粗糙開始,空中加油。隨機梯度下降的核心魅力之一,在於它能從不確定性中找到確定性。我們不必執著於精確地規劃未來的每一步,那樣反而可能陷入過度分析而遲遲無法行動。我們需要做的,就是找一個大致正確的方向,然後往前走一步。不必在乎當下的這一步是否最優,做時間的朋友,能多走幾步就多走幾步。因為對於梯度下降這件事,起點不重要,終點才重要。家境是否優渥、是不是名校畢業、年齡太大等等,這些都只是起點,而非終點。演算法能保證的是:不管起點在那,只要一直朝著正確的方向走下去,最後得到的解都差不多。所以,堅持走。其次,四處走走(隨機),擁抱不確定性。如果只是沿著熟悉的道路前進,雖然安全,卻可能讓你陷入認知的「局部最優」陷阱。你以為自己理解了整個世界,實則只是固守在一個狹窄的角落。人生需要隨機性的探索,這樣才能發現沒見過的風景。閱讀陌生領域的書籍,與不熟悉的人交談,嘗試未知的可能性,正是利用了隨機性帶來的認知增益。它引領我們遇到新的意外,激發新的學習,推動認知結構的重構。薩姆·奧特曼曾經分享過他的一次「四處走走」的經歷,這段經歷對後來創立OpenAI產生了深遠影響:> 「我在26歲時賣掉了我的初創公司,然後中間空了一年。在那個年代,在矽谷這是很難想像的行為。…但如果你真的可以在兩份工作之間空出一年,我是非常推薦的,我甚至覺得這是我職業生涯裡做得最對的事情。在那一年裡,我讀了很多書,在很多感興趣的領域有所涉……我學到了核子工程知識;AI時代開始了,我學習了關於AI的理論;我學習了生物製造的相關知識。這個種子,最終發芽成長為OpenAI。隨機,不僅是演算法優化的策略,更是我們深入認識世界、走向自我更新的重要方法。三、人生所需不過一份“注意”GPT的T,指的是Transformer,其最核心、最精妙之處就是「注意力機制」( Attention Mechanism)。學習的本質,也是注意力分配的藝術。我們該如何分配寶貴的注意力呢?第一,注意高品質的資料和人。在機器學習領域,有一條第一原理: 「垃圾輸入,垃圾輸出。」( Garbage In, Garbage Out)。再強大的算力,如果輸入的資料品質低下,訓練出的大模型也必然表現糟糕。所以,OpenAI在訓練初期便嚴格把控資料品質,選用了維基百科、經典書籍、科學研究論文等作為認知基座。反觀我們自己。截至2024年6月,中國短片使用者數量達到10.5億,人均每天觀看時長約151分鐘。而閱讀使用者只有一半,人均每天閱讀時長僅23分鐘。AI在學習,人類卻在沉迷。真正與你的注意力門當戶對的,是高品質的資料集和人。進入某個領域前,先精心建構你的資料集:誰是權威?那些書是經典?接著進行深度學習,並與專家或AI互動交流,拓寬認知邊界。第二,注意實例(Case)而非規則( Rule)。過去的AI試圖給機器灌輸規則,例如「如果一個動物有尖耳朵、長鬍鬚,那麼它是貓」。但這樣,狐狸、狼也可能被辨識成貓。而現代AI的做法是,只給它看海量的、各種各樣的貓的圖片,讓神經網絡自己從實例中學習和歸納。前者是“授人以魚”,後者是“授人以漁”。這對於教育和養育極具啟發。孩子的大腦,也如一個剛初始化的大模型。與其告訴他人生大道理,不如給他精選的樣例,讓他透過自己的探索得到答案。孩子在成長中碰到的每一個難題,不妨就看作一次有意義的訓練樣例。父母放棄說教,“給予注意,學會陪伴”,這才是養育的黃金法則。成人也是如此。「紙上得來終覺淺,絕知此事要躬行。」我們從書本學到的道理,如同AI的預訓練模型,但生活真正考驗我們的,是具體情境中的決策。只有在一次次具體的衝突、合作、選擇中,我們才能不斷微調、優化自己「人際交往」、「職業發展」等模組的參數,才不會陷入「懂得了很多道理,依舊過不好這一生」的陷阱。第三,注意也是遺忘。學習的本質,是知識體系的優化。大模型會無差別地記憶所有資訊,而人超越大模型的,正是其獨有的「選擇性遺忘」:有意識地強化重要知識,同時主動遺忘低效甚至有害的資訊。在生活中,我們有時會因過去的失敗、分手或傷害而情緒低落,這些不愉快持續侵佔和消耗著我們的注意力。選擇性遺忘,不是強迫忘記或否認它們,而是承認與接納-承認它們已發生且無法更改,接納它們曾經帶來的傷害,然後,放下情緒上的執著。心理學家卡爾·榮格說:“我們無法改變過去的事實,但我們可以改變看待這些事實的態度。”只有當我們真正接納了痛苦,過去的負面經歷才會與我們握手言和,注意力才會回歸當下,回歸我們所能掌控的事情。我們才能重獲內心的平靜與自由。遺忘,既是告別,也是起航。人類精神的覺醒,始於在虛無中對意義的叩問。當我們的認知觸達凌亂無序虛妄中的原始存在,我們才會從枯燥、重複和紛擾的日常工作生活獲得解脫,獲得那種遠離焦慮、抑鬱、迷茫的平靜與自由。在AGI重構世界的今天,我們每個人都需要重構自己。劉嘉教授的《通用人工智慧》,不僅是一本關於人工智慧的認知地圖,更是一種穿越喧囂技術浪潮的思維方式。它關乎技術,也關乎心智;它直面未來,也照見我們自己。當知識不再稀缺,學習的意義何在?當智能無處不在,智慧的棲身之所又在何處?當工具變成智能體,人的核心價值又該如何彰顯?答案或許就在這本書中,更在我們每個人的認知躍遷之中。 (不懂經)
拜登任內究竟誰在行使總統權力?川普下令調查
美國總統川普周三正式下令調查前總統拜登時期的政府團隊,是否使用了自動簽名筆來代替總統簽署赦免令等重要總統檔案,並有意隱瞞了拜登認知能力下降的情況。在今年早些時候,川普曾聲稱其前任簽署的赦免令是非法的。在周三晚間簽署的一份行政令中,川普要求美國司法部長帕姆-邦迪(Pam Bondi)調查他所聲稱的前總統拜登的助手“濫用總統簽名權,使用自動簽名筆掩蓋拜登認知能力下降”的 “陰謀”。白宮在發佈的聲明中指出,這一陰謀構成了美國歷史上最危險、最令人擔憂的醜聞之一。美國公眾被刻意隱瞞,無法得知究竟是誰掌握著行政權力,而與此同時,拜登的簽名卻被印在數千份檔案上,以促成重大的政策轉變。該行政令列舉了拜登任期內的一連序列政行為,包括赦免囚犯和對聯邦法官的任命,並認為“相關決策過程甚至拜登對以其名義採取的這些行動的瞭解程度,都存在嚴重疑問”。行政令指出,拜登擔任總統期間的認知問題和明顯的精神衰退在私下表現得更加“糟糕”,而他身邊最親近的人也“試圖向公眾隱瞞”。為此,拜登在任期間的顧問嚴格限制他參加新聞發佈會和媒體露面,並精心安排他與議員、政府官員和捐贈者的談話,所有這些都是為了掩蓋他無法履行職責的事實。聲明稱,儘管這些問題有據可查,但白宮在拜登任期內仍發佈了1200多份總統檔案,任命了235名聯邦法官,並頒布了比美國歷史上任何一屆政府都多的赦免和減刑令。例如,就在2024年聖誕節前兩天,白宮宣佈拜登為聯邦死囚牢房中40名最邪惡、最殘暴的罪犯中的37人減刑,其中包括幾名殺害兒童的凶手和大規模殺人犯。行政令中還提到,鑑於拜登總統明顯缺乏行使總統職權的能力,如果他的顧問暗中使用機械簽名筆掩蓋其能力喪失,同時又以他的名義採取激進的行政行動,則構成違憲行使總統權力,這種情況將對以拜登名義採取的眾多行政行動的合法性和有效性產生影響。川普認為,美國人應該知道拜登本人是否簽署了這些檔案,如果沒有,是誰簽署的,以及在什麼情況下籤署的。值得一提的是,過去幾十年來,歷任美國總統都經常會使用自動簽名筆來簽署某些檔案,美國司法部曾在2005年表示,總統可以合法地使用自動簽名筆來簽署法案,使其成為法律。川普今年3月時也曾提到,他偶爾會使用自動簽名筆,但 “只用於非常不重要的檔案”。但川普及其盟友認為,拜登在認知能力下降情況下所謂的使用自動簽名筆,可能是不合法的。最近幾周,隨著有關拜登退出2024年總統競選情況的新報導不斷湧現,對拜登在任期間的認知能力的質疑也愈演愈烈。周三早些時候,眾議院監督委員會共和黨主席、肯塔基州眾議員James Comer就敦促拜登的幾位核心圈子成員,回答有關總統在執政期間 “精神和身體機能 ”的問題。 (財聯社)