#深度思考
DeepSeek神秘操作!R1突然消失,R2要來了?
昨天DeepSeek又搞神秘操作了!這家讓矽谷巨頭夜不能寐的中國AI公司,悄悄在微信群裡發佈了V3.1更新,但更詭異的是——R1推理模型的標識突然從聊天介面消失了!😱V3.1的升級挺實在:上下文窗口直接拉到128K,相當於能"記住"300頁書的內容,聊天體驗更絲滑。但問題來了,為何官方X帳號和其他社交媒體都沒發聲?只在微信群裡低調宣佈?更讓人好奇的是,DeepSeek悄悄把聊天機器人的"深度思考"功能裡的R1標識刪了個乾淨!要知道,R1可是今年1月震驚全球的推理模型,直接引爆了中國開源AI浪潮。現在突然"消失",這是要幹什麼大事?💡業內人士猜測紛紛:要麼是R2推理模型即將登場,要麼是DeepSeek在整合產品線,把所有能力統一到一個超級模型裡。畢竟,這家由量化交易大佬梁文鋒創立的公司,向來喜歡"不鳴則已,一鳴驚人"。從去年12月的V3到今年1月的R1,DeepSeek每次出手都能掀起行業地震。現在這波神秘操作,感覺暴風雨前的寧靜啊!🚀想想也是,當全世界都在關注你的一舉一動時,任何小動作都能引發無限遐想。DeepSeek這招"欲語還休",吊足了所有人的胃口!你覺得DeepSeek這次是在憋什麼大招?R2會比R1更炸裂嗎?快留言說說你的猜測,或者轉發讓更多AI迷一起圍觀這場懸疑劇! (澤問科技)
不用等R2了!第三方給新版DeepSeek V3加入深度思考,推理101秒破解7米甘蔗過2米門
DeepSeek即將發佈R2??坊間傳聞越來越多了,且難辨真假。1.2T兆參數,5.2PB訓練資料,高效利用華為晶片……只能說如果有一半是真的都很牛了。HuggingFace創始人此時推薦“以不變應萬變”,打開官方認證帳號的更新提醒,就能第一時間獲取通知。拋開具體洩露資料是否精準,大家似乎有一個共識:如果真的有R2,它的基礎模型會是新版DeepSeek V3-0324。之所以有很多人相信R2會在4月底發佈,有一部分原因也是出於R1與V3之間相隔了一個月左右。現在,等不及DeepSeek官方,開源社區已經開始自己動手給V3-0324加入深度思考了。新模型DeepSeek-R1T-Chimera,能力與原版R1相當,但速度更快,輸出token減少40%,也是基於MIT協議開放權重。相當於擁有接近R1的能力和接近V3-0324的速度,結合了兩者的優點。而且做到這一點,不是靠微調或蒸餾,而是DeepSeek V3-0324和R1兩個模型融合而成。R1+V3融合模型新模型R1T-Chimera並非DeepSeek官方出品,而是來自德國團隊TNG Technology Consulting。該團隊此前也探索過可調專家混合(MoTE)方法, 讓DeepSeek-R1在推理部署時可以改變行為。新的R1T-Chimera模型權重可在HuggingFace下載,也可以在OpenRouter免費線上試玩。目前已知是選用了V3-0324的共享專家+R1與V3-0324的路由專家的混合體融合而來。TNG團隊表示最終結果令人驚訝,不僅沒有表現出融合模型的缺陷,相反,思考過程還比原版R1更緊湊有序。暫沒有技術報告或更詳細的模型融合方法公佈,要驗證它是否符合描述,就只能拉出來試一試了。我們選用最新折磨AI的難題“7米長的甘蔗如何通過2米高1米寬的門?”。原版R1思考了13秒就下了結論;R1T Chimera在這裡卻足足思考了101秒,最終計算出可以通過。雖然還是無法像人類一樣直觀的理解三維空間,讓甘蔗與門的平面垂直就可通過,但依然通過計算夾角與投影得出了結論。在這100秒時間裡R1T-Chimera如何一步步思考出答案呢?展開推理token可以發現,在簡單計算二維方案不可行後,它就已經想到了三維方案。後面依然陷入了各種誤區,在旋轉甘蔗、彎曲甘蔗、計算“門的厚度”上走了彎路。最終通過“揣摩出題人心理”走進正確的路線。最終給出的答案非常嚴謹了。雖然人類直覺上就能想出把甘蔗垂直起來通過這個方法,但仔細一想,題目中確實沒有給出“門後有多少空間這個條件”。細還是AI細。關於R1T-Chimera的更多細節,大家還在等TNG團隊消息和更多第三方基準測試結果。不過也有人注意到,KIMI K1.5技術報告中也探索了模型融合方法。不過在實驗中,這種簡單融合方法表現並不如這篇論文中提出的Long2short強化學習方法。另一個在模型融合上有經驗的團隊是Transformer作者Llion Jones創辦的Sakana AI。早在24年初就結合進化演算法提出以block為單位融合的方法。隨著更多團隊跟進這一路線,模型融合會不會成為2025年大模型的一大技術趨勢呢? (量子位)
AI時代,唯一的競爭力是深度思考的能力
在人工智慧迅猛發展的時代,AI大模型已成為推動科技進步與社會變革的核心力量。回顧AI大模型的發展史,不難發現,AI正逐漸從“快思考”轉變為“慢思考”。1980年代,AI是主要依靠規則基礎的專家系統。例如,醫療診斷系統依據預定義規則——咳嗽是感冒、起皮疹是過敏,這樣的簡單邏輯判斷病人病症。雖能快速處理資訊,但缺乏靈活性與適應性,無法進行深層次思考推理,也不具備學習能力。進入21世紀,伴隨計算能力提升和資料量增加,機器學習興起。以垃圾郵件過濾器為例,AI通過演算法從大量郵件資料中學習,能夠識別郵件類型並進行預測。此階段AI仍以快速處理為主,且逐漸引入如神經網路等複雜模型,可進行更深入的分析與理解。與此同時,美國認知心理學家、諾貝爾經濟學獎得主丹尼爾・卡尼曼的研究成果,也為AI大模型的發展帶來了新的思路和方向。他首次採用了由心理學家基思·斯坦諾維奇和理查德·韋斯特首創的術語,在他的經典著作《思考,快與慢》中,將大腦中的兩個系統稱為系統1和系統 2,也就是快思考與慢思考。一、卡尼曼的研究成果如何促進 AI 大模型發展丹尼爾·卡尼曼教授認為,對於人腦來說,快思考自動且快速地運行,基本無須費力;而慢思考需要將注意力分配給所需的燒腦活動,需要經過深度思考與複雜的計算。也就是說,快思考是一種生物本能的反應,而慢思考,則是人腦真正的深度思考。系統1自動運作產生思維模式,但只有速度較慢的系統2 能通過有序的步驟建構思想。你可以將這兩個系統看成兩個主體,它們有著不同的能力、侷限和功能。以下是系統 1 自動運作的例子(大致按複雜程度排序):感覺某一物體比另一物體離得更遠。從聲音中覺察敵意閱讀廣告牌上的內容上述思維活動都是自發的,運作起來不費什麼力氣,或者說毫不費力。系統 1的能力包括人和動物共有的某些先天技能,以及一些因長期練習變得快速且自動化的思維活動。系統2的運作五花八門,但有一個共同特點:都需要集中注意力,注意力一旦分散,運作就隨之中斷。下面是一些例子:在擁擠嘈雜的房間裡,注意某人的聲音比較兩款洗衣機的綜合價值檢驗某個複雜的邏輯論證的有效性在上述情境中,你必須集中注意力。你如果沒做好準備,或者注意力分散,就會表現欠佳,或者根本沒法執行任務。在此基礎上,AI大模型的發展也向著慢思考轉變。大型神經網路(如 GPT 和 BERT等模型)能夠處理複雜的語言理解和生成任務。這些模型不僅能夠快速生成響應,還能夠進行更深層次的推理和理解,具備了更接近人類的思考能力。這一階段的 AI 開始關注上下文、情感和邏輯推理,使得其在決策和創造性任務中表現得更加成熟。特斯拉前AI總監、OpenAI創始成員Karpathy曾明確指出,卡尼曼的雙系統理論,正是ChatGPT思維鏈技術背後所依據的核心原理。卡尼曼教授的理論為思維鏈、大模型訓練和微調等關鍵技術的發展提供了重要啟示。以 Deepseek R1 和o1為例,它們借助 “思維鏈推理”,在處理複雜問題時能夠進行系統化決策和分析。這一過程不再單純依賴內建模型權重,而是基於邏輯推導、因果關係分析和情境理解等多維度因素,形成更為精準的答案。360AI 深度搜尋功能的慢思考模式,也是借鑑了卡尼曼的理論。它在執行階段會呼叫多個大模型,模擬人類的思考過程,經過意圖識別、蒐集、反思、推理等多個步驟,為使用者提供更準確的資訊。卡尼曼的前景理論和啟髮式與偏差理論,也有助於AI大模型最佳化決策過程。前景理論指出人類在決策時關注收益和損失,且存在損失厭噁心理。AI 大模型可以將這一理論融入演算法設計,更好地模擬人類決策行為,提高決策的精準性和實用性,幫助“絕對理性的AI”更好地理解“相對理性的人類”。啟髮式與偏差理論揭示了人類思維中容易出現的認知偏差,AI 大模型可以通過學習這些偏差,在決策過程中進行修正和最佳化,避免因偏差導致的錯誤決策。二、AI慢了下來人類快了起來但在當今資訊碎片化和爆炸式增長的時代背景下,人類的認知模式正經歷著深刻的轉變。為了在海量資訊中迅速捕捉有用內容,人們越來越傾向於採用淺層次的瀏覽方式,短影片、圖文資訊、碎片化新聞……這種追求速度和效率的資訊獲取模式,使我們的思維逐漸變得浮躁,深度思考能力在不知不覺中不斷弱化。與之相反,AI 大模型通過不斷最佳化演算法和學習機制,逐漸掌握了類似於人類“慢思考” 的能力。它能夠對複雜問題進行系統性的分析和推理,從多個角度審視問題,挖掘問題的本質,進而給出全面而深入的解決方案。當 AI 開始以沉穩、深入的方式處理資訊時,人類卻在快節奏的資訊漩渦中失去了深度思考的耐心和能力。與此同時,隨著人工智慧技術的飛速發展,AI 生成的內容越來越逼真,這為詐騙分子提供了新的作案手段。AI 可以生成逼真的圖片、視訊和聲音,使得詐騙行為更加難以識別。① 在圖片方面,利用深度學習中的生成對抗網路(GAN)和擴散模型(DiffusionModel),AI 能夠生成以假亂真的圖像。這些圖片可以用於偽造名人代言廣告、製作虛假的產品圖片等,誤導消費者進行購買或投資。② 在網際網路上,越來越多的商家靠 AI生成圖片來取代人類攝影師拍攝的真實產品圖。AI生成的圖片更加完美,製作成本也更加低廉,但往往 “貨不對板”。③ 在視訊領域,“AI 換臉”技術成為侵權違法的重災區。詐騙分子通過非法獲取的人臉照片,利用開源 AI 工具生成逼真的虛擬形象。此前內蒙古警方破獲的一起 AI 換臉詐騙案中,福建某科技公司老闆郭先生在視訊通話中目睹“好友” 面容,10分鐘內被騙轉帳430萬元,事後發現對方竟是 AI 換臉與擬聲技術合成的 “數字替身”。④ 聲音合成也是 AI 詐騙的常用手段之一。只需幾秒語音,就能克隆聲音,犯罪分子可以模仿他人聲音進行詐騙。在快思考模式下,我們的大腦往往依賴直覺和經驗來做出判斷,而 AI 生成的新型詐騙正是利用了這一點。系統1的快速反應機制使我們更容易受到表面資訊的影響。當我們看到一張逼真的圖片、一段生動的視訊或聽到熟悉的聲音時,我們的大腦會迅速做出反應,而不會進行深入地思考和分析。例如,當我們收到一段來自“好友”的求助視訊,看到好友焦急的面容和聽到懇切的聲音時,我們很可能會出於同情和信任,不假思索地進行轉帳,而忽略了核實資訊的真實性。此外,快思考模式下我們的注意力容易分散,難以對複雜的資訊進行全面的評估。詐騙分子往往會利用一些緊急的情境或誘人的利益來吸引我們的注意力,使我們在慌亂中做出錯誤的決策。比如,詐騙分子以中獎為由,要求我們先繳納手續費才能領取獎金,我們可能會因為貪圖獎品而忽略了其中的風險。三、慢下來找回深度思考的能力面對著 AI 生成新型詐騙的以假亂真,唯有提高警惕意識,找回慢思考的能力,才能在當今複雜的資訊環境中保持清醒的頭腦。1.借助 AI 輔助慢思考在麻省理工學院電腦科學與人工智慧實驗室主任、世界頂級的機器人專家丹妮拉·魯斯的新書《心與芯》中,她認為:“人工智慧只是人類更趁手的錘子”,只要正確利用,人類永遠不會被AI取代,反而會造福人類社會。而在資訊爆炸的時代,AI 在資訊處理和資料分析方面具有強大的能力,能夠快速從海量資料中提取關鍵資訊,為我們提供決策依據。當我們需要做出重要決策時,可以利用 AI 工具收集和分析相關資訊,然後再啟動慢思考,對這些資訊進行深入思考和評估,從而做出更明智的決策。2.利用 AI 提升自我認知在《思考,快與慢》中,丹尼爾·卡尼曼教授指出,我們的思維容易受到各種偏差的影響,導致對自己和周圍世界的認知出現偏差。AI可以通過分析我們的行為資料、語言表達等,幫助我們發現自己的思維模式和認知偏差。正如網際網路上流行的AI角色扮演一樣,AI 的心理諮詢功能也可以通過與我們的對話,分析我們的情緒狀態和思維方式,發現潛在的認知偏差,並提供相應的建議和訓練,幫助我們提升自我認知,減少因認知偏差而產生的焦慮。迷茫焦慮的時候,不妨與你的專屬AI聊聊。3.培養慢思考習慣,與 AI 形成互補雖然 AI 具有強大的能力與算力,但它無法完全替代人類的思考和情感。人腦的慢思考的習慣,永遠比AI更具有創造性、判斷力和情感理解能力,與 AI 的優勢形成互補。人類的大腦遠比我們以為的精巧,它也賦予了人類無與倫比的創造力,能夠從複雜多變的環境中挖掘出新穎獨特的想法。我們人類獨有的情感理解能力,能夠感知他人的情緒,建立深厚的情感聯結,給予溫暖的關懷與支援。這些能力與 AI 的高效性、精準性形成互補,共同構築了快與慢的平衡。結語AI大模型從“快思考”向“慢思考”的轉變,得益於丹尼爾·卡尼曼的“雙系統理論”。AI通過模仿人類的慢思考模式,在決策、推理和創造性任務中表現得更加成熟。然而,與此同時,人類卻迷失在資訊碎片化和快節奏的生活裡,逐漸失去了深度思考的耐心和能力。在人工智慧與演算法主導的時代,丹尼爾·卡尼曼的忠告愈發振聾發聵:“思維的速度並不代表質量。”他的著作《思考,快與慢》始終在提醒我們——唯有在快與慢的平衡中,方能逼近真相。人類需要重新找回慢思考的能力,在資訊爆炸的時代保持清醒的頭腦。AI無法完全替代人類的創造力、判斷力和情感理解能力,而這些能力正是人類與AI形成互補的關鍵。唯有慢下來,人類才能與AI實現互補共生,在複雜的資訊環境中保持理性與創造力。 (筆記俠)