#技術
3D NAND告別“層數競賽”?未來要靠四大關鍵技術
回顧3D NAND的發展歷程,其技術演進脈絡清晰可見。從2015-2017年的早期階段(32L-64L),到2018-2020年的規模擴張期(96L-128L),再到2020-2022年的性能擴展期(176L-232L),行業的核心驅動力一直是“增加層數”,以降低成本並提升密度。然而,當技術節點進入2023-2025年的架構轉型期(約250L-320L)並展望2026年及以後的整合時代(400L-500L+)時,物理極限的挑戰日益凸顯。單純的層數堆疊正變得愈發困難且成本高昂。因此,創新的重心發生了根本性轉移。未來的競爭不再僅僅關乎“誰堆得更高”,而是“誰做得更聰明”,包括採用更智能的架構、深化系統整合以及在系統層面進行最佳化,以應對人工智慧、雲端運算和海量資料儲存帶來的爆炸性需求。核心技術驅動力:重新定義“縮放”的內涵在新的時代背景下,“縮放”(Scaling)不再等同於“增加層數”,而是由四大關鍵技術共同驅動:混合鍵合(Hybrid Bonding):這項被譽為“晶圓對晶圓”的技術,將儲存陣列和CMOS邏輯電路分別製造在不同的晶圓上,再進行原子等級的鍵合。這不僅實現了更高的密度和更好的性能,還提升了良率。三星、YMTC等廠商已在其技術路線圖中明確採用此技術。外圍電路置於單元下方(COP):通過將外圍電路移動到儲存陣列的下方或旁邊,可以顯著減小晶片尺寸,並為在200層以上繼續提升擴展效率提供了可能。鎧俠(Kioxia)是此技術的早期採用者。介面與平行性擴展:介面速度正從當前的1,600 MT/s向未來的2,000+ MT/s邁進。同時,通過多平面(Multi-plane)和子平面(Sub-plane)等架構,大幅提升了資料吞吐的平行性。先進刻蝕與工藝創新:製造超過300層的結構,對高深寬比(HAR)刻蝕技術提出了極高要求。低溫刻蝕和新材料的應用,成為保證結構均勻性和提升良率的關鍵。應用驅動分化:TLC與QLC的戰略分道揚鑣隨著應用場景的日益多元化,NAND快閃記憶體技術也呈現出明顯的戰略分化。TLC(三級單元)和QLC(四級單元)正走向不同的發展道路:TLC(性能層):憑藉其在性能、耐久性(中-高)和成本之間的良好平衡,TLC成為對性能要求苛刻場景的首選。其主要應用包括人工智慧(AI)、高性能計算(HPC)、企業級儲存和主流客戶端裝置。QLC(容量層):QLC以犧牲部分性能和耐久性(低)為代價,實現了最低的每位元成本和最高的儲存密度。這使其成為超大規模資料中心、雲端儲存、冷資料歸檔等容量密集型應用的“明確贏家”。未來,儲存也不再是通用性產品,會根據市場做進一步細分。巨頭競速:五大廠商的差異化戰略面對行業變局,全球主要NAND製造商也制定了各具特色的競爭策略:三星:採取“整合+COP”的組合策略,並穩步推進向混合鍵合的過渡,其下一代產品將採用286L的V9 COP技術。鎧俠/威騰電子:堅持其獨有的BiCS技術路線,並較早地採用了CBA(類似COP)架構,下一代產品將推進至218L。美光:以“快速節點跳躍+激進擴展”為策略,計畫在下一代直接跳過400L+世代。SK海力士:專注於“深度垂直擴展”,其4D PUC(類似COP)架構是其核心競爭力,下一代將推出321L產品。長江存儲:以其“架構顛覆”的Xtacking技術聞名,通過晶圓鍵合實現了儲存單元和外圍電路的獨立最佳化,未來規劃指向300L+的多層Xtacking技術。 (銳芯聞)
台積電要小心? 傳英特爾先進封裝良率衝到90%了
台積電先進封裝CoWoS 產能供不應求,英特爾提供的 EMIB封裝技術正受到關注。 外媒指出,英特爾的關鍵EMIB技術實現驚人的良率,良率達90%,顯示其已準備好在即將到來的AI資料中心晶片中得到應用。科技媒體《Wccftech》報導,英特爾EMIB封裝技術被視為台積電CoWoS的替代方案。 英特爾的先進封裝技術將被Google用於其下一代TPU晶片,輝達也將其用於其下一代Feynman晶片。 GF證券科技研究部的分析師Jeff Pu分享他對EMIB項目進展的一些見解,初步印象非常好。Jeff Pu透露,英特爾的EMIB良率已達到90%,這對該公司的晶圓代工業務來說無疑是個好消息,也解釋了為何目前外界對英特爾晶圓代工充滿信心。 Meta也是EMIB的客戶之一,不過雙方的合作計畫是圍繞著2028年底推出的CPU展開,還需要一段時間才能獲得更多相關資訊。同時,英特爾並未停止宣傳其EMIB技術的優勢,強調EMIB的許多優點,包括:提高良率、降低功耗、降低成本,以及使更大規模的「混合節點」系統成為現實。報導說,目前EMIB技術主要有兩種:EMIB-M和EMIB-T。 EMIB-M橋接電路的設計旨在提高效率,其矽橋接電路中採用MIM電容,通過最大程度地降低噪聲來增強功率傳輸和電路完整性。 雖然MIM電容的成本略高於金屬-氧化物-金屬(MOM)電容,但它具有更高的穩定性和更低的漏電。 (大話晶片)
DeepSeek-V4技術報告暗藏的10個神級彩蛋,“煉丹玄學”也被寫進論文
DeepSeek在“省錢”和“省資源”上達到了變態的程度。DeepSeek-V4總算來了。4月24日,DeepSeek官方帳號發佈了一篇名為《DeepSeek-V4 預覽版:邁入百萬上下文普惠時代》的文章。文章中正式宣佈,“全新系列模型 DeepSeek-V4 的預覽版本正式上線並同步開源。”同時,還介紹:DeepSeek-V4 擁有百萬字超長上下文,在 Agent 能力、世界知識和推理性能上均實現國內與開源領域的領先。模型按大小分為兩個版本:發佈後,測評、討論已非常充分,不再贅述。盒飯財經關注到,DeepSeek同步發佈了一篇關於DeepSeek-V4 技術報告。地址如下:https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf這份名為《DeepSeek-V4:Towards Highly Efficient Million-Token Context Intelligence》的技術報告,共55頁,從架構、通用基礎設施、預訓練、訓練後等6個部分介紹了V4。而這份高度專業的技術報告中,隱藏了10個有意思的小彩蛋。彩蛋一:“Think Max”模式,絕不允許走捷徑的“壓榨”指令位置:第30頁,Table 3原文為:Reasoning Effort: Absolute maximum with no shortcuts permitted. You MUST be very thorough in your thinking... rigorously stress-testing your logic against all potential paths, edge cases, and adversarial scenarios.翻譯過來,大概的意思就是:推理投入度:絕對最大化,不容許任何捷徑。你的思考必須極其徹底,全面拆解問題以觸及根本原因,並針對所有可能的路徑、邊緣案例及對抗性場景,對你的邏輯進行嚴苛的壓力測試。要明確寫出完整的深思過程,記錄每一個中間步驟、考慮過的替代方案以及被否決的假設,確保絕對沒有任何未經審視的預設。這段話是模型開啟 Think Max(極致思考模式)時,後台偷偷塞給大模型的“系統提示詞(System Prompt)”。寫得極具壓迫感,像是一個嚴厲的導師在逼學生榨乾腦力,不準有任何偷懶。DeepSeek為其式設定了一套極為嚴苛的系統提示詞。用詞極具壓迫感,還全部使用了絕對祈使句:“絕對最大化”“不許走捷徑”“必須徹底”“嚴酷地壓力測試”“不放過任何一個假設”。它還顯式地命令模型“禁止走捷徑”,要求記錄每一個被拒絕的假設和中間步驟。通過這種極度嚴厲的工程化Prompt,榨乾大模型在 1M Context(百萬上下文)裡的算力去驗證程式碼和邏輯錯誤。這就像是給模型戴上了“邏輯緊箍咒”,確保在處理複雜邏輯或程式碼時,模型不會因為追求速度而忽略細節。彩蛋二:給硬體廠商的“公開信”:別瞎忙活頻寬了位置:第16頁,Section 3.1原文為:Once bandwidth meets this threshold, it ceases to be the bottleneck, and devoting additional silicon area to further bandwidth brings diminishing returns. We encourage future hardware designs to target such balance points rather than scale bandwidth unconditionally.意思是:一旦頻寬達到該閾值,便不再是瓶頸,此時將更多的晶片面積用於進一步提升頻寬,會帶來邊際收益遞減。我們鼓勵未來的硬體設計瞄準這樣的平衡點,而非一味地無條件擴展頻寬。DeepSeek在報告中反客為主,給輝達和華為等硬體廠商開出了“方子”。體面表達了他們在硬體方面的觀點:盲目提升頻寬對現在的AI訓練效率提升有限,建議廠商把晶片面積留給更能提高計算通訊比的地方。彩蛋三:極致效率,1M長度下僅需V3.2的10%快取位置:摘要,Abstract原文:In the one-million-token context setting, DeepSeekV4-Pro requires only 27% of single-token inference FLOPs and 10% of KV cache compared with DeepSeek-V3.2.意思是:在百萬級token上下文設定下,與DeepSeek-V3.2相比,DeepSeek-V4-Pro僅需其27%的單token推理FLOPs,以及10%的KV快取。DeepSeek在“省錢”和“省資源”上達到了變態的程度。通過 CSA(壓縮稀疏注意力)和 HCA(重度壓縮注意力)技術,它在處理100萬字的長文字時,佔用的記憶體竟然只有前代版本的十分之一。這意味著未來個人電腦甚至手機運行百萬超長文字分析將成為可能。彩蛋四:坦誠的“煉丹玄學”:知其然不知其所以然位置:第26頁,Section 4.2.3原文為:Although a comprehensive theoretical understanding of their underlying mechanisms remains an open question for now, we are sharing them openly to foster further exploration by the community.意思是:儘管目前對其底層機制的全面理論理解仍是一個懸而未決的問題,但我們將其公開分享,以推動社區的進一步探索。在Mitigating Training Instability 緩解訓練不穩定性章節中,DeepSeek團隊分享了兩個解決兆參數模型訓練崩潰的獨門絕技,Anticipatory Routing和SwiGLU Clamping。技術報告中,他們也非常耿直地承認:這種“雖然我不知道原理是啥,但它跑起來確實有用,大家拿去用吧”的坦誠,可以說是AI煉丹界的真實寫照了,非常有開源精神。彩蛋五:“快指令”(Quick Instruction)特供Token位置:第33頁,Table 5<|action|> (判斷是否搜網), <|title|> (生成標題), <|query|> (生成搜尋詞)。為了讓Chatbot響應更快,DeepSeek在模型內部植入了一系列專用Token“暗號”。V4之所以能這麼快,是因為它直接復用了已經算好的長文字 KV Cache(快取)。不用像以前那樣把幾十萬字重新喂給另一個小模型去判斷,從而徹底消除了“冗餘的預填充(redundant prefilling)”,這樣使用者的等待時間就能大幅縮短。彩蛋六:Codeforces全球排名第23位位置:第39頁,Section 5.3.2原文為:On the Codeforces leaderboard, DeepSeek-V4-Pro-Max currently ranks 23rd among human candidates.這句話的意思是,在 Codeforces 排行榜上,DeepSeek-V4-Pro-Max 當前在人類參賽者中位列第23名。這個“彩蛋”極具含金量。在純人類參與的全球頂級程式設計競賽Codeforces排名中,DeepSeek-V4的預估分值(3206分)足以排到全球第23名。這意味著它已經超越了絕大多數頂級程式設計師,進入了人類程式設計智力的最頂端一小撮。彩蛋七:內部“員工大調查”,52%的人已離不開它位置:第44頁,Section 5.4.4原文為:In a survey asking DeepSeek developers and researchers (𝑁= 85) — all with experience of using DeepSeek-V4-Pro for agentic coding in their daily work— whether DeepSeek-V4-Pro is ready to serve as their default and primary coding model compared to other frontier models, 52% said yes, 39% leaned toward yes, and fewer than 9% said no.翻譯過來是:在一項面向DeepSeek開發者和研究人員的調查(N=85)中,這些受訪者均有在日常工作中使用DeepSeek-V4-Pro進行智能體編碼的經驗。當被問及與其他前沿模型相比,DeepSeek-V4-Pro是否已準備好成為他們默認且主要的程式設計模型時,52%給出了肯定回答,39%傾向於肯定,而表示否定的不足9%。DeepSeek非常罕見地公開了公司內部85名頂尖研究員的真實反饋。超過一半的DeepSeek內部核心人員已經將其作為日常首選程式設計工具。這種“吃自己的狗糧”的行為比跑分資料更能說明模型在實際生產中的情況。彩蛋八:內部員工的真實“吐槽”被寫進技術報告位置:第44頁,Section 5.4.4原文:Respondents find DeepSeek-V4-Pro to deliver satisfactory results across most tasks, but note trivial mistakes, misinterpretation of vague prompts, and occasional over-thinking.翻譯過來就是:受訪者認為DeepSeek-V4-Pro在大多數任務上都能給出令人滿意的結果,但也指出它存在一些細小的錯誤、對模糊提示的理解偏差,以及偶爾的過度思考。這句話緊挨著上一條“內部員工調查”的彩蛋,DeepSeek選擇把內部員工的吐槽也寫了進去。彩蛋九:親民的“中國特色”評測題位置:第43頁,Figure 13為了展示模型在複雜長文字白領工作中的能力,DeepSeek放出的示例任務非常親民。“寫一份某知名奶茶品牌與北京地鐵的聯名行銷策劃”“UGC傳播與社交裂變設計”,比起國外大模型測寫全英文的莎士比亞詩歌,DeepSeek的評測題真的很懂國內打工人的日常PPT需求。彩蛋十:致謝名單裡的神秘測試Dolly Deng位置:第55頁,附錄 A.2 致謝部分附錄 A.2 致謝(Acknowledgment)部分,除了全體作者外,團隊特別單獨點名感謝了一位非作者人士:“We would like to thank Dolly Deng and other testers for their valuable suggestions and feedback...”翻譯過來就是,我們要感謝 Dolly Deng 及其他測試人員,就DeepSeek-V4系列模型的能力所提出的寶貴建議與反饋。能在這樣一份AI基礎模型技術報告中被單獨拎出來感謝的測試(或外部反饋者),不知道他在V4內測期間提交了怎樣關鍵的Bug或改進建議。 (盒飯財經)
巴倫周刊—技術分析:高通準備好迎來黃金時段了嗎?
高通股價在落後於半導體類股一段時間後正逐漸獲得上行動能,技術面訊號顯示其可能即將實現突破。要點:高通正不斷擴展業務範疇,從智慧型手機領域延伸至汽車、物聯網和AI領域,顯示出其多元化的增長勢頭。在發佈利多財報後,高通股價上漲12%,正尋求連續四周保持漲勢,到2027年初可能上漲43%至265美元。技術分析顯示出現了一些看漲訊號,如RSI指標出現背離以及島形反轉形態,表明市場存在強勁的上行勢頭。在當下愈發由互連、算力、邊緣智能主導的市場格局中,高通正重新確立自己作為下一波科技增長浪潮核心推動者的地位。長期以來,外界主要從智慧型手機的角度看待高通,如今這家公司正展現出更廣闊的盈利潛力,業務覆蓋汽車、物聯網及各類AI 應用領域。隨著多個終端市場趨於穩定、新的收入來源逐步獲得市場認可,相關敘事正從周期性復甦轉向結構性擴張,使高通成為一個比市場以往定價所反映的更具韌性、也更加多元化的增長故事。坦率地說,在整體走強的半導體類股中,高通此前一直表現落後。但當前盤面形態預示,該股有望跟上類股普漲行情。當然,iShares半導體ETF近期錄得連續18個交易日上漲,創下該基金自2021年成立以來最長的連漲紀錄。截至周四盤面,高通年內仍累計下跌8%,但現在將獲得一些順風助力。同行輝達和恩智浦半導體(NXPI)最近走勢不錯:輝達在雙底形態中突破了200美元關口;而NXPI在一份令人振奮的財報發佈後大漲逾25%,創下其自2010年以來的最大單日漲幅。從日線圖來看,該股形成相對強弱指標(RSI)看漲背離:在2月和4月,股價創出新低,但RSI指標低點同步抬高。這表明即便股價繼續走低,下行動能也在減弱。(Barrons巴倫)
DeepSeek連夜刪掉的新論文,到底說了什麼
昨晚 DeepSeek 多模態研究員陳小康在 X 上發了一條推,並公佈了DeepSeek 關於多模態技術的新論文《Thinking with Visual Primitives》,表示「Excited to release」。今天一早,推文刪了,GitHub 上的論文也撤了。但 APPSO 在它消失之前把全文讀完了。讀完之後覺得,這篇論文被撤可能不是因為內容有問題。恰恰相反,它可能透露了太多了。前天我們剛實測完 DeepSeek 的識圖模式,讓它數手指,它思考了一通,自己吐槽「我真的是數暈了」,然後答錯了。當時以為是灰測階段的小問題。這篇論文告訴我們,數手指數暈這件事,背後藏著一個 GPT、Claude、Gemini 集體沒解好的技術瓶頸。而 DeepSeek 給出的解法,說出來幾乎有點可笑的樸素:給 AI 裝一根手指。陳小康在那條推文裡寫道:「Traditional CoT stays in the linguistic space, but visual reasoning needs more. By using points and boxes as cognitive anchors, our model bridges the Reference Gap—mimicking the "point-to-reason" synergy humans use.」「傳統的思維鏈停留在語言空間裡,但視覺推理需要更多。通過使用點和框作為認知錨點,我們的模型彌合了「引用鴻溝」,模擬了人類「邊指邊想」的協同機制。」看得清和指得準,是兩回事目前所有多模態大模型做圖像推理,本質都是把看到的畫面轉化成文字,然後在文字空間裡做思維鏈推理。GPT-5.4、Claude-Sonnet-4.6、Gemini-3-Flash,全是這個路子。過去兩年,OpenAI、Google、Anthropic 的改進方向集中在一個問題:怎麼讓模型看得更清楚。高解析度裁切、動態分塊、把圖片放大再塞進去。DeepSeek 管這個叫 Perception Gap,感知鴻溝。但這篇論文指出了另一個瓶頸:Reference Gap,引用鴻溝。模型看清了,但在推理過程中沒法精確指向圖中的某個東西。你可以這樣理解:一張圖裡 25 個人密密麻麻站在一起,你用語言去描述「左邊第三排穿藍色球衣那個人旁邊的那個」,描述本身就是模糊的。模型數著數著就丟了上下文,忘了剛才數到誰。人類怎麼解決這個問題?夠原始的:伸出手指,指一個數一個。284B 參數的模型,裝上了一根手指DeepSeek 的方案:讓模型在思考過程中直接輸出圖片上的坐標。想像一下,模型看到一張圖裡有很多人,它的思維鏈不再是「我看到左邊有個穿藍衣服的人」,而是「我看到這個人」然後附上一個框的坐標,把人圈出來。每數一個人就圈一個框,圈完之後數框的數量就行了。兩種坐標格式:一種是框(bounding box),畫個矩形把物體圈住,適合標定物體位置;一種是點(point),在圖上戳一個位置,適合追蹤路徑和走迷宮。DeepSeek 管這兩種東西叫「視覺原語」,最小的思維單元。關鍵變化在這裡:以前模型輸出坐標是作為最終答案(「目標在這裡」),現在坐標嵌入了思考過程本身。坐標是草稿紙上的標記,不是答捲上的答案。把一張圖壓縮 7056 倍,然後還能數清楚裡面有幾個人模型底座是 DeepSeek-V4-Flash,一個 284B 參數的 MoE 模型。MoE 的意思是:模型腦子很大,但每次回答問題只呼叫一小部分神經元來幹活,推理時只啟動 13B 參數。類似於一個百人團隊,每個任務只派 5 個人上場。視覺編碼器這邊,做了三級壓縮。打個比方:你有一張照片要發給朋友,網速很慢。第一步,你把照片切成小方格備用;第二步,每 9 個小方格合併成 1 個(3×3 壓縮);第三步,再在傳輸時進一步精簡掉冗餘資訊(KV Cache 壓縮 4 倍)。實際數字:一張 756×756 的圖,57 萬像素,一路壓下去變成 81 個資訊單元。壓縮比 7,056 倍。我看到這個數字的第一反應是:這還能看清東西?但論文裡的結果說明,確實能。不光能看清,還能精確數出圖裡有 25 個人。對比一下:同樣 800×800 的圖,Gemini-3-Flash 消耗約 1100 個 token 來表示這張圖,Claude-Sonnet-4.6 約 870 個,GPT-5.4 約 740 個。DeepSeek 在最終計算時只用 90 個資訊單元。別人用一千多個格子來記住一張圖,DeepSeek 用 90 個格子就夠了,然後騰出來的算力全拿去「指」。4000 萬條訓練資料怎麼攢出來的DeepSeek 從 Huggingface 等平台把所有帶「目標檢測」標籤的資料集都爬了下來,初篩得到 97,984 個資料來源。然後做了兩輪篩選。第一輪查標籤質量。用 AI 自動稽核三類問題:標籤是無意義的數字編號(類別名叫「0」「1」的那種)、標籤是私人實體(「MyRoommate」)、標籤是模糊縮寫(工業檢測裡的「OK」「NG」,一個蘋果「OK」和一個電路板「OK」長得完全不一樣,AI 學不了)。這輪砍掉 56%,剩 43,141 個。第二輪查框的質量。三個標準:漏標太多的(標了一半就不標了)、框畫歪了切掉物體一半的、框大到把整張圖都框住的(說明原始資料是圖片分類硬轉成的檢測資料,沒有定位資訊)。再砍 27%,剩 31,701 個。最後按類別採樣、去重,產出超過 4000 萬高品質樣本。DeepSeek 選擇先把框的資料做大,點的資料後面再補。原因也簡單:你讓 AI 標一個框,答案基本唯一(把物體剛好圈住);但讓 AI 標一個點,物體上那個位置都算對,沒有唯一正確答案,訓練訊號太模糊。而且框本身就包含了兩個點(左上角和右下角),學會畫框之後標點就是降維操作。怎麼把「指」這個能力教給模型後訓練的策略是「先分頭練,再合併」。DeepSeek 先拿框的資料訓練一個專門畫框的專家模型,再拿點的資料訓練一個專門標點的專家模型。分開訓練是因為資料量還不夠大,兩種能力混在一起容易互相干擾。然後對兩個專家分別做強化學習。怎麼判斷模型「畫對了框」或「走對了路」?DeepSeek 設計了一套多維度的打分系統:格式對不對(坐標語法正確嗎)、邏輯通不通(思考過程有沒有自相矛盾)、答案准不准(最終結果和標準答案差多少)。強化學習的資料篩選也有講究:先讓模型做 N 遍同一道題,全做對的題太簡單沒訓練價值,全做錯的題太難學不到東西,只留「有對有錯」的題來練。最後一步是把兩個專家的能力合到一個模型裡。具體做法:讓統一模型照著兩個專家的輸出去學,類似於一個學生同時跟兩個老師學不同科目。給了它手指之後,它是怎麼數數的數 25 個人給模型一張足球隊合照,問「圖裡有多少人?」思考過程:先判斷「這是團隊合照,要數所有人,包括球員和教練」。然後一次性輸出 25 個框坐標,每個人身上圈一個框。接著按排數統計:前排坐著 4 個 + 中排 9 個 + 後排 8 個 + 左側 2 個教練 + 右側 2 個教練 = 25。「地上的熊有幾隻?」圖中有三隻熊。模型逐一給每隻畫框並判斷位置:第一隻,在樹幹上垂直攀爬,排除;第二隻,在岩石邊緣走動,算;第三隻,在碎木和泥土間,算。答案:2 隻。不是先數出三隻再減一隻,而是對每隻都做了「是不是在地面上」的判斷,每個判斷背後都有一個具體坐標錨定。它真的在逐個檢查,不是在猜。多跳空間推理一個 3D 渲染場景裡有一堆彩色幾何體。問題:「存不存在一個紫色橡膠物體跟灰色金屬物體一樣大?」模型先框出灰色金屬球體,確認是個小號物體。然後逐一框出場景裡其他小號物體:棕色金屬圓柱、藍色金屬方塊、藍色橡膠方塊、黃色橡膠圓柱……六個物體逐個查,顏色、材質、大小三個屬性一一核對。結論:不存在紫色橡膠的。六次定位,六次判斷。每一步都有坐標錨著,不會出現「等等剛才查到那了」的情況。論文中更多案例參考:迷宮導航:別人擲硬幣,DeepSeek 真的在搜尋論文測了四種任務,迷宮是差距拉得最開的一個。任務很直接:給一張迷宮圖,問從起點到終點有沒有路,有的話畫出來。迷宮有三種形狀,方格的、圓環的、蜂巢的。模型走迷宮的方式跟你小時候用鉛筆在紙上畫一樣:選一條岔路走到頭,走不通就退回來試另一條。區別是它每走一步都在圖上標一個坐標點,留下記錄。論文裡展示了一個圓形迷宮的完整過程:模型先標出起點和終點的位置,然後開始探索。走了 18 步,中間兩次鑽進死胡同又退出來,最後繞出了一條通路,把整條路徑的坐標點串起來輸出。DeepSeek 還設計了一批陷阱迷宮:乍一看有路,但中間某段被偷偷堵住了。這種迷宮考的是耐心,模型不能只看起點附近的走勢就下結論,得老老實實把能走的路都試一遍才能確認走不通。精準率對比:- DeepSeek:66.9%- GPT-5.4:50.6%- Claude-Sonnet-4.6:48.9%- Gemini-3-Flash:49.4%- Qwen3-VL:49.6%迷宮只有兩種答案:有路,或者沒路。隨機猜正好 50%。GPT、Claude、Gemini、Qwen 全在 50% 附近晃,跟擲硬幣沒什麼區別。DeepSeek 的 66.9% 不算高,但它確實是在一步步走的,不是在蒙。路徑追蹤:大家來找茬的終極版本這個任務更直觀:一堆線纏在一起,每條線從一個標記通向另一個標記。你的耳機線從口袋裡掏出來是什麼樣,畫面就是什麼樣。題目問你:C 這條線通向那個終點?模型的做法是沿著線一路輸出坐標點,像手指劃過紙面。線彎得厲害的地方點標得密,直線段標得疏。人用眼睛追一根線的時候也是這樣,彎道處慢下來,直線處一掃而過。論文還加了一個加難版測試:所有線顏色粗細都一樣。不能靠顏色區分是那根線了,只能靠曲線本身的走勢連續性來判斷交叉口該跟著那條走。- DeepSeek:56.7%- GPT-5.4:46.5%- Claude-Sonnet-4.6:30.6%- Gemini-3-Flash:41.4%Claude 的 30.6% 有點出乎意料。終點一般有四五個選項,隨機猜也該有 20% 出頭,30.6% 只比瞎猜強一點點。可能它在這類純空間追蹤任務上,語言推理的慣性反而幫了倒忙。怎麼教 AI 走迷宮不作弊迷宮的訓練有一個現實問題:如果只看最終答對沒答對來給分,模型很快就學精了,與其費勁搜尋還可能答錯,不如直接猜一個,反正認真走了答錯跟沒走答錯,分數一樣是零。DeepSeek 的解決辦法是把過程也算進分數。每一步合法的探索都給分,穿牆扣分,走得越遠越好。那怕最後沒到終點,只要認真搜尋了大部分區域,也能拿到不錯的成績。這樣一來,模型就沒有偷懶的動力了。不可解迷宮的要求更高:不能光說一句「走不通」,還得證明你確實把能到的地方都走遍了。搜尋覆蓋率也算分。一個彩蛋,三個侷限後訓練資料裡沒有中文。但模型能用中文做視覺原語推理。給它一張咖啡機的照片,用中文問「怎麼做拿鐵」,它用中文標註了蒸汽棒、奶壺、咖啡豆、拿鐵按鈕的位置坐標,然後給出操作步驟。多語言能力是從基座模型那裡繼承的,視覺原語的訓練沒有把它破壞掉。它還能把看圖和世界知識結合起來:給一張金門大橋的照片問「這附近有 NBA 球隊嗎?」它先框出金門大橋,推理出這是舊金山,然後回答金州勇士隊。能理解幽默:一塊水果切面上的天然斑點恰好組成了一張憂鬱貓臉的模樣,模型能指出相似點在那裡並解釋為什麼好笑。能做密室逃脫指導:框出高處的鑰匙、地板上的椅子、帶鎖的門,建議「把椅子搬到鑰匙下方 → 踩上去拿鑰匙 → 去開門」。論文很坦誠地寫了目前做不到的事。輸入解析度有限制。ViT 輸出被卡在 81 到 384 個視覺資訊單元之間,遇到很精細的場景(比如數手指這種),坐標精度還不夠。這可能就是前天實測時數手指翻車的直接原因。目前需要特定觸發詞才能啟動視覺原語模式。模型還不能自己判斷「這道題我該伸手指來做」,得有人提醒它。拓撲推理的泛化能力有限。在訓練過的迷宮類型上效果好,換一種新的空間結構就可能掉鏈子。陳小康在那條已刪推文裡也說了:「We're still in the early stages; generalization in complex topological reasoning tasks isn't perfect yet, but we're committed to solving it.」「我們還在早期階段,複雜拓撲推理任務的泛化還不完善,但我們會持續解決。」前天實測時,DeepSeek 識圖模式展現的那些能力(追問發佈者身份、聯想鯨魚 logo 含義、自我糾正、給自己開「小型答辯會」),和這篇論文描述的思維方式一脈相承。它在腦中建立視覺錨點,圍繞錨點做推理,碰到矛盾就回溯修正。而數手指數暈了,就是 Reference Gap 的活體演示。手指交叉重疊的畫面裡,純靠語言描述去區分「從左數第三根」和「從右數第二根」,跟你自己不伸手指去數一群擠在一起的人一個道理,註定混亂。這篇論文指向的方向是:多模態推理的下一步進化在錨定機制上。DeepSeek 用 90 個資訊單元就打平了別人用上千 token 的效果,省下來的算力全拿去讓模型「一邊想一邊指」。解析度軍備競賽可以緩一緩了,教會模型伸出手指,比給它配一副更貴的眼鏡管用。這只鯨魚開了眼之後,還長出了手指。66.9% 的迷宮精準率離完美還遠,但至少它在認真走,不像隔壁那幾位在擲硬幣。 (APPSO)
中國在研發上,最拚命的城市!
很多城市羨慕深圳經濟好,但有幾個城市願意承受深圳那樣的研發投入強度?又有幾個企業能像深圳企業那樣在研發上數十年如一日地“燒錢”、忍受短期報表不好看?今天就來聊聊這個話題:深圳企業在研發方面,有多捨得花錢?2024年,深圳R&D經費投入達2453.07億元,同比增長9.7%,總量連續兩年排名全國第二,研發強度更是達到6.67%,排名全國第一,成為中國研發強度最高的城市。在很多人看來,研發是一個高風險的事情,短期內往往看不到任何回報,但深圳為什麼如此“死磕”研發?有人說,一座城市的未來,賭的就是研發。沒有研發,再璀璨的CBD也終將落幕,再長的產業鏈也是替別人打工。企業更殘酷,今天省下的研發費,可能就是明天被淘汰的慘痛代價。正因為如此,深圳企業普遍視研發為生命線,敢拿今天賺的錢去賭明天,敢於捨棄眼前的收益去換取長遠價值。要知道,深圳高校資源比較薄弱,研發經費90%以上都是企業貢獻的,其中,民企是深圳的絕對創新主力。那麼,深圳創新最強的100家企業是那些?近日,深圳舉行新興領域智慧財產權成果專題發佈會,會上發佈《2025年度深圳企業專利創新實力百強榜》(以下簡稱“榜單”),該榜單由深圳智慧財產權保護中心製作。榜單依據:從專利數量、質量、增速、海外佈局、技術先進性、營運活躍度等35個維度,對全市企業進行綜合評分,評選出專利創新百強企業。這份榜單含金量十足,既有華為、騰訊、比亞迪這樣的行業老將,也有不少叱咤全球的新面孔。01. 深圳企業專利創新排名:華為第一、比亞迪第二、騰訊第三以下是《2025年度深圳企業專利創新實力百強榜》的前十名:排名前十的企業分別為:華為技術、比亞迪股份、騰訊科技、中興通訊、榮耀終端、邁瑞生物、平安科技、惠科股份、韶音科技和TCL新技術。據報導,該榜單于2020年首次發佈,華為連續7年居榜首。華為在研發上有多捨得花錢?資料顯示,華為2025年研發經費1923億元。截至2025年底,華為在全球共持有有效授權專利約16.5萬件,近十年累計投入研發費用超13820億元。另外,騰訊2025年研發經費857.47億元,比亞迪2025年研發經費634.41億元。02. 深圳科技公司熱門賽道AI第一,新能源第二,晶片第三從產業分佈來看,深圳專利創新百強企業涵蓋人工智慧的企業有39家,佔比近四成,AI成為深圳科技公司最熱門的賽道。需要說明的是,有些企業從事的產業門類不止一個,例如,華為和比亞迪各佈局了三個產業,都涵蓋了人工智慧。此外,騰訊、中興通訊、平安、大疆等巨頭也都佈局了AI產業。AI之後,新能源產業上榜20家,排名第二,佔榜單五分之一。其他較多的產業,半導體與積體電路、機器人產業分別上榜7家、6家。03. 深圳又冒出那些“黑馬”企業?除了華為、騰訊、比亞迪、大疆等大家耳熟能詳的巨頭,這幾年深圳又冒出了多家在全球頗具影響力的新興企業,有好幾家進入了本次的專利創新百強榜。下面簡單扒一扒。在全景相機領域,深圳殺出了一個風靡全球的企業叫影石創新,它的全球市佔率達到85%,斷層領先,該企業排在榜單第76位。有中國人形機器人第一股之稱的優必選,去年在全尺寸人形機器人領域拿下全球銷量、收入雙第一,該企業在榜單排名第78位。深圳第一大獨角獸企業微眾銀行,在榜單中排名第53位。深圳又一個賽道幹到全球第一,據報導,全球每賣出10台消費級3D印表機,就有9台產自深圳,深圳在這個領域的代表性企業有拓竹科技、縱維立方等企業,分別在榜單排名第54位、第87位。04. 深圳企業研發100強05. 深圳專利有多強?連續22年領跑熟悉深圳的朋友都知道,深圳有一項資料非常亮眼:PCT國際專利申請量已連續22年全國第一。據報導,2025年深圳專利授權量達214539件,連續8年居全國首位;PCT國際專利申請量19660件,連續22年居全國首位;商標註冊量211098件,連續3年居全國第一;每萬人口高價值發明專利擁有量119.70件,約為全國平均水平(16件)的7.48倍。深圳強勁的專利產出實力,助力“深圳-香港-廣州”創新叢集躍居全球首位,成為中國首個登頂的世界級創新叢集,也讓深圳的科技創新能級與經濟總量實現穩步攀升。今年一季度,深圳GDP達到9594.13億元,按不變價格計算,同比增長5.8%。其中,規模以上工業增加值同比增長8.7%,增速比全國高出2.6個百分點,比廣東省高出3.3個百分點。深圳經濟為什麼韌性強、後勁足?咱們說得簡單粗暴一點就是:捨得在研發上花錢,捨得為未來投資。 (城市戰爭)
美股財報利多→台股為何開高走低?
4/30(四)美股財報利多→台股為何開高走低?聯亞⊕波若威⊕大銀微⊕臻鼎⊕欣興⊕宏致⊕華通↑均豪↑感謝會員續約支持愛江江溫馨五月就是江江用翻倍飆股回饋大家的時刻💪💪有本事通通事先講缺口14天暴賺6900點上週買記憶體昨天利多減碼今天盤中發文提醒:不可亂追高好心好報福氣滿滿見證專業跟上最強就對惹今天教學重點:1.美股財報明明是利多台股為何開高走低?盤勢會走空嗎?2.記憶體為何開高走低?3.五月的致富關鍵密碼江江獨家大公開→超重要必看!https://youtu.be/H6IVBKV-6ZQ🚩3167大量※高階PCB營收翻倍,毛利率43.6%再創高※GPU/ASIC設備獨供認證,訂單放量至2026上半年※切入台積電與OSAT大成長,2026年具賺1.5股本實力🚩3006晶豪科※2026 Q1營收估季增39%、年增130%※DDR2/DDR3占營收45%,合約價H1倍數級上漲※預估營收年增85%~140%,EPS跳升至20~37元🚩4576大銀微※3月+Q1營收雙雙創同期次高,第二季營運將優於Q1※AI應用卡位成功,CoWoS先進封裝訂單能見度7~8個月※FOPLP、CPO新應用量產可期,下一波成長曲線啟動🚩3605宏致※AI營收占比2026年爆升至40%,由10%翻4倍※高速線材Q2起放量,占比衝刺20%新高※2026年營收成長20-30%,毛利率創高28%~29%🚩2337旺宏※Q1營收年增70.58%創高,3月年增96.46%※eMMC Q2漲幅超150%、ASP季增逾100%※NAND獲利放量,2026年EPS上修逾100%、ROE 44%送你的APP趕緊安裝好♦️波若威17倍♦️聯亞17倍♦️中探針351%♦️大銀微5⊕♦️宏致⊕⊕雪球股♦️欣興重押+513萬♦️臻鼎重押+423萬♦️一詮⊕↑下周我們要推出5月最強翻倍飆股見證江江的強+愛心你一定要霸氣跟上🔴感恩回饋舊會員續約最低價新會員比照辦理今天最後1天錯過就沒有惹🔴記住賣出高基期轉進低基期五月繼續大暴賺留言888https://lin.ee/mua8YUP霸氣跟上🚀🈵或來電 ☎0800-66-8085********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************
🎯記憶體與載板即將『亮瞎』5月,這幾檔財報AI股準備「暴力上漲」? Line@連結:https://lin.ee/mua8YUP🔥AI革命的兩大「剛需」:糧倉與支架晶片再強,沒有載板當底座、沒有記憶體當糧倉,AI根本跑不動!5月營收+季報就要開獎,這兩大族群絕對會「亮瞎」市場的眼。💰記憶體:被低估的軍火庫4967十銓:3月營收直接噴歷史新高,Q1 EPS衝到27元!股價領先創高,這就是領頭羊的氣勢。3260威剛:滿手低價庫存,現在報價翻倍賣,Q1 EPS 30元簡直是印鈔機。8299群聯:AI儲存方案領航者,今年預估EPS狂飆到170元,年增306%這種數字,你敢看嗎?💎載板:AI的鋼鐵支架3037欣興:3月營收創41個月新高,稼動率拉滿到90%以上,獲利13元起跳。8046南電:大資金回流的首選,龍頭地位沒人能撼動,現在就是評價調升的前夕。4958臻鼎-KY:PCB界的航空母艦,砸800億資本支出在賭未來,這種霸氣,股價將反應未來!🔴想知道哪一檔才是5月份最強「噴發領頭羊」?接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)