#Base
Base 鏈強勢上漲 22.5% Bitcoin Hyper 以極速與安全性引領市場新格局
Base 網路的月度交易量環比上漲22.5%,在整個 Layer-2 領域普遍放緩的背景下格外引人注目,但Bitcoin Hyper (HYPER)正迅速成為值得關注的項目。雖然兩者並非直接競爭對手,因為 Base 運行在以太坊(ETH)上,而 Bitcoin Hyper 構建於比特幣(BTC)之上,但它們擁有相似的目標:拓展各自底層網路的潛力。而 Bitcoin Hyper 的獨特之處在於其實現這一目標的方式。它是首個將Solana 虛擬機器(SVM)的速度與高效性,與比特幣主網的安全性和去中心化特性相結合的擴容方案。其結果是,一個能夠支撐高性能應用、同時錨定全球最安全區塊鏈的網路由此誕生。這也是 Bitcoin Hyper 預售持續吸引大量資金的原因之一。本月以來,鯨魚投資者已投入數百萬美元,使當前募資總額達到2460 萬美元,市場正期待其即將啟動的主網上線。當前輪次仍然開放,投資者仍可在價格上調前,以$0.013155 的價格購買 HYPER 代幣。下一階段將在6小時後開始。訪問 Bitcoin Hyper 官網瞭解更多詳情Base 繼續擴大其在以太坊 Layer-2 生態中的領先地位,網路活動與生態增長加速。在以太坊頂級 Layer-2 網路中,Base 是過去30天內唯一實現交易總量增長的專案,顯示出使用者活躍度提升、dApp 互動增強以及鏈上交易活動的持續增長。這一趨勢表明,Base 的生態系統正在穩步擴張,並在競爭激烈的以太坊擴容領域中鞏固其領先位置。來源: https://l2beat.com/scaling/activity近期的上升勢頭,很可能源於市場對 Base 潛在代幣發行的投機情緒。此前有消息稱,Base 團隊正在招聘一名“代幣與治理研究專員”,進一步加深了外界對代幣計畫的猜測。在 2025 年 9 月的BaseCamp 2025 大會上,Base 還宣佈將推出通往Solana 的跨鏈橋,這將實現跨鏈互通性,使SOL 資產能夠在 Base 與 Solana 之間自由流通。一旦代幣正式推出,它不僅將反映 Base 生態的持續擴張,也將彰顯自 2023 年上線以來,該網路如何在短時間內迅速崛起,成為以太坊 Layer-2 賽道的領軍者。Base 平均提供更便宜、更快速的交易速度——可達到每秒 167 筆交易(TPS)——優於 Arbitrum 或 OP Mainnet,同時提供更順暢的使用者體驗,這也加速了其生態擴張。然而,Base 仍然繼承了以太坊的底層結構性限制。由於最終結算依賴以太坊主鏈,當主網出現網路擁堵或 gas 費飆升時,這些波動也會傳導至 Base。此外,由於 Base 依賴以太坊虛擬機器(EVM)的循序執行模型,無法實現並行處理,因此在可擴展性方面仍落後於基於Solana 虛擬機器(SVM)的架構。相比之下,Bitcoin Hyper 基於 SVM 架構,支援並行化執行,理論上可處理每秒數千筆交易。在速度大幅提升的同時,它依然保持極高的韌性與安全性——其生態中每一筆操作都錨定在比特幣主網的安全層上。這讓開發者得以在一個融合Solana 級性能與Bitcoin 級安全性的環境中構建高性能、高信任度的去中心化應用(dApp)。Bitcoin Hyper 如何以 Solana 級速度延展比特幣安全性Bitcoin Hyper 引入了一種兼具速度與安全性的系統架構——這是即便是以太坊頂級 Layer-2(如 Base)也尚未完全實現的特性。其核心在於一種“正統橋接機制”,使網路牢牢錨定在比特幣主鏈之上。在Bitcoin Hyper 生態系統中,開發者可以使用Rust 語言與Solana SDK 工具包構建高性能應用,所有程式均運行於Solana 虛擬機器(SVM)環境中,既具備 Solana 的並存執行性能,又享有比特幣的底層安全保障。https://twitter.com/BTC_Hyper2/status/1976723197690253389然而,Bitcoin Hyper 生態系統的真正核心力量,來自它與比特幣本身的連接。在 Bitcoin Hyper 網路中,使用者通過將 BTC 鎖定進“正統橋接” 來參與交互,並在鏈上鑄造與之對應的封裝版 BTC。該封裝資產可在各類去中心化應用(dApp)中流通,作為主要的交換媒介使用。這種封裝 BTC 與主鏈上的真實比特幣保持1:1 錨定與儲備,確保了完全透明與鏈上安全性。當用戶希望取回原始 BTC 時,只需銷毀相應數量的封裝代幣,即可觸發橋接機制,從橋中釋放等額的比特幣。通過這一簡潔而安全的機制,Bitcoin Hyper成功融合了比特幣最強的兩大特性——安全性與信任性——並疊加 Solana 級別的高速執行性能,在同一 Layer-2 架構下實現了性能與安全的統一。投資者信心持續升溫,Bitcoin Hyper 正在重塑比特幣的實用價值在 Bitcoin Hyper 推動的新架構下,早期投資者的積極參與並不令人意外。僅在本月,就有超過540 萬美元的資金流入 Bitcoin Hyper 的預售階段,其中相當部分來自近幾周入場的鯨魚投資者。其中一位大型鯨魚單筆投入超過 80 萬美元,以便在價格進一步上漲前盡可能多地鎖定HYPER 代幣。推動這種信心的關鍵原因在於:Bitcoin Hyper 不僅促進了混合型應用的發展,還在機制上擴展了比特幣的需求場景。它讓 BTC 不再僅僅作為一種價值儲存手段,而是成為生態系統內廣泛使用的交換媒介,被用於多種去中心化應用的交易與交互中。多年來,比特幣價格上漲幾乎完全由“價值儲藏”敘事驅動,而非實際使用需求。Bitcoin Hyper 有潛力重塑這種格局,通過引入基於實用性的使用場景,創造全新的 BTC 需求驅動邏輯。在這一生態系統中,HYPER 代幣扮演著核心角色:它既是治理代幣,也是燃料代幣,用於支付網路交易費用;同時,它還作為質押資產,用於保障網路安全與參與者權益。目前市場對該專案的信任度已初步顯現——超過 10 億枚 HYPER 代幣已被質押。按當前的預售募資規模與代幣價格計算,這意味著約有 53% 的預售代幣已被鎖定質押,反映出投資者對項目長期價值的高度認可。來源: https://bitcoinhyper.com/staking這強烈表明,投資者普遍認為Bitcoin Hyper不僅是比特幣生態的重大升級,更是整個加密經濟邁向新階段的重要一步。如何參與 Bitcoin Hyper 預售如果你希望在項目正式爆發前提前佈局,可以通過 Bitcoin Hyper 官方網站直接參與預售,鎖定屬於你的HYPER 代幣額度。投資者可使用SOL、ETH、USDT、USDC、BNB,甚至信用卡進行購買,流程簡便且即時確認。HYPER 代幣同時具備質押資產功能,用戶可立即通過 Bitcoin Hyper 原生質押協議賺取收益,目前年化收益率(APY)高達 48%,讓早期參與者在網路啟動前即可實現資產增值。為獲得最佳使用體驗,Bitcoin Hyper 推薦使用 Best Wallet —— 市場上領先的加密與比特幣錢包。目前,HYPER 已列入Best Wallet 的“即將上線代幣” 專區,用戶可輕鬆進行購買、追蹤與領取操作。欲獲取專案的最新動態與官方公告,可關注Bitcoin Hyper 官方Telegram社群與X(原 Twitter)帳號。訪問 Bitcoin Hyper 官網瞭解更多詳情免責聲明:本內容為通訊社發佈的新聞稿,僅供參考。我們未對其中的資訊進行獨立驗證,亦不對其準確性或所述服務承擔任何責任。本內容不構成投資建議或推薦,亦不應被視為此類建議。我們強烈建議您在參與任何金融活動或投資決策前,諮詢合格且受監管的專業財務顧問,以確保自身權益。
阿里深夜幹了件大事,成本暴降90%!
32B尺寸比肩235B性能,兩大新模型已開源。智東西9月12日報導,今天凌晨,阿里通義實驗室正式發佈下一代基礎模型架構Qwen3-Next,並訓練了基於該架構的Qwen3-Next-80B-A3B-Base模型,該模型擁有800億個參數,僅啟動30億個參數。Base模型在Qwen3預訓練資料的子集上訓練,包含15T tokens訓練資料,僅需Qwen3-32B 9.3%的GPU計算資源,針對超過32k的上下文,推理吞吐量可達到Qwen3-32B的10倍以上。同時,基於Base模型,阿里開源了Qwen3-Next-80B-A3B的指令模型(Instruct)和思維模型(Thinking),模型支援原生262144個token上下文長度,可擴展至1010000個token。其中,Qwen3-Next-80B-A3B-Instruct僅支援指令(非思考)模式,其輸出中不生成<think></think>塊;Qwen3-Next-80B-A3B-Thinking僅支援思考模式,為了強制模型進行思考,默認聊天範本自動包含<think>。指令模型的性能表現與參數規模更大的Qwen3-235B-A22B-Instruct-2507相當,思維模型優於Google閉源模型Gemini-2.5-Flash-Thinking。▲指令模型測試基準▲思維模型測試基準在架構升級方面,相比阿里4月底的Qwen3 MoE模型,新增了混合注意力機制、高稀疏度MoE結構、一系列訓練穩定友好的最佳化,以及提升推理效率的多Token預測(MTP)機制等。新模型已在魔搭社區和Hugging Face開源,開發者也可通過Qwen Chat或阿里雲百煉、NVIDIA API Catalog體驗Qwen3-Next。開發者在Qwen的X評論區稱讚其新增的多Token預測(MTP)機制,稱這是最令人印象深刻的部分。Qwen Chat地址:https://chat.qwen.aiHugging Face地址:https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d魔搭社區:https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a阿里雲百煉:https://bailian.console.aliyun.com/?tab=model#/model-market/detail/qwen3?modelGroup=qwen301.指令模型接近235B旗艦模型思維模型超Gemini-2.5總的來看在性能方面,指令模型接近阿里參數規模235B的旗艦模型,思維模型表現優於Gemini-2.5-Flash-Thinking。其基座模型為Qwen3-Next-80B-A3B-Base,僅使用1/10的Non-Embedding啟動參數,在大多數基準測試中,性能表現與Qwen3-32B-Base相近。但其總訓練成本為Qwen3-32B-Base的10%不到。得益於其新的混合模型架構,Qwen3-Next在推理效率方面,與Qwen3-32B相比,Qwen3-Next-80B-A3B在預填充(prefill)階段,在4k tokens的上下文長度下,吞吐量接近前者的7倍,當上下文長度超過32k時,吞吐量提升達到10倍以上。在解碼(decode)階段,該模型在4k上下文下實現近4倍的吞吐量提升,在超過32k的長上下文場景中能保持10倍以上的吞吐優勢。具體來看,其指令模型表現優於Qwen3-30B-A3B-Instruct-2507和Qwen3-32B-Non-thinking,並取得了幾乎與參數規模更大的Qwen3-235B-A22B-Instruct-2507模型相近的結果。只有在面向大模型的綜合性評測基準、高難度數學推理基準AIME25中,指令模型的表現略遜色於Qwen3-235B-A22B-Instruct-2507,在程式設計、複雜問答與長對話的評測中表現更好。Qwen3-Next-80B-A3B-Instruct在RULER上所有長度的表現明顯優於層數相同、注意力層數更多的Qwen3-30B-A3B-Instruct-2507,甚至在256k範圍內都超過了層數更多的Qwen3-235B-A22B-Instruct-2507。思維模型的表現優於預訓練成本更高的Qwen3-30B-A3B-Thinking-2507、Qwen3-32B-thinking,全面超過Google的閉源模型Gemini-2.5-Flash-Thinking,並在部分指標上接近阿里最新旗艦模型Qwen3-235B-A22B-Thinking-2507。02.混合注意力、MoE、穩定最佳化多Token預測加持研究人員在部落格中提到,Qwen3-Next是針對大模型在上下文長度和總參數兩方面不斷擴展的未來趨勢而設計。Qwen3-Next採用的是Qwen3 36T預訓練語料的均勻採樣子集,包含15T tokens的訓練資料,其訓練所消耗的GPU Hours不到Qwen3-30A-3B的80%;與Qwen3-32B相比,僅需9.3%的GPU計算資源,即可實現更優的模型性能。這一模型結構相較其4月底推出的Qwen3的MoE模型,新增了多種新技術並進行了核心改進,包括混合注意力機制、高稀疏度MoE結構、一系列訓練穩定友好的最佳化,以及提升推理效率的多Token預測(MTP)機制等。混合注意力機制:用Gated DeltaNet(線性注意力)和Gated Attention(門控注意力)的組合替換標準注意力,實現超長上下文長度的有效上下文建模。研究人員發現Gated DeltaNet相比常用的滑動窗口注意力(Sliding Window Attention)和Mamba2有更強的上下文學習能力, 並在3:1的混合比例下,即75%層使用Gated DeltaNet,25%層保留標準注意力,能一致超過超越單一架構,實現性能與效率的雙重最佳化。同時在保留的標準注意力中,研究人員進一步引入多項增強設計,包括沿用先前工作的輸出門控機制,緩解注意力中的低秩問題,將單個注意力頭維度從128擴展至256,僅對注意力頭前25%的位置維度加入旋轉位置編碼,提高長度外推效果。高稀疏度混合專家(MoE):在MoE層中實現極低的啟動比率,大幅減少每個token的FLOPS,同時保留模型容量。研究人員的實驗表明,在使用全域負載平衡後,當啟動專家固定時,持續增加專家總參數可帶來訓練loss的穩定下降。此前,Qwen3系列的MoE專家啟動比約為1比16,Qwen3-Next實現了1比50的啟動比。穩定性最佳化:包括零中心化和權重衰減LayerNorm等技術,以及其他增強穩定性以實現魯棒的預訓練和後訓練。研究人員發現,注意力輸出門控機制能消除注意力池與極大啟動等現象,保證模型各部分的數值穩定。多Token預測(MTP):提升預訓練模型性能並加速推理,Qwen3-Next特別最佳化了MTP多步推理性能,通過訓練推理一致的多步訓練,進一步提高了實用場景下的投機採樣(Speculative Decoding)接受率。03.結語:3B啟動參數對標旗艦模型!阿里憑架構創新為模型降本提速Qwen3-Next的突破點在於同時實現了大規模參數容量、低啟動開銷、長上下文處理與平行推理加速。此外結合注意力機制、MoE設計等方面的多項架構創新,阿里通義此次實現僅啟動3B參數模型就能對標規模更大模型的性能,使得模型在性能與效率之間找到更佳平衡點,同時為降低模型訓練、推理成本提供了有效路徑。研究人員在部落格提到,未來他們將持續最佳化這一架構並開發Qwen3.5。與此同時近期阿里通義已經推出數個不同領域的模型,如超兆參數的Qwen3-Max-Preview、文生圖及編輯模型Qwen-Image-edit、語音識別模型Qwen3-ASR-Flash等。隨著其多領域模型的持續落地與開源,阿里通義在開源社區的技術影響力正逐步增強。 (智東西)