#設計晶片
老黃秘密武器曝光:AI一夜設計晶片,頂人類頂級工程師10個月!
8人團隊做10個月,AI只需一夜!輝達祭出「造芯」神技:晶片設計效率狂飆百倍,非人類直覺的設計方案驚呆工程師。矽基生命開始自進化,人類正退居二線?進來看黃仁勳的秘密武器。就在今天,這條消息全網刷屏了。輝達用AI設計GPU,原本需要8名資深工程師10個月才能完成的任務,一夜就完成了!在剛剛過去的輝達GTC大會上,首席科學家Bill Dally與Google首席科學家Jeff Dean的一場巔峰對話,揭露了令人震驚的這個事實。現在,這個Youtube演講已經有上萬人觀看,受到網友們的盛讚。在半導體行業的歷史長河中,摩爾定律曾是不可踰越的真理,但隨著物理極限的逼近,研發一款旗艦GPU的複雜程度已呈指數級增長。但現在,輝達的AI造芯神技,幾乎讓人類工程師徹底退居二線了?從「80個人月」到「一塊GPU的一夜」在傳統晶片設計流程中,標準單元庫(Standard Cell Library)的遷移是一項極度枯燥且耗時的重體力活。每當台積電或三星推出新的半導體工藝(如從5nm跨越到3nm),輝達必須將其包含約2500至3000個單元的基礎庫重新適配新工藝。Bill Dally透露,過去這項任務需要一個由8名資深工程師組成的團隊,連續奮鬥10個月才能完成,總計耗費80個人月的人力成本。但在AI介入後,這一切被徹底顛覆了!現在,輝達開發了一款基於強化學習的工具——NB-Cell。只需將需求輸入系統,一塊GPU在一夜之間即可完成全部遷移工作。在這個過程中,NB-Cell通過不斷的試錯和自我最佳化,在極短時間內探索數以億計的設計排列組合。令人震驚的是,AI生成的單元在尺寸(Area)、功耗(Power)和延遲(Delay)等核心指標上,不僅達到了人類水平,甚至在某些案例中優於人類的手工設計。這種「隔夜交付」的能力,意味著輝達可以比競爭對手更早地跑通新工藝,從而在硬體競賽中始終保持身位領先。AI在晶片設計中的具體應用層次邏輯重塑:Prefix RL與「非人類直覺」的佈局如果說NB-Cell解決的是重複性勞動,那麼Prefix RL則展示了AI在複雜邏輯設計上的創造力。在晶片的算術邏輯單元(ALU)中,進位前瞻鏈(Carry Lookahead Chain)的放置是一個研究了幾十年的經典難題。人類工程師憑藉經驗和直覺進行佈局,往往會達到一個性能瓶頸。但Prefix RL系統給出了一份完全不同的答案。Dally形容,AI生成的佈局是「人類永遠無法想到的怪異設計」。這些設計違背了傳統電子工程的審美,但在性能表現上,卻比人類最優設計提升了約20%到30%。這標誌著一個轉折點:AI不再僅僅是人類的助手,它正在突破人類認知的邊界,去尋找那些隱藏在數百萬維空間中的「最優解」。矽基導師Chip Nemo,讓初級工程師「原地升級」在輝達內部,人力資源的錯配曾是一個很大的隱痛:資深設計師往往需要花費大量時間指導新人,解釋某個特定硬體模組(RTL)是如何工作的。為了釋放核心生產力,輝達開發了內部大語言模型——Chip Nemo和Bug Nemo。不同於市面上的通用LLM,這些模型基於輝達數十年積累的專有架構文件、RTL程式碼和硬體規格進行微調。經過私有化訓練,它們是「最懂輝達GPU」的專家。初級工程師遇到複雜的模組設計不再需要去打擾忙碌的高級工程師,而是直接詢問Chip Nemo。它能像一位極具耐心的導師,條分縷析地解釋GPU的工作原理。Bug Nemo則負責彙總錯誤報告,自動將Bug分配給最合適的工程師或模組,極大地縮短了晶片驗證這一「長跑階段」的時間。AI真的能完全自主「造芯」嗎?儘管效率提升了百倍,但Bill Dally在對話中依然保持了極其清醒的克制。他明確指出,完全端到端的自動化晶片設計(即只需說一句「給我設計一個新GPU」,AI就吐出完整圖紙)距離實現還有「很長的路要走」。目前,AI扮演的角色更像是「增強設計(Augmented Design)」,而非自主造芯。其中有三大關鍵限制:高層級架構決策仍依賴人類專家。創造性電路設計和複雜邏輯結構仍需人工主導。設計驗證仍是整個流程中最長的「長桿」,AI只能輔助加速,無法完全閉環也就是說,框架設定的部分,比如頂層的邏輯架構、跨模組的協調以及關鍵的決策,依然牢牢掌握在人類手中。另外,雖然AI可以加速驗證,但最終的模擬模擬和實際實驗依然必不可少,以確保晶片在物理世界中萬無一失。輝達的實踐表明,AI並非淘汰工程師,而是重構工程師的工作方式。初級工程師需要通過Chip Nemo自主學習複雜模組的工作原理,減少對資深工程師的打斷。資深工程師能從重複性任務中解放,專注於更高價值的創新和決策。在整體流程上,AI負責大規模搜尋、最佳化、驗證,人類負責目標設定、約束定義、創意引導。只是一種「人類設定框架 + AI極速執行」的協同模式。而Dally構想的未來,是一個「多智能體(Multi-agent)」模型,不同的專業AI系統處理不同的設計環節,就像現在的各職能團隊一樣協作。長期目標仍是端到端自動化設計,但需要克服驗證、介面協商、動態調整等難題。目前的進展已經讓輝達能夠 更快地迭代下一代硬體,成為維持摩爾定律的重要支撐。人類工程師,還不能被替代當8名工程師10個月的工作被一塊GPU的一夜取代時,我們不得不直面一個殘酷的現實:平庸的體力型工程勞動正在迅速貶值。輝達正在構築一道由AI驅動的技術壁壘。當競爭對手還在通過增加人力來追趕進度時,輝達已經進入了「AI設計AI,AI最佳化AI」的自循環體系。這種效率上的降維打擊,正是其能夠一年一更旗艦顯示卡的核心密碼。對於晶片工程師而言,這既是危機也是機遇。人類正從繁瑣的布線、搬運單元中解脫出來,被迫向更高層級的架構思考、更複雜的創造性決策進化。在矽基造芯的新紀元。在這裡,計算不再僅僅是晶片的目的,計算已成為晶片誕生的源頭。 (新智元)
下一代AI能設計晶片、治癒疾病?Sam Altman的最新技術預言
引言Snowflake Summit 2025首日,Sam Altman受邀與Snowflake CEO Sridhar Ramaswamy展開對話,在Sarah Guo(Conviction創始人兼管理合夥人)的主持下,深入探討了AGI時間線、下一代AI能力,以及AI如何重塑企業營運的方方面面。Snowflake作為全球領先的雲資料平台公司,服務著成千上萬家企業,從初創公司到財務500強,都依賴其平台處理關鍵業務資料。Snowflake Summit是其一年一度的旗艦大會。在AI與資料深度融合的時代背景下,這場被業界戲稱為"資料界搖滾音樂會"的盛會,已經成為觀察AI如何重塑企業資料處理和決策流程的重要窗口。這不僅僅是一場技術分享,更像是對AI在企業級應用中真正落地的深度預言。(image generated by ChatGPT)一、企業AI戰略2025:從實驗到生產的轉折點"Just do it"——這是Sam Altman給所有企業領導者最直接的建議。在談到2025年企業AI策略時,Altman強調了一個關鍵觀點:快速迭代比完美計畫更重要(這跟前幾日分享的吳恩達關於AI創業秘訣之一“速度”不謀而合)。他指出,在技術快速變化的時代,能夠最快迭代、降低犯錯成本、提高學習效率的公司往往是最終的贏家。更值得注意的是,Altman透露了一個重要轉折點:相比去年,他對大企業的建議發生了根本性變化。如果說2024年他還會建議大企業"可以實驗,但這可能還沒完全準備好投入生產使用",那麼現在他的態度是:這項技術已經為主流應用做好了準備。Snowflake的Sridhar Ramaswamy也從實踐角度印證了這一點。他回憶起2020年使用GPT-3進行抽象摘要實驗的經歷——讓模型將1500字的部落格壓縮成三句話描述,這在當時是一個"啊哈時刻",讓他意識到了AI的巨大潛力。關鍵洞察:- 快速迭代是核心競爭力:在技術快速變化的時代,迭代速度決定了企業能否抓住AI機遇- 好奇心被嚴重低估:企業需要主動實驗,發現傳統方法不再適用的領域- 實驗成本已經極大降低:OpenAI和Snowflake等公司已經讓小規模實驗變得非常容易- 技術成熟度質的飛躍:ChatGPT現在能夠智能呼叫網路搜尋來獲取最新資訊,可靠性(reliability)大幅提升二、記憶與檢索:下一代AI的核心能力在討論AI系統的記憶和檢索能力時,Sridhar Ramaswamy提出:"搜尋就像是為模型設定注意力的工具"。這句話該如何理解?讓我們用一個簡單的類比:想像你在一個巨大的圖書館裡尋找資訊。如果沒有目錄和索引系統,你就必須漫無目的地翻閱每一本書,這效率極低。但有了圖書館的分類系統和檢索工具,你就能快速定位到最相關的書籍和章節。對AI模型來說,搜尋系統就扮演著類似的角色:- 無搜尋的AI:像一個博學但沒有重點的學者,什麼都知道一點,但缺乏針對性- 有搜尋的AI:像一個配備了精準資料檢索系統的專家,能夠快速找到最相關的資訊來回答特定問題舉個具體例子:當你問ChatGPT"今天的股市表現如何"時,模型會意識到這需要即時資訊,自動觸發網路搜尋來獲取最新資料,而不是依賴訓練時的過時資訊。這就是"為模型設定注意力"——讓它知道應該關注什麼、從那裡獲取資訊。從技術演進角度看,檢索增強生成(RAG)技術已經從早期的實驗性功能發展為現在AI系統的核心元件。三、智能體(Agents):從實習生到資深工程師的進化Sam Altman分享了一個讓他"感受到AGI"的時刻:OpenAI剛剛發佈的程式設計代理Codex。他描述道:"你可以給它一堆任務,它在後台工作,非常聰明,能夠處理這些長期任務,然後你只需要坐在那裡對某些結果說'是',對另一些說'不',再試一次。"智能體(Agents)能力演進軌跡:- 現在:像實習生一樣工作幾個小時-不久的將來:像經驗豐富的軟體工程師一樣連續工作數天- 終極目標:擴展到各種工作類別Altman預測,明年我們將開始看到能夠幫助發現新知識或解決重要商業問題的代理系統。目前代理主要用於自動化重複性認知工作,但隨著能力擴展到更長時間範圍和更高層次,我們最終可能會看到AI科學家(AI Scientists)——能夠自主發現新科學的AI智能體(AI Agents)。四、AGI定義的哲學思辨:重要的是進步速度而非標籤"如果你能回到2020年,向人們展示今天的ChatGPT,我認為大多數人會說這就是AGI。"Sam Altman的這句話引發了深刻思考。他認為,AGI的具體定義並不重要,重要的是我們過去5年看到的年度進步速度應該在未來至少5年內繼續保持。無論你在2024年、2026年還是2028年宣佈AGI勝利,無論你在2028年、2030年還是2032年宣佈超級智能勝利,都遠不如這條"長期、美麗、令人震驚的平滑指數曲線"重要。Altman對AGI的實用定義:- 能夠自主發現新科學的系統- 或者成為如此出色的工具,使得全世界的科學發現速度提升四倍Sridhar Ramaswamy用了一個絕妙的類比:"潛水艇會游泳嗎?" 從某種程度上說這很荒謬,但當然它會游泳。他認為這些模型具備的能力,任何從2030年回望的人都會宣稱"那就是AGI",但正如Altman所說,2020年的人看2025年的技術也會有同樣的感受。更重要的是,我們應該從歷史中學到樂觀的一課:就像電腦在國際象棋中擊敗了世界冠軍,但人們依然熱愛下棋,chess.com的使用者甚至比以往任何時候都多。AI的超越並不意味著人類能力的貶值,而是為人類開闢了新的可能性空間。五、下一代模型:令人屏息的能力飛躍"未來一到兩年的模型將令人屏息。"Sam Altman的這句話透露了OpenAI內部的信心。他描述了未來模型的能力:- 解決企業最困難的問題:如果你是晶片設計公司,可以說"給我設計一個比以前可能擁有的更好的晶片"- 生物技術突破:如果你是試圖治癒某種疾病的生物技術公司,可以說"就為我研究這個"- 全面的上下文理解:模型能夠理解你想提供的所有上下文,連接到每個工具、每個系統- 深度推理能力:真正出色的推理,並返回答案- 自主工作能力:足夠的魯棒性,讓你可以信任它們獨立完成一些工作Altman的技術願景——"柏拉圖式理想模型":- 極小的模型尺寸但具備超人推理能力- 運行速度極快- 一兆token的上下文- 訪問所有可能想像的工具為什麼稱為"柏拉圖式理想"?在柏拉圖的哲學中,"理想型"(Forms)代表著事物的完美、永恆的本質——比如"完美的圓"或"絕對的正義"。Altman用這個概念來描述AI模型的終極形態:一個在概念上完美的推理引擎,不受物理限制,能夠處理任何可能的任務。這種模型不需要作為資料庫使用("將這些模型用作資料庫有些荒謬——這是一個非常慢、昂貴、非常有問題的資料庫"),而是作為推理引擎,能夠處理企業或個人生活的所有可能上下文,以及任何需要的工具。六、千倍算力的終極想像當被問及如果擁有千倍算力會做什麼時,Sam Altman的回答既meta(用工具來改進工具的哲學思路)又務實:Meta答案:讓AI專注於AI研究,建構更好的模型,然後詢問那個更好的模型我們應該如何使用所有計算資源。實用答案:現在我們已經看到測試時計算的真實回報——讓模型推理更多,在困難問題上嘗試更多次,你能得到更好的答案。願意為最困難的問題或最有價值的事情投入更多計算資源的企業將獲得驚人的結果。Sridhar Ramaswamy則提出了一個更具人文關懷的願景:RNA組計畫——就像20多年前的DNA測序項目,但專注於弄清楚RNA表達,這控制著我們體內蛋白質的工作方式。在這方面的突破可能解決大量疾病,極大推動人類進步。番外:Google競爭壓力下的"積極推銷"分析突然發現,最近文章的含Sam/OpenAI量有些高,恰好也看到這個視訊下方有使用者評論指出Google最近發佈對OpenAI的影響,令Sam Altman更積極“推銷”自家產品。這個觀察有一定道理。1.Google Gemini 2.5的強勢表現:Google在I/O 2025上發佈的Gemini 2.5系列被業界認為是"分水嶺時刻",在多個benchmark上表現優異(來源於blog.google)2.市場份額的博弈:雖然ChatGPT仍然領先(Sam Altman提到日活使用者超10億),但Gemini已經積累了4億月活使用者,競爭愈發激烈3. 技術路徑的分化:Google憑藉其完整的技術堆疊(晶片、資料中心、作業系統、瀏覽器、生產力工具)展現出獨特優勢從這次談話可以看出,Altman確實比以往更加主動地推廣OpenAI的優勢,這在某種程度上反映了來自Google等競爭對手的壓力。雖然在這次談話中Altman沒有直接提及ChatGPT-5,但從他對"未來一到兩年模型將令人屏息"的描述,以及業界普遍預期,我們可以對ChatGPT-5的能力飛躍,比如在推理能力、多模態整合、上下文長度、Agents的原生支援等方面有合理期待。結語:AI的平滑指數曲線與人類未來Sam Altman在Snowflake Summit 2025的分享,為我們描繪了一個AI能力持續指數級增長的未來:從企業應用的成熟到智能體的崛起,從AGI定義的哲學思辨到千倍算力的終極想像,在Google、OpenAI、Anthropic等巨頭激烈競爭的背景下,技術進步的速度可能會進一步加快。正如Altman所說,重要的不是我們何時達到AGI,而是這條"長期、美麗、令人震驚的平滑指數曲線"能否持續下去。從目前的趨勢來看,答案似乎是肯定的。 (JER學家)
AI入侵芯片設計,會幹掉工程師嗎?
隨著人工智能最近幾年的進步,如何將人工智能應用到芯片設計也成為了一個半導體行業熱門的話題。而隨著相關討論的展開,人工智能對於芯片行業賦能的切入點也越來越多地聚焦在了EDA領域,即如何利用人工智能強大的能力來幫助更高效地實現芯片設計、驗證和測試。人工智能從2016年開始騰飛以來,有兩個標誌性的事件,即使用強化學習模型並擊敗李世石的AlphaGO,以及最近橫空出世,基於大語言模型技術的ChatGPT。有趣的是,這兩個技術也恰恰是人工智能為為EDA賦能的關鍵技術。 在EDA領域,人工智能得到最多關注的領域是如何實現設計的優化。這裡的設計優化,指的是如何在一個搜索空間巨大的設計空間中,高效地搜索到最優解。這裡的具體任務可以包括最優佈局佈線,以及驗證和測試的輸入組合等。 對於這些問題的人工智能解決方案,目前工業界大致又可以分為兩類。第一類是規模足夠大並且自身就有強大人工智能研發能力以及芯片設計流程定制化能力的巨頭。這類巨頭公司可以有能力自主研發相關的人工智能技術並且應用在自研的芯片設計流程中,以改善設計流程的效率和芯片質量。在這類公司中,最具有代表性的就是谷歌。 谷歌擁有全球最領先的人工智能團隊,同時也擁有自研的芯片TPU,最關鍵的是谷歌的團隊還非常熱衷於將人工智能應用在各種新的應用場景,因此谷歌使用人工智能來提升芯片設計也是情理之中。根據谷歌發表在頂級期刊《Nature》上的論文《A graph placement methodology for fast chip design》,我們知道它已經應用了人工智能來大幅改善自研芯片佈局佈線的能力,其使用強化學習模型的佈局佈線算法實現的性能已經超越了人工佈局佈線的結果,最關鍵的是該技術已經使用在了多代谷歌TPU中。換句話說,谷歌使用人工智能來設計自研的人工智能芯片(TPU),從而用來進一步訓練更強大的人工智能來設計更下一代的人工智能芯片——這樣的正向循環目前看起來至少在谷歌這邊已經是初見端倪。