#程式碼生成
AI時代,深邃的思考與清晰的表達,才是人類最後的護城河
人工智慧,尤其是大模型的快速普及,正在以前所未有的速度重塑人類社會的分工結構。一個越來越清晰的趨勢正在浮現:執行正在被AI接管,而思考與表達,正在回歸人類本身,並變得愈發稀缺。一、從會做事到想清楚事,能力結構正在發生根本轉變在工業時代與資訊時代的大部分時間裡,人類價值高度依賴執行力。誰更勤奮、誰更熟練、誰更快完成任務,誰就更具競爭力。然而,大模型的出現正在系統性地瓦解這一邏輯。今天,大模型可以寫程式碼、生成文案、整理報告、分析資料,甚至完成大量過去被視為高認知含量的工作。只要目標足夠明確、路徑足夠清晰,執行幾乎可以被無限複製、低成本擴展。這意味著:執行力正在商品化技能本身不再稀缺單純會幹活的價值正在快速下降在這樣的背景下,真正拉開人與人差距的,不再是你能做什麼,而是你能不能想清楚要做什麼。二、你想明白的東西,才能被清晰地表達出來思考與表達從來不是兩件獨立的事情。模糊的表達,本質上源自模糊的思考。一個人如果無法用簡潔、結構化的語言講清楚一個問題,往往不是不會說,而是根本沒有想透。真正的思考,是將複雜問題拆解為清晰的邏輯鏈條,是在不確定性中找到關鍵變數,是在噪音中提煉本質判斷。在AI時代,想明白本身就是一種稀缺能力。因為資訊極度過剩,結論卻極度匱乏;工具觸手可及,判斷卻愈發稀缺。三、你能清晰表達出來的東西,才能交給大模型去幹大模型並不理解意圖,它理解的是指令。而指令的質量,完全取決於表達的清晰度。模糊的目標,只會得到泛泛的結果不完整的約束,只會帶來不可控的輸出缺乏結構的描述,只會放大不確定性因此,一個極其重要卻常被忽視的事實是:大模型並不會削弱表達能力的重要性,反而將其放大到了前所未有的高度。只有當你:能清晰描述問題邊界能明確表達目標與約束能結構化地拆解任務你才真正具備讓AI為你工作的能力。從這個意義上講,表達力正在成為人類與大模型之間最關鍵的介面能力。四、未來的人類角色:負責思考與表達,把執行交給AI當執行成本趨近於零,人類的核心角色將發生遷移:人類負責提出問題人類負責做價值判斷人類負責建構認知框架人類負責表達目標與方向而:推演方案生成內容反覆試錯大規模執行將越來越多地交由大模型完成。這不是人類能力的退化,而是一種能力層級的躍遷。人類從操作者,轉向設計者和判斷者。五、AI時代,真正的競爭發生在思考深度與表達清晰度上在AI高度普及的未來世界裡,真正稀缺的,不是資訊,不是算力,也不是技能本身,而是:能在複雜系統中做出深邃思考的人能將複雜思想清晰表達出來的人能用語言與結構駕馭智能系統的人思考力決定你能看到多遠,表達力決定你能調動多大的能力邊界。當執行可以外包給大模型,人類真正的價值,將回歸到最本質的兩件事上:想清楚,以及說明白。 (壹號講獅)
震動全行業!Google剛剛打出了一張“王炸”:Gemini 3 Flash,徹底終結AI應用的“燒錢”遊戲!
Google剛悄悄上線了Gemini3Flash——要是光看跑分,它可能不是最扎眼的,但要說顛覆性、對明年預算和產品規模化的影響,這模型絕對排得上頭名。我直接說透:它可不光是“快”和“便宜”這麼簡單,Google這是憑著一己之力,用成本結構對整個AI推理市場搞“降維打擊”呢。01 戰略定位:那是“青春版” , 分明是“部署級核武器”!好多人覺得Flash是Gemini3Pro的“性能縮水版”,這理解真的完全跑偏了!從架構來看,Gemini3Flash是直接搭在Gemini3Pro的推理基礎架構上的,根本不是獨立的弱架構——它共享著同樣的推理骨幹,只是專門針對極低延遲和極低成本做了深度最佳化。Google這兒還拋出個關鍵概念:“思考等級”(ThinkingLevels)。作為業內人,這點你可得吃透:以前不管讓模型干多簡單的活,都得為它的“最大推理深度”付費。但現在有了“思考等級”控制,開發者能根據任務需求,精準調控模型的推理程度。這意味著啥?你再也不用為解決一個簡單的圖像識別問題,花解決複雜數學難題的推理費用——這可是對AI經濟模型的一次根本性顛覆。02 核心吸引力:成本“屠夫”上線 , 把“燒錢”變成“印鈔”價格才是這次發佈的真炸彈。把性能和成本標準化之後,Gemini3Flash的競爭力簡直沒誰了。看組資料就知道,這才是真・成本大跳水:輸入(每百萬Token):才50美分輸出(每百萬Token):僅需3美元這價格有多震撼?比Gemini3Pro、ClaudeSonnet4.5甚至GPT5.2都便宜太多。Google的訊號已經很明確了:Gemini3Pro是給那些追求最大推理深度、不在乎成本的場景準備的;而Gemini3Flash,才是Google要你“部署到任何地方”的模型。它不是智能上的“退步”,而是“每決策支出”(SpendPerDecision)上的一次史詩級下降。03 打破低價迷思:多模態與編碼 , 照樣能打!低價可不代表低能——這正是Flash最讓人興奮的地方。它經過最佳化後,在推理、多模態理解、編碼和長上下文任務裡,都能保持穩定的高水準。A.多模態理解:截圖即程式碼生成 , 成本直接大降多模態工作流以前就是“燒錢”的代名詞,但Flash證明了:不用讓成本爆炸,也能實現前沿能力。在評估截圖和UI元素理解能力的ScreenSpotPro基準測試裡,Flash表現特別能打。想像下這個場景:你給它一張Web分析儀表盤的截圖,它能立馬看懂內容,用HTML、TailwindCSS和Chart.js幫你重建功能相似的網頁程式碼,甚至還能自動加UI推理——比如顯示餅圖的數值和百分比這些細節。這就說明,Flash能以極低的成本做截圖分析、UI推理和視覺理解,壓根不用呼叫最昂貴的模型層級。B.通用推理與持續編碼能力專家級分析:在針對高難度科學和特定領域推理的GPQADiamond測試中 , Flash拿了90.4%的高分 , 跟Gemini3Pro差不了多少——這意味著它完全能勝任技術分析、長篇綜合、專家級問答這些研究密集型任務。編碼代理:在LiveCodeBench上 , Flash的性能和Pro在同一水平。更關鍵的是 , 它能支援連續編碼代理 , 還不會讓你的營運成本“炸掉”——這對所有AI軟體工程公司來說 , 絕對是最大的福音!04 該重新審視你的產品策略了!Gemini3Flash最大的價值,是給所有開發者和企業打開了規模化應用的大門。以前設計AI產品,總免不了在“功能強大”和“使用成本”之間糾結來糾結去。現在Flash憑著前所未有的性價比,直接打破了這個困境。它釋放了一個明確訊號:AI應用的黃金時代,不是由性能天花板決定的,而是由成本地板定義的。 (New基地)
輝達發佈新GPU,專為百萬級Token的程式碼生成與視訊生成任務設計
當地時間周二,輝達在加州聖克拉拉舉辦的AI基礎設施峰會上發佈了最新的 Rubin CPX GPU。這款晶片專為處理百萬級Token的程式碼生成和視訊生成任務而設計。輝達 Vera Rubin 晶片(圖片來源:輝達)在人工智慧領域,Token(標記)是一種基礎處理單位,可以代表一個詞、一個子詞,甚至是視訊或音訊中的片段。無論是使用 ChatGPT、Claude、Gemini 還是 Grok,這些模型都會將使用者輸入的文字或指令拆分成若干 Token,並基於這些 Token 進行分析和生成回答。Rubin CPX 將與輝達的 Vera CPU 及 Rubin GPU 配合使用,構成 Vera Rubin NVL144 CPX 平台的一部分。其中,“NVL144” 表示該系統配備 144 個 GPU。輝達首席執行官黃仁勳表示:“Vera Rubin 平台將再次推動 AI 計算實現跨越式發展——不僅推出新一代 Rubin GPU,還引入了一類全新處理器架構——CPX。正如 RTX 曾徹底革新圖形處理與物理模擬領域,Rubin CPX 是首款專為‘超大規模上下文 AI’打造的 CUDA GPU,可支援模型在數百萬個 Token 的知識範圍內同時進行推理與運算。”據官方介紹,Vera Rubin NVL144 CPX 的 AI 性能將達到現有 Grace Blackwell 架構 GB300 NVL72 系統的 7.5 倍。輝達表示,該平台將顯著提升客戶的 AI 商業化能力,並測算出:每投入 1 億美元,預計可實現高達 50 億美元的基於Token的收益。Rubin CPX 預計將在 2026 年底正式上市。 (超算百科)
紅衫美國:算力不再稀缺,頂級人才才是AI賽道的“梅西”
為什麼AI實驗室越來越像職業體育球隊?算力不再稀缺,頂級人才成為新一輪AI競賽的核心資源在過去一年裡,儘管AI產業繼續高速發展,但真正值得關注的變化,並不在於技術本身,而是產業結構的核心驅動力發生了轉移。從前,決定AI領先地位的關鍵變數是“誰擁有更大的叢集、更充足的算力和更強的預訓練能力”;而現在,在算力相對充裕的環境下,真正稀缺的資源變成了人才。紅杉美國合夥人David Cahn今天夏天提出上面這個有趣的問題,他在去年夏天寫了不少關於 AI 的文章,從《AI 的 6000 億美元問題》、《AI 資本支出的博弈論》、《AI 已準備就緒》構築未來:紅杉美國2025年人工智慧最新預測、《鋼鐵、伺服器與電力》紅杉評論|鋼鐵、伺服器和電力:如何贏得下一階段的人工智慧,一直寫到《AI 供應鏈拉鋸戰》。David表示一年過去,回頭看,其實變化並不大:原本是“6000 億美元問題”,如今變成了“8400 億美元問題”(假設 Nvidia 到 2025 年底的資料中心營收年化可達到 2100 億美元)。根據路透社消息,OpenAI 仍然佔據整個 AI 收入的大頭,近期突破了 100 億美元大關OpenAI 宣稱其年經常性收入(ARR)達到 100 億美元,它是如何做到的?。整個 AI 生態的總收入,依舊遠不及已投入的巨額資本。事實上,他去年對大科技公司 AI 收入的預估可能還偏高了。過去一年,AI 有三項重大進展:1、程式碼生成 AI 迅速爆發。一年前,這類產品的演示還令人震撼,如今程式碼 AI 領域已經創造了約 30 億美元的年化收入Cursor的百億估值背後:真壁壘or泡沫?2、“推理能力”找到明確的產品-市場契合點,引發了對“推理階段算力利用效率”的廣泛關注。通過反覆查詢模型結合強化學習,我們能獲得更精準可靠的結果。巴克萊投行:人工智慧邁向推理模型和Agent的重大轉變3、ChatGPT 的使用出現“smile curve(微笑曲線)”,使用者行為逐漸固化,這項新技術正深入日常生活。所謂“微笑曲線(smile curve)”,通常用來描述兩端高、中間低的趨勢圖。在 ChatGPT 的使用中,這種曲線可以理解為使用場景和使用者活躍度呈現“兩頭高、中間低”的態勢:一端初始高峰階段是新使用者接觸ChatGPT初期的高活躍度,嘗試各種功能中間階段活躍度下降,部分使用者因不知如何用或找不到價值而流失另一端穩定上升階段是剩下的使用者逐步將 ChatGPT 融入生活或工作流程,如寫作、郵件、程式碼輔助、研究等形成習慣,高頻使用 ChatGPT從“模型即基礎設施”到“人即護城河”這一趨勢正在從多個層面重塑AI產業格局。去年,主流觀點還集中於模型規模、訓練成本和基礎設施投入,例如“訓練一個GPT-4等級模型到底要花多少錢”“誰能率先上線超萬卡叢集”等。但到了2025年中,我們看到的是另一個敘事逐漸佔據主導地位:頂級人才才是AI下一階段突破的決定性要素。隨著AI應用層生態的持續豐富,算力價格不斷下降,建構一款AI產品的門檻不再高不可攀。大量初創企業借此機會進入市場,建構以“整合式工作流和輕量化模型呼叫”為核心的業務系統。例如 Harvey、Abridge、Perplexity、OpenEvidence 等公司,均在各自領域取得顯著進展。這些企業的核心優勢,不再是底層模型或訓練能力,而是如何用有限資源組織出一支具備創新能力的人才團隊。但與這些正面趨勢相對的是另一個現象:過去被廣泛討論的“預訓練階段”的模型開發、叢集搭建等話題,正在從公共話語體系中逐步淡出。可能原因包括大型算力叢集的建設周期延長,或者如 OpenAI 聯合創始人 Ilya Sutskever 所言,“我們所理解的預訓練方式即將終結”。與此同時,一年前我們看到很多研究實驗室因為成本壓力而合併、收縮,而如今,一批新興力量重新湧現,包括 SSI、DeepSeek、Thinking Machines 等,他們不再依賴大規模算力,而是將“團隊質量”作為差異化競爭的關鍵。這種變化的背後,是AI產業邏輯的轉變——從資源驅動轉向組織能力驅動。過去我們默認:“有錢、有卡、有電”,就能訓練出世界級模型。而現在則愈發清晰地意識到:即便你擁有最大的叢集,也未必能實現技術突破,真正的關鍵,是是否能吸引、留住並釋放頂尖人才的創造力。這種現像在Meta和Google的身上表現得尤為明顯。Meta最近以頗具戰略意圖的方式入股了AI基礎設施公司Scale 49%的股份,並將創始人Alex Wang引入Meta,主導一支“創始人風格”的實驗室,目標是重建長期主義的AI研究文化。Meta擬斥資150億美元控股Scale AI:資料優勢加持能否逆轉AI困局?Google也在多個產品線上進行重組,試圖擺脫現有AI產品的被動局面,重新掌握主動權。這些動作的共同指向是:在當前算力不再是稀缺資源的時代,人才成為唯一的突破口。某種程度上,AI實驗室如今已越來越像職業體育球隊。他們有充足的資本、有明確的“戰術體系”、有明確的“轉會窗口”,更重要的是,他們願意為頂級“球員”,即AI研究員、系統架構師、模型最佳化工程師提供極具競爭力的薪酬待遇。目前,一線AI人才的薪資包動輒在千萬美元以上,個別關鍵人物甚至可談到“億級”甚至更高。而與體育不同的是,AI領域的人才合同流動性極強,沒有多年繫結,隨時可能被挖角。具有諷刺意味的是,最早提出“AI競賽”這一概念的,其實是AI安全社區。他們的初衷,是提醒業界警惕因資本驅動和技術衝動所引發的無序博弈,可能帶來的系統性風險。然而,時至今日,這場競賽已然全面展開,並在“算力”和“人才”兩個核心維度上成為現實。從根本上說,這種趨勢反映了人類面對重大機會時的一貫反應。每當出現一個足夠誘人的技術突破或市場窗口,人們幾乎不會主動“剎車”。AI 正是這樣一種變革性技術,它有可能重塑整個產業格局甚至社會結構,回報極其可觀。也因此,圍繞它的關鍵資源,尤其是最稀缺、最難複製的人才,正在被不斷推向競爭的極限。更值得注意的是,儘管當前AI實驗室之間的競爭異常激烈,但整個行業的氛圍卻較三年前顯得更為“平穩”。一個合理的解釋是:對大多數參與者而言,“持續競賽”已成為默認狀態,市場結構基本固化,主導力量明確,生態內部逐漸建立起某種“動態均衡”。雖然風險與不確定性依然存在,但從系統性角度看,這個行業正朝著一種更自洽、更有秩序的形態演進。 (Miss LN)
GPT-4.1 系列上線 ChatGPT 免費用戶也能用
剛剛,GPT-4.1 正式上線 ChatGPT,網友辣評:4.1 > 4.5就在剛剛,OpenAI 宣佈 GPT-4.1 模型正式上線 ChatGPT。Plus、Pro 及 Team 使用者現可通過模型選擇器的「更多模型」菜單訪問該模型。企業版與教育版使用者的存取權將在未來幾周陸續開放。GPT-4.1 系列包含三個版本:GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano,三者均支援高達 100 萬 token 的上下文窗口,相比 GPT-4o 的 12.8 萬 token 實現大幅提升。🧑‍💻 GPT-4.1 系列模型在程式碼生成、指令遵循和長文字理解等方面表現尤為突出,可更高效地滿足日常開發者和技術使用者的使用需求。在真實軟體工程能力的評估標準 SWE-bench Verified 基準測試中,GPT-4.1 更是得分 54.6%,較 GPT-4o 提升 21.4%,較 GPT-4.5 提升 26.6%,當時也讓不少網友調侃:4.1>4.5。此外,GPT-4.1 mini 已替代原有的 GPT-4o mini,向所有使用者全面開放。關於 GPT-4.1 系列模型的詳細資訊,歡迎點選回看 APPSO 此前報導 👇剛剛,OpenAI 發佈 GPT-4.1 !吊打 GPT-4.5,14 萬/月的博士級 AI 曝光在 OpenAI 持續迭代模型能力的同時,其競爭對手 Anthropic 也在積極推進下一代大模型的發佈。🥊 據 The Information 援引知情人士透露,Anthropic 即將在未來幾周內推出 Claude Sonnet 和 Claude Opus 的新版模型。新一代 Claude 模型主打「推理+工具使用」的復合能力,能夠在任務執行過程中靈活切換模式。舉例而言,在市場調研任務中,模型不僅會分析全國趨勢,還能結合本地人口資料進行深入推理,給出更精準的建議;而在程式碼生成場景下,新模型還能自動測試並修復自身生成的程式碼,從而大幅減少使用者的後續干預。 (APPSO)