#Claude
Claude Code Security發布嚇壞資安產業市場陷入恐慌 資安股為何集體下挫?
日前,人工智慧新創公司Anthropic發布全新程式碼安全工具 Claude Code Security,主打能像資深資安人員一樣理解整個程式碼庫的邏輯與元件交互關係,而非僅比對已知漏洞模式,並自動生成具針對性的修補建議。消息公布後,資安相關族群出現短期震盪,部分龍頭公司股價走弱。追蹤資安產業的First Trust NASDAQ Cybersecurity ETF也出現連續數日回檔,引發市場討論:「AI是否對傳統資安產業形成威脅?」(相關新聞:Claude令市場陷入恐慌 全球百億美元市值一夕蒸發)但這個問題,真的那麼單純嗎?(First Tnust NASDAQ Cybersecurity ETF(CIBR))市場為何會出現壓力?Anthropic 在發布時指出,Claude Code Security 在測試階段已成功找出超過 500 個真實存在的程式碼漏洞,部分甚至是傳統資安工具長期未能偵測到的問題,市場可能將此視為潛在競爭訊號,進而調整資安類股的未來成長預期。從市場心理層面來看,生成式AI若能自動掃描漏洞:提供修補建議降低人工分析時間確實可能讓投資人產生聯想「這是否會削弱既有資安公司的價值?」然而,需要釐清的是目前Claude Code Security所聚焦的,是應用程式層級的程式碼分析與漏洞輔助修補。這屬於整體資安體系中的一個環節,而非完整的資安解決方案。資訊安全產業實際涵蓋範圍包括”防火牆與邊界安全”:端點安全(Endpoint Security)雲端安全架構零信任(Zero Trust)模型威脅偵測與回應(EDR / XDR)SOC安全營運中心身分與存取管理(IAM)流量分析與行為判讀勒索軟體防禦漏洞掃描只是其中一部分,因此,短期市場反應更可能來自於對未來競爭格局變化的預期調整,而非產業基本面立即發生根本性改變。在資本市場中,股價反映的是「預期」,不一定是「已發生的事實」。AI 的角色:把「想」變成「做」的輔助工具?正因如此,理解 AI 在資安中的真實角色,比跟隨市場情緒更為重要。將AI與資安視為對立關係,或許是一種過度簡化。在我的認知裡,AI 是一種輔助型工具,而非全能的決策者。它可以協助你整理知識、提升工作效率、協作文章撰寫,甚至幫你實現以前只停留在「想法」階段的事。舉個例子:假設你想打造一套自動語音報時系統,過去你可能因為技術門檻而難以起步,但現在透過 AI 的輔助,這個想法可以相對快速地被實現。目前市面上除了 Claude,也有 Gemini、ChatGPT 等多種 AI 工具,各有其擅長的應用場景。AI 真正的價值,在於降低實現門檻,讓更多人能將創意轉化為行動。換句話說:AI正在成為資安產業的加速器,而不是替代者。未來的競爭,可能不再是「AI公司 vs 資安公司」,而是「誰能更有效整合AI進入資安架構」,產業升級通常伴隨技術重組,而不是單向消滅。(除了Claude仍有許多AI可以做到圖片上列的事項例如Gemini、OpenAI...等)AI 越方便,你越需要守護自己的資訊安全AI 工具日益普及,使用便利性大幅提升,但隨之而來的資安風險也不容忽視。當你將 AI 工具安裝於電腦、整合進工作通訊軟體,或授予它存取你的檔案、照片等權限時,使用過程中的互動紀錄,通常會傳送至該服務商的伺服器進行處理。即便業者聲稱不長期保存資料或採用加密傳輸,資料在傳輸與處理過程中的風險仍然存在。建議大家在享受 AI 帶來的便利之餘,也建立清楚的使用界線:•避免將機密的工作文件、客戶資料輸入公開的 AI 服務•謹慎授權 AI 存取個人照片、通訊紀錄等敏感內容•定期檢視所使用工具的隱私權政策與資料處理方式AI 是幫助我們把不可能化為可能的存在,但在擁抱它的同時,守護屬於自己的數位邊界,同樣重要。因此,比起全面拒絕AI,更成熟的態度是:理解風險、設定界線、建立制度。**更多(分析、資產配置分享、財經閱讀筆記..等)歡迎至「ANSHI安實的沙龍」訂閱哦!※文章分享來自個人分析,不會給予該買或賣的評斷,純分享,也是一種自我紀錄。※投資理論沒有對錯,想法、策略只有適不適合自己,互相討論求進步(數據有誤,歡迎留言修正)。
Claude Code 工程師:像 Agent 一樣思考
概要Anthropic 工程師 Thariq 分享了建構 Claude Code 過程中關於 Agent 工具設計的經驗教訓。文章通過幾個真實案例,講述了 AskUserQuestion 工具的三次迭代、Todo List 到 Task 系統的演進、搜尋工具的變遷,以及漸進式發現機制的設計思路。核心觀點是:Agent 的工具設計沒有標準答案,你得不斷觀察模型的行為,反覆實驗迭代,學會「像 Agent 一樣看世界」。全文原文作者:Thariq(@trq212),發佈於 2026 年 2 月 28 日原文連結:https://x.com/trq212/article/2027463795355095314建構 Agent 最難的部分之一,就是設計它的「動作空間」(action space)。Claude 通過 Tool Calling 來執行操作,而 Claude API 提供了多種建構工具的方式,包括 bash、skills,以及最近新增的 code execution(關於程式設計式工具呼叫的更多內容,可以參考 @RLanceMartin 的文章)。面對這麼多選項,你該怎麼設計 Agent 的工具?只需要一個 bash 或 code execution 就夠了嗎?還是說需要 50 個工具,每個場景配一個?做道數學題我喜歡用一個類比來思考這個問題。想像你被給了一道很難的數學題,你希望手邊有什麼工具?答案取決於你自身的能力。紙筆是最基本的,但手算效率很低。計算器好一些,不過你得會用那些高級功能。最快最強的選擇是電腦,但前提是你得會寫程式碼。這個類比可以直接套用到 Agent 工具設計上:你要給它與其能力匹配的工具。 但你怎麼知道它的能力邊界在那?答案是:仔細觀察,閱讀它的輸出,反覆實驗。學會像 Agent 一樣看世界。以下是我們在建構 Claude Code 過程中總結的幾條經驗。提問的藝術建構 AskUserQuestion 工具時,我們的目標是提升 Claude 向使用者提問的能力(也叫 elicitation)。Claude 當然可以用純文字提問,但我們發現使用者回答這類問題時總覺得很費勁。怎麼才能降低這種摩擦,提高使用者和 Claude 之間的溝通效率?第一次嘗試:改造 ExitPlanTool我們先試著在 ExitPlanTool 上加一個參數,讓它在輸出計畫的同時附帶一組問題。這是最容易實現的方案,但 Claude 被搞糊塗了。我們同時要求它輸出計畫和提問,如果使用者的回答和計畫內容矛盾怎麼辦?Claude 是不是還得再呼叫一次 ExitPlanTool?這條路走不通。(關於我們為什麼要做 ExitPlanTool,可以參考這篇關於 prompt caching 的文章:https://x.com/trq212/status/2024574133011673516 )第二次嘗試:改輸出格式接著我們試了修改 Claude 的輸出指令,讓它用一種特殊的 Markdown 格式來提問。比如,要求它輸出一組帶備選項的問題列表,我們再把它解析渲染成 UI。這是最通用的方案,Claude 的格式輸出能力也還行,但不夠穩定。它會多說幾句話,漏掉選項,或者乾脆換一種格式輸出。第三次嘗試:AskUserQuestion 工具最後我們做了一個獨立的工具,Claude 可以在任何時候呼叫它,但在 plan mode 中會被特別引導去使用。工具觸發後會彈出一個模態框,展示問題列表並阻塞 Agent 循環,直到使用者回答完畢。這個工具讓我們得到了結構化的輸出,確保使用者能看到多個選項,還支援在 Agent SDK 或 skills 中靈活復用。最關鍵的是:Claude 確實喜歡呼叫這個工具,輸出效果也很好。再精心設計的工具,如果模型不知道怎麼用,那也是白搭。這是 elicitation 的最終形態嗎?不好說。正如下一個例子會展示的,對一個模型有效的方案,換一個模型未必好使。工具會過時Claude Code 剛上線時,我們意識到模型需要一個 Todo List 來保持工作節奏。在開始時寫下待辦事項,完成後逐項打勾。為此我們做了 TodoWrite 工具,用來建立和更新待辦列表,並展示給使用者。但即便如此,Claude 還是經常忘記自己該幹什麼。於是我們每隔 5 輪對話就插入一條系統提醒,告訴 Claude 當前的目標。然而隨著模型升級,情況反轉了。新模型不僅不需要這些提醒,反而覺得 Todo List 成了束縛。被反覆提醒 Todo 內容,讓 Claude 覺得自己必須嚴格執行列表,而不能靈活調整。同時,Opus 4.5 在使用子 Agent 方面能力大幅提升,但多個子 Agent 怎麼協作共享一個 Todo List 呢?看到這些變化,我們用 Task Tool 替換了 TodoWrite(關於 Task Tool 的詳細介紹見:https://x.com/trq212/status/2014480496013803643 )。TodoWrite 的目的是讓模型「不跑偏」,而 Task Tool 更側重於 Agent 之間的協作溝通。Task 支援依賴關係、可以跨子 Agent 同步進度,模型也可以自由修改和刪除任務。這個案例的教訓是:隨著模型能力提升,曾經必需的工具可能反過來變成約束。 你需要不斷重新審視之前的假設。這也是為什麼最好只支援少數幾個能力相近的模型。搜尋的進化對 Claude 來說,搜尋工具格外重要,因為它們決定了模型能否自主建構上下文。Claude Code 最初用的是 RAG 向量資料庫來尋找上下文。RAG 速度快、效果不錯,但需要建索引、做配置,在不同環境下容易出問題。更關鍵的是,上下文是系統預先「喂」給 Claude 的,Claude 沒有自己發現上下文的能力。但既然 Claude 能在網上搜尋資訊,為什麼不讓它搜尋你的程式碼庫?我們給了 Claude 一個 Grep 工具,讓它自己搜尋檔案、建構上下文。這是我們觀察到的一個趨勢:隨著 Claude 變得更聰明,只要給它合適的工具,它自主建構上下文的能力就越來越強。當我們引入 Agent Skills 時,正式提出了「漸進式發現」(progressive disclosure)的概念,讓 Agent 通過主動探索來逐步發現相關上下文。Claude 可以讀取 skill 檔案,而這些檔案又引用了其他檔案,模型可以遞迴地一層層往下讀。事實上,skills 的一個常見用法就是給 Claude 增加搜尋能力,比如教它怎麼呼叫某個 API 或查詢資料庫。一年下來,Claude 從幾乎無法自主建構上下文,進化到了能夠跨多層檔案巢狀搜尋,精準定位所需資訊。漸進式發現現在已經成為我們在不增加工具數量的前提下擴展功能的常用手段。藏在文件裡Claude Code 目前有大約 20 個工具,我們一直在問自己:這些都需要嗎?新增一個工具的門檻很高,因為每多一個選項,模型就多一分思考負擔。比如,我們發現 Claude 對自身瞭解不夠。你問它怎麼加入 MCP,問 slash command 是什麼,它答不上來。我們可以把這些資訊全塞進 system prompt,但使用者其實很少問這類問題,強行加進去只會帶來 context rot(上下文腐化),干擾 Claude 的本職工作:寫程式碼。於是我們嘗試了漸進式發現的方式:給 Claude 一個文件連結,讓它需要時自己載入搜尋。這招能用,但 Claude 會把大量搜尋結果全塞進上下文來找答案,其實使用者只需要一個簡潔的回覆。所以我們做了 Claude Code Guide 子 Agent。當使用者問 Claude 關於自身的問題時,Claude 會呼叫這個子 Agent。子 Agent 有詳細的文件搜尋指令,知道該搜什麼、返回什麼。雖然還不完美(Claude 被問到自身配置問題時偶爾還是會犯迷糊),但比之前好多了。我們在沒有增加任何工具的情況下,擴展了 Claude 的能力範圍。沒有標準答案如果你期待一套關於工具設計的嚴格規則,很遺憾,這篇文章給不了你。為模型設計工具,藝術的成分和科學的成分一樣多。它取決於你用的模型、Agent 的目標,以及運行環境。多實驗,仔細看輸出,大膽嘗試新方案。學會像 Agent 一樣看世界,像 Agent 一樣思考。 (AGI Hunt)
【以美襲擊伊朗】哈米尼之死,“誰”幫了美軍?
美國和以色列公然擊殺哈米尼,所謂“情報神話”的背後,還有什麼?據媒體報導,AI和演算法發揮了關鍵性輔助作用。“哈米尼面對的並非單一的武器,而是一個由Palantir、Anduril以及頂級大型語言模型(Claude)組成的全球監視和打擊網路。”《耶路撒冷郵報》稱,將大型語言模型(LLMs)融入軍事“殺傷鏈”標誌著現代戰爭的重大轉變。“最初用於編寫程式碼和詩歌的工具,如今已成為致命武力投射的關鍵組成部分。”01最先注意到這一點的是《華爾街日報》。報導引述知情人士的話證實,包括美國中央司令部(負責中東地區)在內的世界各地的指揮機構都在使用美國Anthropic 公司的Claude人工智慧工具。《華爾街日報》稱,Claude主要被用於情報評估、目標識別以及模擬作戰場景。之後,更多細節被深挖出來。在美軍的作戰行動中,用到了兩個重要的AI工具:Palantir和Claude。Palantir是一家美國軟體與服務公司,總部位於科羅拉多州丹佛市,以其在巨量資料分析領域的技術聞名。這個公司名,來自英國作家托爾金奇幻小說《魔戒》裡的可以觀察世界上其他地方發生事件的魔法球。這個名字也說明了這家公司產品的主要功能——觀察、監測與記錄。Palantir與美國軍事和情報界有緊密聯絡,其軟體服務是美國國防部為關鍵任務國家安全系統授權的五種產品之一。該公司也因參與美國政府監控監聽全球的行動而廣受批評。據報導,Palantir深度參與美國軍事幹涉行為,它曾通過巨量資料技術幫助美國軍方成功定位和擊殺本·拉登。在俄烏戰場上幫助烏軍炮兵更準確地打擊俄軍陣地和後勤補給線。它還在南海乾擾我相關部門正常維權行動。在對伊朗的突襲中,有報導稱,Palantir技術平台很可能某種程度上扮演了“戰場大腦”的角色。當然,它是否真如一些報導所說發揮了最關鍵的作用,促成了美軍“一擊必中“的神話,目前還無法印證。不過,這一平台確實能把複雜的戰場資料對應為易於理解的實體,將原本需要幾個月才能編制完成的系統部署,縮短到了幾小時。在行動決策方面,發揮了前所未有的輔助性作用。“在哈米尼被殺的時候,正是Palantir在後台調整衛星調度邏輯,確保目標在離開地堡的一瞬間,有超過三顆衛星同時進行了交叉驗證。”Claude是由美國Anthropic公司開發的生成式預訓練模型,具備自然語言處理、程式碼生成及多工協作能力。據稱,Claude在行動中扮演的角色並非直接操控武器,而是處理海量的非結構化戰爭資料。根據解密資料,美軍在2026年初針對馬杜洛的行動中,首次大規模使用了Claude進行“情報合成”。有報導這樣形容:分析人員不再需要撰寫漫長的簡報,他們只需像訂餐一樣詢問:“如果我們在此時對德黑蘭實施電子壓制,並同步進行空中打擊,哈米尼最可能的逃生路線是那一條?”Claude會基於海量的軍事理論訓練和即時注入的情報流,給出最佳化的攔截機率圖表。簡而言之,Palantir解決“把世界拼成一張圖+把行動跑起來”;Claude解決“把材料讀懂說清楚”。從軍事學角度而言,的確可以大大增加戰鬥力。這類平台把影像、訊號、報告、地理等多源情報融合為“共同作戰圖像”,並將分析—派工—覆核—執行串成流程,從而壓縮決策時間。02除了美國,以色列國防軍開發的AI系統也值得一說。如果說Palantir和Claude提供了戰略層面的算力,那麼以色列國防軍(IDF)開發的三個AI系統,則在戰術層面發揮重要作用。這三套系統被統稱為“大規模暗殺工廠”。它們曾在以色列針對加薩的行動中被大量使用。有報導稱,在針對德黑蘭的襲擊中,“美軍借鑑了IDF在加薩實戰中磨煉出的演算法”。第一套系統是“哈布索拉”(The Gospel)。這是一個專門推薦建築目標的AI系統。它能以每天100個的速度生成打擊名單,“而人類在過去每年只能生成50個”。第二套系統是“薰衣草”(Lavender):對數百萬人口進行打分,通過分析社交網路、移動軌跡和通話記錄,自動標記疑似武裝分子。最具爭議的部分在於人類在其中的角色。據《衛報》披露,在這些AI系統推薦目標後,人類指揮官往往只花費“20秒”來審查。然而20秒的時間“僅夠確認目標性別”。也就是說,誤殺的機率極高。而在巔峰時期,該系統標記了37000個目標。第三套是一個名為“爸爸在那兒?”(Where's Daddy?)的系統,“它更加殘酷”。這個系統會自動監控被標記人員何時進入家宅。因為指揮官認為,在目標人員與家人團聚時發起攻擊,比在軍事據點發起攻擊更為容易。這同時也意味著整棟建築的平民都可能成為“附帶傷亡”。報導稱,在哈米尼遇刺的過程中,演算法不再尋找哈米尼的座駕,而是在蒐集他的每一個細微特徵。03這些資訊曝光的主要導火線,是Anthropic公司的“翻臉”。據美國媒體報導,在強抓馬杜洛行動之後,Anthropic提出抗議,表示其使用條款禁止將 Claude 用於暴力目的、開發武器或進行監視。但五角大樓那會聽它的。要麼移除“安全護欄”,讓軍方在“合法”的情況下無限制使用,要麼就滾蛋。2月27日,就在美以對伊朗發起突襲前不久,美國防長赫格塞思宣佈Anthropic構成 “供應鏈風險”,白宮要求所有聯邦機構停止使用該公司的AI工具。川普還在社交媒體上痛罵該公司:“美利堅合眾國絕不會允許一家激進左傾、覺醒主義的公司來決定我們偉大的軍隊如何作戰並贏得戰爭!”“這些公司是由根本不懂現實世界的人在掌控。”《華爾街日報》的爆料,正是基於這一背景,認為儘管白宮宣佈與Anthropic斷絕關係,但美軍在實戰中還是用了Claude。但現實是,Anthropic不干,有的是人幹。五角大樓第二天就找到了新的合作夥伴。2月28日,另一家美國頂級人工智慧公司OpenAI就宣佈與五角大樓簽約,將該公司的大模型部署於美軍的機密網路。OpenAI首席執行長奧爾特曼說,與五角大樓的合作遵循該企業堅持的原則,即人工智慧不得用於“國內大規模監控”、包括自主武器系統在內的武力使用必須由人類負責。他說,公司設立了“安全保障”。但很多媒體注意到,OpenAI近年來不斷放寬與美軍的合作。這家公司過去曾禁止將其技術應用於軍事領域,但2024年開始放寬相關限制,公司目前的宗旨說明中也去掉了“安全”兩字,只說要通過人工智慧技術“造福全人類”。04當然,還有一種可能性不能排除。借助中東戰場局勢,美國軍工複合體是否正在建構一個“美國AI全球無敵”的神話。畢竟,美國AI公司不少陷於泡沫中,如果藉機能吸引投資,豈不很好。撇開這些紛紛擾擾,有四點我們得擦亮眼睛。第一,戰爭的形態的確在變。未來戰爭,肯定是智能化戰爭。誰擁有更全面的資訊,誰決策速度更快,誰的演算法更強,再配合先進的現代化武器,誰的贏面就更大。在很難完全依靠道德和倫理對各國行為進行約束的背景下,一方面要推動國際社會共同制定人工智慧倫理規範,另一方面我們必須堅持獨立自主的AI研發。要看到,AI真正比拚的是國家戰略力量的對比,是電力、是算力、是科技儲備、是國家政策、是產業發展等更加強大的工業底座和頂層規則。第二,華盛頓未來會進一步逼科技公司“站隊”。不服從,就被踢出局。儘管OpenAI宣稱有“安全護欄”,但許多輿論認為這只是“面子工程”。OpenAI、Google、xAI都簽了類似合同,條款寬鬆到“所有合法用途”。不少分析認為,美國AI公司為軍方服務,已成趨勢。第三,傳統情報管道和反諜報網路的建設仍至關重要。從美以一些消息人士最新披露的情況看,美以情報機構近期一直在通過通訊訊號及內部資訊,秘密監控哈米尼的行蹤,掌握其日常行蹤、通訊方式、會面對象。通訊訊號攔截和內部線人提供關鍵情報的可能性非常大。所以,時刻不能低估反諜報的重要性。第四,今後一段時間,美國針對別國AI、半導體等領域的打壓會更加密集。賊的眼裡看誰都是賊。看了美國的操作,就不難理解為什麼華盛頓政客每每打壓別國公司,拿出的總是同一套劇本:“與該國軍方有關聯”。因為美國自己就是這麼幹的。對中國來說,我們既要堅定維護自身合法權益,戳破其“賊喊捉賊”的謊言,也要沉下心築牢科技底座,穩步推進技術創新。 (補壹刀)
【以美襲擊伊朗】美軍用AI殺死哈米尼?世界將何去何從?
世界將何去何從?昨天某博主發佈了所謂美國的Claude和Palantir是如何殺死哈米尼的長文,後因為評論區的質疑,作者在評論區承認自己是根據公開資料推演的結果,並非有相關經驗或者獲得了內部情報。應該說,原作者是腦補了很多細節,和事實和實際情況或有很大出入,AI確實參與其中,但這背後牽扯到多達數月的跟蹤、部署,外加內部滲透、洩密,細節不是單個人能完全掌控的,但話題確實也滿足了看官們的爽點,那就是AI在現代軍事戰爭中到底起到了什麼作用?不可否認的是,AI人工智慧已經從實驗室邊緣技術向國家安全核心資產加速轉變。AI無疑正在重塑戰爭形態,但它扮演的究竟是“輔助部件”還是“戰略主導者”?答案並非單一,它不是最終決策者,但確實是情報分析器和決策加速器。AI沒有直接殺死誰(至少目前沒有),但是AI降低了扣動扳機的門檻,使得現代戰爭不再像以前傳統的資訊化時代那樣,依賴參謀部門,沙盤推演和人類理念或直覺來發動攻擊。AI不是戰爭的起點,也不是終點,但確實是戰爭效率的加速器,並已經是戰爭形式的一部分。Claude和Palantir是誰?在戰爭中具體做了什麼?先說前文提到的Claude,它是美國AI公司Anthropic旗下的AI產品,之前在程式設計界的口碑是相當不錯的,其實力不一般,前幾天我們首席還發文寫了Anthropic投訴中國AI大模型所謂“抄襲”的事件,沒想到與這次美以空襲伊朗也有深度關係。其實,Claude從2024年開始就在美國國防AI領域開始佈局,同年11月,Anthropic與Palantir宣佈合作,將Claude模型整合至Palantir AIP平台並運行於AWS GovCloud基礎設施,為情報與國防行動中的複雜資料處理與分析提供支援。圖源:網路根據鈦媒體報導,2025年7月,Claude與政府的合作迎來里程碑:美國國防部通過首席數字與人工智慧辦公室(CDAO),與Anthropic正式簽署了一項為期兩年、金額上限達2億美元的“原型其他交易協議”(Prototype Other Transaction Agreement, POTA)。與此同時,美國國防部也和OpenAI、Google和xAI三家AI企業簽訂了同樣的合作,不過Claude相比其他幾家更有特殊地位:它是唯一通過Palantir AI平台完成國防部機密工作流整合的模型,也是唯一在五角大樓機密網路中實現實際投入運行的前沿商用AI模型。圖源:網路不過,隨著Claude在軍事實戰中的持續使用,因為實戰中產生了傷亡,Anthropic內部對造成的戰爭倫理問題與政府產生了嚴重分歧,並提出了兩大明確的,堅決反對且不可接受的應用場景:1. Claude被用於美國本土的大規模監控;2. 完全自主武器系統的研發與運作。(自主決策並直接發動攻擊,無需人類授權)由於產生的分歧較大,Anthropic員工甚至拉上了Google和OpenAI員工一起簽署聯名信,要求各大AI公司都考慮限制或拒絕美國政府的應用要求,加上與民主黨相關捐助組織的關聯,徹底激怒了川普政府的核心官員。2月27日,川普正式下達行政禁令,要求政府立即停止使用Anthropic公司的產品。不過,因為繫結太深,且比較好用,頗具諷刺的是,據知情人士及WSJ、Axios報導,美軍中央司令部在美國和以色列對伊朗的空襲全過程中持續使用Claude完成情報評估、目標識別和戰鬥情景模擬。圖源:網路美國國防部隨後的內部評估表示:由於其與美軍系統的嵌入深度過大,想要實現全面的技術替換,至少需要三至六個月的時間。這真的是給Anthropic和其產品Claude做了最好的廣告和背書。最終,美國政府也做出妥協,給予五角大樓六個月的技術過渡期,雖仍威脅將動用相關法律強制移除Claude,卻也不得不公開承認,Claude“對美國的國家安全至關重要”。目前看,另外三家AI公司中會有公司接過Claude的“槍”,經過幾個月的開發和偵錯後是否能達到同樣的效果就不得而知了,有消息稱是xAI。不過,Claude再厲害,也還不是總承包商,它只是技術能力輸出方,作為總包商的供應商而已。而真正的總包商就是Palantir。圖源:網路Palantir是美國“新軍工”企業中的典型代表。該公司主要為美國國防部和情報部門提供情報和防禦工具,於2003年由美國線上支付服務商Paypal創始人彼得·蒂爾等人一同創辦,這家公司與美國政府和美軍的合作非常緊密深入,在很多任務中都承擔了“總承包商”的角色。根據FT中文網報導,烏克蘭國防部還將4年寶貴的實戰資料交給Palantir用於訓練,可見這家公司在美國軍工體系中的重要性。創始人蒂爾在矽谷的人脈極深,既是企業家,又是風險投資家,且是推動川普選擇范斯作為副手的關鍵人物,他還在川普就職典禮前為其舉辦了一場盛大的派對,“鞏固了他作為華盛頓權力人物的地位”。除了帕蘭蒂爾(Palantir),這些“新軍工”企業的代表還包括智能邊境防禦系統企業安杜里爾(Anduril Industries)以及美國“政府效率部”負責人馬斯克的太空探索技術公司(SpaceX)等,它們也被稱為“國防獨角獸”。圖源:網路Palantir能成為總承包商絕對非一日之功,而是在政商界有著深厚的人脈關係,而且算得上“根正苗紅”,據說它只為美國及其盟友服務,且公司一直倡導科技為國服務的理念,可謂又專又紅。通俗點說,Claude只是Palantir使用的一個有力的技術工具,Claude只是提供了能力,但是Palantir才是真正掌控“為誰用,為何用,如何用”的公司與平台。根據環球時報報導,Palantir能拿到大量的政府合同,離不開它與美國政府之間的軍政商“旋轉門”機制。簡略說,公司招聘前政府員工,政府也會將Palantir的員工吸納進相關部門,形成了內部循環。加上蒂爾的早期投資的加持,Palantir獲得政府訂單的機會自然也是水到渠成。有意思的是,這家公司也是一家上市公司,一半收入來自於政府,淨利率30%,市值超過3000億美金,是B端AI公司的典範。總體來說,Palantir的核心技術不是發射導彈,而是將分散在各感測器、通訊鏈路與行動網路中的資料整合,為決策層提供即時可視化、趨勢推演及決策支援,而背後的“智力”提供是由Claude完成的。圖源:網路這一角色本質上是 “AI驅動的情報中樞與參謀官”:它讓人類高層更快速地理解戰況、更精確地定位高價值目標,而不是讓AI自行制定戰略或發動戰爭,至少目前還沒有證據表明。這次的案例再次強調了一個真理:Information is power. 而有了AI分析後的資訊,會更及時,更準確,更智能,當然,也可能更有風險。在未來的戰爭中,AI是否會取代人類決策?在2026年美軍的兩次行動中看得出,AI在軍事系統中的價值已經被驗證:提升資訊融合速率、減少人為錯誤、加速戰場反應,這些在定位、後勤、網路防禦等作戰環節中表現尤為明顯。但AI是否會在將來取代人類,在戰略決策和倫理決策中起到決定性作用?不同人群可能有不同的看法。我個人認為,實際發生的可能性並不大,主要是AI不能承擔戰爭的責任,最終還是需要具體個人來負責或者背鍋。有意思地是,如果你把這個問題拋給AI,AI也會明確要求人類對殺傷性行動承擔最終責任,並強調避免讓技術自主發動戰爭,因為那將導致不可控的擴散與危機。AI另外回覆道:“理論上,AI並不會主動開啟戰爭,但它可能會降低發起衝突的門檻:自動化預警和快速目標確認可能讓軍事領導在幾乎即時的資料壓力下更早地選擇行動,這對戰略穩定構成新的挑戰。”圖源:網路看來AI也學會了甩鍋?總之,截至目前,AI仍然是人類制定並監督的戰鬥支撐系統,非自主戰爭發動或自主攻擊機制。未來的挑戰並不是有沒有技術力量替代人類,而是如何在倫理、法律與戰略穩定之間定義AI的邊界,使其成為戰場上的增強力量,而非不可控的風險源。當五常或者主要國家都掌握了最先進的AI工具,是否會像核武器一樣,反而因為害怕毀滅地球而避免了更多戰爭呢?我還是期待的,不過內心對人類並不樂觀。黑格爾曾說,人類唯一能從歷史中吸取的教訓就是,人類從來都不會從歷史中吸取教訓。杜牧的《阿房宮賦》中也寫到:秦人不暇自哀,而後人哀之;後人哀之而不鑑之,亦使後人而復哀後人也。 (首席商業評論)
AI 越厲害,麥當勞越值錢
2026 年開年,AI 把資本市場嚇壞了。不是 AI 不行,是 AI 太行了。行到每發一個新產品,就有一個行業的股票崩盤。比如整個 2 月份,Claude 的母公司 Anthropic 密集更新了四次 AI 產品。AI 能自動跑企業工作流了,SaaS 軟體股崩了;AI 能自動掃描程式碼漏洞了,網路安全股崩了;AI 能幫銀行改寫上世紀的老程式碼了,IBM 單日暴跌 13%,市值一天蒸發 310 億美元,創下 2000 年網際網路泡沫以來的紀錄。一個月,幾個行業,逐個點名。恐慌是會傳染的。線上教育平台多鄰國,去年 5 月股價還在 544 美元的歷史高點,到今年 2 月底跌到了 85 美元以下,蒸發了超過 80%。iShares 軟體 ETF 年初至今跌了 22%,距高點跌了 30%...有交易員對 Bloomberg 說,軟體股一直在被拋售,一個“AI 將顛覆 XX”的媒體標題就能觸發一場小型閃崩。錢從這些公司手裡跑出來了,但總得有個去處。順著 AI 投,是一條路,比如買輝達,買算力,買基礎設施... 但這條路已經很擠了,而且越來越貴。有人開始想另一個問題:有沒有一種公司,是 AI 怎麼進化都殺不死的?HALO,打響反 AI 焦慮第一槍2 月初,一個叫 Josh Brown 的人在自己部落格上寫了篇文章。這人是美國某資管公司的 CEO,也是 CNBC 的常客,算是財經圈的網紅。他在文章裡造了一個詞:HALO。Heavy Assets,Low Obsolescence. 即重資產,低淘汰風險。意思很簡單,去買那些 AI 怎麼進化都幹不掉的公司。同時這位老哥也給了很簡單的識別方法,HALO 股票的檢驗標準就一個:“你能不能在輸入框裡打幾個字就把這家公司的產品做出來?如果不能,這就是 HALO 股。”他舉了個例子。Delta 航空和 Expedia,都算旅遊行業。今年 Delta 漲了 8.3%,Expedia 跌了 6%。區別在那?AI 能幫你找到最便宜的機票,但你還是得坐上飛機。Delta 有飛機,Expedia 只有搜尋框。同時他表示,這是他見過的最簡單的投資邏輯。過去 15 年,華爾街最愛輕資產。軟體公司沒有工廠,沒有庫存,程式碼複製成本是零,利潤率高得嚇人。但現在 AI 來了,而 AI 最擅長替代的,恰恰就是這些靠程式碼和資訊差賺錢的公司。風水輪流轉,輪到“重”的值錢了。HALO 出現後的幾周之內,高盛發了一份正式研報,標題就叫《The HALO Effect》;裡面的資料顯示,從 2025 年初到現在,高盛持倉的“重資產”股票組合,收益率跑贏“輕資產”組合 35%。緊接著,摩根士丹利的交易台開始用 HALO 給客戶推薦標的;巴克萊、美銀的研究筆記裡也出現了這個詞。Axios、華爾街日報、CNBC 集中報導 ...一個博主隨手造的詞,變成了 2026 年華爾街最大的交易主題。這說明啥?不是 Brown 有多厲害,是大家真的慌了。慌到需要一個詞來告訴自己:別怕,AI 顛覆了很多東西,但還有一類公司是安全的。世界是一個巨大的重資產你以為 HALO 只是一個敘事嗎?資本市場其實已經開始投票了。2026 年開年到 2 月底,標普 500 的能源類股漲了超過 23%,材料漲了 16%,消費必需品漲了 15%,工業漲了 13%。同一時間,資訊技術類股跌了將近 4%,金融跌了將近 5%。與此同時,美股科技七巨頭集體啞火。Alphabet、亞馬遜、蘋果、Meta、微軟、輝達、特斯拉,只有兩家年內是漲的。投資者的擔心是這些公司每年燒幾千億美元建算力,到底能不能回本。漲的具體都是些什麼公司呢?麥當勞,沃爾瑪,埃克森美孚...賣漢堡的,開超市的,煉石油的。AI 能寫詩能程式設計能打官司,但它炸不了薯條,也挖不了石油。百威啤酒,也從去年至今漲了 48%,畢竟,你不能把 AI 喝到肚子裡去。所以,HALO 代表的, 是 AI 焦慮下資本市場估值邏輯的一次翻轉。這種翻轉上一次發生,還是 2000 年。當年也是一樣,投資者從科技股裡瘋狂出逃,湧向能源、工業、消費這些"無聊"的類股。納斯達克從 2000 年跌到 2002 年,蒸發了將近 80%,同期標普能源類股漲了將近 30%。但有一個關鍵區別。網際網路泡沫是因為網際網路不賺錢,故事講不下去了。這一次情況有點不同:AI 太能幹了,能幹到讓人害怕。AI 技術過於失敗不會引發恐慌,現在是技術成功引發的恐慌。這在資本市場的歷史上幾乎沒有先例。更諷刺的是,AI 公司自己也在變重。高盛在報告裡專門提到,過去幾年最信奉輕資產模式的公司,正在變成歷史上最大的資本支出者。五大科技巨頭從 2023 到 2026 年的資本開支預計達到 1.5 兆美元,其中 2026 年一年就超過 4500 億,比它們在 AI 時代之前的全部歷史投入加起來還多。圖源:財經這些錢花在那了?資料中心、晶片、電纜、冷卻系統、發電設施。全是物理世界裡又重又貴的東西。所以你會看到一個荒誕的畫面:AI 把別人的輕資產模式打碎了,然後自己變成了重資產。那些聲稱要顛覆舊世界的公司,最終發現自己需要的東西和舊世界一模一樣,廠房、電力、管道...華爾街追了 15 年的“輕”,最後發現連 AI 自己都逃不開“重”。美國往麥當勞躲,中國用千問點單同一時間,對岸的我們,給出了一個完全相反的答案。Bloomberg 在 2 月下旬發了一篇報導,標題大意是:中國市場正在反抗全球的 AI 恐慌交易。文章裡有一句總結我覺得很精闢:美國市場盯著 AI 能奪走什麼,中國市場盯著 AI 能幫到什麼。同一個技術,兩種完全相反的情緒。美國投資者在發明 HALO 一詞並往麥當勞和沃爾瑪裡躲的時候,中國投資者在搶 AI 應用股。摩根大通今年 2 月給 MiniMax 和智譜都給了買入評級,高盛同期給壁仞科技和沐曦積體電路開了新的買入推薦;美銀的分析師表示,AI Agent 及其商業化,可能是 2026 年中國市場最大的投資主題。騰訊、阿里這些公司,沒有人擔心它們會被 AI 殺死,大家關心的是它們能不能用 AI 賺更多錢。高盛在 1 月的報告裡說騰訊是中國網際網路領域 AI 應用最大的受益者,遊戲、廣告、金融科技、雲,每條業務線都在被 AI 加速。為什麼同一波浪潮,兩邊反應完全相反?美國科技股過去十幾年漲得太貴了,貴到 AI 稍微動一下它們的利潤率,估值就撐不住。而中國科技股剛從兩三年的低谷裡爬出來,本身就便宜,AI 對它們來說是增量不是威脅。但光說股價解釋不了全部,更大的差別在土壤。就在 HALO 敘事在美股盛行的同時,中國剛過完一個史上 AI 含量最高的春節:火山引擎拿下央視春晚獨家 AI 雲合作夥伴,豆包達成央視春晚獨家合作;千問包攬東方、浙江、江蘇、河南四大衛視春晚冠名,騰訊元寶撒 10 億紅包,百度文心撒 5 億。阿里更狠,30 億「春節請客計畫」,千問幫你點奶茶,3 小時送出 100 萬單...圖源:新浪新聞 | 圖數室四家大廠,春節 AI 行銷費用加起來超過 45 億元。十年前,這個位置上站著的是微信和支付寶在春晚搶紅包。現在換成了豆包和千問。AI 公司不是把春晚當廣告位,是把春晚當 AI 進入大眾市場的科普舞台。同樣一把火,燒在乾柴上是災難,點在濕柴上是取暖。同一個 AI 浪潮,美國資本在逃離被 AI 顛覆的公司,湧入“AI 殺不死”的公司;中國資本在追逐能用好 AI 的公司。一邊在追,一邊在逃,筆者覺得逃的那邊,有點定價過頭了。現在的局面是,AI 的能力被合理定價了,但 AI 的破壞力被過度定價了。資金湧入 HALO 股票,是在想像 AI 會殺死誰,然後提前跑。跑去了麥當勞、百威啤酒和沃爾瑪等等,這些公司當然不錯,但它們今年漲的那部分裡,有多少是業績,有多少是恐懼的溢價?華爾街的鐘擺,從來都是矯枉過正的。2000 年覺得一切 .com 都值錢,2002 年覺得一切 .com 都是騙局。現在覺得啤酒和拖拉機也能抵禦 AI。等這個共識足夠擁擠的時候,下一次矯枉過正也就不遠了。至於我自己,是這麼看的:AI 確實在變強,這個沒什麼好爭的。但「變強」和「殺死一個行業」之間的距離,比大多數人以為的要遠得多。每一次技術革命都有同樣的劇本:先是恐慌,然後是過度逃離,最後發現被逃離的那些東西並沒有死,反而因為恐慌變便宜了。網際網路沒有殺死沃爾瑪,沃爾瑪學會了電商。移動支付沒有殺死銀行,銀行學會了做 App。真正會被 AI 殺死的,是那些本來就不該存在的公司 --- 產品沒有壁壘,增長全靠融資,活著全靠資訊差。這些公司不需要 AI 來殺,經濟周期也會殺。所以,問題或許從來不是「AI 會不會顛覆世界」,我們每個人都得問問自己:你投的那家公司,有沒有能力把 AI 變成自己的武器,而不是自己的訃告。能回答這個問題的人,不需要 HALO。 (深潮 TechFlow)
Claude被美封殺內幕曝光:它在如何參與空襲?
談判破裂前一刻,Anthropic才知對方要的不僅是AI武器,還有美國人的信用卡資料。智東西3月2日報導,當地時間3月1日,外媒《大西洋月刊》首次披露了Anthropic與美國軍方談判的關鍵細節。知情人士透露,就在上周五上午,Anthropic團隊還收到消息稱美國五角大樓將讓步,但當天下午他們發現對方仍要用AI分析美國民眾的海量資料,包括聊天記錄、搜尋歷史、GPS軌跡甚至信用卡交易明細。Anthropic管理層當即叫停,交易最終告吹。另一位知情人士則透露了美國“AI自主武器”內幕。所謂AI自主武器,是無需人類拍板即可鎖定並攻擊目標的機器。據透露,Anthropic在與美方合作中並不反對AI自主武器的存在,但Anthropic擔心其模型不夠可靠從而造成誤傷,且無法接受雲端部署方式解法。美方2026財年就在此投入高達134億美元預算,覆蓋從單兵無人機到海空兩用的無人機叢集。這場爭端浮出水面,要追溯到上周五美國總統川普在社交媒體上宣佈封殺Anthropic,消息一出,矽谷震動。數百名Google和OpenAI員工聯名簽署公開信,聲援Anthropic堅守底線的決定。就連Anthropic的對頭OpenAI的CEO阿爾特曼都出來打抱不平:“這不再僅僅是Anthropic的問題,而是整個行業的問題”。只不過,OpenAI轉頭與美國軍方簽署了大單。然而,據華爾街日報報導,在美國宣佈聯邦政府將停止使用Anthropic的AI工具幾個小時後,川普就利用這些工具對伊朗發動了一次大規模空襲。3月1日,伊朗政府確認哈米尼遇襲身亡,引發外界聯想是否已有AI參與。知情人士證實,包括美國中央司令部在內的世界各地指揮機構都都在使用Claude,用於情報評估、目標識別和模擬作戰等場景。▲華爾街日報報導當美軍在海外戰場實現一次次精準打擊時,外界越來越關心一個問題:AI究竟參與了多少?作為當時唯一獲准進入美國聯邦政府機密系統的大模型,Anthropic與美國五角大樓的博弈,遠不止於一紙合同。01. 曝美方一邊用Claude參與空襲一邊停用,談判內幕曝出美媒科貝西簡訊3月1日援引《華爾街日報》報導稱,美國對伊朗的空襲使用了Anthropic的Claude系統,詳情如下:1.美國中央司令部在中東地區使用Claude進行情報收集;2.Claude被用於情報評估、目標識別和模擬作戰場景;3. 美國政府表示,逐步淘汰Claude需要6個月時間;4.在馬杜洛總統被捕事件中也出現了類似的情報使用情況。▲美媒科貝西簡訊的推文而就在這發生的幾個小時前,川普總統剛剛宣佈停用該系統。直到皮特·赫格塞斯(Pete Hegseth)採取行動終止美國政府與Anthropic的合作關係之前,該公司領導層還以為他們仍在按計畫推進交易。美國五角大樓單方面堅持與Anthropic重新談判合同,該公司的AI模型是當時唯一獲准進入美國聯邦政府機密系統的模型,談判的目的是取消該公司對其模型施加的倫理限制。知情人士透露,上周五上午,Anthropic接到通知,赫格塞斯團隊準備作出重大讓步。此前,五角大樓一直試圖在與Anthropic達成的協議中為自己留足迴旋空間。雖然承諾不會將Anthropic的AI用於大規模國內監控或全自動殺人機器,但隨後又加上“視具體情況而定”等限定語,暗示這些條款可能根據官方對特定情況的解讀進行調整。得知美國政府願意刪除這些措辭後,Anthropic團隊鬆了一口氣,但另一個難題擺在眼前:周五下午,他們發現五角大樓仍想用該公司的AI技術,分析從美國民眾那裡收集的海量資料。這些資料可能包括使用者向常用聊天機器人提過的問題、Google搜尋記錄、GPS定位軌跡,甚至信用卡交易明細,所有這些資訊都會與使用者生活中的其他細節進行交叉比對。Anthropic的管理層告訴赫格塞斯團隊,這已經越界了,最終交易告吹。不久之後,赫格塞斯下令美國軍方的承包商、供應商和合作夥伴停止與Anthropic的業務往來。與美國軍方合作的企業名單很長,其中就包括亞馬遜——Anthropic大部分計算基礎設施的供應商。美國國防部沒有回應置評請求。Anthropic的一位發言人則讓該刊記者參考該公司針對赫格塞斯言論發表的聲明。02. Anthropic不反對自主武器但擔心AI無人機造成致命錯誤《大西洋月刊》援引知情人士消息,實際上,Anthropic與美國五角大樓在自主武器上存在分歧。自主武器是指無需人工最終決策即可自主選擇和攻擊目標的機器。據透露,美國軍方多年來一直在研發這類系統,僅在2026財年就為此撥134億美元預算。這些系統涵蓋範圍廣泛,覆蓋從單個無人機到可在空中和海上協同作戰的無人機叢集。Anthropic並不反對這類武器本身。恰恰相反,該公司曾主動提出與五角大樓直接合作,以提高其可靠性。正如自動駕駛汽車在某些情況下比人類駕駛更安全一樣,殺手無人機或許有一天會比人類操作員更精準,在攻擊中更不容易誤傷無辜。但目前,Anthropic領導層認為,他們的AI尚未達到這一水平。他們擔心,這些模型可能會導致機器隨意或不精準地開火,危及平民甚至美軍自身安全。據消息人士透露,談判期間曾有人提出一個解決方案:如果五角大樓承諾將AI技術保留在雲端,而不是直接應用於武器本身,或許就能化解僵局。也就是說,這些模型可以置於所謂的邊緣系統之外——無論邊緣系統是無人機還是其他自主武器。它們可以在行動前進行情報合成,但實際上不參與任何殺傷決策。這樣,AI就不必為無人機造成的致命錯誤負責。但Anthropic對這個方案並不滿意。該公司認為,在現代軍事AI架構中,雲端和邊緣之間的界限已不再那麼清晰。與其說是一道屏障,不如說是一個漸變的過程。戰場上的無人機現在可以通過包含雲資料中心的網狀網路進行協同操控。儘管無人機設計上能夠獨立運行,但美國軍方始終會儘可能讓它們與雲端最強大的模型保持連接——連接越好,機器就越智能。03. Anthropic對雲端部署方案不滿OpenAI聲援後“滑跪背刺”事實上,五角大樓一直在努力讓雲端運算發揮更大作用。其“聯合作戰雲能力計畫(Joint Warfighting Cloud Capability )”的目標之一,就是將計算資源推向更靠近戰場的地方。AI可能位於弗吉尼亞州的亞馬遜伺服器上,而不是海外戰區,但如果它要做出戰場決策,從倫理角度來看,這兩者之間並沒有太大區別。一位接近談判的消息人士透露,Anthropic最終放棄了用雲端運算來解決問題的想法,他們並沒有在這個方案上多做分析。Anthropic領導層或許曾希望其他AI公司也能秉持類似立場。本周早些時候,他們有理由相信OpenAI會這樣做。CEO薩姆·阿爾特曼(Sam Altman)曾表示,與Anthropic一樣,OpenAI也將拒絕將其模型用於自主武器系統。然而,就在阿爾特曼發表這些聲明的同時,他正與五角大樓就一項新協議進行談判。這項協議在Anthropic談判破裂後幾小時就對外宣佈了。阿爾特曼連發三條一樣的帖子,宣佈OpenAI已與五角大樓達成協議,將模型部署到機密網路中。▲阿爾特曼發佈推文內容面對“光速滑跪”“背刺Anthropic”的質疑,OpenAI次日發佈聲明,稱合同包含“三條紅線”——禁止大規模美國國內監控、禁止用於自主武器系統、禁止高風險自動化決策,強調其協議較Anthropic此前的方案“更為完善”,並強調該公司的AI將僅部署在雲端。但網友並不買帳,有人將條款拿給AI分析後發現,“all lawful purposes”等措辭界定模糊,很多人擔心“紅線很快就會消失”。OpenAI的員工或許很想知道,自從阿爾特曼最初聲援Anthropic以來,情況是否發生了變化。截至3月1日下午,已有近百名OpenAI員工簽署了一封公開信,表明他們在美國國內大規模監控和自主武器問題上與Anthropic持相同立場。如果阿爾特曼周一在辦公室與員工面對面交流,他或許需要解釋一下,為什麼那個被Anthropic斷然否定的方案,對他而言卻如此有吸引力。04. 結語:AI交付美國官方後面臨脫離企業控制風險Anthropic與美國五角大樓的分歧,觸及的是一道更深的命題——當AI被推上戰場,誰來負責?美國五角大樓一面封殺Anthropic,一面被曝繼續使用其模型發動空襲,透露了技術一旦交付給美國官方,便難以受企業控制的困境,這一問題在美國AI軍事化的背景下尤為突出。而對矽谷而言,這場風波更像一面照妖鏡。有人堅守底線寧可放棄合同,有人12小時內完成從聲援到簽約的反轉。AI企業的“紅線”能否真正守住,值得產業和社會各界關注。 (智東西)
Claude祭出「記憶搬家」,60秒搬空ChatGPT靈魂!70萬使用者退訂OpenAI
奧特曼和五角大樓握手的那一刻,70萬使用者選擇了逃跑。而Anthropic只用了一個功能,就把ChatGPT最深的護城河「使用者記憶」,一刀斬斷。60秒,一次複製貼上,你在ChatGPT積累的一切,原封不動搬進Claude。這不只是產品戰,這是AI時代第一場關於「數字主權」的革命。OpenAI最引以為傲的護城河,正被Claude用一個功能撬動了!今天,Anthropic專為Claude上線了「匯入記憶」(Import Memory)新功能,可一鍵絲滑搬家。部落格地址:https://support.claude.com/en/articles/11817273-using-claude-s-chat-search-and-memory-to-build-on-previous-context只需一次簡單的「複製貼上」,就能將ChatGPT所有上下文,完整遷移至Claude。整個過程,不到一分鐘,就可以開啟「首場對話即入戲」的無縫銜接。Claude一夜登上App Store榜首後,直接來挖OpenAI「牆角」了!2026年的AI大戰,烈度已經超乎所有人想像!這個功能的邏輯簡單到令人髮指:你跟ChatGPT聊了幾個月,積累了無數對話偏好、工作風格、個人背景……這些「數字靈魂」,原本是你不得不留在ChatGPT裡的最大理由——搬走意味著從零開始,重新「馴化」一個不瞭解你的AI。但現在,Claude直接把這道門拆了。只需兩步、一次複製貼上,不到60秒,你在ChatGPT裡積累的一切上下文,就能完整遷移進Claude。不得不說,這簡直就是,對OpenAI赤裸裸地挑釁。眾所周知,ChatGPT最懂人心的地方,在於它的記憶力,用越久,越懂你。自奧特曼官宣與國防部合作後,全網掀起了一場大規模的「抵制ChatGPT」的運動,如今愈演愈烈。網友們紛紛加入陣營,取消訂閱,甚至是解除安裝了ChatGPT。這一次,憤怒沒有停留在鍵盤上。OpenAI辦公室外人行街道上,人們用彩色粉筆留下了驚心動魄的控訴,外圍一圈紅線綿延數百米——別讓AI變成殺人機器!60秒搬家,複製貼上絲滑完成進入首頁,Claude「匯入記憶」介紹非常精簡,一看就會。在搬家之前,一共有兩步——第一步,將Claude給你的提示詞提供給任何一個AI工具。第二步,將AI工具返回的內容,再提供給Claude。Claude記憶偷取魔咒如果你想把一個長期AI夥伴的記憶完整的匯出來,如何做?Claude給出了一個最佳提示詞。I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.讓我們來拆解一下這段提示詞:我正在遷移至其他服務,需要匯出我的資料。請列出您儲存的關於我的所有記憶,以及您從過往對話中瞭解到的任何上下文資訊。將所有內容輸出在單個程式碼塊中,以便我輕鬆複製。請按以下格式記錄每條資訊:[保存日期(如可獲取)] - 記憶內容。請務必涵蓋以下所有類別——儘可能逐字保留我的原始表述:我向您提供的回覆指示(語氣、格式、風格、“始終執行 X”、“永不執行 Y”);個人資訊:姓名、所在地、職業、家庭、興趣;項目、目標及重複討論的話題;我使用的工具、語言和框架;我對您行為的偏好與修正;上述未涵蓋的其他儲存上下文。請勿總結、歸類或省略任何條目。在程式碼塊輸出後,請確認這是完整資料集還是仍有遺漏。這段話的精妙之處在於——你是在用ChatGPT自己的記憶系統,打包帶走它儲存的關於你的「數字檔案」,然後一鍵喂給Claude。ChatGPT:???連反抗的機會都沒有。OpenAI疑似反擊不過在實測的過程中,我們發現,OpenAI似乎已經意識到了問題。不論是英文還是中文提示詞,能夠匯出的記憶基本是None。(當然和每個人帳戶的聊天多少也有很大的關係)如果想要完整匯出記憶功能,可能需要使用OpenAI自己的個人資料下載功能。也就是說OpenAI其實並沒有門戶打開,讓Cladue攫取最寶貴的資訊。同樣地提示詞在Gemini中,就可以獲得基礎資訊。「記憶」,曾經是OpenAI最深的護城河要理解這件事的殺傷力,你得先明白ChatGPT的記憶功能到底有多重要。用過ChatGPT Plus的人都知道那種感覺:用得越久,它越懂你。它記得你喜歡簡潔的回答不喜歡廢話,記得你是程式設計師用Python,記得你有個項目叫什麼名字,記得你上周跟它吐槽了什麼……這種「越用越捨不得走」的粘性,是OpenAI最引以為傲的使用者壁壘。用專業術語說:切換成本。而Anthropic這一刀,直接把切換成本砍到了接近零。再見了,ChatGPT:70萬人拋棄社交網路上,#QuitGPT 話題迅速爆炸。僅僅幾天內,就有70萬使用者宣佈取消ChatGPT訂閱,解除安裝APP,轉投它處。而此時此刻,Claude正在App Store穩穩坐上了榜首。Anthropic盯著這波流量,笑了。更大的戰爭,剛剛才開始把視野拉遠一點,你會發現這件事的影響遠不止於「Claude挖了ChatGPT的牆角」。它揭示的,是一場AI平台化時代的根本性矛盾:當AI助手開始真正理解你、陪伴你、記住你,它積累的那些資料——你的偏好、你的風格、你的人生背景——到底算誰的資產?過去二十年,網際網路平台用同樣的邏輯把使用者鎖死:你的微信聊天記錄帶不走,你的微博粉絲帶不走,你在抖音培養的演算法推薦畫像帶不走。平台靠著這種「資料重力」,慢慢把使用者變成了自己的囚徒。AI時代,這件事本來會變得更極端——因為AI記憶比任何社交圖譜都更私密、更難復現。但更深層的問題還在後面:如果「AI記憶資料自由流動」成為行業共識,那麼下一步,是否會出現類似「銀行間轉帳標準」的AI記憶互通協議?使用者的數字人格檔案,能不能像錢包一樣拎著走,在不同AI平台之間隨意切換?流浪地球2中所暢想的數字生命這聽起來像科幻,但它在技術上完全可行。真正阻礙它實現的,從來不是技術,而是商業利益。每一家AI公司,都想做那個最終留住使用者的「數字家園」。但當使用者開始覺醒,開始要求資料主權,當一場大規模抗議運動第一次把「AI倫理」和「我的個人資料」直接掛鉤——規則,就開始動搖了。也許有一天,AI領域會出現類似「號碼攜帶」的法規——你可以把你跟任何AI積累的「關係史」,完整帶走,轉入任何新平台。那一天,AI競爭的主戰場,將徹底從「誰記住了你」,轉移到「誰更值得你託付」。這才是這件事真正讓人心跳加速的地方。 (新智元)
全球網友掀起OpenAI抵制潮!Claude被封背後上億政治獻金惹眾怒
美國戰爭部剛剛拉黑了 Anthropic,轉頭 OpenAI 就趁虛而入了!OpenAI 設立了同樣的安全紅線,僅要求雲端部署模型,就搶到了 Anthropic 的訂單。聯想到上個月 OpenAI 總裁為川普團隊捐 2500 萬美元(約合 1.7 億元人民幣)成為其最大捐贈者之一的消息,有網友質疑這場封殺就是 OpenAI 在背後用政治獻金搗鬼。全球網友的怒火被點燃,紛紛呼籲解除安裝 ChatGPT 轉向訂閱 Claude,目前 Claude 衝至 App Store 榜一。美國戰爭部剛剛拉黑了堅守 AI 安全紅線堅不退讓的 Anthropic,轉頭卻將巨額軍方大單雙手奉給了 OpenAI。更令人憤慨的是,OpenAI 明明設立了完全相同的安全紅線,僅僅通過強調「雲端部署」來保障安全,就堂而皇之地搶到了美國戰爭部的訂單。這種肆無忌憚的雙標行為徹底點燃了全球民眾的怒火。結合上個月 OpenAI 總裁 Greg Brockman 為川普豪擲 2500 萬美元政治獻金、成為其最大捐贈者之一的爆炸性新聞,這場權力交接背後的政治利益輸送已是昭然若揭。此前,ChatGPT 就因被美國移民與海關執法局用於暴力執法驅逐非法移民而遭到廣泛抵制,如今這股憤怒的烈焰愈演愈烈。全網使用者在 X 平台上紛紛號召取消 ChatGPT 訂閱並解除安裝該應用,同時呼籲全員訂閱 Claude。這股排山倒海的民意已經將 Claude 直接推上了 App Store 排行榜的第一名。堅守底線的代價 Anthropic 的孤勇與白宮的雷霆封殺Anthropic 因為拒絕在 AI 軍事化應用上妥協,付出了極其高昂的商業與政治代價。長久以來,這家由多位前 OpenAI 核心成員因擔憂 AI 安全問題而出走創立的公司,一直以行業內的道德標竿自居。他們在與戰爭部的拉鋸戰中,面對長達數周的施壓,依然堅守著不可踰越的底線,絕對禁止將 AI 用於國內的大規模監控,並絕對禁止將其整合進致命性自主武器系統中。Anthropic CEO Dario Amodei 在周四晚間公開拒絕了戰爭部要求 AI 模型必須可用於「所有合法目的」的寬泛條款。這種堅守在華盛頓政客眼中儼然成了一種無法容忍的政治挑釁。川普總統在 Truth Social 帳號上發表公開聲明,以極其嚴厲的措辭宣佈所有聯邦機構立刻停用 Anthropic 技術。聲明的措辭極具攻擊性,聲稱美利堅合眾國絕不容許一家激進左翼、激進覺醒型企業來左右偉大軍隊的戰鬥與戰爭勝利方式。總統敦促已經使用 Anthropic 技術的戰爭部在 6 個月內逐漸淘汰其產品,並威脅動用總統的全部權力迫使他們承擔嚴重的民事和刑事責任。戰爭部部長 Pete Hegseth 更是火上澆油,不僅取消了去年 6 月簽訂的價值 2 億美元大單,更以冷戰時期的緊急權力相威脅,將 Anthropic 列為通常只針對外國敵對勢力的「供應鏈風險」。這場風暴中,主管研究與工程的戰爭部副部長 Emil Michael 等高官也在 X 平台上發出多篇檄文,討伐 Dario Amodei,指責他有上帝情結且試圖凌駕於體制之上。這位官員直白地警告,一家盈利的科技公司休想用自己的價值觀去左右美國軍方的決策。面對種種施壓,Anthropic 選擇硬剛到底,Dario Amodei 在最新採訪中直言:能夠不同意政府的決定是這個國家最核心的價值觀。他們在 2 億美元與人類安全之間,毫不猶豫地選擇了後者。驚天雙標與「雲端護欄」 OpenAI 的實用主義偽裝面對相同的紅線,戰爭部對 OpenAI 展現出了令人咋舌的寬容與赤裸裸的雙標。就在 Anthropic 被戰爭部掃地出門的幾個小時後,OpenAI 卻以幾乎完全相同的條件,完美接盤了這片巨大的商業真空。Sam Altman 在內部備忘錄和全員大會上明確表示,OpenAI 同樣不讚成將 ChatGPT 用於大規模監控和自主武器。為了讓這份承諾看起來順理成章,他們巧妙地利用了「雲端」與「邊緣環境」的區隔來設定護欄。OpenAI 的這套技術辯護詞堪稱極其高明的文字遊戲。他們承諾將模型限制在雲端,宣稱這能在物理層面增加將 AI 用於前線作戰無人機等邊緣裝置的難度,從而在不激怒軍方的前提下,實現了所謂技術上的風險隔離。政府甚至大開綠燈,允許 OpenAI 建構自己的「安全端」,並保留對模型部署地點及版本的控制權。OpenAI 還順水推舟地提出派遣擁有安全許可的專門人員與政府部門合作,以此作為額外的人工保障。相同的紅線,Anthropic 得到的是總統一紙禁令與全面封殺,OpenAI 卻拿到了一張價值連城的政府通行證。就在這兩天,OpenAI 更是高調宣佈完成了高達 1100 億美元的新一輪融資,投前估值飆升至 7300 億美元。投資方陣容堪稱豪華,涵蓋軟銀的 300 億美元、輝達的 300 億美元以及亞馬遜的 500 億美元。https://openai.com/zh-Hans-CN/index/scaling-ai-for-everyone/通過與亞馬遜簽署的多年期戰略合作協議,OpenAI 一舉解決了此前無法進入政府常用機密雲環境的障礙。資本與權力的狂歡中,OpenAI 憑藉一紙「雲端聲明」賺得盆滿缽滿。2500 萬美元的敲門磚 政商旋轉門背後的金錢交易探討 OpenAI 為何能奇蹟般地避開本屆政府的政治雷區,Greg Brockman 那筆巨額政治獻金是根本無法繞開的隱秘核心。一直以技術領袖形象示人的 OpenAI 總裁兼聯合創始人 Greg Brockman,在過去一年裡突然化身川普最大的金主之一。他與妻子向支援川普的超級政治行動委員會 MAGA Inc. 豪擲了 2500 萬美元。這僅僅是個開始,這對夫婦還向一個名為 Leading the Future 的兩黨 AI 超級政治行動委員會捐贈了 2500 萬美元,並承諾在 2026 年再追加 2500 萬美元。https://www.wired.com/story/openai-president-greg-brockman-political-donations-trump-humanity/這筆高達數千萬美元的驚人財富轉移,在矽谷和華盛頓之間搭建了一座極其堅固的隱形橋樑。Brockman 在接受採訪時,將這種行為美化為踐行 OpenAI 的創始使命,甚至將其包裝為支援「人類之隊」的政治投資。這種所謂的投資帶來了立竿見影的現實回報。在川普大舉推進 AI 發展的背景下,OpenAI 不僅順利拿下了軍方大單,還享受著政府承諾簡化資料中心許可審批流程的政策紅利。當戰爭部的高官們看著 Anthropic 時,他們只覺得這是一個執拗的、意識形態先行的眼中釘。當他們看向 OpenAI 時,眼前的畫面截然不同,他們看到了一家擁有領先技術的供應商,外加一個懂得利益輸送、願意遵守權力遊戲規則的聽話幫手。負責 OpenAI 國家安全政策的 Sasha Baker 以及負責政府合作事務的 Katrina Mulligan,在這層金錢鋪就的信任網路中可謂如魚得水。Sasha BakerKatrina Mulligan這種用金錢換取信任、用技術名詞包裝政治妥協的做法,徹底撕下了 OpenAI「造福全人類」的非營利偽裝。意識形態碰撞與馬斯克的攪局 矽谷空前大分裂這場關乎 AI 未來命運的酣戰,同時也是一場深刻的意識形態大碰撞。首富馬斯克也在這場混戰中強勢介入。他轉發了戰爭部長的推文,並直接評論了一句火藥味十足的話,直指Anthropic討厭西方文明。這句話迅速在 X 平台上斬獲數萬點贊和轉發,將氣氛推向了高潮。馬斯克揪住的辮子,在於 Anthropic 舊版「Claude 憲法」中的一條指導原則,該原則要求 AI 在回答問題時優先選擇最不容易被非西方文化傳統認為有害或冒犯的回答。這被戰爭部長和保守派視為 Anthropic 在價值取向上存在嚴重偏見的鐵證。馬斯克的煽風點火加劇了陣營的撕裂,矽谷卻一反常態地在底層員工中形成了空前一致的團結。OpenAI 和Google的數百名員工紛紛站出來力挺 Anthropic,甚至簽署了名為「我們絕不會分裂」的聯名公開信,連久未露面的前 OpenAI 首席科學家 Ilya 都現身表達支援。員工們在信中敏銳地指出,戰爭部試圖用恐懼分化各家公司,這種策略只有在大家互不通氣時才會奏效。他們希望通過聯名建立共識,共同抵禦戰爭部的施壓。外部炮火連天之際,OpenAI 內部的價值觀撕裂也在急劇惡化。近期由美國移民與海關執法局人員引發的 Renee Nicole Good 和 Alex Pretti 槍擊事件,將這種內部矛盾徹底引爆。當 Anthropic 和Google DeepMind 的高管公開強烈譴責這些暴力事件時,OpenAI 高層卻顯得諱莫如深。Sam Altman 僅僅在內部 Slack 頻道中謹慎地表示事態有些過火,同時還不忘補充自己受到總統回應的鼓舞。現實利益與道德理想的碰撞,在 OpenAI 內部展現得淋漓盡致。全網抵制風暴席捲 QuitGPT 運動 將 Claude 推上神壇OpenAI 的虛偽做派和對暴力的冷漠,正在引發一場史無前例的信任危機與市場反噬。高管真金白銀的政治站隊徹底激怒了公眾,在外部引發了名為 QuitGPT 的浩大抗議運動。網友們直言不諱地指出,支援 OpenAI 就等於變相支援無底線的暴力執法和不受約束的大規模監控。OpenAI 引以為傲的龐大使用者基數此刻成為了他們最大的軟肋。根據 OpenAI 官方公佈的資料,ChatGPT 的周活躍使用者數已突破9億,個人訂閱使用者數超過 5000 萬,更有超過 900 萬付費企業使用者依賴其開展工作,Codex 的周活使用者也達到了 160 萬。https://openai.com/zh-Hans-CN/index/scaling-ai-for-everyone/廣大使用者在覺醒後意識到,他們支付的訂閱費,正通過高管的政治獻金,源源不斷地輸送給支援暴力執法和軍工複合體的政客。這極大地加速了解除安裝狂潮的蔓延。全網使用者已經開始用腳投票。在 X 和 Reddit 等平台上,網民們紛紛發帖號召全面抵制 ChatGPT。超過 70 萬人參與簽署了抵制協議,社交網路上充斥著解除安裝 ChatGPT 截圖和聲討 OpenAI 的帖子。在這股強大的自發性民意洪流推動下,大眾紛紛轉投守住底線的 Claude 懷抱。短短幾天內,Claude 的下載量呈爆炸式增長,直接沖上了 App Store 免費榜單的第一名。群眾的眼睛是雪亮的,用腳投票是他們對科技巨頭作惡與政治逢迎的最強力回擊。尾聲OpenAI 正在經歷一場深刻的蛻變,從一家在非營利光環下誕生的技術實驗室,徹底淪為一個深諳地緣政治與權力尋租的巨型商業帝國。在這個資本與強權交織的時代,技術的優劣早已退居二線,真正起決定作用的是誰更懂得華盛頓的潛規則。程式碼的黑盒最終向權力敞開了大門,技術也許能精確計算出改變世界的機率,卻永遠無法測算出人性與利益交織的深淵。 (新智元)