政經哲思維
筆記君說:
這段時間,你是不是也被各種AI新聞刷屏了?它已經從能和你聊得有來有回的智能助手,到一鍵生成電影級畫面的視訊工具,再到寫程式碼、做設計樣樣精通的“全能選手”。
更要命的是,這種力量不只用來寫文章、做圖、寫程式碼。它正在以我們看不懂的速度,攪動著國際局勢、地區安全、軍事對抗這些相當危險的領域。
世界好像突然被拉上了一個陌生而高速的賽道,規則還沒定,但比賽已經開始了。
就在這個節骨眼上,一本叫做《科技共和國》的書,讀起來格外扎心。它的作者之一,亞歷山大·卡普是“矽谷教父”彼得·蒂爾的密友,也是矽谷核心圈走出來的“叛徒”。他在書裡對所有矽谷科技精英階層發出警告:你們已經迷路了!
這本書的核心觀點是:一個國家、一個文明的強大,從來不是只靠技術先進(硬實力)就行,它還必須想清楚“為什麼而強大”(軟信仰)。美國之所以曾經偉大,是因為它能把造原子彈、送人登月這樣的技術壯舉,和一個關於國家使命、人類進步的宏大夢想擰成一股繩。
但現在,我們面對AI這個遠超我們人類智能的新物種時,尷尬地發現:我們的“硬實力”(技術)跑得飛快,但“軟信仰”(我們到底要用它來建設一個什麼樣的世界)卻嚴重掉隊,甚至一片空白。
《科技共和國》就像一本在岔路口被重新發現的地圖。它提醒我們,在焦慮“飯碗”會不會被AI搶走之前,或許更該問一個根本問題:我們人類,究竟想借由這股力量,把自己帶到那裡?
接下來我們就一起翻開這張地圖,看看歷史如何指引我們駕馭未來。
美國的科技黃金時代,就是造出原子彈、把人類送上月球的歲月,絕不是一群天才在實驗室裡靈光一閃的結果。
那是一場“能幹的雙手”和“敢想的大腦”之間,一場持續了幾十年的、目標明確的“雙向奔赴”。
1.硬實力:不只是“造出來”,更是“為了一個偉大的目標前進”
讓我們先看看“硬實力”這雙手。很多人以為,當年的成功只是因為聚集了一堆頂尖的科學家。這只說對了一半。更關鍵的是,他們被組織起來去幹一件具體、宏大、且大家公認至關重要的事。
比如,“曼哈頓計畫”。它的目標既簡單又殘酷:趕在納粹之前造出原子彈,終結戰爭。於是,政府、軍方、大學、企業擰在一起。物理學家、化學家、工程師、甚至冶金工人,從四面八方匯聚到荒漠中的秘密基地。
《科技共和國》的作者卡普認為,這種模式不像自由散漫的“集市”,而像建造一座宏偉的“大教堂”。每個工匠都知道自己在建造“大教堂”的那一部分,並且深信這座“大教堂”是值得奉獻的。
他們的協作,不是靠一份詳盡的中央指令,而是被一個至高無上的共同目標所牽引。科學家們各自埋頭苦幹,卻又通過共享的目標和緊迫感,神奇地協調一致,爆發出驚人的集體力量。
再看“阿波羅計畫”。甘迺迪總統那句“我們選擇在這十年間登上月球,並非因為它簡單,而恰恰因為它艱難”,就是給整個國家“硬實力”引擎注入的最強燃料。它不再僅僅是一個科技工程,而是一個凝聚全國信念的文化符號。
為了實現這個看似不可能的目標,催生出了數千項技術突破,從積體電路到耐熱材料,很多副產品至今仍在影響我們的生活。
那時的“硬”,硬在組織能力、攻堅決心和使命感。
2.軟信仰:給冰冷的機器,注入滾燙的靈魂
光有能幹的“雙手”還不夠。如果方向錯了,或者內心充滿矛盾,力量越大反而越危險。這就是“軟信仰”這個“大腦”出場的時候了。
美國在那個時代的“軟信仰”,可以概括為一種獨特的“工程思維”和“實用主義哲學”的混合體。
什麼是“工程思維”?它很親民:
盯著問題,別盯著論文:目標不是發表一篇完美的理論,而是解決一個實際難題。牆倒了?那就研究怎麼造一堵更堅固的。火箭飛不穩?那就一遍遍測試、修改,直到它能飛。
別光聽權威的,用事實說話:在工程現場,一個年輕技術員基於測試資料提出的反對意見,可能比資深教授的理論推演更有份量。這種“建設性不服從”是創新的源泉。
而“實用主義哲學”,則是這種思維在思想層面的昇華。
它的核心很簡單:甭管你概念多漂亮,理論多高深,最後都得看實際效果。能解決問題、創造美好生活的,才是好東西。這種哲學讓美國社會對新技術有一種天然的開放和樂觀,因為它不問“這符合規定嗎?”,而是問“這能讓我們的生活更好嗎?”
更關鍵的是,這種“軟信仰”不僅僅是口號,它實實在在地塑造了“硬實力”發展的軌跡和邊界。
科學家們知道,自己辛苦研製的終極武器,是為了“以戰止戰”,保衛他們珍視的自由價值。這種道德上的自洽,是他們能全力以赴的心理基礎。
儘管有冷戰對抗,但美蘇之間依然能達成一些核軍控協議,背後就有對“相互確保毀滅”這一恐怖現實的共同認知,這是一種基於後果評估的、粗糙但實用的倫理界限。
登陸月球、探索深海……這些需要耗費巨資且沒有直接經濟回報的壯舉,之所以能獲得公眾支援,是因為它們契合了那個時代“開拓邊疆、挑戰未知”的美國精神敘事。
所以,黃金時代的秘密,就在於“硬實力”與“軟信仰”這對引擎,轉速匹配、方向一致。
那時的人們,手裡握著改變世界的力量,眼裡看著星辰大海的遠方,心裡相信自己在從事一項光榮的事業。這種身、眼、心的統一,造就了一個至今讓人懷念的科技英雄時代。
然而,當冷戰結束後,技術發展的浪潮轉到了新的方向,這對黃金搭檔之間,開始出現了越來越大的裂痕。所以,我們有了今天在AI時代感到的諸多迷茫和焦慮。
站在AI爆發臨界點的今天,我們卻更像是一場華麗而失控的“閉眼狂奔”。
科技硬實力這雙“能幹的手”在演算法的加持下變得前所未有的靈巧和強大,但軟信仰這個“敢想的大腦”卻好像留在了上一個時代,甚至主動閉上了眼睛。這種失衡,非常危險。
1.硬實力的“歧路”
現在我們擁有的計算能力,已經超越了“曼哈頓計畫”時期全人類算力總和的億萬倍。但回頭看看,這些算力大部分去了那裡?
答案可能就在你的手機裡。世界上最複雜的人工神經網路,可能正在為你計算“下一個應該刷到什麼視訊,才能讓你多停留8秒鐘”;最先進的自然語言處理模型,可能在幫行銷號生成一千條“震驚體”標題;背後支撐這一切的伺服器叢集,可能消耗了一個小城鎮的電力。
矽谷掌握了堪比登月的技術力量(AI、巨量資料、全球網路),但其中大部分精英的雄心,卻收縮到了“如何更好地賣貨、送外賣”這個狹窄的賽道上。
我們正在把最聰明的大腦和最強大的技術,鎖在“讓人上癮”的消費主義循環裡,這意味著它們一定會從那些真正艱難但重要的領域撤出。
這可不是危言聳聽,而是正在發生的事實:
模擬氣候變化、發現新材料、攻克核聚變控制……這些關乎人類長遠命運的“大問題”,需要長期、耐心且未必有直接回報的AI投入,它們在與“下季度營收增長”的PK中,常常敗下陣來。
如何用AI最佳化城市交通、提升電網效率、預測公共安全風險?這些項目牽涉複雜的公共部門協作和資料開放,其“商業魅力”遠不如開發一款新的社交軟體。
這種“歧路”的本質,是科技硬實力的發展,與國家及人類社會的脫鉤。它不再是建造“大教堂”的合力,而是變成了無數個自娛自樂、爭奪流量的“精緻小攤”。
2.軟信仰的“真空”
更深的危機還不止硬科技跑錯了方向,更因為我們的哲學與價值觀不僅沒有糾正它,反而在給它加油鼓勁,就像拆掉了一輛車上的方向盤。
在今天的矽谷及全球科技圈,一種被稱為“有效加速主義”的思想,擁有大批信徒。
它的口號聽起來很極客、很帶感:“加速!不顧一切地加速技術發展!”他們認為,技術尤其是AI的進步是一種如同自然規律般的必然趨勢,任何試圖規範、約束它的行為都是徒勞甚至反動的。
最好的做法就是全力踩下油門,加速衝過當前的社會結構,抵達技術“奇點”後的新世界。
為什麼說這很危險?它把技術本身當作了目的和新的“上帝”,但拒絕回答下面這些根本問題:
我們加速,是為了奔向那裡?這個過程中,誰會被甩下車?抵達的“新世界”,是我們想要的嗎?這就好比說,“只要引擎夠猛,車開向懸崖也沒關係,說不定我們能飛起來呢!”這非常危險。
在“有效加速主義”的影響下,科技行業形成了一種“技術中立”的傲慢和“為多元而多元”的虛無主義。
工程師們常說“我的程式碼只是一把錘子,別人用它砸窗戶還是造房子,不關我事”。但設計演算法時嵌入的價值觀偏見(比如那些內容更優先),早就決定了“錘子”會揮向何方。
而且為了避免爭議,一些科技公司往往在表面議題上追求“政治正確”,但在核心的“公司權力是否過大”、“演算法是否在操縱社會”這些實質性問題上卻避而不談。
於是,我們進入了一個荒誕的境地:一邊,我們在以百米衝刺的速度,製造著智力上可能很快超越全人類的AI;另一邊,我們卻在用“加速主義”這塊布矇住眼睛,拒絕為它設計引導繩和監管紅線。
這種手腦分離的失衡,讓AI的崛起不僅是一次技術變革,更可能變成一場社會風險極高的“裸奔”。
前面我們說,現在的狀況是“手腦分離”:硬實力瞎跑,軟信仰睡覺。
但當AI這股力量真正站起來時,它帶來的衝擊,遠不止是“跑偏了”那麼簡單。它直接轉過身,對著我們人類“創造性”和“掌控力”這兩塊基石發起了直接挑戰。早晚有一天,AI會問我們:“你憑什麼當主人?”
1.創造性危機
長久以來,人類面對機器的優越感,建立在這樣一個信念上:機器負責重複,人類負責創造。但AI正在把這個信念砸得粉碎。
一個苦練了十年繪畫的畫師,一個熬夜改了七八稿文案的策劃,一個花了半年譜出一段旋律的音樂人,他們都曾經相信,自己傾注心血、帶有個性和靈感的作品,是機器無法複製的“靈魂”。
但現在,一個普通人,輸入幾行描述,點點滑鼠,就能在幾秒鐘內生成數十張畫作、幾十個文案、好幾段風格各異的音樂。雖然頂尖人類大師的作品目前仍有溫度和不可替代性,但對於行業中下游的廣大從業者來說,他們曾經安身立命的“手藝”,正在快速貶值。
這個過程,可以分三步來看:
① 從“輔助工具”到“創作夥伴”
早期的PS幫我們修圖,Word幫我們寫文件,它們是聽話的工具。但今天的AI,能幫你做選題、給你做市場報告、甚至給你輸出思維模型。
它從一個“執行者”,變成了一個能提供想法的“合作夥伴”。
② 再到“潛在競爭者”
當AI產出的設計稿、法律檔案草稿、行銷方案達到了“能用”甚至“好用”水平時,它就不再僅僅是夥伴。
老闆和客戶會想:我是否還需要為一個良好的人類作品,支付遠高於良好AI作品的成本?這直接動搖了大量知識型、創意型職業的經濟基礎。
③ 最終是“存在性挑戰”
這引出了一個更哲學也更致命的問題:如果創作不再困難,那創造本身的價值是什麼?當人人都能“創作”時,“創作者”這個身份還意味著什麼?
人類曾用“創造性”來定義自己區別於動物的高貴,現在,我們可能需要尋找一個新的、不會被機器輕易複製的“人性核心”。這種自我認知的動搖,是比失業更深的焦慮。
2.秩序顛覆者
上面說的創造性危機是在衝擊個人的價值和行業。但更讓人憂慮的是AI對全球秩序的挑戰,這是在動搖國家之間博弈的棋盤,而且把棋盤從明面挪到了暗處,規則全改了。
過去,大國競爭的硬指標很直觀:你有多少航母,多少核彈頭,GDP多少。這些是“明牌的實力”。但AI帶來的,是一手“暗牌的破壞力”,它讓攻擊變得極其廉價、隱蔽且不可預知。
① 全民皆可“搞破壞”的降維打擊
以前,發動一場癱瘓城市電網的網路攻擊,可能需要一個國家級的專業駭客團隊。現在,一個技術團夥甚至個人,利用公開的AI工具輔助,就可能找到並利用系統的漏洞。
AI極大地降低了進行複雜網路攻擊的技術門檻。它就像把導彈按鈕,分發給了無數看不見的手。
② 讓社會“自我懷疑”的資訊瘟疫
Deepfake(深度偽造)技術,在AI的幫助下已經真假難辨。它可以憑空製造一場政治人物的演講,一段能夠引發市場恐慌的CEO言論,或是一段發生在別國的“暴行”視訊。
當我們沒辦法相信任何看到的東西,社會共同的“事實基礎”就會崩塌。這種攻擊不直接摧毀建築,卻能在更短時間內,摧毀一個社會賴以運行的信任紐帶,對手甚至不用派一兵一卒。
③ 無法預測的“自主幽靈”
想像一下,一個搭載AI的無人機群,被傳達“摧毀所有雷達站”的命令後,自行規劃路線、識別目標、發動攻擊,並在過程中自主應對突發情況。而且一旦部署,人類操作員可能無法即時干預。
如果多個國家的自主系統發生意外對抗,它們可能會以人類無法理解的速度和邏輯,將世界拖入衝突。這不再是武器,而是被賦予了殺戮權力的自主幽靈。
總結來說,這些威脅之所以“顛覆”,是因為它們讓傳統的防禦和威懾體系(如軍隊、邊界、核威懾)部分失效。一個普通人在自己的家裡,可能就對國家安全構成潛在威脅;一段假視訊的破壞力,可能超過一次真實的武裝衝突。
AI的崛起,讓人類個體的“創造性”失效了,又讓國家間“硬實力”對抗的擂台,變成了一個規則模糊、暗器橫行的黑暗森林。
我們面臨的,不再是如何使用一個好工具的問題,而是如何與一個能力上可能超越我們,而且行動邏輯不完全受控的“新物種”共處的問題。
於是,我們被逼到了牆角,必須開始思考重建秩序的道路。
面對AI,恐慌和抱怨沒有用,簡單地喊“停下”更不現實。這就像我們不可能因為汽車可能出車禍,就回到馬車時代一樣。問題的關鍵,不是丟掉引擎,而是我們必須以最快的速度,為它裝上我們丟掉的倫理與規則,還有目標與使命。
重建“科技共和國”,就是要讓狂奔的硬實力,重新聽命於一個更新、更智慧的“大腦”。
1.硬實力的轉向
我們不能指望追逐利潤的市場,自發地把資源投向那些最重要但不賺錢的領域。這時,就需要找回一些“黃金時代”的組織智慧:由國家和社會凝聚共識,發起“使命導向”的超級項目。
比如,集中頂尖AI算力與生物學家,目標是在10年內,建立能模擬所有已知病毒變異、並即時設計對應疫苗和藥物的預測系統。
又比如,利用AI超強模擬能力,整合全球大氣、海洋、地質資料,目標不僅是預測氣候,更是精密模擬各類干預方案的全球連鎖效應,為全球氣候治理提供前所未有的決策依據。
這些計畫的核心,是重新定義“科技硬實力”的賽場。攻克它們帶來的意義,遠勝於在“讓人上癮”的消費應用裡內卷。
政府的作用,是成為最初的“出題人”和“天使投資人”,引導社會與市場的巨量資源轉向。
2.軟信仰的重塑
光有項目不夠,我們必須同時回答:這些強大的力量,應該在什麼樣的規則下運行?我們需要一場給AI時代訂立一份粗糙但必須有的初始社會契約。這份契約至少要回答三個問題:
① AI是什麼?
我們必須超越“工具論”和“物種論”的爭吵,達成一個務實的共識:AI是“具有自主性的新型行動者”。這意味著,我們必須像規範駕駛員、醫生或公司法人一樣,給它的行為建立可追溯、可問責的責任框架。
比如,一個AI醫療診斷系統出錯,責任是開發者、營運商、稽核醫生,還是演算法本身?法律必須清晰。
② 什麼是絕對禁止的?
有些底線需要全球性的“技術禁忌”,就像禁止生化武器一樣。例如,“自動化致命武器系統”是否應被全面禁止?能否把深度偽造技術用於政治、司法領域?這些紅線需要公開辯論,並儘可能形成國際條約。它可能不完美,但劃了紅線,才有博弈的規則。
③ AI發展的終點是“超人”,還是“超人化的人類”?
這是最根本的哲學問題。科技加速主義的終點是模糊的“奇點”,但我們需要知道:AI發展的終極目的,應該是增強而不是取代人類。
它應該讓人類醫生在AI輔助下成為“超級診斷專家”,而不是用AI淘汰醫生;讓每個孩子擁有AI導師因材施教,而不是用標準化教學AI製造教育流水線。這個目標聽起來不酷,但它確保技術發展的盡頭,依然是人。
這份“契約”的制定過程本身,就是重建“軟信仰”的過程。它需要工程師、哲學家、律師、政策制定者和普通公民的共同參與,是一場全球社會的技術理性大啟蒙。
3.新人類的培養
最終的改變,要落在“人”身上。未來的勞動者,尤其是決策者,必須具備一種全新的素養。
第一,要成為“提問者”和“批判者”,而不是“答題者”
AI最擅長回答清晰定義的問題。因此,人類的優勢將在於發現和定義真問題。未來的教育,應大幅減少死記硬背和標準答案,轉而訓練學生如何從複雜現象中抽象出關鍵問題,並判斷那些問題值得交給AI去解決。
同時,必須培養對AI輸出的健康質疑能力:這個結果背後的資料有沒有偏見?邏輯有沒有漏洞?
第二,要成為“指揮官”和“翻譯官”。
未來最稀缺的人才,是那些能站在人類需求與AI能力交界處的人。
他們既懂醫療、法律、教育等領域的真實痛點,又懂AI的能力與侷限,能精準地將人類模糊的需求“翻譯”成AI可以執行的任務。他們不親手寫程式碼,但他們是AI團隊的指揮官。
第三,要堅守“價值判斷”的終極權力
AI能告訴你那條路最快、最省錢,但它無法告訴你“我們應該去那”。
當AI給你10個最優的商業方案時,你最終選擇那一個,應該依據“它是否促進社會公平”、“是否環境友好”、“是否符合公司長期價值觀”等人類的價值準則。讓人類保持最終的價值判斷權,是我們防止被技術反噬的最後一道防火牆。
重建之路總結起來,是一個“三位一體”的系統工程:用國家級“大項目”重塑硬實力的方向;用全球性“大辯論”和“新契約”重塑軟信仰的共識;再用面向未來的“新教育”重塑人類的自身能力。
這條路並不容易走,充滿了利益博弈和觀念衝突,但這是唯一的路。這是為了開創一個全人類都能參與定義、並在AI賦能下共同繁榮的“新科技文明”。
我們現在要做的,就是為這個充滿不確定的未來,儘可能多地埋下確定性的、向善的種子。
站在AI時代的岔路口,我們面臨的是人類歷史上“一萬年未有之大變局”。
我們必須想清楚:是讓技術成為放大分歧、製造失控的利刃,還是把它鍛造成拓展文明邊界的基石?
在這場挑戰裡,主角不是只有美國,中國的作用也至關重要,且無可替代。
中國不僅擁有全球最龐大的應用場景、最完整的產業鏈和強大的技術攻關能力,更擁有“以人民為中心”、“建構人類命運共同體”等深厚的治理哲學與文化理念。
這為中國在AI時代探索一條發展與治理並重、效率與公平兼顧、技術向善與安全可控相結合的新路,提供了獨特可能。
中國的責任與實踐,將不僅是發展自己的AI,更是與世界各國一起,為這個尚未定型的新世界,共同注入包容、負責、以人為本的價值觀。這或許正是在未來重建一個真正屬於全人類的、可持續的“科技共和國”最需要的關鍵拼圖。
未來決定現在。看清未來將發生什麼,才能真正明白當下應該做什麼。
我們認為,未來由四個關鍵領域塑造:哲學、AI科技、經濟與政治。
為什麼是這四個?
哲學是元起點,是意義與方向的錨點,為一切行動提供終極燃料;
科技(尤其是AI)是文明進步的底座,是驅動世界向前的“發動機”;
經濟是轉化器,它把科技力量轉化為真實的財富與市場機會;
政治是適配性結構,它給哲學、科技與經濟提供運行框架與秩序。
哲學為根,科技為器,經濟為用,政治為治。這四者環環相扣,層層支撐,相互交織,在動態的演進中共同推動現實走向未來。
正是在這樣的時代背景下,筆記俠創立了中國首個面向企業家的PPE(政治、經濟、哲學)書院。
我們致力於幫助大家回到決策的源頭,重構底層認知邏輯,掌握未來五年的核心判斷與決策能力。
如今,眾多深耕於AI、全球化等前沿領域的優秀創業者,都已加入筆記俠PPE書院。
未來已來,讓我們一起成為清醒而篤定的決策者。 (筆記俠)